Hive基础知识(十八):Hive 函数的使用

news2024/11/18 3:46:28

1. 系统内置函数

1)查看系统自带的函数

hive (hive3)> show functions;
Time taken: 0.085 seconds, Fetched: 289 row(s)

2)显示自带的函数的用法

hive (hive3)>  desc function upper;
OK
tab_name
upper(str)- Returns str with all characters changed to uppercase
Time taken: 0.107 seconds, Fetched: 1 row(s)

3)详细显示自带的函数的用法

hive (hive3)>  desc function upper;
OK
tab_name
upper(str)- Returns str with all characters changed to uppercase
Time taken: 0.107 seconds, Fetched: 1 row(s)
hive (hive3)> desc function extended upper;
OK
tab_name
upper(str)- Returns str with all characters changed to uppercase
Synonyms: ucase
Example:
> SELECT upper('Facebook') FROM src LIMIT 1;
'FACEBOOK'
Function class:org.apache.hadoop.hive.ql.udf.generic.GenericUDFUpper
Function type:BUILTIN
Time taken: 0.049 seconds, Fetched: 7 row(s)

2. 常用内置函数

2.1 空字段赋值

1)函数说明

NVL:给值为 NULL 的数据赋值,它的格式是 NVL( value,default_value)。它的功能是如果 value 为 NULL,则 NVL 函数返回 default_value 的值,否则返回 value 的值,如果两个参数都为 NULL ,则返回 NULL。

2)查询:如果员工的 comm 为 NULL,则用-1 代替

hive (hive3)> select ename,comm,nvl(comm,-1) from emp;
OK
ename  comm  _c2
SMITH  NULL -1.0
ALLEN 300.0 300.0
WARD 500.0 500.0
JONES  NULL -1.0
MARTIN 1400.0 1400.0
BLAKE  NULL -1.0
CLARK  NULL -1.0
SCOTT  NULL -1.0
KING 10.0 10.0
TURNER 0.0 0.0
ADAMS  NULL -1.0
JAMES  NULL -1.0
FORD  NULL -1.0
MILLER  NULL -1.0
Time taken: 0.184 seconds, Fetched: 14 row(s)

3)查询:如果员工的 comm 为 NULL,则用领导 id 代替

hive (hive3)> select comm, nvl(comm,mgr) from emp;
OK
comm  _c1
NULL 7902.0
300.0 300.0
500.0 500.0
NULL 7839.0
1400.0 1400.0
NULL 7839.0
NULL 7839.0
NULL 7566.0
10.0 10.0
0.0 0.0
NULL 7788.0
NULL 7698.0
NULL 7566.0
NULL 7782.0
Time taken: 0.242 seconds, Fetched: 14 row(s)

2.2 CASE WHEN THEN ELSE END

UDF:一进一出,UDAF:多进多出,UDTF:一进多出

1)数据准备

悟空 A 男
大海 A 男
宋宋 B 男
凤姐 A 女
婷姐 B 女
婷婷 B 女

2)需求

求出不同部门男女各多少人。结果如下:

dept_Id 男女
A 2 1
B 1 2

3)创建本地 emp_sex.txt,导入数据

[root@hadoop102 datas]$ vi emp_sex.txt
悟空 A 男
大海 A 男
宋宋 B 男
凤姐 A 女
婷姐 B 女
婷婷 B 女
4)创建 hive 表并导入数据
hive (hive3)> create table emp_sex(name string,dept_id string,sex string) row format delimited fields terminated by '';
OK
Time taken: 0.105 seconds
hive (hive3)> load data local inpath '/home/root/hive/emp_sex.txt' into table emp_sex;
Loading data to table hive3.emp_sex
OK
Time taken: 0.431 seconds

5)按需求查询数据

select dept_id,sum(case sex when '男' then 1 else 0 end) maleCount,sum(case sex when '女' then 1 else 0 end) femaleCount from emp_sex group by dept_id;
dept_id malecount  femalecount
A 2 1
B 1 2
Time taken: 39.575 seconds, Fetched: 2 row(s)

更换一种查询方式

hive (hive3)> select dept_id,sum(if(sex='男',1,0)) maleCount,sum(if(sex='女',1,0)) femaleCount from emp_sex group by dept_id;
dept_id malecount  femalecount
A 2 1
B 1 2
Time taken: 36.895 seconds, Fetched: 2 row(s)

2.3 行转列

1)相关函数说明

CONCAT(string A/col, string B/col…):返回输入字符串连接后的结果,支持任意个输入字符串;

hive (hive3)> select concat(ename,sal) from emp;
OK
_c0
SMITH800.0
ALLEN1600.0
WARD1250.0
JONES2975.0
MARTIN1250.0
BLAKE2850.0
CLARK2450.0
SCOTT3000.0
NULL
TURNER1500.0
ADAMS1100.0
JAMES950.0
FORD3000.0
MILLER1300.0
Time taken: 1.07 seconds, Fetched: 14 row(s)

CONCAT_WS(separator, str1, str2,...):它是一个特殊形式的 CONCAT()。第一个参数剩余参数间的分隔符。分隔符可以是与剩余参数一样的字符串。如果分隔符是 NULL,返回值也将为 NULL。这个函数会跳过分隔符参数后的任何 NULL 和空字符串。分隔符将被加到被连接的字符串之间;

注意: CONCAT_WS must be "string or array

hive (hive3)> select concat_ws('-',ename,job,hiredate) from emp;
OK
_c0
SMITH-CLERK-1980-12-17
ALLEN-SALESMAN-1981-2-20
WARD-SALESMAN-1981-2-22
JONES-MANAGER-1981-4-2
MARTIN-SALESMAN-1981-9-28
BLAKE-MANAGER-1981-5-1
CLARK-MANAGER-1981-6-9
SCOTT-ANALYST-1987-4-19
KING-PRESIDENT-5000.00
TURNER-SALESMAN-1981-9-8
ADAMS-CLERK-1987-5-23
JAMES-CLERK-1981-12-3
FORD-ANALYST-1981-12-3
MILLER-CLERK-1982-1-23
Time taken: 0.249 seconds, Fetched: 14 row(s)

COLLECT_SET(col):函数只接受基本数据类型,它的主要作用是将某字段的值进行去重汇总,产生 Array 类型字段。

hive (hive3)> select collect_set(id) from emp;
Total MapReduce CPU Time Spent: 3 seconds 620 msec
OK
_c0
[1001,1002,1111]
Time taken: 37.866 seconds, Fetched: 1 row(s)
hive (hive3)> select collect_list(id) from student;
 

2)数据准备

[root@hadoop100 hive]$ vim person_info.txt
孙悟空白羊座 A
大海射手座 A
宋宋白羊座 B
猪八戒白羊座 A
凤姐射手座 A
苍老师白羊座 B


孙悟空白羊座 A
大海射手座 A
宋宋白羊座 B
猪八戒白羊座 A
凤姐射手座 A
苍老师白羊座 B

3)需求

把星座和血型一样的人归类到一起。结果如下:

射手座,A 大海|凤姐
白羊座,A 孙悟空|猪八戒
白羊座,B 宋宋|苍老师

4)创建 hive 表并导入数据

hive (hive3)> create table person_info(name string,constellation string,blood_type string) row format delimited fields terminated by '';
OK
Time taken: 0.293 seconds
hive (hive3)> load data local inpath '/home/root/hive/person_info.txt' into table person_info;
Loading data to table hive3.person_info
OK
Time taken: 0.362 seconds

6)按需求查询数据

select
 concat(constellation,',',blood_type) cb,
 name
 from person_info;
#-----------进化------------
 select t1.cb,collect_set(t1.name) from 
(select concat(constellation,',',blood_type) cb,name from person_info) t1 
 group by t1.cb;
​
 OK
t1.cb  _c1
射手座,A ["大海","凤姐"]
白羊座,A ["孙悟空","猪八戒"]
白羊座,B ["宋宋","苍老师"]
Time taken: 38.329 seconds, Fetched: 3 row(s)
#-----------再次进化------------
 select t1.cb,concat_ws('|',collect_set(t1.name)) from 
(select concat(constellation,',',blood_type) cb,name from person_info) t1 
 group by t1.cb;
​
 OK
t1.cb  _c1
射手座,A 大海|凤姐
白羊座,A 孙悟空|猪八戒
白羊座,B 宋宋|苍老师
Time taken: 29.741 seconds, Fetched: 3 row(s)

2.4 列转行

1)函数说明

EXPLODE(col):将 hive 一列中复杂的 Array 或者 Map 结构拆分成多行。

LATERAL VIEW:侧写

用法:LATERAL VIEW udtf(expression) tableAlias AS columnAlias

解释:用于和 split, explode 等 UDTF 一起使用,它能够将一列数据拆成多行数据,在此基础上可以对拆分后的数据进行聚合。

2)数据准备

《疑犯追踪》-悬疑,动作,科幻,剧情
《Lie to me》-悬疑,警匪,动作,心理,剧情
《战狼2》-战争,动作,灾难

3)需求

将电影分类中的数组数据展开。结果如下:

4)创建本地 movie.txt,导入数据

[root@hadoop100 bin]$ vi movie.txt
《疑犯追踪》-悬疑,动作,科幻,剧情
《Lie to me》-悬疑,警匪,动作,心理,剧情
《战狼2》-战争,动作,灾难

5)创建 hive 表并导入数据

hive (hive3)> create table movie_info(movie string,category string)row format delimited fields terminated by '-';
OK
Time taken: 1.671 seconds
hive (hive3)> load data local inpath '/home/root/hive/movie.txt' into table movie_info;
Loading data to table hive3.movie_info
OK
Time taken: 1.103 seconds

6)按需求查询数据

#先切开城数组
hive (hive3)> select split(category,",") from movie_info;
OK
_c0
["悬疑","动作","科幻","剧情"]
["悬疑","警匪","动作","心理","剧情"]
["战争","动作","灾难"]
Time taken: 0.828 seconds, Fetched: 3 row(s)
#切成数组之后再展开
hive (hive3)> select explode(split(category,",")) from movie_info;
OK
col
悬疑
动作
科幻
剧情
悬疑
警匪
动作
心理
剧情
战争
动作
灾难
Time taken: 0.223 seconds, Fetched: 12 row(s)
#需要使用侧写关联电影名
hive (hive3)> select movie,category_name
> from movie_info
> lateral VIEW explode(split(category,",")) movie_info_tmp as category_name;
OK
movie  category_name
《疑犯追踪》悬疑
《疑犯追踪》动作
《疑犯追踪》科幻
《疑犯追踪》剧情
《Lie to me》悬疑
《Lie to me》警匪
《Lie to me》动作
《Lie to me》心理
《Lie to me》剧情
《战狼2》战争
《战狼2》动作
《战狼2》灾难
Time taken: 0.15 seconds, Fetched: 12 row(s)

2.4 窗口函数(开窗函数)

1)相关函数说明

OVER():指定分析函数工作的数据窗口大小,这个数据窗口大小可能会随着行的变而变化。

CURRENT ROW:当前行

n PRECEDING:往前 n 行数据

n FOLLOWING:往后 n 行数据

UNBOUNDED:起点,

UNBOUNDED PRECEDING 表示从前面的起点,

UNBOUNDED FOLLOWING 表示到后面的终点

LAG(col,n,default_val):往前第 n 行数据

LEAD(col,n, default_val):往后第 n 行数据

NTILE(n):把有序窗口的行分发到指定数据的组中,各个组有编号,编号从1 开始,对于每一行,NTILE 返回此行所属的组的编号。注意:n 必须为 int 类型

2)数据准备:name,orderdate,cost

jack,2017-01-01,10
tony,2017-01-02,15
jack,2017-02-03,23
tony,2017-01-04,29
jack,2017-01-05,46
jack,2017-04-06,42
tony,2017-01-07,50
jack,2017-01-08,55
mart,2017-04-08,62
mart,2017-04-09,68
neil,2017-05-10,12
mart,2017-04-11,75
neil,2017-06-12,80
mart,2017-04-13,94

3)需求

(1)查询在2017 年4 月份购买过的顾客及总人数

(2)查询顾客的购买明细及月购买总额

(3)上述的场景,将每个顾客的 cost 按照日期进行累加

(4)查询每个顾客上次的购买时间

(5)查询前20%时间的订单信息

4)创建本地 business.txt,导入数据

jack,2017-01-01,10
tony,2017-01-02,15
jack,2017-02-03,23
tony,2017-01-04,29
jack,2017-01-05,46
jack,2017-04-06,42
tony,2017-01-07,50
jack,2017-01-08,55
mart,2017-04-08,62
mart,2017-04-09,68
neil,2017-05-10,12
mart,2017-04-11,75
neil,2017-06-12,80
mart,2017-04-13,94

5)创建 hive 表并导入数据

hive (hive3)> create table business(name string,orderdate string,cose int) row format delimited fields terminated by ',';
OK
Time taken: 0.127 seconds
hive (hive3)> load data local inpath '/home/root/hive/business.txt' into table business;
Loading data to table hive3.business
OK
Time taken: 0.31 seconds

6)按需求查询数据

(1)查询在2017 年4 月份购买过的顾客及总人数

#先找出2017-04购物的人员信息
hive (hive3)> select * from business where substring(orderdate,0,7)= '2017-04';
business.name  business.orderdate  business.cose
jack 2017-04-06 42
mart 2017-04-08 62
mart 2017-04-09 68
mart 2017-04-11 75
mart 2017-04-13 94
Time taken: 0.298 seconds, Fetched: 5 row(s)
#直接使用over
select name,count(*) over ()
from business
where substring(orderdate,1,7)= '2017-04'
group by name;

这里的over()可以理解为进行赋值,如果()里面没有值,那么就按照前面字段的值对每一行进行赋值。

(2)将每个顾客的 cost 按照日期进行累加

方法一:再over里面group by

hive (hive3)> select name,orderdate,cose,sum(cose) over(partition by name order by orderdate) from business;
Query ID = root_20211220101500_4d0b26bf-504a-4fac-941d-aef9c90861ae
name  orderdate  cose  sum_window_0
jack 2017-01-01 10 10
jack 2017-01-05 46 56
jack 2017-01-08 55 111
jack 2017-02-03 23 134
jack 2017-04-06 42 176
mart 2017-04-08 62 62
mart 2017-04-09 68 130
mart 2017-04-11 75 205
mart 2017-04-13 94 299
neil 2017-05-10 12 12
neil 2017-06-12 80 92
tony 2017-01-02 15 15
tony 2017-01-04 29 44
tony 2017-01-07 50 94
Time taken: 30.275 seconds, Fetched: 14 row(s)
select name,orderdate,cost,
sum(cost) over() as sample1,--所有行相加
sum(cost) over(partition by name) as sample2,--按 name 分组,组内数据相加
sum(cost) over(partition by name order by orderdate) as sample3,--按 name
分组,组内数据累加
sum(cost) over(partition by name order by orderdate rows between 
UNBOUNDED PRECEDING and current row ) as sample4 ,--和 sample3 一样,由起点到
当前行的聚合
sum(cost) over(partition by name order by orderdate rows between 1 
PRECEDING and current row) as sample5,--当前行和前面一行做聚合
sum(cost) over(partition by name order by orderdate rows between 1 
PRECEDING AND 1 FOLLOWING ) as sample6,--当前行和前边一行及后面一行
sum(cost) over(partition by name order by orderdate rows between current 
row and UNBOUNDED FOLLOWING ) as sample7 --当前行及后面所有行
from business;

rows 必须跟在 order by 子句之后,对排序的结果进行限制,使用固定的行数来限制分区中的数据行数量。

(3)查看顾客上次的购买时间

hive (hive3)> select name,orderdate,lag(orderdate,1) over(partition by name order by orderdate) from business;
Query ID = root_20211220110225_469d7d71-0dc7-4e34-be38-466b10dda527
OK
name  orderdate  lag_window_0
jack 2017-01-01  NULL
jack 2017-01-05 2017-01-01
jack 2017-01-08 2017-01-05
jack 2017-02-03 2017-01-08
jack 2017-04-06 2017-02-03
mart 2017-04-08  NULL
mart 2017-04-09 2017-04-08
mart 2017-04-11 2017-04-09
mart 2017-04-13 2017-04-11
neil 2017-05-10  NULL
neil 2017-06-12 2017-05-10
tony 2017-01-02  NULL
tony 2017-01-04 2017-01-02
tony 2017-01-07 2017-01-04
Time taken: 28.747 seconds, Fetched: 14 row(s)

(4)查询前20%时间的订单信息

hive (hive3)> select name,orderdate,cose,ntile(5) over(order by orderdate) groupId from business;
name  orderdate  cose  groupid
jack 2017-01-01 10 1
tony 2017-01-02 15 1
tony 2017-01-04 29 1
jack 2017-01-05 46 2
tony 2017-01-07 50 2
jack 2017-01-08 55 2
jack 2017-02-03 23 3
jack 2017-04-06 42 3
mart 2017-04-08 62 3
mart 2017-04-09 68 4
mart 2017-04-11 75 4
mart 2017-04-13 94 4
neil 2017-05-10 12 5
neil 2017-06-12 80 5
Time taken: 27.289 seconds, Fetched: 14 row(s)
select name,orderdate,cose
 from 
(select name,orderdate,cose,ntile(5) over(order by orderdate) groupId from business) t1
 where t1.groupId = 1;
#获取前20%
 hive (hive3)> select name,orderdate,cose
>  from 
> (select name,orderdate,cose,ntile(5) over(order by orderdate) groupId from business) t1
>  where t1.groupId = 1;
Query ID = root_20211220112433_9da80326-137a-47db-9390-03fcbdaa2e23
OK
name  orderdate  cose
jack 2017-01-01 10
tony 2017-01-02 15
tony 2017-01-04 29
Time taken: 28.922 seconds, Fetched: 3 row(s)

2.5 Rank

1)函数说明

RANK()排序相同时会重复,总数不会变

DENSE_RANK()排序相同时会重复,总数会减少

ROW_NUMBER()会根据顺序计算

2)数据准备

孙悟空语文 87
孙悟空数学 95
孙悟空英语 68
大海语文 94
大海数学 56
大海英语 84
宋宋语文 64
宋宋数学 86
宋宋英语 84
婷婷语文 65
婷婷数学 85
婷婷英语 78

3)需求

计算每门学科成绩排名。

4)创建本地 score.txt,导入数据

[root@hadoop100 hive]$ vim score.txt
孙悟空语文 87
孙悟空数学 95
孙悟空英语 68
大海语文 94
大海数学 56
大海英语 84
宋宋语文 64
宋宋数学 86
宋宋英语 84
婷婷语文 65
婷婷数学 85
婷婷英语 78

5)创建 hive 表并导入数据

hive (hive3)> create table score(name string,subject string,score int)row format delimited fields terminated by '';
OK
Time taken: 5.288 seconds
hive (hive3)> load data local inpath '/home/root/hive/score.txt' into table score;
Loading data to table hive3.score
OK
Time taken: 3.227 seconds

6)按需求查询数据

hive (hive3)> select *,rank() over(partition by subject order by score desc) from score;
score.name  score.subject  score.score  rank_window_0
大海数学 56 1
婷婷数学 85 2
宋宋数学 86 3
孙悟空数学 95 4
孙悟空英语 68 1
婷婷英语 78 2
宋宋英语 84 3
大海英语 84 3
宋宋语文 64 1
婷婷语文 65 2
孙悟空语文 87 3
大海语文 94 4
Time taken: 63.935 seconds, Fetched: 12 row(s)
扩展:求出每门学科前三名的学生?

hive (hive3)> select *
> from
> (select *,rank() over(partition by subject order by score) tk from score) t1
> where tk<=3;
Query ID = root_20211220154153_5acd7d2b-d9aa-479c-8bf0-dfedfdc517db
OK
t1.name t1.subject  t1.score  t1.tk
大海数学56 1
婷婷数学85 2
宋宋数学86 3
孙悟空英语68 1
婷婷英语78 2
大海英语84 3
宋宋英语84 3
宋宋语文64 1
婷婷语文65 2
孙悟空语文87 3
Time taken: 68.69 seconds, Fetched: 10 row(s)

                

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1858763.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

this.$prompt 提示框增加文本域并修改文本域高度

2024.06.24今天我学习了如何对提示框增加文本域的方法&#xff0c;效果如下&#xff1a; 代码如下&#xff1a; <script>methods:{reject_event(){this.$prompt(驳回内容, 提示, {confirmButtonText: 确定,cancelButtonText: 取消,inputType: textarea,inputPlaceholder…

手工微调embedding模型,让RAG应用检索能力更强

BAAI/bge-small-en 目前HuggingFace的MTEB(海量文本Embedding基准)排行榜上排名第一的Embedding模型是big-large-en&#xff0c;它由北京人工智能研究院(BAAI&#xff0c;智源)开发。它是一种预训练的transformer模型&#xff0c;可用于各种自然语言处理任务&#xff0c;如文本…

Elasticsearch 索引与文档操作实践指南

上节我们部署了elasticsearch8.4.1和kibana8.4.1以及ik分词器&#xff0c;本节我们来学习下elasticsearch的相关索引&#xff0c;文档操作。 首先我们kinana的主界面找到开发者工具在里面我们来编写相关操作。 标题查看集群情况 GET /_cluster/health详细解释&#xff1a; …

一切前端概念,都是纸老虎

4、listener可以通过 store.getState() 得到当前状态。如果使用的是 React&#xff0c;这时可以触发重新渲染 View。 function listerner() { let newState store.getState(); component.setState(newState); } 对比 Flux 和 Flux 比较一下&#xff1a;Flux 中 Store 是…

机器人控制系列教程之串联机器人工作空间

简介 在机器人学领域&#xff0c;对机器人工作空间的精确分析是实现高效、安全操作的关键。工作空间是指机器人末端执行器在不与环境或其他物体发生碰撞的情况下能够到达的所有位置的集合。为了求解这一空间&#xff0c;研究者们发展了多种方法&#xff0c;包括作图法、蒙特卡…

【因果推断python】53_效应异质性和非线性带来的挑战1

目录 Treatment Effects on Binary Outcomes 合成一些数据 由于缺乏基本事实&#xff0c;在单位层面预测治疗效果极为困难。因为我们只能观察到一个潜在结果 T(t) &#xff0c;我们无法直接估计它。相反&#xff0c;我们必须依靠目标变换&#xff08;也可以看作是设计巧妙的损…

基于Pytorch框架构建ResNet模型

Pytorch 一、训练模型1.导入资源包2.定义数据预处理3.读取数据 二、定义卷积神经网络1.导入必要的库2.定义名为convolutional_block的卷积块类3.定义了一个名为identity_block的恒等块类4.定义了一个名为Resnet的深度卷积神经网络类 三、创建模型1. 检查GPU设备2. 训练过程 四、…

编译原理大题自解(活前缀DFA、LR(0)分析表)

目录 4. (简答题) &#xff08;1&#xff09;给出识别活前缀的DFA &#xff08;2&#xff09;设计此文法的 LR(0)分析表 第一种解法 第二种解放 首先声明这是作者的写法&#xff08;不保证正确&#xff01;&#xff09;仅供参考。本题因为可能存在冲突的原因&#xff0c;所…

【C语言小例程26/100】

题目&#xff1a;有一分数序列&#xff1a;2/1&#xff0c;3/2&#xff0c;5/3&#xff0c;8/5&#xff0c;13/8&#xff0c;21/13...求出这个数列的前20项之和。 程序分析&#xff1a;请抓住分子与分母的变化规律。 程序源代码&#xff1a; #include <stdio.h>int ma…

windows上运行arm32架构的安卓模拟器

说明 主要功能&#xff1a;在win10上研究和学习32位arm汇编指令的执行 环境如下 主机环境: windows10 目标模拟器环境:armeabi-v7a调试环境搭建 1、下载android studio 下载地址&#xff1a;https://developer.android.com/studio?hlzh-cn 2、安装android studio 直接下…

互联网应用主流框架整合之Spring Boot开发

Spring Boot数据库开发 通常SpringBoot数据库开发&#xff0c;会引入spring-boot-starter-jdbc&#xff0c;而如果引入了spring-boot-starter-jdbc&#xff0c;但没有可用的数据源或者没有配置&#xff0c;那么在运行Spring Boot时会出现异常&#xff0c;因为spring-boot-star…

思考-生涯思考-GPT-5对人们的影响

GPT-5 一年半后发布&#xff1f;对此你有何期待&#xff1f; IT之家6月22日消息&#xff0c;在美国达特茅斯工程学院周四公布的采访中&#xff0c;OpenAI首席技术官米拉穆拉蒂被问及GPT-5是否会在明年发布&#xff0c;给出了肯定答案并表示将在一年半后发布。此外&#xff0c;…

Java知识点整理 11— 后端 Spring Boot 万用初始化模板使用

一. 模块简介 annotation&#xff1a;自定义注解aop&#xff1a;请求日志和权限校验common&#xff1a;通用类config&#xff1a;配置类constant&#xff1a;常量 controller&#xff1a;控制层esdao&#xff1a;方便操作ESexception&#xff1a;异常类job&#xff1a;定时任务…

企业邮箱老板如何看员工邮件往来记录

员工离职&#xff0c;删除邮箱内重要邮件&#xff1f;已删除的邮件能否恢复&#xff1f;企业邮箱老板如何查看员工邮件的往来记录呢&#xff1f;本篇文章将为您详细介绍企业邮件自动备份的原理以及邮箱内的设置方法。 一、为何查看员工邮件往来记录&#xff1f; 企业邮箱关乎…

了解SD-WAN与传统WAN的区别

近年来&#xff0c;许多企业选择了SD-WAN作为他们的网络解决方案。云基础架构的SD-WAN不仅具备成本效益&#xff0c;而且提供更安全、更可靠的WAN连接&#xff0c;有助于实现持续盈利。客户能够更好地控制他们的网络&#xff0c;个性化定制且无需额外成本。 那么&#xff0c;为…

第二十八篇——复盘:世界不完美,我们该怎么办?

目录 一、背景介绍二、思路&方案三、过程1.思维导图2.文章中经典的句子理解3.学习之后对于投资市场的理解4.通过这篇文章结合我知道的东西我能想到什么&#xff1f; 四、总结五、升华 一、背景介绍 对于信息传递过程中的相关知识的总结&#xff0c;让我又仿佛回到了每一个…

猫头虎 分享已解决Error || API Rate Limits: HTTP 429 Too Many Requests

猫头虎 分享已解决Error || API Rate Limits: HTTP 429 Too Many Requests &#x1f42f; 摘要 &#x1f4c4; 大家好&#xff0c;我是猫头虎&#xff0c;一名专注于人工智能领域的博主。在AI开发中&#xff0c;我们经常会遇到各种各样的错误&#xff0c;其中API Rate Limits…

多路h265监控录放开发-(15)回放页面中的三个槽函数进行视频的录放(0.1版本项目完结篇)

xviewer.h 中的回放页面的三个槽函数&#xff1a; void SelectCamera(QModelIndex index);//选择摄像机129void SelectDate(QDate date); //选择日期129void PlayVideo(QModelIndex index); //选择时间播放视频129 SelectCamera槽函数解析&#xff1a; 点击相机列表日…

【路由交换技术】Cisco Packet Tracer基础入门教程(四)

Hello各位&#xff0c;好久不见&#xff0c;第四期我准备讲一下Packet Tracer中DHCP的配置&#xff0c;使用方法。 本章实验我们将拓扑中的某个路由器作为DHCP服务器&#xff08;它仍然可作为路由器使用&#xff09;&#xff0c;通过命令配置DHCP服务。独立的服务器可通过图形化…

【AI大模型】GPTS 与 Assistants API

前言 2023 年 11 月 6 日&#xff0c;OpenAI DevDay 发表了一系列新能力&#xff0c;其中包括&#xff1a;GPT Store 和 Assistants API。 GPTs 和 Assistants API 本质是降低开发门槛 可操控性和易用性之间的权衡与折中&#xff1a; 更多技术路线选择&#xff1a;原生 API、…