每天一道大厂SQL题【Day21】华泰证券真题实战(三)
大家好,我是Maynor。相信大家和我一样,都有一个大厂梦
,作为一名资深大数据选手,深知SQL重要性,接下来我准备用100天时间,基于大数据岗面试中的经典SQL题
,以每日1题的形式,带你过一遍热门SQL题并给出恰如其分的解答。
一路走来,随着问题加深,发现不会的也愈来愈多。但底气着实足了不少,相信不少朋友和我一样,日积月累才是最有效的学习方式!
每日语录
明明可以靠脸吃饭,你却靠才华,这就是你跟明明的差距。
第21题:
需求列表
2.有表结构及数据如下,请完成相应查询
班级表:class | 学生表:student | ||||||
---|---|---|---|---|---|---|---|
cid | caption | sid | sname | gender | class_id | ||
1 | 三年二班 | 1 | 张三 | 女 | 1 | ||
2 | 一年三班 | 2 | 李四 | 女 | 1 | ||
3 | 三年一班 | 3 | 王五 | 男 | 2 |
老师表:teacher | 课程表:course | ||||||
---|---|---|---|---|---|---|---|
tid | tname | cid | cname | teacher_id | |||
1 | 马云 | 1 | 生物 | 1 | |||
2 | 马化腾 | 2 | 体育 | 1 | |||
3 | 俞敏洪 | 3 | 物理 | 2 |
成绩表:score | |||
---|---|---|---|
sid | student_id | course_id | number |
1 | 1 | 1 | 58 |
2 | 1 | 2 | 68 |
3 | 2 | 2 | 89 |
AAA 查询课程2比课程1成绩低的学号
查询课程编号“2”的乘积比课程编号“1”低的所有同学的学号、姓名。
BBB 查询没有学全所有课的学生
查询没有学全所有课的同学的学号、姓名
思路分析
查询课程编号“2”的乘积比课程编号“1”低的所有同学的学号、姓名。
- 使用with语句,创建了一个名为t1的临时表,其中包含两个字段:学生id和体育成绩(如果课程id为2),以及生物成绩(如果课程id为1)。同时使用sum函数对成绩进行求和,并使用if函数进行条件判断。
- 在t1中使用group by语句对学生id进行分组,并使用having语句筛选出体育成绩小于生物成绩的学生。
- 最后使用join语句将t1与student视图进行关联,输出学生id和姓名。
查询没有学全所有课的同学的学号、姓名
- 首先使用with语句创建了一个名为t1的临时表,其中包含三个字段:学生id,姓名和选修课程数目。
- 在t1中使用left join语句将学生表和成绩表关联,通过学生id进行连接,统计每个学生选修的课程数目。注意使用left join而不是inner join,以便包含选修课程数为0的学生。
- 在t1中使用group by语句对学生id和姓名进行分组,以便统计每个学生选修的课程数目。
- 然后使用with语句创建了一个名为t2的临时表,其中包含一个字段:所有课程的数目。
- 在t2中使用count函数统计了所有课程的数目。
- 最后使用join语句将t1与t2进行关联,并使用where语句筛选出选修课程数目小于所有课程数目的学生,输出学生id和姓名。
答案获取
建议你先动脑思考,动手写一写再对照看下答案,如果实在不懂可以点击下方卡片,回复:大厂sql
即可。
参考答案适用HQL,SparkSQL,FlinkSQL,即大数据组件,其他SQL需自行修改。
加技术群讨论
点击下方卡片关注 联系我进群
或者直接私信我进群
文末SQL小技巧
提高SQL功底的思路。
1、造数据。因为有数据支撑,会方便我们根据数据结果去不断调整SQL的写法。
造数据语法既可以create table再insert into,也可以用下面的create temporary view xx as values语句,更简单。
其中create temporary view xx as values语句,SparkSQL语法支持,hive不支持。
2、先将结果表画出来,包括结果字段名有哪些,数据量也画几条。这是分析他要什么。
从源表到结果表,一路可能要走多个步骤,其实就是可能需要多个子查询,过程多就用with as来重构提高可读性。
3、要由简单过度到复杂,不要一下子就写一个很复杂的。
先写简单的select from table…,每个中间步骤都执行打印结果,看是否符合预期, 根据中间结果,进一步调整修饰SQL语句,再执行,直到接近结果表。
4、数据量要小,工具要快,如果用hive,就设置set hive.exec.mode.local.auto=true;如果是SparkSQL,就设置合适的shuffle并行度,set spark.sql.shuffle.partitions=4;
后记
📢博客主页:https://manor.blog.csdn.net
📢欢迎点赞 👍 收藏 ⭐留言 📝 如有错误敬请指正!
📢本文由 Maynor 原创,首发于 CSDN博客🙉
📢不能老盯着手机屏幕,要不时地抬起头,看看老板的位置⭐
📢专栏持续更新,欢迎订阅:https://blog.csdn.net/xianyu120/category_12182595.html