暑期实习基本结束了,校招即将开启。
不同以往的是,当前职场环境已不再是那个双向奔赴时代了。求职者在变多,HC 在变少,岗位要求还更高了。
最近,我们又陆续整理了很多大厂的面试题,帮助一些球友解惑答疑,分享技术面试中的那些弯弯绕绕。
方向:大模型算法工程师(TEMU电商平台)
整个面试持续了1小时10分钟,能够看出面试官是典型搞技术的,问的很专业又很细,全程感觉压力好大,面完后感觉丝丝凉意。。。
我太菜了,也没有认真准备,最后凉了,分享面经希望能帮到大家~
一面
-
自我介绍
-
简历项目深度交流
-
项目的背景是什么,主要解决了什么问题?
-
训练数据集是如何构造的,都有什么类型的数据,总量有多大?
-
有没有进行微调?
-
解释一下 Prompt Tuning、Adapter Tuning、LoRA 等微调方法的原理,分别适用于哪些场景?
-
如何评估模型微调效果的好坏呢?
-
微调用了多大的显卡,有关注内存占用情况吗?
-
模型底层为什么选择了70b的版本呢,选择的依据是什么?
-
是否了解常用的模型加速技巧?
-
微调如何避免出现灾难性遗忘和“复读机”问题?
-
微调和训练一个全新模型相比,有哪些优势?
-
大模型高质量微调数据筛选有哪些方法?
-
你认为大模型微调还面临哪些挑战?
- Tranformers 和 Bert 相关:
-
介绍 transformer 网络结构
-
谈谈位置编码 RoPE
-
谈一谈对transformer的QKV的理解
-
Self-Attention 的表达式
-
Bert中为什么要在开头加个[CLS]?
-
attention中的mask有什么用?(BERT中)
- 手撕代码:
-
统计岛屿数量:给你一个由 ‘1’(陆地)和 ‘0’(水)组成的的二维网格,请计算网格中岛屿的数量。
-
给定一个仅包含数字2-9的字符串,返回所有它能表示的字母组合。答案可以按任意顺序返回。
- 反问
所有资料 ⚡️ ,朋友们如果有需要全套 《LLM大模型入门+进阶学习资源包》及 《大模型算法岗面试题》,扫码获取~
👉[CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)]()👈