节前,我们组织了一场算法岗技术&面试讨论会,邀请了一些互联网大厂朋友、今年参加社招和校招面试的同学。
针对大模型技术趋势、算法项目落地经验分享、新手如何入门算法岗、该如何准备面试攻略、面试常考点等热门话题进行了深入的讨论。
总结链接如下:
《大模型面试宝典》(2024版) 发布!
喜欢本文记得收藏、关注、点赞。更多实战和面试,欢迎文末加入与我们交流
这两天面试群太热闹了,2025届忙着暑期实习和秋招,2024届的小伙伴已陆续分享了经验和心得,准备奔赴新的城市和新的生活了。
我们也整理了很多大厂的算法岗面试真题(暑期实习结束了,校招陆续开启),前几天整理了比亚迪的最新面试题,今天整理一位星球小伙伴面试英伟达的最新面试题,希望对大家有所帮助。喜欢记得收藏、点赞、关注。参与我们的讨论。
1. LN和BN
2. 介绍RLHF
3. 介绍MoE和变体
4. 介绍LoRA和变体
5. LoRA 参数更新机制
6. 如何减轻LLM中的幻觉现象?
7. MLM和MIM的关系和区别?
8. Stable Diffusion的技术原理
9. 解決LLM Hallucination的方法
10. Occupancy预测的出发点是什么?
11. 介绍RWKV、Mamba和Mamba-2
12. 2D图像预训练怎么迁移到3D点云任务
13. 为什么现在的LLM都是Decoder only的架构?
14. 把Transformer模型训深的问题有哪些?怎么解决
15. 现在车道线检测的主流的loss是什么?你有哪些想法?
16. 为什么GAN中经常遇到mode collapse,而Diffusion比较少?
我还特别整理15道 Transformer 高频面试题
-
介绍Transformer和ViT
-
介绍Transformer的QKV
-
介绍Layer Normalization
-
Transformer训练和部署技巧
-
介绍Transformer的位置编码
-
介绍自注意力机制和数学公式
-
介绍Transformer的Encoder模块
-
介绍Transformer的Decoder模块
-
Transformer和Mamba(SSM)的区别
-
Transformer中的残差结构以及意义
-
为什么Transformer适合多模态任务?
-
Transformer的并行化体现在哪个地方?
-
为什么Transformer一般使用LayerNorm?
-
Transformer为什么使用多头注意力机制?
-
Transformer训练的Dropout是如何设定的?
用通俗易懂的方式讲解系列
-
重磅来袭!《大模型面试宝典》(2024版) 发布!
-
重磅来袭!《大模型实战宝典》(2024版) 发布!
-
用通俗易懂的方式讲解:不用再找了,这是大模型最全的面试题库
-
用通俗易懂的方式讲解:这是我见过的最适合大模型小白的 PyTorch 中文课程
-
用通俗易懂的方式讲解:一文讲透最热的大模型开发框架 LangChain
-
用通俗易懂的方式讲解:基于 LangChain + ChatGLM搭建知识本地库
-
用通俗易懂的方式讲解:基于大模型的知识问答系统全面总结
-
用通俗易懂的方式讲解:ChatGLM3 基础模型多轮对话微调
-
用通俗易懂的方式讲解:最火的大模型训练框架 DeepSpeed 详解来了
-
用通俗易懂的方式讲解:这应该是最全的大模型训练与微调关键技术梳理
-
用通俗易懂的方式讲解:Stable Diffusion 微调及推理优化实践指南
-
用通俗易懂的方式讲解:大模型训练过程概述
-
用通俗易懂的方式讲解:专补大模型短板的RAG
-
用通俗易懂的方式讲解:大模型LLM Agent在 Text2SQL 应用上的实践
-
用通俗易懂的方式讲解:大模型 LLM RAG在 Text2SQL 上的应用实践
-
用通俗易懂的方式讲解:大模型微调方法总结
-
用通俗易懂的方式讲解:涨知识了,这篇大模型 LangChain 框架与使用示例太棒了
-
用通俗易懂的方式讲解:掌握大模型这些优化技术,优雅地进行大模型的训练和推理!
-
用通俗易懂的方式讲解:九大最热门的开源大模型 Agent 框架来了