🦉 AI新闻
🚀 谷歌更新AI笔记应用Notebook LM,添加Gemini Pro模型并扩大应用范围
摘要:谷歌在今年5月推出的AI笔记应用Notebook LM进行了更新,主要添加了最新的Gemini Pro模型,并扩大了应用使用范围。Notebook LM可以为用户生成笔记摘要等内容,并基于用户笔记上下文产生见解。谷歌还表示,开发人员使用了一系列模型确保用户得到快速而妥当的响应。不过,谷歌强调Notebook LM仍是一款实验性产品,呼吁用户进行事实核查。
🚀 OpenAI首席科学家被迫离职,马斯克呼吁加入特斯拉或xAI
摘要:OpenAI首席科学家伊尔亚·苏茨克维解雇了CEO萨姆·阿尔特曼,但阿尔特曼重新上任后,苏茨克维不再出现在OpenAI办公室,引发猜测。马斯克公开表示苏茨克维应加入特斯拉或xAI。马斯克批评OpenAI背离初衷转为盈利公司。苏茨克维后悔参与解雇阿尔特曼,并表达了对苏茨克维的担忧和信任。苏茨克维的未来选择将对OpenAI、xAI、特斯拉和整个人工智能领域产生重大影响。
🚀 大模型造梦机,引发激烈讨论
摘要:OpenAI科学家Andrej Karpathy的独特观点引发了关于大模型幻觉的激烈讨论。他认为,大模型的工作就是制造幻觉,而搜索引擎则没有创造力。同时,讨论还涉及到如何解决大模型助手的幻觉问题以及如何将大模型作为人类认知的补充,而不是替代品。另外,一个名为Vectara的机构推出了大模型幻觉排行榜,但该排行榜受到了质疑。
🚀 谷歌承认视频演示Gemini模型不是实时录制
摘要:谷歌发言人承认谷歌发布的大语言模型Gemini演示视频并非实时录制。视频中的Gemini模型只能对输入的提示和静态图像做出反应,并且用户与Gemini的语音互动也由后期配音完成。此外,视频中的人物说话、绘画、展示物品乃至魔术,似乎也只是为了演示视频而特意安排的。谷歌官方YouTube频道中也表示,为了演示的目的,延迟已经减少,Gemini的输出也缩短了。这段视频展示的是使用Gemini构建的多模态用户体验"可能的样子",旨在激发开发人员的灵感。Gemini Ultra在学术基准测试中展现了超越当前时代的先进结果,在新的多模态任务基准测试上也表现出了领先性能。明年初,谷歌将推出全新升级的Bard Advanced,让用户可以更好地体验到其最好的模型和功能,也就是Gemini Ultra。
🚀 Gemini与GPT-4展开大pk,谷歌争夺聊天助手巅峰
摘要:Gemini Pro加持的Bard和GPT-4在多个测试中进行对决,尽管ChatGPT稍占上风,但Gemini Pro在LLM大战中展现了巨大进步。然而,双方还未放出杀手锏,巅峰对决可能要等到Gemini Ultra或集成了OpenAI神秘技术的新模型出场。在编程水平方面,ChatGPT表现出色,Gemini Pro稍显不足。而在数学应用和笑话创意方面,GPT-4以逻辑清晰、正确性高获胜。综合影响力、公众兴趣、新颖性和重要性,该新闻获得总分80。
🗼 AI知识
🔥 快速使用操作指南:Fine-Tuning预训练模型
这段文字是一份操作指南,介绍了如何使用预训练语言模型(LLM)进行微调,以适应特定的任务。它提供了一个使用Modal库的代码仓库,可以在几分钟内将基础模型微调到自己的数据集上。该指南还介绍了使用Modal进行训练的优势,以及如何使用Gradio界面进行训练和测试。同时还提供了一些自定义配置的建议,如自定义数据集和配置文件,以及使用权重和偏差进行日志记录和部署模型的方法。
🔥 全栈Transformer推理优化:实现100倍速度提
这篇文章讨论了全栈Transformer推理优化的方法。它从硬件规格(如A100内存层次结构)、MLSys方法(如FlashAttention和vLLM)、模型架构(如专家混合)以及解码算法(如推测解码)等方面进行了探讨。文章指出Transformer推理是内存受限的,并且大部分优化都是基于这一事实的。文章还介绍了GPU的内存层次结构以及如何充分利用它们。另外,文章还讨论了优化推理的一些技术,如FlashAttention、蒸馏、量化和多查询注意力。总的来说,这篇文章提供了关于Transformer推理优化的全面指南。
更多AI工具,参考国内AiBard123,Github-AiBard123