苹果能引领端侧AI大模型时代吗?

news2024/11/16 6:29:38

苹果能引领端侧AI时代吗?

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

在这里插入图片描述

北京时间9月10日凌晨,苹果正式发布了iPhone 16,这是苹果第一款真正意义上的 AI iPhone。Apple Intelligence采用“端侧大模型+云端大模型”的方式,将为用户带来更丰富的智能体验。而这仅仅是端侧智能的开始,未来我们可以想象,一个由大模型带来的移动智能生态正在缓缓打开。

img

太长不看版:

1.技术:端侧模型短期能力有限,端云结合是长期状态

●手机大模型的瓶颈排序:

○电池容量和发热

○芯片计算速度

○现有架构下,8G+内存是最低要求

○内存读写速度可能需要进一步技术突破

●~1B量级模型能力有限,性能提升空间不乐观

●手机端侧模型有实际价值 -> ~10B模型塞到手机里 -> 估计3~4年

●云+端混合将是长期主流

○端侧模型 + 云上模型 的配合能力将是核心技术点之一

○从用户价值看,端侧模型并不是必要路径

○端侧模型存在合理性是1) 降低推理成本,2) 响应速度更快 3)更好保护隐私

2.产品:短期以小功能为先导,长期价值期待释放

●当前AI 手机以功能探索为主,用户价值有待更多释放;对于硬件,会有明确的产品价格提升,因此行业会坚定推进

○短期 = 新功能亮点提升产品售价+FOMO(Fear of Missing Out)

○长期 = 争夺新的流量入口

●LLM是端侧模型重点;多模态生成在端侧的用户价值有限,更大的价值在于多模态理解

●硬件粘性和价值 > 模型品牌吸引力

●未来具备用户价值潜力的新领域:AI原生OS

○理解用户 + 智能唤醒APP(siri升级)

○直接access APP内的数据和服务,可能绕过APP的UI,直接完成用户指令

○拆解指令,多APP共同完成任务(严重依赖AI Agent的能力提升)

○(optional)对于常用服务手捏个人APP

引子:

<问题1>从用户角度出发,“智慧手机”的“价值”是什么?

●从“智障”到“智能”

○从“物品”到“帮手”的转变

●是否会有全新的交互方式?什么是最“自然”的交互方式?

○翻阅式->搜索式->推荐式->服务式(秘书+陪伴)

<问题2>对于用户来讲,为什么要在端侧搭载模型?

●网络延迟+极端环境:端侧模型有优势,但场景很小,因为大多数生活场景对于大几百毫秒延迟可以接受

●数据隐私:端侧模型多了一层对于个人数据的保护

●个性化:在本地和云上都可以实现,但本地会更有数据优势

●从技术角度来看,端侧可能做到什么?

○~1B级别=“锦上添花”:P图,聊天,搜索支持……

○~10B级别 = 效果会更好,也有不确定性;要看哪些是这个级别也可以实现的新能力

○~100B级别 + AI Agent = AI原生体验的潜力

<问题3>从厂商角度出发,手机端侧模型的“价值”是什么?

●带来更多新功能、新体验,提升手机价值

●控制云上推理成本

●端云混合模式中,云上模型服务可以另收费

●获取新流量入口

一、苹果等手机厂商 纷纷推出端侧大模型

去年以来,各厂商已经推出了多款端侧大模型手机。

●参数量级:以1~3B为主,如Google Gemini 3.25B等

●是否自研:Google、苹果、华为等厂商推出了全自研模型

●价格区间:国内售价4000元+,即主流旗舰机价格

●总市场份额:2023年该细分市场出货量约2700万台,占国内安卓手机出货量约12%(苹果手机23年暂未部署端侧大模型)

苹果的新款iphone16搭载了更快的CPU、GPU,且在能耗上有更好的表现。以GPU为例,A18芯片是四前iphone 12的A14芯片速度的2倍。

img

相比去年A16芯片,在速度提升40%的同时,功耗下降了30%,为大模型的本地运算提供了更好的电源保障。

img

利用端侧大模型,iphone16 不仅可以生成、润色文字、总结文本、回复邮件等,还可以生成表情符号,搜索照片、视频等,并执行多种任务。

img

发布会中最为惊艳的功能之一,是视觉智能。比如,当你看到一家餐厅,你可以通过按压相机控制按钮拍下餐厅,然后就能通过 Apple Intelligence获得该餐厅的营业时间以及点评,并查看菜单或预订餐厅。

img

该功能也支持和第三方 APP 联动,比如,看到你喜欢的自行车,只需点击一下,即可快速Google到类似的自行车并购买。

img

除了苹果,去年以来,各大手机厂商已经陆续发布了其端侧大模型的产品:

img

二、如何评价 端侧模型的成熟度?

1.参数规模:“智商”水平至关重要,端侧模型任重道远

为什么“智商”重要?“锦上添花” vs “底层革命”

大参数+量化 vs 小参数:大参数+量化效果上优于小参数

当前量化已到极限:BF16量化基本安全;INT4量化是当前大多手机使用的方式,但经常出现过拟合和稳定性问题;当前在探索INT8量化的折衷方案

●FP32精度下,1B模型占用~4GB内存,而推理运行需要更多内存,这对目前8~16GB的手机主流内存是有挑战的

●Int4量化后,效果衰减10%,占用内存减少80%,同时推理速度提升~50%;但量化测试数据有overfitting的嫌疑

●目前高通、联发科已经支持INT4,Google已经支持INT8,实践中为保证效果还要使用混合精度,进一步提升空间有限

~10B模型是当前模型能力分水岭

●Phi3-3.8B等模型打榜结果还可以,但实测过拟合情况较为严重

●~1B量级模型在理解能力、稳定性上都和7-13B的模型有明显差距

●但并不能保证~10B模型在未来足以进化出接近人的智慧水平

提升参数规模的瓶颈包括计算、内存读写和能耗,其中能耗最难突破

●芯片计算速度:手机算力30~50TOPS,PC是手机的20~40倍

●内存读写速度:手机带宽40~80GB/S,PC是手机的10~20倍

●内存容量:手机内存已到16GB甚至更高,与PC可以相比;未来还有扩展的空间

●能耗:发热&续航:对标游戏运行,续航仅有3~4小时,且手机明显发热

img

2.推理速度:良好用户体验的基准是20token/s,目前刚刚达标

**现状推理速度:**最高达20token/s,刚刚达到可用门槛,仅有PC端的20%,差距明显

●miniCPM-2B Int4量化在部分主流机型上测试的推理吞吐速度,除iPhone外均在7token/s以下

img

●当前在英伟达RTX4090运行Llama 7B 4bit的推理吞吐速度为100tokens/s以上

●最新一代的高通或联发科芯片在芯片厂商的测试中Llama 7B INT4量化的推理速度能达到20token/s

推理加速技术+预判

●目前没有明确的SOC AI推理加速定量证据,我们采用NVIDIA数据中心B200(vs H200)作为参照,认为每代更新可以有50%+的功耗效率提升和10%+的推理速度提升

img

**●推理运算加速:**Google TPU的MXU(Matrix multiplication unit)Nvidia的Tensor Cores针对神经网络中大量的张量计算的加速;联发科针对transformer架构的Softmax+LayerNorm算子的加速;高通骁龙Gen3的微型区块推理单元,将大模型分解为可以独立执行的部分。

**●内存读写速度优化:**Google TPU使用大规模片上内存,减少数据在HBM(High Bandwidth Memory)和VEM(Vector Engine Memory)之间传输的次数;苹果探索通过窗口化(Windowing)和行列打包(Row-Column Bundling),在闪存中存储模型参数,并在推理过程中按需将这些参数加载到DRAM中。

**●其他技术进展:**联发科NeuroPilot Fusion基于低秩自适应(LoRA)融合技术,基于一个基础大模型,通过云端训练,在端侧完成多个功能的融合,从而赋予基础大模型更全面、更丰富的生成式AI应用能力。

AI agent的推理速度要求:50~100 tokens/s

●目前国内商用LLM API输入处理速度可达数千tokens/s,生成速度平均在30-50 tokens/s,最快可以达到70 tokens/s(如abab-6.5s和智谱GLM3.5-turbo)。

●用户体验角度,假设一次Agent操作要调用5次大模型,则需要速度达到100 tokens/s。

3.能耗:发热&续航表现短期不会大幅优化,是手机端侧大模型的主要瓶颈

**现状:**目前没有大规模测试端侧模型推理的功耗;以游戏运行为benchmark,功率大约在47W,续航时间仅为34小时

崩坏:星穹铁道最高画质各机型实测结果(by 小白测评数据库,续航时间基于标准输出电压3.7V估算)

img

电池容量增长分析预测:未来每年增长不超过5~10%

以iPhone和三星galaxy为例,近10年平均每年增长5~6%,尤其是21年以来,手机尺寸不再增大后电池容量也几乎没有增长

img

注:电池容量单位mAh, 每年取该系列电池容量最高的机型数据

制约手机电池电量增长的因素包括:

●电池体积:提升电池体积会影响产品重量和厚度

●电池材料进化:固态电池材料和半固态材料,目前仍在科学研究阶段,暂未看到大规模商用

●同样电池材料下实现能量密度提升:持续有小幅改善,但不明显

4.搭载~10B模型的时间预计 = 3~4年

●推理速度提升:每1~2年(每代)10%

●单位功耗提升:每1~2年(每代)50%

●电池容量提升:每年5~10%

img

3-4年后:

●推理速度x2是最低要求,可能需要x3-5倍速度才能支持简单Agent

●7B模型能力不一定可以支持Agent,有可能需要13B-30B规模

●算力做到x16(700TOPS)有很大不确定性;x8甚至x4是大概率事件;在这种情况结合推理加速x1.5,极限可以支持模型吞吐速度要求

●因此7-10B模型大概是可支持的极限,大量超越10B会比较困难

●在这些极限假设下,续航时间可以满足8-10h要求,并缓解发热问题

3年内看不到纯端侧模型驱动的AI原生OS,复杂任务都需要云上实现

5.端侧多模态大模型:端侧的价值主要在多模态理解,而不在多模态生成

●多模态生成不在端侧

价值有限:端侧多模态能完成的生成场景(例如修图),已有CV技术也能解决;新的生成功能(例如AI扩图)需要上云

吃算力:多模态模型的推理,占用的算力可能会数倍于大语言模型

●目前技术路线:端侧多模态 = LLM + 多模态理解

基于LLM-backbone,在输入端增加多模态编码器和输入投影,参数量增加~10%

以开源模型MobileVLM为例;1.4B和2.7B两个版本,输入投影20M,图像编码器300M

其中,1.4B版本INT4量化,在骁龙888(20年,RAM8GB,26TOPS)上速度21.54 tokens/s

●因此,端侧算力瓶颈,在LLM而不在多模态

●当前多模态理解的主要应用是录屏理解;不过这是个过渡方案,远期会被更直接的数据获取方式取代

录屏理解的目标是辅助用户进行手机操作,广义上属于操作系统的一部分

手机厂商通过合作等方式获取root授权,然后在APP内操作,这是更加AI原生的OS实现方式

具体节奏除了取决于技术进展,还取决于手机厂商和APP厂商的合作探索

长期端侧多模态模型的任务则退化为读取、 理解APP内部的图片、视频等信息(非截图),不一定需要重大技术突破

三、未来实现多功能调用 的关键技术 - AI Agent

AI Agent:正长期持续快速发展;但到达大学生智能的Agent还有距离

1.Agent = 通用-自动化-决策&执行 能力

●是对大模型能力的扩充,是在模型达到AGI之前的中间阶段

●不是一项单独的技术,而是多种技术的组合创新

●误解:“既然是Agent了,就应该什么都能做”

2.Agent需要包含哪些部分

Lilian Weng (OpenAI) 对Agent能力的拆解

https://lilianweng.github.io/posts/2023-06-23-agent/

img

●记忆问题是思考能力的源头,也是当前研发难点

●计划:决定“做什么”

●工具调用:找到“怎么做”

●执行

3.有关“记忆”

●感觉(视觉、听觉、触觉、其他sensor……)

●短期记忆(工作记忆)

●长期记忆

事实性记忆(概念、事实)

程序性记忆(事情的先后顺序)

非描述性记忆(骑自行车、潜意识)

当前处理“记忆”的主流方案https://arxiv.org/abs/2312.10997

img

img

img

但现状做法有很多“不自然”的地方:

●转Text导致的信息丢失 -> Unified Embedding (e.g. GPT4o)

img

●信息以prompt方式为主进入模型 -> 长期记忆+短期记忆的交互机制

img

4.Agent的发展阶段

1.Agent 1.0(现状)

●工具调用:趋于成熟,且可通过微调7B模型+retrieval,在端侧实现

前置工具描述数据集 + Retrieval做update

但受制于前置工具集的文档精确性、及时性;当前的成功的比例仍难以直接满足商用

大模型self-instruct指令生成工具调用数据集,对agent进行微调

●Planning:基本的给定范围内的拆解能力,成功率&稳定性需要提高

通过System prompt预先设定agent的角色、工作流程、能力栈等

基本的任务拆解(CoT)

通过Self-refine/Reflexion/ReAct增加可靠性

●短期记忆:各类RAG为主;知识图谱&前置分类器是上一代技术

●长期记忆:

Finetune作为一种方式,但目前成效有限

有思路认为通过“超长文本”,可以不解决长期记忆问题。“把人类一生的经历都用文本框输入,就不用记忆了”

2.Agent 2.0(未来1~2年)

●Planning:复杂任务拆解能力提升->成熟

●多Agent协作

目标线性拆解

群聊总结

3.Agent 3.0 (3+年)完全自主?

●长期记忆:自我学习构建“人格” (e.g. Auto-finetune)

●自我进化能力

●Agent创建Agent

●Agent管理Agent团队

img

四、端侧VS云上的应用场景展望

1.现状是云上为主,端侧为辅

img

●真正的大模型场景,是过去NLP/CV做不了、有了大模型才能做的场景;“假”场景则是过 去NLP/CV就能做的场景

●目前已成熟的“真”场景局限于:知识问答、聊天陪伴、总结、brainstorm图/文生图等,均 属于APP内应用

2. 端侧 & 云上的长期并存是大势所趋

**既定事实:**1)端侧模型能力<云上模型能力 2)手机模型训练/精调只能在线上

2.1 技术限制

a.算力:复杂任务(长Token,Agent等)需要依赖云上模型

b.电池能耗:复杂任务需要依赖云上模型

c.存储:需要读写大量数据的任务需要依赖云上

2.2用户价值

d.网络延时:离线模型可以提升网络不佳情况的效果

i.需要技术:线上任务 & 离线任务 热迁移

e.权限&隐私

i.APP内信息/服务access:可能端侧模型更容易访问;取决于APP与手机厂商的协商

ii.本地数据访问:本地设置了加密的数据,可以要求只有端侧模型能访问

iii.在线数据访问:不需要端侧模型

f.个性化

i.Prompt里加入个人信息可以“假装”个性化体验

ii.也可以用线上账号的方式实现;且训练/精调只能在线上

2.3 商业价值

g.流量/收数

i.AI原生OS是手机厂商与APP生态建设的重点

ii.AI OS的功能理论上可以通过云上模型解决,但端侧+云上的模式会是多方协商合作的结果

h.变现:

i.端侧模型 = 手机价格提升的增值

ii.端侧 + 云上搭配 = 云上服务可以收订阅费用

i.成本:端侧模型降低云上推理成本支出

五、小结与启示

●从技术的角度,端侧大模型不是孤立的技术,而是跟AI芯片(GPU/TPU等)、操作系统共同形成一个完整的技术体系。

●手机端侧模型在未来3~5年的天花板可能在~10B级别,这意味着仍然需要与云上大模型配合,才能实现通用Agent、复杂COT/TOT、超长文本等高级功能。

●从用户的角度,对硬件的粘性远超软件。端侧模型是否真正能为用户创造价值还有不确定性;与OS的结合似乎是必经之路。

●大模型(不管是端侧还是云上)都为生态带来了新的变量。以前的“APPx硬件”流量入口格局还要加上“模型”

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2126806.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

精品PPT | 离散制造行业智能工厂总体解决方案

一、建设背景 离散制造业&#xff0c;包括机械制造业、汽车制造业和家电制造业等&#xff0c;其生产过程涉及多个不连续的工序&#xff0c;产品通常由多个零件装配而成。这类行业面临的挑战包括品种多、批量小、订单变化快、临时插单频繁以及外协件管理困难等问题&#xff0c;…

相机光学(三十七)——自动对焦原理

1.自动对焦的三种方式 目前在手机上采用的自动对焦系统包括反差对焦、相位对焦和激光对焦三种方案&#xff0c;下面我们来看一下它们的工作原理和相互之间的区别是什么。 1.1反差对焦【CDAF】- Contrast Detection Auto Focus 反差对焦是目前普及率最高、使用最广泛、成本相对…

Leetcode 701-二叉搜索树中的插入操作

给定二叉搜索树&#xff08;BST&#xff09;的根节点 root 和要插入树中的值 value &#xff0c;将值插入二叉搜索树。 返回插入后二叉搜索树的根节点。 输入数据 保证 &#xff0c;新值和原始二叉搜索树中的任意节点值都不同。 注意&#xff0c;可能存在多种有效的插入方式&a…

QT之QML学习五:添加自定义Qml组件

开发环境: 1、Qt 6.7.2 2、Pyside6 3、Python 3.11.4 4、Windows 10 重要的事情说三遍,使用自定义qml参考链接: Qt官网参考网址!!! 重要的事情说三遍,使用自定义qml参考链接: Qt官网参考网址!!! 重要的事情说三遍,使用自定义qml参考链接: Qt官网参考网址!!!…

2024年华为杯数学建模研赛 最全赛中助攻|选题建议+思路+代码+成品论文预定

2024年华为杯研究生数学建模竞赛&#xff08;以下简研赛&#xff09;将于9月21日上午8时正式开始。 下文包含&#xff1a;2024研赛思路解析​、研赛参赛时间及规则信息说明、好用的数模技巧及如何备战数学建模竞赛 C君将会第一时间发布选题建议、所有题目的思路解析、相关代码…

【2024】Benchmarking Foundation Models with Language-Model-as-an-Examiner

信息 阅读目的&#xff1a;李娟子老师团队&#xff0c;了解模型中的知识评测的工作 白雨时1*、嘉豪英2*、曹义心2、吕新1、何玉泽1, 王笑之1 、于吉凡1 、曾凯生1 、小易佳3 , Haozhe Lyu 4张嘉荫1李娟子1 , Lei Hou 1 凶 1清华大学&#xff0c;北京&#xff0c;中国2新…

AI菜鸟向前飞 — LangGraph系列之一:深入浅出解读Graph(一)

前言 LangGraph是一个使用 LLM 和 LangChain 构建有状态多参与者应用程序的库。 LangChain 允许您使用 LCEL&#xff08;LangChain 表达式语言&#xff09;构建链 AI菜鸟向前飞 — LangChain系列之六 - 深入浅出LCEL与Chain(上篇) AI菜鸟向前飞 — LangChain系列之七 - 深入…

ALIENTEK电容按键按键的介绍与驱动代码

目录 前言 电容触摸按键原理 硬件接线 检测电容触摸按键过程 驱动代码 tpad.h tpad.c main.c 按键扫描函数 前言 我没有独立的电容触摸按键模块&#xff0c;所以使用正点原子STM32F103ZET6精英版开发板上的电容触摸按键。采用STM32F103C8T6检测电容触摸按键&#…

WEB渗透权限维持篇-隐藏windows服务

往期文章WEB渗透权限维持篇-DLL注入\劫持-CSDN博客 WEB渗透权限维持篇-CLR-Injection-CSDN博客 WEB渗透权限维持篇-计划任务-CSDN博客 WEB渗透权限维持篇-DLL注入-修改内存中的PE头-CSDN博客 WEB渗透权限维持篇-DLL注入-进程挖空(MitreT1055.012)-CSDN博客 WEB渗透权限维持…

mysql设置数据库隔离级别及各个隔离级别的作用

一、通过命令设置隔离级别 # 设置全局隔离级别 set global transaction isolation level REPEATABLE READ; set global transaction isolation level READ COMMITTED; set global transaction isolation level READ UNCOMMITTED; set global transaction isolation level SE…

Reduce:一款开源的短网址平台!!【送源码】

今天给大家介绍一款开源的短网址平台&#xff0c;Coody Framework首秀&#xff0c;自写IOC、MVC、ORM、TASK、JSON、DB连接池、服务器。百毫秒启动&#xff0c;全项目仅2.5M&#xff08;低配服可运行&#xff09;。 前端采用Amaze UI&#xff0c;后端采用Coody Framework MVC&…

NGINX开启HTTP3,给web应用提个速

环境说明 linuxdockernginx版本:1.27 HTTP3/QUIC介绍 HTTP3是由IETF于2022年发布的一个标准&#xff0c;文档地址为&#xff1a;https://datatracker.ietf.org/doc/html/rfc9114 如rfc9114所述&#xff0c;http3主要基于QUIC协议实现&#xff0c;在具备高性能的同时又兼备了…

模拟面试后端开发复盘

目录 一&#xff1a;项目的系统开发和设计思路 二&#xff1a;Java的反射是什么&#xff1f;在项目中有用到吗&#xff1f; 三&#xff1a;多态的实现原理 四&#xff1a;项目中的redis是用在了哪里 五&#xff1a;Session和Cookie的区别&#xff0c;Cookie可以被修改吗&a…

socket通讯原理及例程(详解)

里面有疑问或者不正确的地方可以给我留言。 对TCP/IP、UDP、Socket编程这些词你不会很陌生吧&#xff1f;随着网络技术的发展&#xff0c;这些词充斥着我们的耳朵。那么我想问&#xff1a; 什么是TCP/IP、UDP&#xff1f;Socket在哪里呢&#xff1f;Socket是什么呢&#xff1…

又一款强大好用的Shell脚本项目,支持Bash,Sh、Dash、Ksh等,甚至可以在编辑器中直接用,程序员必备!(附源码)

作为一个程序员&#xff0c;肯定经常都要和shell脚本打交道&#xff0c;Shell脚本可以帮我们自动化各种任务&#xff0c;但也经常有格式错误、拼写错误、逻辑错误等等麻烦&#xff0c;而且它不会告诉你错在哪里&#xff01; 今天就给大家分享一个超级实用的开源项目 - ShellCh…

【笔记】自动驾驶预测与决策规划_Part2_基于模型的预测方法

基于模型的预测方法 0. 前言1. 预测系统概述2. 定速度预测3.定曲率预测4. 短时预测与长时预测5. 基于手工特征的意图预测6: 基于模型的轨迹预测 0. 前言 本文主要记录课程《自动驾驶预测与决策技术》的学习过程&#xff0c;难免会有很多纰漏&#xff0c;感谢指正。 课程链接&am…

C++那些事之精选68道面试题

有小伙伴问我要一些C的学习题目/面试题目&#xff0c;我这里总结了一下分享给大家&#xff0c;大家可以自行去回答下面的问题&#xff0c;看看可以解答多少个。 注&#xff1a;懒人版附代码与答案会在文末星球详细讲解。 大纲 基础概念面向对象编程STL&#xff08;标准模板库&a…

如何加入PTP硬件时钟的组播组

首先要先判断当前机器是否能收到PTP时钟源发出的组播包 timeout 100 tcpdump -nni bond0 port 319 or port 320 -el -c 100抓包能抓到以下包信息&#xff0c;即能正常收到PTP时钟源发出的组播信息。其中的224.0.1.129即为组播地址 第一步正常了后&#xff0c;开始加入组播源 ip…

jmeter元件+取样器(十)

一、元件与组件 二、作用域 由于查看结果树与京东和百度是平级关系&#xff0c;所以均生效。 三、线程属性-取样器 1、请求方法&#xff08;在参数和消息体数据里填写请求数据&#xff0c;其结果可能会出现在URL或者请求体中&#xff0c;其请求头类型可能为表单或json格 &am…

解密Fiddler,从零开始轻松掌握弱网测试技巧!

使用Fiddler对手机App应用进行抓包&#xff0c;可以对App接口进行测试&#xff0c;也可以了解App传输中流量使用及请求响应情况&#xff0c;从而测试数据传输过程中流量使用的是否合理。这篇文章就带大家了解一下抓包过程。 01、Fiddler设置 1、启动Fiddler->Tools->Fid…