首页 / 科技

苹果AI版iOS首日火爆:聊天秒变高情商 Siri华丽变身

发布时间:2024-07-31 03:00:35

它来了它来了,苹果的Apple Intelligence终于与果粉见面了!

随着iOS 18.1 Beta版的上线,注册开发者从即日起就能体验到苹果AI的部分功能。

最明显的一处就是Siri的全面换新,变身成了Apple Intelligence & Siri。

另一项重磅更新就是写作功能了,它可以帮忙润色推特评论,三下五除二就能把高级表达方式安排起来。

甚至dirty words也能分分钟变得儒雅随和:

开启Apple Intelligence后,苹果自研的端侧大模型就会被下载到设备当中。

根据手快的网友体验反馈,不像其他家的AI那样动不动就是拒绝服务。

与此同时,苹果自家大模型的报告也已出炉,披露了大量技术细节。

报告显示,在指令遵循、文本总结等任务上,苹果云端大模型取得了超过GPT-4的成绩。

苹果基础大模型团队负责人庞若鸣(Ruoming Pang)也表示,其模型与一些同类最佳模型相比具有竞争力。

庞若鸣是普林斯顿计算机博士,本硕分别毕业于上海交大和南加州大学,于2021年加入苹果,此前在谷歌担任了15年的工程师。

Apple Intelligence的主要对话功能,正是由他率领的团队研发的模型提供支持。

这次他还强调,这些基础模型“并不是聊天机器人”,而是支持广泛的功能,包括摘要、写作帮助、工具使用和代码。

另外,苹果也研发了许多自研算法,为提高模型表现提供了加持,具体信息也在报告中被披露。

还有细心的网友从中发现了华点——

苹果大模型的训练用的是谷歌TPU集群,英伟达含量竟然为零。

Siri升级,但ChatGPT暂未接入

要想体验到苹果的Apple Intelligence,需要满足的条件有不少。

首先,搭载它的iOS 18.1 Beta版目前是99美金一年的注册开发者限定,所以普通用户还得等等。

还有就是之前说过的,只支持M系和A17 Pro芯片,也就是说iPhone中只有部分地区的15 Pro和15 Pro Max能用。

除了硬件和身份要求,系统设置也需要修改,要将地区设置为美国,且设备和Siri的语言都要改成英语。

满足了所有这些要求之后,就可以……加入等待队列了。

此次上线的Apple Intelligence是部分功能,主要围绕文本生成、Siri和相册这几个模块。

先说文本生成,作为苹果AI的重要组成部分,该功能的视适用范围不局限于苹果官方应用。

只要使用标准输入文本系统,在第三方应用程序当中也能利用该功能进行文本总结、校对和重写。

另外结合iOS 18 Beta的语音备忘录中已经上线的音频转录功能,文本生成系统还可以为录音生成摘要。

第二个比较重要的更新就是Siri了。

界面上,新版Siri不再是一个圆形图标,在运行时会有环绕屏幕的彩色光不断闪动。

而且还给不想语音对话的用户提供了文本对话方式,双击屏幕底部即可调出键盘,与Siri打字交流。

内容方面,新版Siri将能够解答与苹果产品相关的问题,帮助用户进行故障排除。

另外,新的Siri还可以够理解从一个查询到下一个查询的上下文,例如要求Siri创建日历事件,然后请求创建提醒,而无需重述正在谈论的内容。

不过,之前介绍的屏幕感知功能,并未包含在此次Siri 的更新当中。

相册的更新则让用户可以用自然语言搜索特定照片,甚至是视频当中的具体时刻。

以上就是本次开发者测试版本中有关AI的大致内容,需要指出的是,这只是之前发布会上所展示的功能中的一部分,还有很多没有上线。

特别地,之前提到过的ChatGPT集成,此次更新也暂未接入。

解密苹果大模型

苹果已经说过,ChatGPT在苹果AI中不是必选项,主要功能是由自家的大模型驱动。

而关于这个模型,苹果也在上线的同时发布了全面的技术报告。

模型的名字简单粗暴,就叫苹果基础模型(Apple Foundation Model,简称AFM),有端侧(on-device)和云侧(server)两个版本。

端侧模型的参数量在3B左右,云侧则未具体透露,只说是比端侧更大,二者都有32k的上下文窗口。

训练过程英伟达含量为0

模型的训练通过自家基于JAX的AXLearn框架进行,并采用了张量并行、流水并行等策略。

硬件则采用的是谷歌TPU,其中云侧用了8192颗TPUv4芯片,端侧用了2048颗TPUv5p芯片,总之英伟达含量为0。

数据则主要来源于通过Applebot爬取的网页,以及有公共许可的代码和数学数据集。

值得一提的是,苹果选用的数据集中无一使用GPL,都是MIT、Apache、CC0这些开放程度更高的开源协议。

流程上,AFM的预训练过程共分三个阶段——核心训练、继续训练和上下文延长。

在核心训练阶段中,云侧版本的数据量有6.3T tokens,窗口长度为4096,端侧版本则是在此基础之上蒸馏得到。

继续训练时,低质量数据的权重会被降低,并使用数学、代码以及获得授权的高质量数据,对模型能力进行提升。

该过程使用了1T tokens的数据,窗口长度也从4096变成了8192。

到了下一阶段,窗口长度被进一步扩充到32k,涉及长序列文本和合成数据,总量为100B tokens。

独创强化学习新算法

AFM的后训练则包括指导监督微调(SFT)、人类反馈强化学习(RLHF)等工作。

其中SFT阶段使用了合成数据与人类标注数据,合成数据主要关于数学、工具使用和代码。

而在RLHF阶段,苹果自创了iTeC和MDLOO两种强化学习算法。

iTeC全称Iterative Teaching Committee,可译作“迭代教学委员会”,是一种用于强化学习后训练的算法,旨在通过多轮迭代优化模型的性能。

其核心思想是结合不同的偏好优化算法,包括拒绝采样、直接偏好优化(DPO),使得模型能够从多种优化策略中受益,从而提高其对特定任务的适应性和性能。

在每次迭代中,iTeC会从最新的模型中选择一组表现最好的模型,形成一个“模型委员会”。这些模型是经过SFT、RS、DPO/IPO和RL等不同训练方法得到的。

通过收集人类对模型响应的偏好反馈,iTeC不断更新其奖励模型,并用于训练新的模型集合。

每收集一批人类偏好数据后,iTeC会刷新其奖励模型,并训练新的模型集合,以此循环进行多轮迭代,逐步提升模型性能。

MDLOO则是一种在线强化学习算法,特别设计用于优化模型的响应质量。

作为在线算法,它能在模型训练过程中实时解码响应,并应用RL算法来最大化奖励。

也就是说,这种方法使得模型能够在训练过程中不断学习和调整其策略,以生成更符合人类偏好的响应。

具体实现上,它结合了留一法(Leave-One-Out,LOO)优势估计器和镜像下降策略优化(MDPO),以实现更稳定和有效的策略更新。

端侧混合精度量化

为了让端侧模型更高效运行,同时避免占用过多内存资源,苹果对AFM的端侧版本进行了量化操作。

具体来说,苹果采用了混合精度的量化方式,针对不同环节采用了不同的量化精度。

苹果采用的方式被称为“调色板”策略,在调色板量化中,权重不是每个单独量化,而是将它们分组,并让组内的权重共享相同的量化常数。

对于投影权重,每16列/行共享相同的量化常数,并且使用K-means算法进行4位量化。

针对嵌入层,由于是输入和输出共享的,采用了8位整数进行每通道量化,另外还有某些重要性相对较低的层被进一步压缩到2位量化。

为了恢复量化后损失的性能,以保持模型的输出质量和准确性,苹果还引入了准确性恢复适配器(Accuracy-Recovery Adapters)。

该适配器是小型的神经网络模块,可以插入到预训练模型的特定层中,在量化模型的基础上进行训练,通过微调来学习如何补偿量化带来的影响。

部分任务超越GPT-4

应用了一系列优化技术之后,也到了验收模型表现的时候了。

在这过程中,苹果采用了人类评估与自动化评估相结合的策略。

先说人工评估,评估人员设计了涵盖分析推理、头脑风暴、聊天机器人等方面的多类问题,并让模型生成相应。

同时,问题也会被提给用于对比的其他模型,然后由评估人员评判哪个模型的输出更好。

结果,无论是云侧还是端侧模型,都有至少60%的概率不输给Llama 3、GPT-4等对比模型。

其余的测试主要利用数据集实现。

在指令遵循能力上,苹果进行了IFEval测试,结果在指令和prompt两个层次上,云侧AFM都超过了GPT-4,成为了新的SOTA。

端侧模型的表现,也超过了Llama 3-8B、Mistral-7B等近似规模的模型。

在AlpacaEval当中,端侧和云侧AFM也都取得了第二名的成绩。

再看具体任务上的表现,AFM在写作类Benchmark当中的总结任务上取得了SOTA,撰写任务上也与第一名接近。

数学上,苹果用GSM8K和MATH两个数据集进行了评估。

结果端侧模型在GSM8K上不敌Llama 3-8B和微软的Phi 3 mini,云侧被GPT-4和Llama 3-70B超越,但优于GPT-3.5。

MATH上的成绩相对高些,端侧版领先了同规模模型,云侧版也超越了Llama 3-70B。

性能之外,安全性也十分重要,苹果通过人工方式对AFM抵御对抗性攻击的能力进行了评估。

结果显示,AFM在面对对抗性提示时,实现的违反率显著低于其他开源和商业模型。

以上就是苹果大模型技术报告中一些值得关注的内容,更多详情可参阅报告原文。

One More Thing

虽然Apple Intelligence已经提供给开发者进行测试,但彭博社爆料说,正式版可能会延迟上线。

的确,按照苹果此前的版本发布规律,18.1的版本号也意味着,这些功能不会随着9月的新机发布一同上线。

对此分析师Gene Munster建议,苹果应该考虑推迟iPhone 16的发布日期,以与Apple Intelligence保持一致。

至于库克会不会考虑这个建议,就拭目以待了。

报告地址:https://machinelearning.apple.com/research/apple-intelligence-foundation-language-models

免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

如有疑问请发送邮件至:bangqikeconnect@gmail.com