在周二凌晨的 WWDC 大会上,苹果以 Apple Intelligence 取代 Artificial Intelligence 作为 AI 的代名词,大有重新定义 AI 的意思。原本吵得最凶最受关注的和 OpenAI 的合作,其实也只不过是提供一个 ChatGPT 接口而已,用不用都随用户。
从某种程度上来说,苹果的确称得上重新定义了 AI——与业内其他科技巨头追求“大力出奇迹”、模型参数越高越好不同,苹果更在意的是如何让 AI 无缝融入操作系统,优化用户体验。
定制化小型模型 确保用户体验
根据苹果在 WWDC 大会上透露的信息,“苹果智能”的关键,在于众多专门为了操作系统中的某个特定需求,而打造的小型模型。
据苹果软件工程高级副总裁Craig Federighi在 WWDC 大会上的介绍,很多苹果AI模型都可以完全在由A17+或M系列芯片驱动的设备上运行,从而消除了将个人数据发送到远程服务器的风险。
这些模型都在定制数据集上完成了训练,参数不高,智慧程度有限,也没有 GPT 或 Claude 这些大型模型那么全能。以系统内置的总结文本、改写文本等功能为例,苹果预计,这些请求生成的结果会比较单一。
这其实是综合考虑了运行速度、算力需求的结果,大部分苹果自家的模型在手机上就能跑,不需要云服务器,响应速度也很快。
虽然参数量小,但苹果智能胜在模型数量足够多。因为苹果预先针对不同的任务训练了大量模型,所以苹果智能可以实现的用户需求非常广泛。从处理照片、文本,到各种复杂的跨应用操作,都能应对得来。
隐私还是第一位
不过,如果涉及到比较复杂的用户请求,苹果可能会引入第三方模型,如OpenAI的ChatGPT和谷歌Gemini。在这种情况下,系统会提示用户是否愿意与外部共享相关信息(没有此类提示,则表明用户请求正在使用苹果自有模型处理)。
这个机制有助于缓解用户的隐私顾虑,隐私优先也是苹果一贯的策略。
华尔街见闻此前文章提到过,如果需要用到更强大的、依赖云端的大模型,苹果会使用专门以自家芯片驱动的服务器来处理。Federighi强调,这些服务器都内置使用Swift语言编写的安全工具,苹果AI“只发送完成任务所需的相关数据”到这些服务器,不会给予对设备上下文信息的完全访问权限。
而且,苹果表示,这些数据不会被保存以供将来服务器访问或用于进一步训练苹果的基于服务器的模型。
苹果并未明确哪些操作需要云端处理,因为这种情况会随时变化。有些今天需要云计算的任务,将来可能在设备本地即可完成。设备内计算并非总是第一选择,因为速度只是苹果智能系统决定是否要调用云计算时考虑的众多参数之一。
不过,某些用户请求将永远在设备内执行。其中最显著的是设备端人工智能图片生成器Image Playground,它将完整的扩散模型存储在本地,可以生成三种不同风格的图像。
即使在目前的早期测试阶段,Image Playground的图像生成速度也非常惊艳,通常只需几秒钟,当然,效果也没法和更大的模型媲美。
内容链接:https://www.hpaper.cn/19057.html