首页>教程>实用技巧>苹果为什么不接入AI大模型?

苹果为什么不接入AI大模型?

2023-11-30
1283
来源:爱思助手

过去将近一年的时间里,AI大模型几乎可以说是最炙手可热的一种技术、趋势和概念!一方面从大众到全球各国政府的关注,另一方面是所有科技互联网公司都在加速布局AI大模型。就算没有构建AI大模型(在开源大模型的基础上)的技术实力,也在紧迫地寻找业务与AI大模型的结合点。同样地,没有一家手机厂商打算错过AI大模型。


目前,AI技术已经在智能手机领域取得了巨大的突破,但奇怪的是苹果却一直没采用更大模型来提升智能手机的AI能力。在六月份结束的WWDC 2023大会上,苹果又一次选择了“谨慎对待”当前大火的人工智能。相比较“Artificial Intelligence”(人工智能),苹果似乎更倾向于使用“Machine learning”(机器学习),去还原技术的本质。


谈到苹果的人工智能,人们印象最深的应用莫过于“漏洞百出”的Siri了。


苹果为什么不接入AI大模型?


从2011年iPhone 4S登场,成为人人“调戏”的对象,到时至今日,Siri的交流能力依旧算不上市场前沿,成为鲜有人问津的鸡肋功能。面对井喷式增长的人工智能行业,在人工智能领域迟迟缺乏新动作的苹果公司,让行业普遍认为已经开始进入“掉队”的行列之中。面对各种质疑的声音,苹果CEO库克表示:苹果本质上还是硬件厂商,公司并没有谷歌或微软那样的通过升级软件提高生产力的压力。


苹果为什么不接入AI大模型?


“卷”大模型是指在智能手机中集成更大、更复杂的神经网络模型。这样的模型可以提供更强大的AI能力,但也面临着一些挑战和局限性。


首先,大模型需要更高的计算资源和存储空间,这对手机的硬件和电池寿命提出了更高的要求。


其次,大模型的训练和优化过程需要大量的数据和时间,这对厂商来说是一个巨大的工程。


尽管大模型存在一些挑战,但小模型也具有其独特的优势和应用场景。小模型具有体积小、计算资源需求低和训练效率高的特点,适合在智能手机中运行。小模型在语音识别、图像识别和自然语言处理等领域都取得了显著的进展,为用户提供了更好的体验。


选择AI大模型还是小模型时需要综合考虑市场需求、技术成本和用户体验等因素,以满足不断变化的消费者期望和需求。


苹果为什么不接入AI大模型?


在开发者对于人工智能需求不断增长的今天,苹果所持有谨慎的态度,并不代表其不正视这项技术的未来发展与前景。在WWDC 2023中,苹果推出了iOS 17系统,为用户提供了一系列的新功能和改进,包括电话和FaceTime的个性化和互动功能、全新的日记应用、新的待机模式、新的动态小工具、CarKey数字汽车钥匙功能的增强,以及ARKit API框架的改进等。作为硬件厂商,苹果拥有自己的芯片、服务、系统等产品,这些产品所构成的完整生态也为苹果在人工智能领域提供了强大的基础设施和平台,可以在硬件和软件之间实现高效的协同和优化,提升用户体验和性能,也可以更好地保护用户隐私。


目前人工智能领域的数据与隐私泄露风险以及人工智能监管问题已经成为全世界要共同面对的问题,国内外都出台了一系列的政策法规来维护人工智能发展,甚至ChatGPT之父山姆·奥特曼也在听证会上向政府申请对OpenAI实施监管。而苹果对用户隐私和数据安全的重视在行业里也是家喻户晓,甚至将其隐私保护功能作为产品的重要卖点。苹果采用了多种技术手段,如加密、生物识别、差分隐私等,来保护用户数据不被泄露或滥用,这将使苹果的人工智能业务能够更加合规地接触并使用用户数据,进行更有精确的服务用户,并且大幅度提升人工智能的响应速度和可靠性。


尽管目前苹果手机更多的是关注小模型的研发和应用,但随着技术的发展和应用需求的变化,未来可能会出现更多采用AI大模型的产品,比如Vision Pro。

苹果为什么不接入AI大模型?

在即将面世的Vision Pro产品展示中不难发现,虽然苹果对“人工智能”只字未提,但似乎所有的新动作都围绕着“人工智能”展开。


Vision Pro使用了基于Transformer的语音识别模型让语音识别更加准确,并且可以有效地处理自然语言的序列数据。作为基于自注意力机制的深度学习模型,它还可以进行自动纠错和词预测,提高了语音识别的准确性。同时Vision Pro还依靠视觉生成建模,通过前置摄像头扫描人的面部信息,再基于机器学习技术,系统会使用先进的编码神经网络,为用户生成一个“数字分身”。利用先进的机器学习模型,根据对用户的眼球追踪和瞳孔状态,来预测用户的身体和大脑状态,比如是否对当前事物好奇,是否走神,注意力是否被分散等等。这些数据可以帮助Vision Pro提供更个性化和智能的体验,比如根据用户的注意力、放松程度或学习情况来更新虚拟环境,或者根据用户的眼睛注视方向来创建生物反馈。


还有Vision Pro配备的卷积神经网络,通过卷积层、激活层、池化层和全连接层来实现高效和准确的图像识别和对象检测功能,为用户提供了丰富和逼真的混合现实体,在自动驾驶、安防监控、医学图像分析等领域都发挥着重要作用。


通过Vision Pro、iOS 17以及纵观整个苹果生态不难看出,苹果并不希望模糊地定义人工智能,他们热衷于用技术改造或扩展自己的产品品类,打造自己的品牌,而不是使用行业通用的词汇。对于苹果来说,或许“Machine learning”这个词能更精确地描述苹果的技术特点。


与微软和谷歌等公司相比,苹果对人工智能技术的开放性较低,但依靠庞大市场需求支持,苹果更希望维护好产品带给用户的优质体验。无论是“机器学习”还是“人工智能”其核心意义还是能为用户带来什么,多高的算力和多大的数据参数最终为产品打分的只能是消费者的满意程度。


相信人工智能发展的最终形态会向着平民化、日常化的方向前进。

相关文章
  • 摩根大通推测苹果 AI 发展策略:立足本地小模型、管理大语言模型

    苹果目前在大语言模型方面处于落后状态,苹果公司也深知这一点,因此将重心放在可以本地运行的小模型方面,从而更好地发挥自己的优势。

  • 苹果发力人工智能:挖来谷歌前AI负责人

    北京时间4月4日早间消息,苹果因为在人工智能领域落后于谷歌而面临批评,但该公司最近却取得了一项胜利:他们刚刚挖来了谷歌人工智能和搜索主管约翰·詹南德雷亚(John Giannandrea),并任命其领导机器学习和人工智能战略。

  • 苹果推出 300 亿参数 MM1 多模态 AI 大模型,拥有图像识别和自然语言推理能力

    近日,苹果公司旗下研究团队在ArXiv中公布了一篇名为《MM1:Methods,Analysis & Insights from Multimodal LLM Pre-training》的论文,介绍了一款 “MM1”多模态大模型,该模型提供30 亿、70 亿、300 亿三种参数规模,拥有图像识别和自然语言推理能力。苹果研究团队相关论文主要是利用 MM1模型做实验,通过控制各种变量,找出影响模型效果的关键因素。研究表明,图像分辨率和图像标记数量对模型性能影响较大,视觉语言连接器...

  • 网传大陆苹果16AI模型将用百度AI,苹果的AI之路为什么这么曲折?

    外界普遍认为,苹果若想继续保持领先地位,关键在于其AI领域的布局成果。

  • 苹果发力人工智能:2 亿美元收初创公司 Xnor.ai

    据熟知内情的消息人士透露,苹果公司收购了西雅图初创公司Xnor.ai,后者是一家专业致力于研究设备人工智能(AI)技术的公司。消息人士称,苹果公司以大约2亿美元的价格收购了Xnor.ai。虽然苹果公司和Xnor.ai均拒绝就此消息置评,但Xnor.ai网站基本上已经下线。Xnor.ai的技术能让公司在智能手机和其他便携式设备上本地执行深度学习算法,而不是要求这些计算在云服务中执行。Xnor承诺完全保密数据,且内存负载和能量需求较低。鉴于苹...