苹果突破内存限制将大型语言模型嵌入iPhone

“
苹果研究人员成功运用创新的闪存技术,克服了iPhone内存限制,实现了大型语言模型在有限内存下的高效推理。通过窗口化和行列捆绑等关键技术,他们使AI模型能在iPhone等设备上以更高速度运行,为未来Siri更新、实时语言翻译以及复杂AI功能的应用打开新可能。这一技术突破将提升用户体验,预计在2024年底左右的iOS 18中亮相。
苹果的人工智能研究团队近期宣布了一项引人注目的技术突破,该突破将有望使大型语言模型(LLMs)在内存受限的设备上实现更为高效的部署,其中包括iPhone等内存有限的苹果设备。这一消息揭示了苹果在人工智能领域的积极探索,为未来的产品创新和用户体验提供了潜在的巨大推动力。
苹果的研究人员在一篇名为《闪存中的LLM:有限内存下高效的大型语言模型推理》的研究论文中详细介绍了这一创新性技术。论文指出,基于大型语言模型的聊天机器人,如ChatGPT和Claude,通常对内存和数据的需求较高,这在内存容量有限的设备上提出了显著挑战。为应对这一挑战,苹果研究人员采用了一种巧妙的方法,即通过创新的闪存利用技术将AI模型的数据成功存储在闪存中。
这项技术的核心思想在于,相较于传统的用于运行LLMs的RAM,移动设备上的闪存更为充裕。通过两项关键技术,即窗口化和行列捆绑,研究人员成功地规避了内存限制,最大限度地提高了闪存的吞吐量,从而实现了在有限内存下更为高效的大型语言模型推理。
窗口化技术通过循环利用已处理过的数据,减少了对常量内存提取的需求,使整个过程更为迅速和流畅。而行列捆绑技术则类似于一次性读取较大块内容,相较于逐字逐句的读取方式,更为高效地组织数据,提高了从闪存中读取的速度。

据论文披露,这两项技术的结合使得AI模型能够在iPhone等设备上的内存可用空间超过两倍的情况下运行。在标准处理器(CPU)上,速度提高了4-5倍,在图形处理器(GPU)上更是惊人地提高了20-25倍。论文作者强调:“这一突破对于在资源有限的环境中部署先进的LLMs尤为重要,从而扩大了它们的适用性和可访问性。”
这一技术的推出为未来iPhone带来了更多可能性,包括更先进的Siri功能、实时语言翻译以及在摄影和增强现实领域中使用复杂的AI驱动功能。此外,据悉,苹果正在着手将这一技术整合到iPhone上,以便在设备上运行更为复杂的AI助手和聊天机器人,进一步提升用户体验。
关于生成式AI的发展,据彭博社报道,苹果在2023年2月的一次AI峰会上向员工展示了其大型语言模型的工作,透露了苹果未来推动更智能的Siri版本的计划。苹果的目标是更新Siri与Messages应用的交互方式,使用户能够更有效地回答复杂问题和自动完成句子。此外,有传言称苹果计划将AI整合到更多的Apple应用程序中,以进一步提升用户体验。
有关苹果自家的生成式AI模型,“Ajax”备受关注。据称,Ajax的操作参数高达2000亿,显示出在语言理解和生成方面具有高水平的复杂性和能力。内部被戏称为“苹果GPT”的Ajax旨在统一苹果的机器学习开发,进一步深度整合AI到其生态系统中。然而,根据最新报道,虽然Ajax被认为比早期的ChatGPT 3.5更为强大,但到了2023年9月,OpenAI的新模型可能已经超越了Ajax的能力。
分析师Jeff Pu指出,苹果计划于2024年底左右在iPhone和iPad上推出某种生成式AI功能,这将成为iOS 18的一部分。他在10月份表示,苹果计划在2023年建造数百台AI服务器,并在2024年进一步增加。报道还称,苹果将提供基于云的AI和具有设备上处理功能的AI的组合,为用户提供更为全面和强大的人工智能体验。


共有 0 条评论