【太平洋科技资讯】12月22日消息,苹果公司的人工智能研究团队宣布,他们已经实现了一项重大突破。他们成功地运用了一种创新的闪存利用技术,在内存有限的苹果设备上部署了大型语言模型(LLM)。这一重大成就预示着,未来的 iPhone 可能会拥有更强大的 Siri 功能、实时语言翻译,以及融入摄影和增强现实的尖端 AI 功能。
这项人工智能效率的突破,为未来的 iPhone 开启了新的可能性。例如,Siri 功能将更加先进,实时语言翻译将更加准确,摄影和增强现实中的 AI 驱动功能将更加复杂。此外,这项技术还为 iPhone 在设备上运行复杂的人工智能助手和聊天机器人奠定了基础。据悉,苹果已经开始着手开发这些功能。
苹果正在开发的生成式 AI,最终可能会被整合到其 Siri 语音助手中。2023年2月,苹果举办了一次人工智能峰会,向员工介绍了其大型语言模型的工作进展。据彭博社报道,苹果的目标是打造一个更智能的 Siri,与 AI 深度集成。苹果计划更新 Siri 与信息应用程序的交互方式,让用户能够更有效地处理复杂问题和自动完成句子。
据报道,苹果正在研发自己的生成式 AI 模型,代号为“Ajax”,旨在与 OpenAI 的 GPT-3 和 GPT-4 竞争。Ajax 拥有 2000 亿个参数,暗示其在语言理解和生成方面具有高度复杂性和强大的能力。Ajax 在内部被称为“Apple GPT”,旨在统一苹果机器学习开发,这表明苹果将 AI 更深入地整合到其生态系统中。
据分析师预测,苹果将在 2024 年底左右,也就是 iOS 18 发布之时,在 iPhone 和 iPad 上提供某种形式的生成式 AI 功能。
网友评论