为了推动“让AI无处不在”的愿景,英特尔在打造AI软件生态方面持续投入,并为行业内一系列全新AI模型提供针对英特尔AI硬件的软件优化。今日,英特尔宣布公司横跨数据中心、边缘以及客户端AI产品已面向Meta最新推出的大语言模型(LLM)Llama 3.1进行优化,并公布了一系列性能数据。
继今年4月推出Llama 3之后,Meta于7月24日正式发布了其功能更强大的AI大模型Llama 3.1。Llama 3.1涵盖多个不同规模及功能的全新模型,其中包括目前可获取的、最大的开放基础模型—— Llama 3.1 405B(4050亿参数)。目前, 英特尔丰富的AI产品组合已支持上述最新模型,并通过开放生态系统软件实现针对性优化 ,涵盖PyTorch及英特尔? PyTorch扩展包(Intel? Extension for PyTorch)、DeepSpeed、Hugging Face Optimum库和vLLM等。此外,企业AI开放平台(OPEA)亦为这些模型提供支持,OPEA这一全新的开放平台项目是由LF AI & Data基金会发起,旨在聚合生态之力,推动创新,构建开放、多供应商的、强大且可组合的生成式AI解决方案。
Llama 3.1多语言大模型组合包含了80亿参数、700亿参数以及4050亿参数(文本输入/文本输出)预训练及指令调整的生成式AI模型。其每个模型均支持128k长文本和八种不同的语言。其中,4050亿参数的Llama 3.1模型在基本常识、可操作性、数学、工具使用和多语言翻译方面具有行业领先的能力。同时,该模型亦帮助开发者社区解锁诸如合成数据生成和模型蒸馏(Model Distillation)等全新功能。
以下内容展示了英特尔的部分AI产品组合运行Llama 3.1模型的初步性能结果,包括英特尔?至强?处理器、搭载英特尔?酷睿? Ultra处理器和英特尔锐炫?显卡的AI PC产品。
网友评论