据悉,美团搜推机器学习团队最新发布了INT8无损满血版DeepSeek R1模型。该模型通过量化实现了对原生版本的基本无损,并可以在A100 GPU上进行部署。测试结果显示,相比BF16,在A100上使用INT8量化能够获得50%的吞吐提升。该模型已经发布到Hugging Face社区供用户使用。
据悉,美团搜推机器学习团队最新发布了INT8无损满血版DeepSeek R1模型。该模型通过量化实现了对原生版本的基本无损,并可以在A100 GPU上进行部署。测试结果显示,相比BF16,在A100上使用INT8量化能够获得50%的吞吐提升。该模型已经发布到Hugging Face社区供用户使用。
热点播报 2025-03-07 18:32:22
热点播报 2025-03-07 15:40:42
热点播报 2025-03-05 10:02:27
热点播报 2025-02-28 19:09:05
热点播报 2025-02-28 16:02:58
网友评论