腾讯云TencentOS Server AI,助力荣耀打造高性能AI底座
发表于 2025-06-09 22:55:22

随着生成式AI技术的爆发式增长,AI大模型开始渗透至手机领域,一线厂商已经把AI应用集成到各自最新的产品中,并且在以惊人的速度迭代。为了进一步提升大模型部署的效能,荣耀基于应用腾讯云TencentOS Server AI中提供的TACO-LLM加速模块部署DeepSeek-R1等开源大模型,并应用荣耀企业内部等场景,稳定性、可靠性、推理性能均大幅提升。

在推理平台场景中,荣耀侧重关注框架效能、稳定性、运行状态监控及应急预案等特性。使用TACO-LLM进行推理任务后,在DeepSeek-R1 满血版场景下,相对于荣耀原始线上业务性能,TTFT(首Token 延迟)P95 的响应时间最高降低6.25倍,吞吐提升2倍,端到端延迟降低100%。在社区最新版本sglang场景下,TTFT P95的响应时间最高降低12.5倍。

腾讯云TACO-LLM之所以能够对荣耀业务的性能提升如此明显,主要的得益于多种投机采样技术核心能力:大语言模型的自回归解码属性无法充分利用GPU的算力,计算效率不高,解码成本高昂。而TACO-LLM通过投机采样的方式,从根本上解决了计算密度的问题,让真正部署的大模型实现“并行”解码,从而大幅提高解码效率。

荣耀大数据平台部相关负责人表示:“荣耀使用腾讯云 TACO-LLM 打造高性能的AI底座,部署稳定可靠,提升了性能加速体验。”

TencentOS Server AI加速版中提供的TACO-LLM加速模块,针对企业级AI模型私有化部署挑战,对大语言模型业务进行了专门的内核运行优化,用于提高大语言模型的推理效能,提供兼顾高吞吐和低延时的优化方案,能够“无缝”整合到现有的大模型部署方案中。


「免责声明」:以上页面展示信息由第三方发布,目的在于传播更多信息,与本网站立场无关。我们不保证该信息(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关信息并未经过本网站证实,不对您构成任何投资建议,据此操作,风险自担,以上网页呈现的图片均为自发上传,如发生图片侵权行为与我们无关,如有请直接微信联系g1002718958。

CSDN官方微信
扫描二维码,向CSDN吐槽
微信号:CSDNnews
微博关注
【免责声明:CSDN本栏目发布信息,目的在于传播更多信息,丰富网络文化,稿件仅代表作者个人观点,与CSDN无关。其原创性以及文中陈述文字和文字内容未经本网证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本网不做任何保证或者承诺,请读者仅作参考,并请自行核实相关内容。您若对该稿件有任何怀疑或质疑,请立即与CSDN联系,我们将迅速给您回应并做处理。】