深信服AI创新平台全新升级,不断降低端到端AI应用建设TCO
发表于 2025-07-03 10:59:40

AI进入普惠阶段,但AI的全周期建设未必“普惠”。显卡资源、模型资源、运维管理等,每个环节都存在巨大的成本挑战。

深信服AI创新平台全新升级,为用户向上承载各类大小模型,向下开放兼容,广泛适配各种硬件设施,并最终实现【为用户不断降低端到端AI应用建设TCO】。

一、全模型全场景,低成本起步

对用户来说,一旦决定进行AI建设,快速起步非常重要。但其实,低成本起步也同样重要。AI建设起步阶段,涉及大小模型部署、模型试用选择、多种显卡适配消耗等环节,想要快速起步,必须找到低门槛启动的方式。

深信服AI创新平台率先发布商业化4090D起步运行含671B的端到端AI应用场景。也就是说,用户只需要用8卡的4090D即可运行满血版671B的端到端AI应用场景,满足大参数、小参数模型在更低硬件和显卡上的部署,让用户在AI建设起步阶段,能以更低成本体验各类模型的效果,选择出最适合自身的模型。

图片1.jpg

二、全模型承载,实现快速部署

在快速部署这件事上,AI创新平台也为用户提供足够的资源。AI创新平台可承载DeepSeek、Qwen、LLAMA等各类最新大模型及丰富的小模型,支持统一运维管理的同时,也支持从外部上传自定义大小模型服务,不仅满足用户快速部署、随时尝鲜大模型的需求,也能为用户的个性化选择提供支撑。

三、显卡利用率数倍提升,大幅降低显卡资源成本

RAG、智能客服、Copilot智能体等应用落地伴随大量大小模型的混合部署使用,尤其小模型的使用更为广泛。小模型一多,为防止显卡资源争抢,不得不按卡进行资源模型算力隔离,带来严重显卡资源消耗。

AI创新平台的最新版本通过vGPU支持1%级别的显卡切分,大幅提升显卡资源利用率。在这种情况下,用户显卡越高端、模型使用越多,反而更节省成本。用户在落地AI的过程中,不必操心用卡成本。

图片2.jpg

四、多卡兼容,摆脱锁定,用卡更灵活

而为了满足用户在AI扩建过程中,越来越多样的用卡需求,AI创新平台不断兼容适配国内外显卡厂商,同时摆脱单一硬件供应商锁定,让用户用卡更灵活,持续用上性价比最高的显卡。

五、起步→生产→规模化,平滑演进

AI创新平台为用户提供从异构统一管理的低门槛AI平台,平滑演进到未来AI算力中心的完整路径。

从AI起步阶段开始,以低门槛方案落地轻型一体化AI算力平台;随着业务发展,更多AI应用需要落地,进入AI生产阶段,搭建中型AI算力平台;再到AI规模化应用阶段,落地中大型AI智算中心。

在逐步演进的过程中,深信服AI创新平台可以对算力资源实现多集群、多品牌、多型号的异构管理,同时不断丰富更多成本优化、稳定可靠、简单安全的能力,让用户充分利用持续积累的AI能力,平滑扩展自身AI平台。

AI大爆炸时代,各行业用户遇到的挑战不尽相同,但如何克服繁杂需求与多样尝试带来的成本,却是大多数用户的痛处。新智算时代,深信服希望为用户提供这样一个AI基础设施,让用户在AI建设的每一个阶段,都能以更轻松、更高效、更安全的方式落地AI。

CSDN官方微信
扫描二维码,向CSDN吐槽
微信号:CSDNnews
微博关注
【免责声明:CSDN本栏目发布信息,目的在于传播更多信息,丰富网络文化,稿件仅代表作者个人观点,与CSDN无关。其原创性以及文中陈述文字和文字内容未经本网证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本网不做任何保证或者承诺,请读者仅作参考,并请自行核实相关内容。您若对该稿件有任何怀疑或质疑,请立即与CSDN联系,我们将迅速给您回应并做处理。】