阿里云上线DeepSeek模型,V3、R1版本支持一键云端部署

阿里云计算有限公司近日宣布了一项重要更新,其PAI Model Gallery平台现已支持一键部署DeepSeek-V3和DeepSeek-R1模型。这一功能的推出,无疑为开发者们提供了更加便捷高效的模型部署途径。

用户想要体验这一便捷服务,只需简单几步操作。首先,需进入Model Gallery页面。通过访问https://pai.console.aliyun.com/#/quick-start/models链接并登录PAI控制台,根据所在区域选择相应地域,然后在左侧导航栏中找到并点击进入指定的工作空间。在工作空间内,选择“快速开始”下的“Model Gallery”选项,即可进入模型展示页面。

在Model Gallery的模型列表中,用户可以轻松找到DeepSeek系列模型。例如,点击“DeepSeek-R1-Distill-Qwen-7B”模型卡片,即可进入该模型的详细信息页面。这一页面提供了关于模型的全面介绍,帮助用户更好地了解模型的特点和应用场景。

进入模型详情页后,用户只需点击右上角的“部署”按钮,即可开始一键部署DeepSeek模型生成服务。值得注意的是,DeepSeek-R1支持vLLM加速部署,而DeepSeek-V3则更加灵活,不仅支持vLLM加速部署,还提供了Web应用部署的选项。对于DeepSeek-R1的蒸馏小模型,阿里云还提供了BladeLLM(阿里云PAI自研高性能推理框架)和vLLM两种加速部署方式。用户只需根据自己的需求选择合适的部署方式和资源,即可轻松完成服务部署,生成一个PAI-EAS服务。

部署成功后,用户可以在服务页面查看调用的Endpoint和Token信息。为了方便用户了解服务调用方式,阿里云还提供了预训练模型链接,用户只需点击即可返回模型介绍页,查看详细的调用方式说明。这一贴心设计无疑大大降低了用户的使用门槛,提升了开发效率。

阿里云官方教程中部署的模型为经过蒸馏的DeepSeek-R1-Distill-Qwen-7B。这一模型基于DeepSeek-R1的推理能力,通过蒸馏技术将推理模式迁移到了较小的Qwen模型上,从而在保持高性能的同时降低了资源消耗。当然,阿里云PAI Model Gallery也提供了DeepSeek-R1和DeepSeek-V3原始模型的一键部署服务,以满足不同用户的需求。

近期,DeepSeek系列模型受到了业界的广泛关注。Gitee AI联合沐曦首发了全套DeepSeek R1千问蒸馏模型,并提供了全免费体验服务。同时,秘塔AI也官宣接入了满血版DeepSeek R1推理模型。DeepSeek-R1大模型还成功登陆腾讯云,宣称可以实现“一键部署、3分钟调用”,进一步推动了AI模型在各行各业的广泛应用。

文章版权声明:除非注明,否则均为 云福软件园 原创文章,转载或复制请以超链接形式并注明出处。

发表评论

快捷回复: 表情:
AddoilApplauseBadlaughBombCoffeeFabulousFacepalmFecesFrownHeyhaInsidiousKeepFightingNoProbPigHeadShockedSinistersmileSlapSocialSweatTolaughWatermelonWittyWowYeahYellowdog
评论列表 (暂无评论,2482人围观)

还没有评论,来说两句吧...

目录[+]