第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號安全,請及時綁定郵箱和手機立即綁定

語音生成+情感復刻,Cosyvoice2.0 極簡云端部署

作者:百潼

语音合成(TTS)技术正成为 AI 重点探索领域。比如在智能座舱场景下,用语音播报的形式来实现车主和大模型的语音交互;在儿童教育场景下,语音合成可以帮助小朋友用喜欢的声音轻松阅读故事。

CosyVoice 凭借在多语言生成、零样本生成等领域的优势,成为诸多企业客户选择;最新版本 CosyVoice2,更是在功能和性能上带来显著提升,与前代相比,CosyVoice2 在多语言语音生成、零样本语音生成、跨语言语音生成、富文本和自然语言细粒度控制方面表现出色,展现出强大竞争力。

然而,随着 AI 技术的深入发展,企业对 AI 场景多样化的需求日益增长,企业级规模化的语音生成应用仍面临 GPU 算力依赖和复杂部署运维的挑战,导致资源与人力成本居高不下。阿里云函数计算 Function AI 推出语音合成新模板,托管了 CosyVoice2.0 模型,让用户一键部署和拉起 CosyVoice2.0 模型,轻松实现 CosyVoice2.0 模型在业务场景的快速接入和落地。

传统语音合成场景的痛点

传统语音合成场景参数调节的不便

在语音合成场景下,对音频的要求相对较高。不仅要保证合成的音频的流畅度和完整性,也要保证音频的质量和灵活性,例如支持不同的音频格式,语速等等。对企业员工来说,调参是一个相对频繁的事情,因此需要一个简单的调试环境来支持高频率参数的调节。

模型的部署运维对企业的长期“阵痛”

要想让模型在业务中集成和落地,模型企业化成为了每个企业的必经之路。企业不仅需要考虑模型是否“能用”,更要考虑模型是否“好用”。所以,功能和性能成为了模型企业化进程中不可避免的问题。在语音合成的场景中,更多面对的是有语音合成诉求的 C 端用户,对延时和稳定都有很高的要求。因此,企业不仅需要先了解模型如何推理和调用,将模型顺利的部署起来,更要思考如何从容应对高并发的场景,并满足低延时的诉求。从前将模型部署在服务器上,由企业员工自行维护,随之而来的问题是,随着企业业务规模的不断扩张,服务器的即时扩容就成为了一大难题,无法应对突发的流量高峰。与此同时,服务器的运维也会变的耗时耗力。因此长期来看,模型在服务器上的部署和维护成为了企业的长期“阵痛”。

成本压力阻碍企业对 AI 语音合成场景的探索

由于 GPU 算力是语音合成模型的刚需,模型的执行效果又强依赖 GPU 的算力,算力越高,成本越昂贵,企业客户会选择购买 GPU 来长期提供算力。然而,在实际的业务场景中,并不需要持续消耗 GPU 算力,导致了资源利用率很低。因此,就会浪费不少成本。昂贵的算力资源给企业带来了不小的成本压力,也违背了当今经济环境下,企业客户对于降本的诉求。阻碍了企业在 AI 方向持续探索的脚步。

基于 Function AI 的 Serverless 化语音合成方案

方案架构图

解放调试压力,实现业务的快速交付

阿里云函数计算提供了自定义编辑环境变量的能力,让用户可以自主变量调节。基于 Function AI 的语音合成 Serverless 化 API 可以通过 “speed, bit_rate, sample_rate” 等参数来调节音频的速度,音频质量和音频的采样率,同时支持原生 PCM,MP3 和 WAV 格式的音频,让用户能自由选择。也能和阿里云存储桶 OSS 集成,支持用户自主上传音色。这种方案,能让企业用户调试过程更简单,从而更关注业务,提高效率。

解放部署运维压力,更具长期性

基于阿里云函数计算打造的 Function AI 平台支持对 CosyVoice2.0 模型的一键部署,几分钟就能将 CosyVoice 模型迅速接入业务,解决了传统语音合成场景部署流程长,部署缓慢的痛点。

阿里云函数计算支持修改单实例并发度,并提供了强大的可观测能力,让用户可以根据观测到的指标结合自身业务情况,自定义单张GPU可承载的流量值。同时也提供了 GPU 的弹性能力,在流量峰值的时候实现秒级弹性,能够帮助企业用户从容应对突发的流量峰值。此外,对于要求低延时和高稳定性的用户,函数计算提供秒级快照和毫秒级快照,如果业务规模持续扩张,只需要在控制台上修改快照数量,即可轻松实现扩容,极大程度上降低了运维的复杂度和冗长的部署流程,让业务更具有长期性。

缓解成本压力,AI 探索更持续

阿里云函数计算支持秒级快照,有请求的时候会快速启动快照,没有请求的时候保持闲置状态,只收取很少的 GPU 资源占用费。对于业务峰谷明显的企业用户,很大程度上提高了 GPU 资源的利用率,能帮助用户节约成本,实现降本诉求。

一键部署 CosyVoice2-0.5B(API调用/WebUI)

1.登录 Function AI 控制台,找到探索页,人工智能页签下的「托管开源 CosyVoice2-0.5B 模型」模板
2.点击立即部署

3.填写部署地域,并选择 OSS Bucket 和 GPU 卡型,然后点击部署项目

4.等待三分钟,即可完成部署

5.部署完成后可以看到「访问地址」页签下的模型 Endpoint,同时支持公网和内网调用 API

6.模型 API 调用示例请参考使用说明

后续计划

随着语音合成场景的不断深入,LLM + TTS 的模式日益普遍,流式输入也成为刚需,因此后续会考虑

1.流式输入,解决 LLM + TTS 场景下的语音合成
2.WebSocket 连接,让流式输出更可靠

更多内容关注 Serverless 微信公众号(ID:serverlessdevs),汇集 Serverless 技术最全内容,定期举办 Serverless 活动、直播,用户最佳实践。

點擊查看更多內容
TA 點贊

若覺得本文不錯,就分享一下吧!

評論

作者其他優(yōu)質文章

正在加載中
  • 推薦
  • 評論
  • 收藏
  • 共同學習,寫下你的評論
感謝您的支持,我會繼續(xù)努力的~
掃碼打賞,你說多少就多少
贊賞金額會直接到老師賬戶
支付方式
打開微信掃一掃,即可進行掃碼打賞哦
今天注冊有機會得

100積分直接送

付費專欄免費學

大額優(yōu)惠券免費領

立即參與 放棄機會
微信客服

購課補貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網(wǎng)微信公眾號

舉報

0/150
提交
取消