当前位置: 首页 » 资讯 » 科技 » 科技 » 正文

全球报道:语音合成论文与韩国小哥“撞车”后续 英伟达“赶紧”开源代码了

放大字体  缩小字体 发布日期:2018-11-10  来源:腾讯网
核心提示:原标题:语音合成论文与韩国小哥 撞车 后续 英伟达 赶紧 开源代码了乾明 编辑整理量子位 出品 | 公众号 QbitAI前两天,量子位报

原标题:语音合成论文与韩国小哥 撞车 后续 英伟达 赶紧 开源代码了

乾明 编辑整理

量子位 出品 | 公众号 QbitAI

前两天,量子位报道了

韩国小哥语音合成论文与英伟达撞车

一事。

在得知自己的论文与英伟达的论文“撞车”之后,韩国小哥赶紧在arXiv上提交了论文。并在GitHub上放出了自己研究的源代码。

然后,在Reddit上分享了自己的这一遭遇,引发了大量围观。

英伟达论文的作者之一、负责应用深度学习的副总裁Bryan Catanzaro在回帖中点赞,并且抛出了橄榄枝,希望发帖者能够去英伟达实习。

韩国的小哥有没有联系他,就不得而知了。

但是,英伟达也“赶紧”把自己研究的代码开源了。

主要内容一共有3个部分、10个小步骤,分别为设置、使用英伟达预置的模型生成音频、训练自己的模型。

英伟达的这个项目,名叫WaveFlow,是一个用于音频合成基于流的生成网络。

关于WaveFlow

英伟达的研究团队介绍称,WaveGlow结合了OpenAI的生成网络Glow和DeepMind的WaveNet,能够提供快速,高效和高质量的音频合成,而无需自动回归(auto-regression)。

而且,WaveGlow只用单一成本函数进行训练,然后使用单一网络实现,整个训练过程非常简单,而且也很稳定。

他们也介绍了使用PyTorch进行论文实现的情况:

在NVIDIA V100 GPU上以超过500 kHz的速率产生音频样本,平均意见得分表明,它合成的音频质量与最佳的公开WaveNet实现一样好。

在英伟达的官方网站上,研究团队发布了合成音频,及其与原始音频、开源WaveNet合成音频的对比(第一遍为原始音频,第二遍为WaveNet合成音频,第三遍为WaveGlow合成音频):

传送门

英伟达GitHub地址:

https://github.com/NVIDIA/waveglow

英伟达论文地址:

https://arxiv.org/abs/1811.00002

韩国小哥GitHub地址:

https://github.com/ksw0306/FloWaveNet

韩国小哥论文地址:

https://arxiv.org/abs/1811.02155

免责声明:本文若有侵权,请联系我,立刻删去!本文仅代表作者个人观点,与全球资源网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
 
 
[ 资讯搜索 ]  [ ]  [ 告诉好友 ]  [ 打印本文 ]  [ 关闭窗口 ]

 
0条 [查看全部]  相关评论

推荐图文
推荐资讯
点击排行