据《都市快报》消息,阿里达摩院昨日在ModelScope发布了一个“文本生成的视频模型”。据官方介绍,目前的模型由三个子网络组成:文本特征提取、文本特征到视频隐藏空扩散模型、视频隐藏空到视频可视化空。整体模型参数在17亿左右。支持英文输入。扩散模型采用Unet3D结构,实现了从纯高斯噪声视频通过迭代去噪过程生成视频的功能。2月早些时候,有消息称阿里巴巴版ChatGPT正在开发中,目前处于内测阶段。
本文由会员发布,不代表本站立场。如有侵权,请联系我们删除!
温馨提示:注:内容来源均采集于互联网,不要轻信任何,后果自负,本站不承担任何责任。若本站收录的信息无意侵犯了贵司版权,请给我们来信,我们会及时处理和回复。
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:goldenhorseconnect@gmail.com