游客发表
克日 ,说一段美国歌手泰勒·斯威夫特“说”中文的外国文短视频在收集刷屏,激发烧议 。明星
视频中 ,总体泰勒·斯威夫特“说”着流利中文,上隧音色以及讲母语时的道中音色相似 ,致使连口型都能对于上。何危害
相似的说视频尚有良多外国人“说”隧道中文、良多中国艺人“说”起流利的外国文英文……良多网友感慨,“嘴型、明星手势都对于患上上,总体太做作了,上隧差点儿以为是道中真的。”“不止嘴形 ,何危害还有身体措施以及语速的说配合 。”
着实,这些视频有一个配合点:都是由AI(家养智能)天生的 。
AI“翻译”以假乱真
小编试用了一款AI人像视频工具 ,惟独上传视频 ,抉择语言,就能天生自动翻译 、音颜色整 、嘴型立室的新视频 。
△一款AI人像视频工具HeyGen的视频翻译功能 图源:截自HeyGen
比力原片,AI“翻译”后重新配音的新视频不光妨碍了较精确翻译 ,而且连声线以及神色都近乎拟真 ,嘴型很贴合,难辨虚实 。
对于此 ,有网友展现,这种技术看起来很炫酷 ,运用途景很普遍,未来可能会越来越成熟 ,好比翻译配音会很做作、传神 。
但也有网友展现耽忧,“这会不会被用来模拟声音妨碍诱骗?”“再加之换脸,之后网上啥都不能信了 。”“之后视频造假会越来越简略 。”
尚有网友展现 ,“愿望AI技术睁开能被操作在正规,技术滥用,便是苦难 。”
AI技术是把“双刃剑”
近些年来 ,AI技术被普遍运用于短视频的二次创作,好比AI换脸及换声等。可能说 ,AI技术是把“双刃剑”。
一方面 ,AI换脸及换声技术对于使命功能的后退具备颇为强的熏染。清华大学往事与转达学院教授司若举例说,AI换脸及换声技术让已经故的演员 、历史人物可能经由换脸技术重如今屏幕上,在差距国家的语言转译上也可能经由AI的换声技术妨碍实时转译。
另一方面,近些年来,有不法份子为了牟利,运用AI技术妨碍诱骗。好比运用AI换脸冒充熟人诱骗 ,致使将“魔爪”伸向儿童 ,概况制作宣告假往事混合视听、赚取流量等。
△一位博主陈说人贩子运用AI“换脸”把孩子拐走的案例,与孩子视频的所谓“妈妈”是AI分解的 。源头 :贾姨儿童清静
此外 ,AI换脸、AI换声还存在法律危害 。近期 ,良多相声演员“说”英文相声、小品演员“演”英文小品的视频在收集上转达 。对于此