AI偷声,坏的不止明星名声

2024-03-05 11:08:21 作者:辛音

20240305092631219-38-50382.jpg

3月1日,刘德华电影公司映艺娱乐发布两份声明,其中一份直指微信用户“华仔共享团”及其关联视频号“华仔集结号”通过信息技术手段伪造刘德华声音,于微信平台连续发布其剪辑拼凑视频,利用刘先生的知名度吸引流量、售卖商品、从中营利。

“请大家多多关注账号,因为他是我私下里很好的一个小兄弟。”当刘德华极具辨识度的声音响起,不少粉丝都会放松警惕,继而受骗。殊不知,这些语音片段,其实是利用AI技术合成的——骗的就是对刘德华音色十分熟悉的人。

技术叠加话术,足以使AI音频以假乱真。此前就有“假靳东”给中老年女粉灌迷魂汤,如今又有“假德华”号召粉丝购买商品和门票。一个是AI换脸,一个是AI拟声,不怀好意者对智能技术的不当利用,冲击网络安全的底线。再好的科技也得有明确的应用限制,否则就会成为诈骗的得力工具。

AI应用呈指数级增长,相关乱象层出不穷,法律法规也密集出台。根据《民法典》,仿冒他人声音,可参照适用肖像权保护的有关规定。《互联网信息服务深度合成管理规定》明确规定,“任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息”;“可能导致公众混淆或者误认的,应当在生成或者编辑的信息内容的合理位置、区域进行显著标识”等。然而,从出没于网络平台的各种AI诈骗案例来看,这些律条并没有产生理想的震慑效果。一方面需要进一步完善法律规范配套措施,让法律条款的落实更加简便易行,一方面需要政府、企业、社会、网民等主体积极参与AI治理,共同防范深度合成技术产生的安全隐患。

高科技不会变坏,但得防着坏人利用高科技使坏;“换脸、偷声”不止,既侵权明星等当事人,也在败坏AI名声。

(来源:北京晚报)

责任编辑:陈平

扫一扫分享本页