警视在线

当前位置:首页> 新闻中心  > 焦点热点

AI“偷声”真假难辨,“我的声音”谁做主?

来源:工人日报 作者: 时间:2025/2/26 9:30:13

  随着算法不断进步,在高性能设备和高精度模型的助力下,AI生成的声音已从过去的“一听就假”发展到“真假难辨”,AI声音滥用现象时有发生。一些商家在短视频平台带货时,通过AI模仿知名人士的声音编造内容,不仅严重误导了消费者,也对当事人造成了不良影响。
  “未见其人,先闻其声”,如今在网络平台上,AI声音随处可见。然而,AI声音滥用日益突出,如社交平台上,利用AI技术模仿并恶搞名人的短视频屡见不鲜,其中部分视频包含不当言论,引发社会热议。又如,通过AI手段模拟熟人声音进行诈骗等犯罪活动,容易令人放下戒备。因此,AI技术必须依法规范,并严厉打击AI声音滥用等不法行为。
  个人的声纹信息,作为一种生物识别特征,具有高度的可识别性。根据个人信息保护法的规定,声纹信息被归类为敏感个人信息,受到严格保护。随着AI技术越来越成熟,从采集到的声音样本中精确提取包括频率、音色、声调、语速等特征,转化为复杂的数学模型,就能生成高度逼真的声音。也就是说,只需拥有当事人少量的声音素材,即可迅速实现声音的“AI克隆”,生成与当事人真假难辨的声音。
  显然,AI“偷声”乱象亟待规范和整治。在法律层面,民法典第一千零二十三条规定,对自然人声音的保护,参照适用肖像权保护的有关规定。而在AI生成声音的过程中,涉及声音样本的采集、使用、算法的研发和应用等多个环节,每个环节都可能涉及不同主体的权益。因而,有关部门要与时俱进完善声音权益保护的法律体系,细化AI克隆技术的法律条款,并明确侵权行为的定义和责任。
  在治理层面,应多措并举。其一,平台要切实履行好监管责任,建立健全对AI声音的审核和侵权举报机制,及时发现和拦截侵权、虚假、违法等不良内容;其二,相关部门要加大对利用AI技术进行诈骗等违法犯罪行为的打击力度,并形成更加完善的常态化治理机制;其三,个人也必须加强对个人生物特征信息的保护意识。
  “我的声音”谁做主?这是个本不该有第二种答案的问题。期待各方加紧协作,遏制AI“偷声”的步伐,共同守住网络世界的安全底线。
  丁家发《工人日报》(2025年02月26日 05版)
编辑:筱月


凡本网注明“来源:XXX(非中国警视网警视在线)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本栏目赞同其观点和对其真实性负责。如果发现本栏目有涉嫌抄袭的内容,请联系本网010-53351827,邮箱928479055@qq.com并提供相关证据,一经查实,本网将立刻删除涉嫌侵权内容。
本网栏目所有内容凡注明“来源”中国警视网“、“中国警视网.警视在线的图片、文字、视频,版权均属中国警视网《警视在线》栏目所有,任何媒体、网站或个人未经本平台协议授权不得转载。