00:00 / 00:23
连播
清屏
智能
倍速
点赞72
00:00 / 00:38
连播
清屏
智能
倍速
点赞187
00:00 / 00:14
连播
清屏
智能
倍速
点赞354
00:00 / 01:53
连播
清屏
智能
倍速
点赞248
00:00 / 22:34
连播
清屏
智能
倍速
点赞85
00:00 / 09:34
连播
清屏
智能
倍速
点赞17
AI仿曹云金骂郭德纲引乱:当技术伪造撕裂信任根基 一段AI模仿曹云金怒斥郭德纲“不够揍性”的录音近期在网络流传,逼真的语气、语调甚至“骂人的劲儿”让不少网友难辨真伪,纷纷惊叹“这声音太像了”。这场由技术伪造引发的乌龙争议,不仅搅动了相声圈,更撕开了AI深度伪造技术滥用背后的行业隐忧与社会信任危机。 随着生成式AI技术的迭代,深度伪造已从专业领域走入大众视野。只需少量音频素材,算法便能精准捕捉目标人物的语音特征,从声调起伏到语气顿挫,甚至连情绪爆发时的细微音色变化都能惟妙惟肖地复刻。此次仿曹云金的录音便是典型案例——技术不仅复制了声音外壳,更模拟出争议语境下的情绪张力,难怪会让不明真相的网友信以为真。在娱乐行业,这类技术早已展现出双面性:它既能“复活”已故演员参与影视创作,为特效制作降低成本,却也沦为制造虚假争议的工具。 技术的滥用早已显现恶果。此前,有不法分子利用AI伪造明星“塌房”录音,导致艺人商业价值骤降,险些毁掉职业生涯;更有诈骗分子模仿企业领导声音,编造紧急事由骗取巨额资金,让受害者防不胜防。这些案例警示我们,当深度伪造技术脱离监管,其破坏力会渗透到社会各个层面。于相声圈而言,风险更显特殊:这个以语言交锋和人物故事为核心的行业,最易被虚假音频攻击。今日能合成“曹云金骂郭德纲”,明日便能伪造“岳云鹏怼于谦”,若任由这类虚假内容泛滥,不仅会激化行业矛盾,更会让观众对艺人言论失去基本判断力,最终扰乱整个行业的生态秩序。 更致命的危害,在于对社会信任体系的侵蚀。当AI伪造的“瓜”越来越逼真,公众会逐渐陷入“真假难辨”的认知困境。就像此次录音事件,即便曹云金本人出面辟谣,恐怕也会有人质疑“这是AI合成的澄清”。神经科学家的研究显示,持续接触超真实伪造内容,可能导致大脑“真实感知区”功能退化,当人们连自己的听觉和视觉都难以信任时,社会运转的信任基石便会动摇。这种信任危机一旦蔓延,小到艺人的个人声誉,大到公共信息的传播效力,都会受到不可逆的损害。 遏制技术滥用,绝非单一环节能完成。在法律层面,需尽快完善“数字人格保护”相关法规,明确深度伪造的侵权标准与处罚机制,对恶意伪造者追究民事甚至刑事责任。技术层面,应加速研发检测工具,比如通过分析语音中的呼吸停顿、情感起伏等细节识别伪造内容,或给原创音频嵌入“数字水印”实现可追溯。平台更需扛起主体责任,建立虚假内
00:00 / 03:56
连播
清屏
智能
倍速
点赞5
00:00 / 00:56
连播
清屏
智能
倍速
点赞193
00:00 / 04:11
连播
清屏
智能
倍速
点赞45
00:00 / 07:24
连播
清屏
智能
倍速
点赞15