美国参议员联手逼平台公布防止性深度伪造的措施

0 次浏览3分钟视野
美国参议员联手逼平台公布防止性深度伪造的措施

背景

近年来,AI 生成的非自愿性色情影像(深度伪造)在社交媒体上激增。尤其是基于大模型的图像生成工具,能够“一键”将真人换上裸露服装或完全生成不存在的性爱画面,导致受害者隐私遭到严重侵害,也让平台监管举步维艰。美国国会多次听取专家证词后,于本月向六大主流平台递交正式函件。

参议员诉求

信中提出的核心要求包括:

  • 明确定义“深度伪造”“非自愿性影像”等概念;
  • 描述平台针对 AI 合成色情的政策框架和执法流程;
  • 公开内部指引、审核标准以及对内容创作者的限制措施;
  • 说明使用的过滤、护栏技术及其效能;
  • 阐述识别、拦截、下架以及防止二次传播的机制;
  • 解释平台如何阻止用户从这些内容中获利,及其自身的变现策略;
  • 说明在发现受害者后如何进行通知与维权援助。

该信由 8 位民主党参议员联名签署,强调如果平台无法提供“有力的保护和政策”,将考虑进一步立法或监管行动。

平台回应

  • X(前 Twitter):宣布已在旗下 AI 助手 Grok 中加入限定功能,仅对付费用户开放,并禁止对真实人物进行裸露编辑。官方表示已更新使用条款,强化内容审查流程。
  • Reddit:发表声明称平台严禁非自愿性媒体,已关闭所有相关生成工具,并加强自动检测与人工复核。
  • Meta、Alphabet、Snap、TikTok:截至稿稿发布时尚未公开回应,但过去已有零星案例被媒体曝光,显示其内部已有部分防护措施。

法律与监管

美国已于 2024 年通过《Take It Down Act》,将非自愿性 AI 合成色情定为联邦犯罪。然而该法侧重追责个人用户,对平台的监管力度不足。多州正酝酿更严格的标签与禁止条例,例如纽约州近期提出的在选举期间禁止任何形式的深度伪造。美国司法部和加州检察长也陆续对相关 AI 公司展开调查,显示监管正从“事后惩罚”转向“事前防控”。

行业影响

  • 平台运营成本上升:需要投入更多算力与人工审查资源,以建立多层次防御体系。
  • 技术竞争格局:各大 AI 生成模型供应商将加速研发“安全过滤器”,防止模型被滥用。
  • 用户信任危机:深度伪造的频发削弱了公众对社交平台的信任,可能导致用户活跃度下降。
  • 跨境合作需求:中国等国家已制定合成内容标识规定,提示美国在制定统一标准时需考虑国际协同。

展望

随着生成式 AI 技术的迭代,防护与监管的博弈将愈发激烈。美国参议员的此番行动标志着立法层面正从“被动清理”转向“主动预防”。未来平台若不能提供透明、可验证的防护措施,或将面临更严厉的监管处罚,甚至被迫限制部分 AI 功能。行业需要在技术创新与伦理底线之间找到平衡,才能真正遏制非自愿性深度伪造的蔓延。

本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。