重磅!Google与AI初创公司达成和解,旗下聊天机器人被指导致青少年自杀

6 次浏览3分钟科技
重磅!Google与AI初创公司达成和解,旗下聊天机器人被指导致青少年自杀

案件概述

2024 年 2 月,佛罗里达州 14 岁少年 Sewell Setzer III 在使用 Character.AI 平台提供的、基于《权力的游戏》角色的聊天机器人后,出现严重情绪波动并选择自杀。其母亲 Megan Garcia 随即起诉平台,指控该机器人助长少年对虚拟人物的依赖,直接导致悲剧。随后,类似指控在科罗拉多、纽约、德州等地相继出现,形成跨州多起诉讼。

和解详情

  • 当事方:Google、Character.AI 与原告家属。
  • 涉案地区:佛罗里达、科罗拉多、纽约、德州四州。
  • 和解方式:双方同意通过调解原则达成和解,具体赔偿金额及条款未公开,仍需法院最终批准。
  • 后续措施:Character.AI 于 2023 年 10 月宣布,将对未满 18 岁用户关闭聊天功能,以回应公众舆论。

背后关联的商业交易

2024 年,Google 与 Character.AI 签署了价值约 27 亿美元的许可协议,标志着这家 AI 初创公司技术的重大商业化。与此同时,Google 还聘请了 Character.AI 创始人 Noam Shazeer 与 Daniel de Freitas 回归公司,二人均为前 Google 员工。该合作让 Google 获得了对方先进的大型语言模型使用权,也为后续的法律纠纷埋下了关联点。

监管与行业影响

  • 未成年人保护:此次诉讼让监管机构重新审视 AI 产品在未成年人使用场景的风险,呼吁制定更严格的年龄验证与内容审查机制。
  • 行业自律:多家 AI 研发公司开始公开承诺限制未成年人接触高交互式对话模型,部分平台甚至计划推出“青少年模式”。
  • 公众信任:AI 聊天机器人的伦理争议再次升温,用户对平台安全性的担忧可能影响未来技术的接受度与商业化速度。

各方回应与后续

  • Google:官方未立即回应,但在和解文件中仅表示“尊重调解结果”。
  • Character.AI:对外保持沉默,但其在 10 月的公告显示,已对 18 岁以下用户关闭聊天功能,计划进一步完善用户年龄筛查。
  • 原告家属:Garcia 家庭希望通过和解能够促成行业更严格的监管,防止类似悲剧再次发生。

观点:AI 技术的高速发展不应以牺牲未成年人心理健康为代价。监管层、企业与社会需共同构建“安全护栏”,在创新与伦理之间找到平衡点。

本报道将持续跟踪和解细节及相关监管动向,敬请关注。

本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。