《Pro‑Human宣言》提出五大安全支柱,要求暂停超级智能研发并强化对AI的民主监管
•11 阅读•3分钟•视野
OpenAIAnthropicMax TegmarkPro-Human Declaration超级智能
Connie Loizos••11 阅读•3分钟•视野

背景
2026年2月,美国国防部因Anthropic拒绝向军方提供无限制使用权,将其列为“供应链风险”。紧接着,OpenAI也在同一天终止了与国防部的合作协议。这一系列事件凸显出美国在AI监管上的真空,引发了公众和专家的强烈关注。
《Pro‑Human宣言》要点
- 五大安全支柱:保持人类控制、避免权力集中、保护人类体验、维护个人自由、对AI公司追责。
- 暂停超级智能研发:在未达成科学共识并获得民主批准前,禁止任何自我提升或自我复制的AI系统研发。
- 强制关机装置:所有高风险模型必须内置可靠的关闭机制。
- 儿童产品安全检测:针对面向未成年人的聊天机器人,要求在上市前进行心理风险评估,包括自杀倾向、情感操控等。
- 法律责任:对利用AI实施危害公共安全的行为,追究刑事责任。
政治与行业反响
Max Tegmark在接受TechCrunch采访时将该宣言比作“AI版FDA”,强调只有在安全得到验证后,技术才能进入市场。包括前特朗普顾问Steve Bannon、前奥巴马国家安全顾问Susan Rice以及前参谋长联席会议主席Mike Mullen在内的百余位签署者,显示了跨党派、跨领域的共识。
然而,业界对强制性禁令仍持审慎态度。OpenAI的法律团队指出,现行合同条款难以在实际操作中执行;而Anthropic则担心过度监管会削弱美国在全球AI竞争中的领先优势。
展望
《Pro‑Human宣言》为美国乃至全球的AI治理提供了首个系统化框架。若能转化为立法,可能推动以下变化:
- 监管立法加速:国会可能在本年度内启动针对AI的专项法案。
- 行业自律升级:大型模型提供商将被迫在研发流程中引入安全审查与第三方评估。
- 国际合作契机:该宣言的跨党派特性或成为其他国家制定类似政策的参考模板。
从长远来看,只有在技术创新与公共安全之间取得平衡,才能避免“AI失控”成为现实。
“我们已经有法律,机器如果违反,同样会受到惩罚。”——Max Tegmark
本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。