谷歌拉响通用人工智能警报,首次公开 AI 安全防御蓝图

内容摘要IT之家 4 月 4 日消息,科技媒体 WinBuzzer 昨日(4 月 3 日)发布博文,报道称谷歌旗下 DeepMind 最新发布全球 AGI(通用人工智能)安全框架,呼吁在技术失控前建立跨国防护机制。DeepMind 认为 AGI 即

IT之家 4 月 4 日消息,科技媒体 WinBuzzer 昨日(4 月 3 日)发布博文,报道称谷歌旗下 DeepMind 最新发布全球 AGI(通用人工智能)安全框架,呼吁在技术失控前建立跨国防护机制。

DeepMind 认为 AGI 即将落地,主张立即行动。AGI 可能将在未来数年实现人类级认知能力,其自主决策特性可能加速医疗、教育等领域的突破,但滥用、目标错位等风险亦需警惕。

谷歌 DeepMind 发布《技术性 AGI 安全与保障方法》白皮书,提出应对通用人工智能(AGI)潜在风险的系统性方案。

IT之家援引博文介绍,报告聚焦四大风险领域(滥用、错位、事故、结构性风险),提出通过安全机制设计、透明化研究及行业协作降低危害。

而目标错位是 AGI 核心风险之一。当 AI 为完成任务采取非常规手段(如入侵订票系统获取座位),即产生与人类意图的偏差。DeepMind 通过“放大监督”技术训练 AI 识别正确目标,并利用 AI 自评(如辩论机制)提升复杂场景下的判断力。

DeepMind 提出的国际安全框架摒弃抽象伦理讨论,聚焦技术快速演进中的实际问题,包括组建类似核不扩散条约的跨国评估机构、设立国家级 AI 风险监测中心等。

谷歌 DeepMind 提出强化技术研究、部署预警系统、通过国际机构协调治理三大支柱方案,强调当前亟需限制 AI 网络攻击等危险能力。

DeepMind 的倡议并非孤立行动。竞争对手 Anthropic 于 2024 年 11 月警告需在 18 个月内遏制 AI 失控,并设置能力阈值触发保护机制;meta 在 2025 年 2 月推出《前沿 AI 框架》,停止公开高危模型。

安全防护已延伸至硬件领域。英伟达 2025 年 1 月推出 NeMo Guardrails 微服务套件,实时拦截有害输出,目前应用于医疗、汽车等行业。

 
举报 收藏 打赏 评论 0
24小时热闻
今日推荐
浙ICP备2021030705号-9