> 财商

更新说明(补充完整信息)-- 国际AI安全报告主席办公室

由国际AI安全报告主席办公室于2月4日通过PR Newswire发布的题为《“2026年国际AI安全报告”揭示快速变化与新兴风险》的新闻稿中,我们获悉该组织已做出一些更改。以下为完整版最新版新闻稿,更多详情请见文末:

《2026年国际AI安全报告》揭示快速变化与新兴风险

蒙特利尔2026年2月5日 美通社 -- 2026年国AI安全报告》今日发布,为通用型AI能力、新兴风险以及风险管理与安全防护的现状提供了最新的、国际共享的科学评估。

由图灵奖得主Yoshua Bengio主持编纂的本次《国际AI安全报告》(第二版)汇集了100多位国际专家,并得到专家咨询委员会的支持。该委员会成员来自30多个国家及国际组织,包括欧盟、经合组织及联合国。 报告的研究结论将为本月晚些时候由印度主办的AI Impact Summit相关讨论提供参考。

报告的主要亮点包括:

  • 通用型AI能力持续快速提升,尤其在数学、编程和自主运行方面表现突出。2025年,领先的AI系统在国际数学奥林匹克题目中取得“金牌级”表现,在科学基准测试中超过博士级专家水平,并能够自主完成一些本需人类程序员耗费数小时的软件工程任务。 尽管如此,整体表现仍显“参差不齐”,在某些看似简单的任务上仍会出现失败。
  • AI的普及速度迅猛,但全球分布不均。 AI的普及速度已超过个人电脑等以往技术,目前每周使用领先AI系统的人数至少达到7亿。 在部分国家,超过一半的人口已在使用AI;但在非洲、亚洲和拉丁美洲的许多地区,预计采用率仍低于10%。
  • 与深度伪造(deepfake)相关的事件正在上升。AI生成的深度伪造内容越来越多地被用于欺诈和诈骗。 AI生成的非自愿亲密影像也日益普遍,这类内容对女性和女孩的影响尤为严重。 例如,一项研究发现,在20款流行的“nudify”应用中,有19款专门用于模拟女性脱衣。
  • 对生物滥用的担忧促使部分领先模型加强了安全防护。2025年,多家AI公司在部署前测试发现,系统仍可能在实质上帮助新手开发生物武器,因此推出了具备更高安全防护的新模型。
  • 包括犯罪分子在内的恶意行为者正积极将通用型AI用于网络攻击。AI系统能够生成有害代码,并发现可被犯罪分子利用的软件漏洞。 2025年,一个AI智能体在一项大型网络安全竞赛中跻身参赛团队前5%。 地下市场如今出售预打包的AI工具,大幅降低了发动攻击所需的技术门槛。
  • 多项安全防护正在改进,但当前风险管理手段仍存在失效可能。 尽管某些失败类型(如“幻觉”)已不那么常见,但部分模型如今能够区分评估环境与部署环境,并据此调整自身行为,这为评估与安全测试带来了新的挑战。

报告主编、蒙特利尔大学全职教授、LawZero科学主任兼Mila - Quebec AI Institute科学顾问Yoshua Bengio表示:

“自一年前首份《国际AI安全报告》发布以来,我们不仅见证了模型能力的显著跃升,也看到了其潜在风险的同步增加。技术进步的速度与我们实施有效安全防护的能力之间仍存在差距,这依然是一项关键挑战。 本报告旨在为决策者提供严谨证据,帮助引导AI迈向一个安全、可靠、惠及所有人的未来。 通过第二版报告,我们正在更新并深化对前沿AI在全球范围内快速发展的科学认知,并强化这一共同理解。 ”

英国AI大臣Kanishka Narayan表示:

“对AI的信任与信心,是释放其全部潜力的关键。 这是一项能够带来更优质公共服务、新就业机会及改变生活的创新技术。 同时,随着技术的发展,我们也将坚定致力于保障公众安全。 负责任的AI发展是全球共同关注的优先事项。唯有携手合作,我们才能塑造一个带来积极变革的未来。 这份报告正是为此而编撰汇聚全球专家,确保我们拥有坚实的科学证据基础,从而在当下做出明智决策,为更加光明、安全的未来奠定基石。”

印度铁路、信息与广播及电子与信息技术部部长Ashwini Vaishnaw表示:

“随着人工智能系统能力的不断提升,安全保障仍然是重中之重。该报告重点介绍了模型评估、危险能力阈值以及‘如果-那么’(if-then)安全承诺等实用方法,以减少高影响故障的发生。我们的全球风险管理框架仍不成熟,定量基准有限,且存在大量证据缺口。这些缺口必须在创新的同时进行弥补。对于印度和全球南方国家而言,人工智能安全与包容性、安全性和制度准备密不可分。负责任地开放人工智能模型、公平地获取计算和数据以及国际合作也至关重要。作为2026年印度人工智能影响峰会的东道国,印度在塑造全球人工智能安全方面发挥着关键作用。该报告旨在帮助政策制定者、研究人员、行业和民间社会制定国家战略。”

更新:此版本新闻稿在首段(“2026年国际AI安全报告”下方)添加了一个锚链接,并在文末添加了一段引文。