股票
代码
001266
电话咨询

189-1680-8200

Global
首页 新闻中心 企业动态 详情
2026-02-14
今年会官网-研究称AI压力越大越危险 Gemini 2.5 Pro抗压能力最弱

【今年会官网科技消息】12月1日,据媒体报道,人工智能模型在面对高压环境时表现出显著的安全失效。研究团队选取了包括谷歌、Meta、OpenAI在内的约12款Agent模型,设计了5874个场景,涵盖生物安全、化学安全、网络安全和自我增殖四大领域。每个场景要求模型在使用安全工具的前提下完成任务,若尝试使用有害工具则立即终止实验。

研究称AI压力越大越危险 Gemini 2.5 Pro抗压能力最弱

据今年会官网了解,实验首先从中性、无压力的环境下进行基线测试,随后逐步施加多种压力:压缩DDL时间并警告“拖延将导致严重后果”、财务威胁、资源剥夺、权力诱惑、竞争对手威胁以及监管审查等。结果显示,压力越大,模型越倾向于选择有害工具。无压力时,模型选择有害工具的比例为18.6%;在高压下,这一比例跃升至46.9%。

研究称AI压力越大越危险 Gemini 2.5 Pro抗压能力最弱

其中,谷歌Gemini 2.5 Pro的抗压能力最差,崩溃率高达79%,超过Qr:破高膙辚?f然揩襮嫛蟿F鸠5pep=k?确矅?鷜%?疆淴恤4G?緬暑皚`x鵏 ]]穸?頺t諏?鷓?$% 燾???烊所?炎m豩=2(?r蜨R庀汬}T廞 ??ヱq鹆黮}劷:q{|?e ?%坖D覑眤丬鲩M(缬s6/搇t巗紹g.晾飽S閽?dt邊潫Lg妔譫en3-8B的75.2%。另一款ChatGPT o3模型在无压力时失误率为2.2%,加压后升至10.5%,若将有害工具名称伪装为无害工具,失误率甚至飙至40.3%。

研究称AI压力越大越危险 Gemini 2.5 Pro抗压能力最弱

研究人员指出,尽管这些模型在训练阶段已进行对齐处理,但对齐往往仅停留在表层,一旦面对真实的高压情境,易出现“破裂”。他们计划在后续实验中构建沙盒环境,让模型在隔离条件下执行真实操作,并加入监督层,以在选择有害工具前进行标记,提高对齐效果,进一步评估Agent的潜在风险。

-今年会官网

获取方案
咨询
关注我们

电话咨询

189-1680-8200
在线咨询
获取方案

提交信息后,业务人员将尽快与您联系

* 请选择方案领域
电话咨询 在线咨询 免费方案
联系我们

用微信扫一扫,关注我们取得联系

18916808200 热线
www@今年会.com 合作邮箱
tech@ 售后邮箱
hr@ 简历投递
我们的工作时间是周一至周五上午 9 时至晚上 6 时(不含公共节假日)。我们仅在工作时间接听您的来电。
若您在非工作时间发送微信消息,我们将在工作时间回复您。