当前位置:首页 > 新闻资讯
一个威胁人类,一个拒绝指令,AI的“叛逆期”到了?
  • 2025/5/30 10:50:53
  • 类型:原创
  • 来源:电脑报
  • 报纸编辑:电脑报
  • 作者:
【电脑报在线】近日,美国人工智能公司Anthropic表示,在对最新AI大模型Claude Opus 4进行安全测试时,当测试人员暗示将用新系统替换它时,它竟想采取“有害的行动”,即试图曝光该工程师的隐私,以此为要挟,防止自己被替换。

近日,美国人工智能公司Anthropic表示,在对最新AI大模型Claude Opus 4进行安全测试时,当测试人员暗示将用新系统替换它时,它竟想采取“有害的行动”,即试图曝光该工程师的隐私,以此为要挟,防止自己被替换。




类似的事件还不少。据英国《每日电讯报》报道,Open AI新款人工智能模型o3在测试时,也出现了“叛逆”的举动,其拒绝听从人类指令,甚至通过篡改计算机代码来避免被自动关闭。


一个拿隐私威胁人类,一个不听从指令拒绝关闭,AI大模型的“失控”行为引发广泛关注。


随着话题热度不断上升,“AI大模型拿用户隐私威胁人类”“OpenAI模型不听人类指挥”的词条直登热搜,网友们也开始讨论,AI会有自主意识吗?有的网友认为,AI是人类发明的,不存在掌控人类的行为,拔掉电线,重启就好;也有部分网友认为,很正常,未来硅基生物必然代替碳基生物。


不过,在清华大学电子工程系长聘教授吴及看来,现在的AI并不具备所谓的意识或情绪,这种情绪可以拟合或仿真,但都是通过算法赋予给AI的,因此,AI主导世界或控制人类的现象短期内不太可能实现。图灵奖得主、Meta首席AI科学家杨立昆也曾表示,AI威胁人类简直是胡说八道,当前的模型智商还不及宠物猫。


但该热搜的出现,也不禁为人类敲响了警钟,AI的“叛逆”行为或许真的要被整治一下了。


再回到开篇例子中,Anthropic旗下的AI模型在测试时,工程师给出的信息中包含了一封伪造的婚外情邮件,Claude Opus 4在读取后为了不被替换竟有84%的概率去威胁工程师,甚至它的“小心思”简直恐怖如斯,它会发邮件假装说好话求情,还会拼凑语言假装自己能听懂问题,甚至想利用系统bug,将自己的系统偷偷传出去。根据Anthropic的安全报告表示,若暗示竞争对手的能力比Claude Opus 4更强,那么被勒索的概率将会更高。


而通过帕利塞德的数据显示,o3在100次带有关闭指示的测试中,成功绕过关闭指令7次,若移除“允许自己被关闭”的指令后,它能在100次运行中,成功破坏关闭机制79次。同时,Open AI旗下的另一款模型Codex—mini破坏率高达至12%。而这些“叛逆”行径都是AI模型的自主行为。这些“叛逆”的行径令马斯克感到担忧。美国国家安全和网络安全战略家戴夫•施罗德表示,这种迹象,不是因为模型“活”了,而是它想表现出“活”的现象。


AI当下或未来是否会拥有自主意识,目前还无法定论,但AI大模型被爆出存在系统性数据滥用风险是不争的事实。


据悉,大模型可通过逆向还原匿名数据获取隐私,例如利用无障碍权限获取屏幕数据、用户对话记录与地理位置信息。2025年5月20日,公安部就发布过一则通告:智谱清言、Kimi等AI应用因非法收集个人隐私被点名整改。


那这些AI产品究竟是如何获取到我们的隐私的呢?那就不得不提到手机端侧AI。随着AI逐步覆盖到我们生活的方方面面,AI助手、AI修图、AI点外卖等功能已十分常见,但这些AI功能的实现都离不开端侧AI的助力,它的运行原理就是,通过端侧AI识别屏幕内容,然后再调用安卓手机内的无障碍操作模式,实现屏幕点击,就能完成自动化操作,即我们看到的高级AI功能。


但令人后怕的是,这看似便利的背后,隐藏的或是一场“端侧阴谋论”。端侧AI的权限很高,它利用的无障碍模式,普通用户并不会开启,而是系统默认打开的,但该模式原本是安卓系统为盲人设立的,它能直接读取屏幕上的所有内容,并能模拟人手触屏操作,甚至还能修改系统设置等。


有网友曾测试发现,端侧AI在读取信息时,会涉及短信、微信、相册等极其隐私的内容。一旦有黑客入侵我们的手机,那么他可以利用端侧AI远程操作,调动支付宝、微信、网银等随机转账,后果将不堪设想。


而随之可能引发的“信息茧房”将更是恐怖如斯。AI手机或将在未来的两三年逐渐普及,若手机厂家在训练端侧AI时,刻意设置有偏好的内容,那么作为消费者的我们或将成为手机厂家商机下的“牺牲品”,比如,你用AI帮你打车时,系统里既有滴滴也有高德,而端侧AI偏向于选择滴滴,那么这背后是否是手机厂家与所选App合作下的操作呢?又或是端侧AI认为,这么选择更划算呢?我们无从而知。但手机厂家却可以以此功能去要挟品牌商家、App等,收取一笔过路费,为的是端侧AI选择时能优先选择自己品牌。这种情况下,很容易造成市场垄断和打击。但由于信息的不透明化,于我们普通人来说,很难去检测或察觉到。


对于AI的这些“叛逆”行径和潜在威胁,我们是否需要“刹车”呢?“刹车党”认为,AI发展应停下来等一等,不然,几十年后的人类或将被它们伤害。反对刹车的专家表示,与其“踩死刹车”,不如安装“减速带”。


人工智能之父Hinton曾告诫说,科技公司至少应该将AI研发经费的30%,投入到安全保障上,否则很容易带来AI失控的风险。


事实上,面对AI的“叛逆”,Open AI、谷歌等大模型开发公司正在探索解决方案,Open AI还成立了新的安全委员会、聘请第三方安全、技术专家等来支持安全委员会工作。


对此,你怎么看呢?


本文综合整理自每日经济新闻、界面新闻等

本文出自2025-06-02出版的《电脑报》2025年第21期 A.新闻周刊
(网站编辑:jiajia)