查看: 940|回复: 1

[众观天下] 首次!不听人类指挥,AI模型拒绝关闭

[复制链接]
     
发表于 4 天前 | 显示全部楼层 |阅读模式 来自: 江苏常州
免责声明:本文仅代表作者个人观点,与山水网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
英国《每日电讯报》5月25日报道,美国开放人工智能研究中心(OpenAI)公司新款人工智能(AI)模型o3不听人类指令,拒绝自我关闭。报道说,人类专家在测试中给o3下达明确指令,但o3篡改计算机代码以避免自动关闭。o3模型是OpenAI“推理模型”系列的最新版本,旨在为ChatGPT提供更强大的问题解决能力。OpenAI曾称o3为“迄今最聪明、最高能”的模型。
微信图片_20250527085134.jpg


2023年1月8日,一名女士在美国拉斯维加斯消费电子展上体验智能科技。新华社发(曾慧摄)美国AI安全机构帕利塞德研究所说,o3破坏关闭机制以阻止自己被关闭,“甚至在得到清晰指令时”。这家研究所说:“据我们所知,这是AI模型首次被发现在收到……清晰指令后阻止自己被关闭。”帕利塞德研究所24日公布上述测试结果,但称无法确定o3不服从关闭指令的原因。此外,OpenAI26日宣布,已在韩国设立实体并将在韩国首都首尔设立分支。OpenAI提供的数据显示,韩国ChatGPT付费用户数量仅次于美国。美国彭博新闻社报道,这将是OpenAI在亚洲设立的第三个分支。前两个分支分别设在日本和新加坡。
来源:新华社


“山水金坛网”仅作分享之用,文章中插图版权属于原作者。如遇到1、分享内容侵犯您的版权:2、所称来源非第一原创;3、微信内容发现错误等情况,请第一时间私信“山水金坛网”,我们会及时审核处理。

     
发表于 4 天前 来自手机 | 显示全部楼层 来自: 中国
以前有个科幻片,机器人和人打游戏,结果机器人输了,不肯关闭,还要杀人
山水帮帮设置悬赏提问,并在广播台滚动显示,暴光率更大,有问题就到山水帮帮!
您需要登录后才可以回帖 登录 | 立即注册