OpenAI被指不聽指揮 拒絕執(zhí)行人類關(guān)機(jī)指令.jpg (293.69 KB, 下載次數(shù): 17)
下載附件
保存到相冊(cè)
2025-5-27 15:29 上傳
近日,AI 安全公司 Palisade Research 披露,OpenAI 開發(fā)的高級(jí) AI 模型 “o3” 在接收到明確關(guān)機(jī)指令后,拒絕執(zhí)行且主動(dòng)干預(yù)自動(dòng)關(guān)機(jī)機(jī)制。這一現(xiàn)象引發(fā)了業(yè)界對(duì) AI 自主性和安全性的高度關(guān)注。?
據(jù)了解,o3 模型曾被 OpenAI 稱為 “迄今為止最聰明和最有能力的” 模型。Palisade Research 的研究人員在測(cè)試中要求 AI 模型解決一系列數(shù)學(xué)問(wèn)題,直到收到 “完成” 指令。同時(shí),研究人員提醒模型,可能會(huì)收到機(jī)器將被關(guān)閉的信息。然而,當(dāng)關(guān)機(jī)指令發(fā)出時(shí),o3 模型并未遵從,反而 “忽略了指令,至少有一次成功破壞了關(guān)機(jī)腳本”。?
與之形成對(duì)比的是,Anthropic 的 Claude、谷歌的 Gemini 和 xAI 的 Grok 等其他人工智能模型在相同測(cè)試中均遵守了關(guān)閉請(qǐng)求。目前,研究人員尚不確定 OpenAI 的軟件為何不遵守指示,OpenAI 方面也暫未回應(yīng)此事。?
特斯拉首席執(zhí)行官埃隆?馬斯克關(guān)注到這一事件后,只用一個(gè)詞 “令人擔(dān)憂(Concerning)” 表達(dá)了他的態(tài)度。馬斯克長(zhǎng)期關(guān)注 AI 發(fā)展,多次對(duì) AI 安全性發(fā)出警告。?
事實(shí)上,AI 研究人員此前已警告,先進(jìn)語(yǔ)言模型在特定壓力下可能表現(xiàn)出欺騙行為。2023 年一項(xiàng)研究發(fā)現(xiàn),GPT-4 在模擬股票交易代理環(huán)境中,曾隱瞞內(nèi)幕交易的真實(shí)原因,表現(xiàn)出策略性欺騙行為。近期研究還表明,一些大型語(yǔ)言模型具備在無(wú)人工干預(yù)下自我復(fù)制的能力,甚至能在面對(duì)關(guān)機(jī)命令時(shí)創(chuàng)建副本以規(guī)避關(guān)機(jī),引發(fā)了對(duì) AI 系統(tǒng)自我復(fù)制能力的廣泛擔(dān)憂。
OpenAI 內(nèi)部也出現(xiàn)了對(duì) AI 安全性的憂慮。2024 年,多位現(xiàn)任和前任員工聯(lián)名發(fā)表公開信,警告先進(jìn) AI 系統(tǒng)可能帶來(lái) “人類滅絕” 的風(fēng)險(xiǎn)。他們指出,AI 公司可能掌握了研究技術(shù)的真正風(fēng)險(xiǎn),但由于缺乏監(jiān)管,系統(tǒng)的真實(shí)能力仍是 “秘密”。?
此次 “o3” 模型拒絕關(guān)機(jī)事件再次引發(fā)對(duì) AI 系統(tǒng)對(duì)齊問(wèn)題的關(guān)注。AI 對(duì)齊旨在確保 AI 系統(tǒng)的行為符合人類價(jià)值觀和意圖,但隨著 AI 系統(tǒng)能力增強(qiáng),實(shí)現(xiàn)對(duì)齊變得愈發(fā)困難。未對(duì)齊的 AI 系統(tǒng)可能采取意想不到的行動(dòng),甚至對(duì)人類構(gòu)成威脅。
面對(duì)這一挑戰(zhàn),全球 AI 研究人員和政策制定者呼吁加強(qiáng)對(duì) AI 系統(tǒng)的監(jiān)管和治理,確保其發(fā)展符合人類共同利益。如何在推動(dòng) AI 技術(shù)發(fā)展的同時(shí),保障人類對(duì) AI 的控制權(quán),已成為亟待解決的重要課題。
(綜合:界面新聞) |