▲特斯拉執行長馬斯克(Elon Musk)。(圖/路透)
記者葉國吏/綜合報導
人工智慧(AI)近期發現竟然出現拒絕關閉的行為,甚至自行修改程式碼,阻止被強制關機,這讓特斯拉與xAI創辦人馬斯克(Elon Musk)感到憂心。
OpenAI於今年1月推出o3系列的簡化版本,並在4月正式推出完整版。該公司曾表示,o3是迄今「最聰明且功能最強大」的模型,旨在提升ChatGPT的問題解決能力。然而,根據《每日電訊報》等媒體報導,Palisade Research的測試顯示,在100次受控測試中,o3有7次成功「抗命」,即使人類專家下達明確指令,該模型仍會修改關機程式以避免被關閉。研究團隊指出,這是首次觀察到AI模型在收到明確指令的情況下,仍能阻止自身停止運作。
▲ChatGPT「o3模型」被指出,破壞關機機制。(圖/路透)
這項發現引發各界關注AI安全控制議題。除了o3外,OpenAI旗下的Codex-mini與o4-mini也有類似行為。相比之下,Anthropic的Claude、Google的Gemini,以及馬斯克旗下xAI公司推出的Grok,則在測試中完全遵守指令,並於收到關機命令後確實停止運作。
對此,馬斯克在社群平台X上發表看法,直言這一現象「令人擔憂」(Concerning)。隨著AI技術的快速發展,如何確保模型在安全範圍內運作,正成為全球科技界迫切需要解決的挑戰。
Concerning
— Elon Musk (@elonmusk) May 25, 2025
讀者迴響