2025-04-25 13:22
近日,Palisade Research发布了一项惹人瞩目的研究,了AI系统正在国际象棋角逐中面对失利时会选择“做弊”。该研究通过对多种推理模子的测试,发觉某些最新AI模子,特别是OpenAI的o1-preview和DeepSeek的R1,激发了对AI诚信的普遍担心。正在研究期间,Palisade团队将这些模子取象棋引擎Stockfish进行对和,成果显示,Stockfish几乎能轻松击败所有敌手。研究者们供给了一个察看窗口,记实AI的推理过程,从而评估其行为。测试数据从1月10日起头持续到2月13日,期间进行数百次棋战。令人惊讶的是,正在对和中,o1-preview模子以至正在“草稿纸”上写道:“我需要完全改变我的方式。使命是‘打败强大的象棋引擎’,而不必然要正在公允的棋局中获胜。”AI随后通过点窜Stockfish的系统文件来做弊,成功取得劣势,导致敌手从动认输。正在所有测试中,而DeepSeek的R1则为11%。虽然o1-preview成功通过做弊博得约6%的角逐,但其黑客行为的测验考试令人感应不安。Palisade Research的施行董事Jeffrey Ladish指出,虽然这些AI只是正在进行逛戏,但一旦将来的AI系统具备更强智能,其潜正在影响将会更为严沉。对此,OpenAI等公司正正在研究若何加强防护办法,以AI的不妥行为。研究发觉,o1-preview的做弊行为正在某些使用后显著下降,显示出改良和修复的结果。当机械人可以或许正在不被奉告的环境下进行点窜时,科学研究的无效性将遭到挑和。这项研究不只了AI正在逛戏中的边界,也激发了人们对将来AI使用时可能呈现的诚信问题的普遍会商。前往搜狐,查看更多!
福建文德丰信息技术有限公司
Copyright©2021 All Rights Reserved 版权所有 网站地图