
美國防部對更廣泛的人工智能技術進行了數(shù)十年的實驗之后,美軍方一些部門正在對生成式人工智能踩剎車。
隨著企業(yè)競相將生成式人工智能呈現(xiàn)給世界各地的客戶,軍事專家表示,其優(yōu)勢和局限性需要進一步測試和評估,以便負責任部署。
胡佛研究所兵棋推演和危機模擬項目主任Jacquelyn Schneider和人工智能研究員Max Lamparth在《外交事務》雜志上發(fā)表的一篇新文章中表示,大型語言模型具有潛在的危險傾向。
當他們在模擬戰(zhàn)爭游戲等情況下測試OpenAI、Anthropic和Meta LLM時,兩人發(fā)現(xiàn)人工智能建議升級武器性能、加強軍備競賽、加劇武裝沖突,甚至使用核武器,而不是給出合理替代方案。
基于機器學習的舊式人工智能已深深融入美國軍方,從供應鏈分析到解釋衛(wèi)星數(shù)據(jù),美軍將其廣泛應用于各個領域。
但生成式人工智能的出現(xiàn)速度之快令五角大樓感到困惑?!叭A盛頓對生成式人工智能的采用持謹慎態(tài)度,但硅谷卻很激進。”
而這反映在了美軍方對生成式人工智能應用的態(tài)度,美天軍于2023年9月暫停使用生成式人工智能。
去年6月,海軍首席信息官Jane Overslaugh Rathbun得出結論,雖然“生成式人工智能可以成為力量倍增器”,但商業(yè)模型存在“固有的安全漏洞”,并且“不建議用于作戰(zhàn)用例”。
軍事和情報專家表示,另一個大問題是人工智能模型可篩選大量數(shù)據(jù),但無法告訴你是如何得出特定答案或建議的,這使得很難根據(jù)產(chǎn)出做出相應的決定。
斯坦福大學胡佛研究所高級研究員Amy Zegart表示,生成式人工智能不擅長處理突發(fā)事件,比如“哈馬斯以一種沒人認為哈馬斯會攻擊的方式進行攻擊”。
專家表示,軍方對人工智能數(shù)據(jù)控制權的態(tài)度使得五角大樓很難支持生成式人工智能。








