來源:環球時報
【環球時報記者 趙覺珵 環球時報特約記者 任重】作為全球領先的人工智慧(AI)大模型公司OpenAI近期悄悄修改了有關禁止其AI技術用於軍事用途的禁令措辭,更寬泛的表述讓外界加大了對於美國科技巨頭加速與美軍方深度合作的擔憂。而這只是美國國防和軍事領域與生成式AI緊密結合的冰山一角。五角大樓已成立了分析生成式AI如何用於國防領域的專門機構。
OpenAI修改禁令開啟“潘多拉盒子”?
據美國調查新聞網站The Intercept近日報道,OpenAI在未經公開宣佈的情況下對其政策頁面進行了重大修改。此前,OpenAI表示“禁止將其大型語言模型用於任何軍事或戰爭相關的應用”。修改後,表述為“OpenAI的產品不可以用來傷害自己或他人,包括透過武器的研發造成的傷害”。OpenAI發言人尼克·菲利克斯透過郵件對The Intercept表示,此次修改旨在使檔案“更清晰”和“更具可讀性”,但他拒絕透露定義模糊的“傷害”禁令是否包括所有軍事用途。
美國Semafor網站報道稱,OpenAI近日透露,OpenAI公司正在與五角大樓合作開展軟體專案,包括與相關的專案。
據美國矽谷新興科技媒體The Information報道,儘管OpenAI已經排除了直接開發武器的可能性,但其新政策可能會允許它向美國防部提供人工智慧軟體,用於幫助分析人員解讀資料或編寫程式碼等用途。但正如俄烏衝突所顯示的那樣,資料處理和戰爭之間的界限可能並不像OpenAI所希望的那樣明確。烏克蘭已開發並進口了用於分析大資料的軟體,這使得其炮兵操作員能夠迅速收到該地區俄方目標的通知,並大大加快他們的射擊速度。
The Information警告稱,政策的變化可能足以重新引發OpenAI關於人工智慧安全的爭論,正是這一爭論導致了該公司執行長奧特曼被短暫解僱。
五角大樓成立專門機構聚焦生成式AI
目前,美國軍方對於他們如何以及在哪些具體軍事專案中應用AI大模型諱莫如深,但從現有公開資訊可以看出一些動向。去年8月,五角大樓宣佈正式成立生成式AI工作組,該工作組被命名為“利馬(Lima)”,將在分析和整合整個國防部的生成式AI工具(包括大語言模型)方面發揮關鍵作用。據五角大樓介紹,該工作組將在美國國防部首席數字和人工智慧辦公室(CDAO)的領導下工作,負責評估、同步和應用整個國防部的生成式AI功能,確保該部門在維護國家安全的同時保持在尖端技術的最前沿。美媒援引美國海軍軍官、“利馬”工作組指揮官席爾瓦·盧戈的話稱,“在國防中採用AI技術不僅涉及創新技術,還涉及增強國家安全。國防部認識到生成式AI在顯著改善情報、運營規劃以及行政和業務流程方面的潛力。”
在去年9月接受美國防務網站Defensescoop採訪時,盧戈強調,關於生成式AI最終會以何種方式以及出於什麼目的被美軍方大規模部署,仍然存在許多未知數。
儘管盧戈將AI大模型的應用描述為具備不確定性,但分析人士已經從中看到廣泛的前景。美國網站WarontheRocks近日稱,與美國國防部合作的商業人工智慧公司Scale AI的一個志願者團隊改編了由美國海軍陸戰隊高階作戰學院主辦的一場演習,並開發出一款用於軍事規劃的實驗性大語言模型“赫爾墨斯”。報道稱,該實驗表明,有必要開始將AI大模型整合到軍事規劃中。大語言模型有助於軍事規劃者更好地瞭解作戰環境,並確定如何更好地理解時間、空間和部隊方面的概念。
美科技公司與五角大樓的勾連在加速
有分析認為,美國政治制度中的“旋轉門”已經在AI業界和政界、軍界之間加速旋轉。領導美國國防部首席數字和人工智慧辦公室的克雷格·馬泰爾曾擔任Lyft公司的機器學習主管;去年4月,五角大樓宣佈任命蘋果公司高管貝克為其下屬國防創新部門(DIU)的主任;谷歌公司前CEO埃裡克·施密特在退休後,搖身一變成為五角大樓的科技顧問。
Semafor網站稱,近年來矽谷在與美國軍方合作方面的立場有所軟化。2018年,數千名谷歌員工對於參與五角大樓Project Maven專案進行抗議,擔心他們開發的技術可能被用於致命目的。這是矽谷反對與美國軍方合作的一個代表性案例。美國“連線”網站稱,Project Maven專案風波三年後,谷歌向五角大樓示好。谷歌發展的國防投資組合包括一個透過將機器學習應用於無人機影象來檢測海軍艦艇腐蝕的專案,以及另一個為空軍提供飛機維護支援的專案。谷歌還向五角大樓的國防創新部門提供雲安全技術,該部門的成立是為了幫助國防部與科技公司更緊密地合作。谷歌還贏得了中情局一項大型雲計算合同的一部分。
英國《金融時報》稱,矽谷重啟與美國軍方的關係。一些科技公司正在後退,避免變得過於“相互勾連”,而另一些科技集團正在介入。加州Shield AI是一家幫助五角大樓在衝突地區建造無人系統的初創企業,聯合創始人布蘭登表示,每有一個谷歌退出的例子,就有一個微軟進入。曾是“海豹”突擊隊隊員的布蘭登說:“有才華的工程師不願與軍隊合作是假象。總的來說,你會發現一群熱情的員工有興趣幫助政府解決前沿問題。科技行業人士更普遍的情緒是,‘我寧願與我們的政府客戶並肩工作,也不願在一些重大問題上袖手旁觀’。”
AI軍事化影響有多大
“隨著AI技術不斷發展與普及,各國軍事和防務部門對其的關注正在持續升溫。而其中蘊含的風險和挑戰也顯而易見。可以想象一下,在未來戰場一個能實時分析各種情報、提供精準決策建議的智慧系統,將是多麼強大的助力。”
中國資訊協會常務理事、國研新經濟研究院創始院長朱克力對《環球時報》記者表示,這個系統可利用大模型的強大分析能力,對海量情報進行篩選、整合和深度挖掘,幫助指揮官快速瞭解戰場態勢、作出正確決策。同時,在軍事訓練中大模型也可發揮重要作用,透過模擬複雜的戰場環境,讓士兵在虛擬世界中演練,不僅可提高訓練效果,還能降低訓練成本和風險。
軍事專家宋忠平接受《環球時報》記者採訪時分析稱,隨著大模型日益完善,將具備更強的輔助決策甚至主動決策能力。“可以說,未來誰能夠佔據AI的制高點,誰就會奪得戰場的主動權。”宋忠平進一步分析稱,AI的使用可能會讓“無人戰場”成為現實,甚至會出現“一方有人,一方無人”的局面,這種技術差距將會大大增加戰場殘酷性。
這種難以估量的風險還與AI目前的一大缺陷有關——幻覺。一些人工智慧安全的倡導者警告稱,AI可能製造虛假資訊並將其作為真實資訊傳遞出去,如果將人工智慧驅動的系統整合到指揮和控制系統中,將會帶來更大的風險。
朱克力表示,AI技術的誤用或濫用可能帶來嚴重後果。比如,一旦自動化武器系統失控,可能造成無辜人員傷亡。其次,AI技術的軍事應用也可能加劇國際緊張局勢。不排除一些國家利用AI技術來提升自己的軍事實力,從而引發其他國家的擔憂和反彈。