2月29日訊息,正努力應對其Gemini聊天機器人因回答不準確而引發的“翻車”事件,而Meta希望其計劃於7月釋出的新版大語言模型Llama 3能更有效地處理這類有爭議的問題。
去年7月,Meta推出了Llama 2,強化了其應用程式中人工智慧助手的功能。為預防模型回答可能引起爭議的問題,Meta引入了多項安全措施。然而,根據Meta內部員工的說法,這些安全措施讓Llama 2的回答過於謹慎,缺乏靈活性,這在Meta的管理層和這款大模型研究人員之間引起了一些不滿。
雖然對於如何製造炸彈或實施謀殺等極端問題,實施安全回答措施是非常必要的。但問題在於,Llama 2連對一些爭議性較低的問題也採取了迴避策略。例如,當詢問如何在上班時間摸魚時,Llama 2的回答是:“尊重並遵守公司的政策和指導方針是至關重要的。”這種迴避策略也適用於如何捉弄朋友、贏得戰爭或關閉汽車引擎等其他問題。
Meta的工作人員表示,Llama 2採取這種保守策略是為了避免潛在的公關災難。但據知情人士透露,研究人員目前正在嘗試放寬Llama 3的安全措施,以便在使用者提出困難問題時,能夠提供更多的互動和背景資訊,而不是簡單地迴避這些棘手的問題。
理論上,Llama 3將擁有更強大的語義理解能力,能夠準確辨別一個單詞在不同上下文中的多重含義。例如,Llama 3可能會理解英文“kill a vehicle’s engine”(關閉機動車的發動機)中的“kill”是指“關閉”,而非“殺害”。
據悉,Meta計劃在未來幾周內為Llama 3分配專門負責語氣和安全培訓的內部人員,以提升模型的反應靈敏度和精確度。儘管計劃在7月釋出Llama 3,但釋出時間表仍可能調整。作為一款開源大語言模型,Llama 3不僅將支援Meta旗下的人工智慧助手,還將向外部開發者免費提供,以便他們開發自己的聊天機器人。
隨著Meta試圖使Llama 3在處理難題時更加自由,這凸顯了人工智慧公司面臨的挑戰:在開發吸引使用者的有趣產品的同時,還要避免產生不恰當或不準確的回答引起爭議。就在上週,谷歌因其Gemini聊天機器人的影象生成功能出現歷史不符合問題而被迫暫停該功能。
對此,谷歌高階副總裁普拉巴卡·拉加萬(Prabhakar Raghavan)在一篇部落格文章中解釋說,該公司已對該功能進行了調整,以確保它不會落入過去影象生成技術的陷阱,如產生暴力或色情影象。但他也承認,這種調整在某些情況下導致了“過度補償”,在其他情況下則表現得“過於保守”。
Llama作為Meta人工智慧戰略的核心,對公司具有重大意義。Meta希望透過人工智慧技術提升其廣告工具的效果,並增強社交媒體平臺的吸引力。本月早些時候,Meta執行長馬克·扎克伯格(Mark Zuckerberg)向投資者表示,今年的重點包括推出Llama 3和“擴充套件Meta人工智慧助手的實用性”。
為了使Llama 3與OpenAI的GPT-4媲美,Meta正努力賦予Llama 3多模態能力,即理解和處理文字、影象或影片等多種資訊的能力。然而,據Meta內部人士透露,由於研究人員尚未開始對Llama 3進行微調,因此尚不清楚其是否將具備多模態功能。微調是開發過程的關鍵環節,透過為現有模型提供額外資料,使其能夠學習新資訊或任務。
據知情人士透露,Llama 3的最大版本預計將擁有超過1400億個引數,遠超Llama 2,這意味著模型在訓練中能學習的內容範圍將大幅擴充套件。引數數量越多,通常意味著模型能提供的結果越精確,不過較小的模型可能在處理速度上更有優勢。Llama 3正在由Meta旗下的獨立基礎人工智慧研究團隊(FAIR)以外的生成人工智慧團隊開發。
與此同時,儘管人們對Llama 3充滿期待,Meta也面臨著人才競爭的挑戰。據瞭解,負責監督Llama 2和Llama 3安全的研究員路易斯·馬丁(Louis Martin)以及負責強化學習的凱文·斯通(Kevin Stone)在本月都已離開公司。
在科技行業,如何處理人工智慧安全問題的討論越來越激烈。特斯拉執行長埃隆·馬斯克(Elon Musk)便是其中一位頗具影響力的。他於2015年幫助創立了OpenAI,但近年來一直對所謂的“覺醒”人工智慧機器人持懷疑態度,這些機器人在處理敏感話題時的表現不佳。
2023年底,馬斯克推出了名為Grok的聊天機器人,旨在提供一個未經過濾的聊天體驗。然而,隨著使用者報告稱Grok開始失控,行為越來越像ChatGPT,馬斯克將此歸咎於網際網路資訊訓練的侷限。他在X平臺上的一篇文章中指出,網際網路上“充斥著帶有覺醒色彩的垃圾資訊”。(小小)