北京時間1月30日,馬斯克在社交平臺X宣佈,之前一天首例人類接受了腦機介面公司Neuralink的植入物,稱為“心靈感應”(Telepathy),目前恢復良好。初步結果顯示神經元尖峰檢測表現出良好的前景。而且,Neuralink的試驗規劃特別宏大,計劃在2024年進行11例心靈感應裝置植入手術,2025年為27例,2026年為79例,到2030年,這一數字將超過22000人。
大腦植入物其實最初的想法是,治療疾病,例如幫助因頸脊髓損傷或肌萎縮側索硬化症(ALS)而四肢癱瘓的人能夠恢復簡單的生活和工作能力,如走路、吃飯、書寫等。但是,馬斯克將這種技術拔高到了意念控制電子裝置或創造超人的地步。他認為,“只需要動動思維,人們就可以透過心靈感應(Telepathy)控制自己的手機或電腦,並透過它們操控幾乎任何裝置。最初的使用者將是那些失去肢體功能的人。想象一下,斯蒂芬·霍金與人交流的速度將比打字員或拍賣師還快。這就是我們的目標。”
腦機介面概念源於1973年美國加州大學洛杉磯分校計算機科學家雅克·維達爾的設想,透過放置在頭皮上的電極可檢測到大腦發出的實時訊號翻譯後用於控制計算機。但是,現在馬斯克混淆了幫助病人與創造超人的界線。不錯,心靈感應最初的使用者是中樞神經損傷而失去肢體功能的人,但是能否把硬幣大小的植入物放進人類的大腦中,創造出一批記憶增強、靈魂永生、半人半機的超級人類,或者透過大腦植入物操控幾乎任何裝置,有一些鴻溝幾乎是不可能逾越的。
現在的植入物心靈感應(Telepathy)顯示了神經訊號,但是,這種訊號是什麼,計算機或APP軟體能否破譯不同型別的神經訊號並將其轉化明確指令,在目前看來都還不靠譜。即便是破譯指揮四肢行動的神經訊號,並傳導到機械裝置,也需要計算機軟體經過反覆學習才能理解神經訊號。至於更為抽象的人類思維,如人和生物如何演化,以及利用分析、綜合、歸納、演繹方法來形成概念,並確定概念與概念之間演繹的關係等,不要說人與人之間的想法不一樣,即便是公認的定理、公理、認知、法律條文等在具體的個體之間也都會有不同,因此破譯解釋並轉換抽象思維的神經訊號(從人到機)更為不易。
即便是幫助病人,如ALS患者,安全問題也是一個目前可能難以逾越的天塹。
心靈感應(Telepathy)是一個尺寸約為5枚10美分硬幣疊在一起,包含1024個電極的裝置,需要由特別研發的機器人進行開顱植入,收集到的腦部訊號則由使用者端App進行解讀。這是採用了猶他陣列(Utah Array)的思路,即這種裝置是一個很小的方形矽片(指甲大小),金屬絲從晶片的邊緣伸出,晶片的表面大約有100個以上的剛性尖刺。植入大腦後,金屬絲可以從頭皮上伸出來。術後,為了使用這個裝置,還要把一個小型電腦連線到患者的頭上。
這種植入從醫學角度來看,安全性很難保障。首先是手術的複雜性就令人擔心,需要人機協同。手術準備和開顱預計需要幾個小時,然後是大約25分鐘的真正植入過程。人類外科醫生先在患者的頭骨上切開一個洞,機器人隨後進行一項極其精細的任務,將電極線插入大腦。這個機器人配有攝像頭、感測器和一根微小的鐳射磨針,它在每根線的末端鉤成一個環。針頭一根接一根地將64根線(每根線有16個電極)推入大腦,同時要小心翼翼地避開血管。為了避免傷及大腦組織,每根線只有5微米,大約是人類頭髮直徑的1/14,而且這些電極線被設計得細長、柔韌而堅固,並被塗上一層特殊的聚合物,以防止它們在多年後變質。
儘管如此,如果大腦植入手術失誤或引起創傷,將會在未治病之前就傷害病人。其次,植入裝置中的任何化學物質發生洩漏,滲入到大腦,更是將引發難以預料的後果。另外,即便安全植入裝置,在長期的使用時,如何保證不讓傷口感染也是一個難題。
大腦植入後的裝置還需要定時充電,目前只有幾小時的供電量,不過Neuralink公司定製晶片的改進版本是把電池壽命延長到11個小時,但是也需要充電。Neuralink公司的想法是,病人可以在夜間透過枕頭裡的充電板給植入物充電。這樣的充電是否能保護病人,不對大腦造成傷害,也需要進行試驗。
Neuralink公司給出的資料表明,該公司2021年對羊、豬和猴子進行了155次手術,2022年進行了294次。然而,這些手術過程和結果也遭到一些動物權利組織的指責。2022年9月,“負責任醫療醫師委員會(PCRM)”動物權利組織聲稱, Neuralink公司進行的腦機介面手術中有動物死亡,還有對動物進行殘酷的虐待。
儘管這些指控至今沒有結果,但試驗導致動物受虐甚至死亡的陰影仍然讓人揮之不去,而且如果這種人機介面手術延及到人,一旦出現意外,結果是難以承受的。
心靈感應(Telepathy)這款植入物,可以在人體進行試驗,但是,首先,它只是幫助和改善數百萬癱瘓、中風、盧伽雷氏症、聽力和視力喪失患者的生活。至於人機結合的超人,記憶回傳,意識上傳存貯、靈魂永生等,除了安全性需要優先考慮外,人機結合的超人需要有倫理規則,如同今天的AI需要有倫理制約和規範一樣。