本刊官方網站:
http://cjjc.ruc.edu.cn/
摘要
演算法歧視現象構成個人數字化生存的倫理挑戰。透過訪談22位國內演算法工程師,本研究從技術的社會建構視角出發,探討了他們的價值目標和倫理實踐如何作用於有偏算法系統之產生、發展與應用。研究發現,演算法歧視與工程師對真實和準確的理解、追求有關——他們試圖打造“映象世界”時,以資料、社會、統計因果等為“求真”的依歸,最終導致了歧視的加固與強化;同時,面向演算法公平和正義的演算法“向善”,被“求真求準”的價值目標和特定業務目標不斷擠壓;工程師所受教育和所處組織環境,讓他們認為 “求善”並非他們的職責。加上公平等倫理概念本身難以量化,更為建設“數字花園”製造了技術難度。這些都讓“求善”淪為工程師的一種彈性選擇,影響了他們“去偏”和 “消歧”的倫理實踐方案。這一研究為理解演算法歧視提供了來自工程師倫理層面的實證依據,為理解有偏演算法的社會建構提供了基於中國語境的業內見解。
作者簡介
黃陽坤,清華大學新聞與傳播學院博士研究生。
俞雅芸(通訊作者),清華大學新聞與傳播學院博士研究生。
基金專案
本文系國家社科基金重大專案“智慧時代的資訊價值觀引領研究”(專案編號: 18ZDA307)的階段性成果。
演算法以程式碼形式接入媒介,廣泛介入普羅大眾的日常生活;在這一程序中,演算法的負面影響逐漸顯露,倫理風險問題成為近年來演算法研究的重要面向。對演算法霸權、演算法歧視、演算法黑箱、演算法繭房等問題的討論,折射出人們對個體演算法化生存和社會演算法化運轉的憂思。
其中,演算法歧視作為一個顯要問題,其學術取徑正循傳統歧視研究的議程,從定義、型別、歸因、影響、治理等角度徐徐展開。社會科學研究者已在歧視發現(discrimination discovery)上提供了不少經驗證據,但在歧視溯源方面的論斷多於實證。明確何種因素影響著有偏技術系統的產生與應用,有助於從根源認識演算法歧視現象,值得實證層面的努力。
鑑於演算法的一般技術屬性,及其本身獨特的“黑箱”屬性,從技術設計者,即演算法工程師的角度切入相對直接和清晰,也是既有演算法歧視研究中相對缺乏的一種視角。基於此,透過22次半結構化訪談,本研究對演算法工程師對於有偏算法系統的倫理觀念與倫理實踐展開考察,並在技術的社會建構(social construction of technology,SCOT)視角下分析了他們的倫理何以影響歧視性算法系統的產生、發展與應用。
一
文獻綜述
(一)作為技術現實的演算法歧視:有偏技術的社會建構
作為近年屢被經驗研究證實的技術現象,演算法歧視關涉兩個關鍵概念——算法系統與歧視現象。一般而言,演算法被認為是“用指定的計算將輸入資料轉換為所需輸出的編碼程式”(Gillespie,2014);歧視則指向“對特定群體成員的差別對待”(American Psychological Association,2022)。故所謂演算法歧視,可理解為“演算法技術對特定某人或某群體的區別對待”,是“演算法妨害(algorithmic nuisance)” 的一類導因(Balkin,2017)。
社會科學研究者意識到,從技術內部入手,採用如檢查虛擬碼/原始碼等方法研究演算法存在諸多限制與挑戰(Kitchin,2017),一些研究人員開始從演算法輸出(algorithmic output)的外部切入,發現演算法中存在種族、性別、年齡、地域等不同型別的歧視(Papakyriakopoulos & Mboya,2023;塔娜,林聰,2023)。這種外部的審計性思路證明:演算法歧視不止於一個技術話題,它真實地影響大眾數字化生存。
歧視的發掘固然重要,但顯然不應是演算法歧視研究的終點。在確定了演算法工具的歧視性表現之後,另一問題油然而生:一個有偏的技術系統何以產生?就技術的社會建構視角而言,演算法歧視在發生邏輯上不應被認為獨立於人類社會中的一般歧視,它是技術社會化的後果;雖然演算法歧視會將過去既有的歧視現實“浪漫化”,但事實上,前演算法時代同樣是一個充斥著商業管理層與權力掮客間不透明交易的黑箱社會(Chander,2016)。
類似觀點指引著對演算法歧視的溯源,研究者探討了演算法歧視與人類心理、社會結構的聯絡(Caliskan,Bryson & Narayanan,2017;張玉宏,秦志光,肖樂, 2017)。在有偏技術之社會建構的相關論斷中,作為技術設計者的演算法工程師常被視作偏見與歧視的源頭之一,被認為有意或無意地向演算法植入了自身的偏見認知,導致了歧視性後果(Kitchin,2017;劉友華,2019;許向東,王怡溪,2020)。
然而,相比於演算法歧視客觀現象方面的豐厚證據,學界對演算法歧視發生邏輯的探討充滿著學術想象。就備受質疑的工程師群體而言,鮮有實證研究調查演算法歧視與演算法工程師之間的關係。但就理論本位而言,確定技術之社會建構的過程,即發掘“相關社會群體(relevant social group)”並觀察他們對技術的認識如何走向“穩定化(stabilization)”和“閉合(closure)”的過程(Bijker,Hughes & Pinch, 1989:4)。演算法工程師瞭解技術、離技術最近,又常隱於技術黑箱與巨型企業的架構之下,是不可缺位於演算法社會建構視角的重要“相關社會群體”。他們如何影響歧視性算法系統的產生、發展與應用?這一問題的答案可為理解演算法歧視的發生提供更細緻且專業的洞察。
(二)從倫理進入演算法歧視:技術社會建構與倫理間的關係
如Kitchin(2017)所言,演算法歧視的切入視角可充分開啟:技術、計算、數學、政治、經濟、文化、哲學、倫理等等。其中,從倫理進入和探討歧視問題有其天然性——就概念而言,倫理在中國被解釋為“人們相互關係的行為準則”(《辭海》編輯委員會,2021),在西方被界定為“指導個人行為或活動進行的道德準則”(Oxford University Press,2017)。結合來看,倫理作為反映社會集體意志的準則,引導著人類社會中的關係、行為與活動。而歧視本身指向人類社會中一種“區別對待(differential treatment)”的行為和活動(Lippert-Rasmussen,2013),本質上是一種不受人類社會歡迎的不平等關係,與倫理之間正好形成對沖。換言之,歧視在一定程度上即倫理旨在引導和改善的物件之一,反歧視(anti-discrimination)作為一種倫理準則貫穿於不同國家和文化。就演算法歧視而言,學者們認為,一個有歧視的演算法涉及不公、汙名、隱私洩露、能力限制等諸多倫理問題(Mittelstadt,Allo,Taddeo,Wachter & Floridi,2016;劉培,池忠軍,2019;吳飛,2022)。
當演算法歧視被視作一個倫理問題後,研究者們再探討技術的社會建構時便面臨一些新問題:首先,倫理在演算法的社會建構過程中發揮什麼作用?SCOT理論其實對技術社會建構過程中的倫理之用一直保持關注,認為人的道德與倫理等邊界決定了技術的能力邊界(can do)與責任邊界(should do)(Woolgar,1987),技術設計和創新活動中滲透著複雜的社會價值和倫理因素(段偉文,2000)。在智慧時代,價值敏感設計(value sensitive design)的理念勃興,倫理價值觀正廣泛融於智慧技術的開發建構程序(古天龍,馬露,李龍,閆茹,2022)。因此,同政治、商業和科學一樣,倫理可作為一種社會性要素作用於技術的演化(喻國明,丁漢青,劉彧晗,2022);在有偏演算法的社會建構研究上,倫理不容忽視。
在明確了技術社會建構過程中的倫理之用後,另一個問題在於:演算法的倫理由哪些社會力量建構?學者認為,演算法技術的社會性背後是“依託技術邏輯而形成的制度延展或文化實踐”(孫萍,2021),算法系統本質上由程式碼之外的東西塑造,包括個人偏好、結構性偏見或者社會性評價框架(Seaver,2018),作為人之行動指南的倫理由此接入演算法倫理中。國外基於資料公司的人類學調查展現了立體的圖景——演算法的倫理除了受組織間關係、各種非人代理、地緣政治等調適,更深受設計者與使用者之認識論、意義系統和實踐的影響(Kotliar,2021)。面向資料科學家的訪談進一步表明,演算法的倫理更多地靠個人道德能動性驅動,與個人的傾向、偏好和價值觀關係密切(Avnoon,Kotliar & Rivnai-Bahir,2023)。這些結果提示,一個有價值觀的演算法與其背後的技術人員有直接聯絡,調研演算法工程師倫理(engineering ethics)有其必要性。
上述研究做出了開拓性努力,試圖揭示設計者的專業倫理如何與演算法技術的倫理產生聯絡。而演算法的倫理問題多元、複雜,倫理的“相對情境性”意味著人們在面對不同倫理問題時會表現出差異化的倫理原則和實踐(李建華,2021:38),這決定了工程師面向演算法歧視的倫理觀念和實踐很難通用於其他倫理問題。目前面向具體問題的倫理觀研究缺乏,但它對認識和化解具體的倫理風險有獨到價值。據此,本研究的問題進一步明確:演算法工程師的倫理反思路徑和倫理實踐方案,如何影響著一個有歧視性的算法系統的產生、發展與應用?
(三)模糊地帶?技術人員的倫理研究反思
據前文梳理,在技術的社會建構視角下,作為有偏技術的重要相關社會群體,演算法工程師對演算法歧視爭議的倫理觀念和實踐取向可能影響有偏技術的產生、發展與應用。現有研究中,面向資料倫理和技術倫理的關注相對密集,對技術人員專業倫理的實證考察則較少,少數研究調查了技術人員倫理水平(Association of Nordic Engineers,2018)、技術人員倫理與其他主體(如公司)倫理間的關係等(Ryan,Christodoulou,Antoniou & Iordanou,2022)。
國內幾項早期研究提供了一些洞察:調查問卷顯示,傳媒業演算法工程師的倫理水平一般,他們的倫理觀,尤其是對“及時”“透明”和“分享”理念的理解,處於“模糊”狀態(袁帆,嚴三九,2020);工程師被形容為“局內的外人”,被認為對倫理問題的瞭解程度低、威脅感知弱和改善傾向保守(嚴三九,袁帆, 2019)。特別地,袁帆與嚴三九(2020)的問卷專門調查了工程師“對演算法內建歧視的排除”的倫理認識:資料顯示,工程師群體在演算法歧視這一問題上認知不均,具體表現在相關題項得分的標準差較大。另一項針對技術從業者大資料倫理的中美比較研究再次定位了技術從業者倫理的模糊性(Di,2023),還指出了他們倫理觀的複雜性,發現技術人員在大資料使用的倫理道德上存在矛盾。這些研究結果顯示,與演算法和資料相關的從業人員在倫理上整體表現得混沌糊塗、漠不關心和遊移不決。
而另外一項基於“駭客松”(hackathon)活動開展的民族誌研究則提供了不同的聲音:研究者發現技術人員在面對不確定的倫理風險面前,其實很渴求能同時有基於責任倫理的“確定節點”及面向行動和問責框架的“懷疑空間”,以指導技術實踐(Shklovski & Némethy,2023)。Orr和Davis(2020)面向澳洲人工智慧從業者的訪談則表明,在複雜的社會技術網路中,技術人員排除了對人工智慧社會影響的簡單責任歸屬;他們將倫理責任分給其他參與者和相關因素的同時,也為自己保留了一部分。這些研究表明技術人員本身有良好的倫理自覺和責任意識,且對如何開展倫理實踐有自己的價值判斷,與“局內的外人”等在定調上形成反差。
研究發現的不完全一致,恰好表明技術人員的倫理觀與倫理實踐是一個有挑戰、趣味和探討空間的議題,同時也提醒:技術人員的教育背景和工作慣習可能令其更常以“具體問題具體分析”的務實思維討論技術的倫理風險,加之倫理問題具有相對情境性,面向技術人員倫理觀的社會科學研究更應慎重選擇和設計方法,不同的研究設計可能得到相異的發現,從而影響最終的結論。
二
研究方法與設計
(一)研究物件招募
基於文獻綜述,本研究在方法上採擇了質性研究的思路:面向一個相對小眾的社會群體來調查內隱性和情境化的歧視問題,質性方法所獲資料可提供更為豐富的資訊。因此,研究循目的性抽樣(purposive sampling)和異質性抽樣(diversity sampling)的原則,透過社交媒體與人際網路,面向國內演算法工程師群體進行了招募,最終納入了負責不同業務和從業時長不一的22位工程師作為訪談物件(參見表1)。
考慮到歧視與性別等特徵有關,筆者根據行業現狀,將訪談物件男女比控制在 4:1左右(王婧雯,馬歆,孫麗君,2022),確定了4位女性工程師。由於樣本中的女性人數較少,表1未區分性別以避免識別。此外,本研究還隱去了訪談者的姓名和工作單位名稱,分別以編號和業務歸屬代替,以實現模糊化處理。
(二)訪談資料收集
正式開展訪談前,筆者預先對8位有計算機專業背景的學生進行試點訪談。結果表明:受訪者對“演算法歧視”這一術語的理解不清晰;且有受訪者表示這一提法有損其專業認同,對此有反感情緒。
故在正式訪談中,研究者以具體案例素材替代“演算法歧視”這一概念展開提問,並根據文獻和新聞,確定了5則演算法歧視爭議案例作為訪談素材,分別是:演算法價格歧視(國內某平臺透過演算法差異化定價進行“大資料殺熟”)、性別歧視(國外某平臺招聘演算法降低女性求職者簡歷的權重)、種族歧視(國外某司法裁判演算法根據被告再犯風險調整量刑時表現出種族差異)、國別歧視(國外某大語言模型表示應根據原籍國判斷是否對犯人施加酷刑)和地域歧視(國內某搜尋引擎自動完成演算法提示中西部地區人士的負面素質品性與身體特徵)。如此設計方便受訪者快速進入研究語境和觸及中外社會不同演算法歧視型別,且規避了直接使用“演算法歧視”一詞提問所造成的情緒牴觸和立場前置。
訪談將上述素材與表2所示的提問指南融會,在2023年5月底至7月初據受訪者的情況和要求擇機在線上或線下展開,時間分別在70-120分鐘不等,共獲48.6萬字訪談資料。出於研究倫理的考量,筆者在訪談開始前就以下原則進行了專門說明:(1)正式訪談中,訪談過程將被錄音;(2)收集的相關資訊在本研究團隊成員間共享;(3)訪談內容和個人資訊將被嚴格保密,訪談內容僅用於學術寫作和發表,個人資訊將被脫敏處理以防止受訪者被識別。
(三)訪談資料分析
分析方法上,本研究參考Orr和Davis(2020),Avnoon、Kotliar和RivnaiBahir(2023)等學者的研究思路,將主題分析(thematic analysis)運用至訪談資料分析上。
具體而言,首先,研究者標註了轉錄材料中有關倫理和道德觀念及其對應實踐的段落。隨後,兩位作者分別完成獨立編碼以生成初步主題(preliminary themes),並附上示例段落。經討論後,研究者共同確定了一組主題。第一作者基於此對整個訪談語料庫進行了再編碼,第二作者根據每個主題的示例段落進行抽查,以確保達成共識。上述三角測量、同行檢驗和反思性的過程增強了分析的嚴謹性和結論的可信度(Krefting,1991)。
三
研究發現
有別於過去的觀點與發現,本次訪談表明,演算法工程師本身並不存在針對特定人群的主觀惡意和歧視,多數工程師對刻意為之的歧視傷害持堅定的批評和反對態度。此外,當面對演算法歧視爭議時,他們持有不同取向且相對堅定的倫理與道德觀,這些觀念決定了他們對哪些技術現象應被歸為歧視的價值判斷。
具體來說,一方面,演算法工程師普遍認同和堅持“求真”的理念,且在該問題上表現出不同的理解層次。他們忠於資料、統計與現實,這令現實世界與線上資料中的歧視被複刻和遷移至算法系統。另一方面,近半數受訪工程師也同意演算法應當向善、關注公平正義和規避歧視,但這在實現上有技術難度。即便存在實現的可能性,他們也認為“求善”不是自己的工作目標,並就公平和正義的追求何以淪為一種“非善之善”提供了案例解釋。
當“求真”和“求善”兩種理念表現出張力甚至矛盾時,工程師對真實/準確和善良/正義的認識便開始作用於他們面向演算法歧視的倫理實踐,且與企業組織文化、社會輿論、政府意志等一同反映於工程師的技術調整方案中,最終決定了有(去)偏技術系統的誕生與應用。
(一)打造映象世界之弊:演算法工程師“求真”何以鑄錯
計算機科學家在上世紀曾提出“映象世界(mirror world)”的概念,擘畫了用資料和演算法打造微縮真實世界的技術願景(Gelernter,1993:49)。在技術從業者的觀念體系中,類似理念似乎得到無形傳承,受訪工程師表達了與之相近的觀點:“演算法實際完成的是一個簡單的決策——儘可能地擬合真實的分佈。”(M6, 2023年5月29日)“網路只是一面鏡子,反映現實世界的樣子。”(M15,2023年6 月11日)“我們判斷演算法優劣以及是否需要調整,還是以它跟真實情況的吻合程度為標準。”(M19,2023年5月30日)當求真、求準成為一種職業文化時,演算法工程師內部對求真的理解又呈現出不同層次:
1. 資料真實
首先,工程師所言的“真實”很大程度上即演算法訓練資料反映出的事實。他們認為,訓練資料集決定了模型的上限,演算法無法超越資料中的規律而存在,演算法歧視由此被視作是不完美的資料導致的“技術缺憾”。
面向資料的歸因傾向指向兩個層面:量與質。就量而言,不少工程師認為,演算法歧視源於資料集的體量有限。M7以視覺演算法為例對此進行闡釋:“人臉識別系統對基數較大的群體有更高的識別率……但這倒不是因為系統有偏見,只是部分群體的資料本身很有限,進而造成了識別準確率上的差距。”(2023年6月1日)這與訪談中被反覆探討的“演算法性別歧視”案例形成呼應——多位訪談者指出,開發者以公司內部員工資訊作為演算法訓練資料,而正是這一資料的體量有限和結構失衡釀成了女性求職者被演算法低估的後果。在商業邏輯引導下,企業用於資料豐富(data enrichment)的成本有限,且目前用於工業界演算法訓練的資料在形態與種類上亦有很大侷限,“文字和統計類的資料居多,這些在我們(人類)可感知的資訊中其實佔比非常低”(M21,2023年6月6日)。就質而言,許多工程師承認訓練集中的確包含低質和有偏的資料。重要的是,有工程師指出在演算法訓練上,資料量質並舉是悖論:“餵給演算法的資料越多,資料出問題的機率也就越大。”(M4,2023年5 月28日)這在大模型和搜尋引擎上尤為常見,其吸納海量資料的同時也習得了網路 “黑暗面”,“trash in,trash out(垃圾進、垃圾出)是常態”(M8,2023年6月4 日)。隨著沒有量質保證的資料成為演算法行業第一性的原料,基於資料的求真求準就令演算法偏見和歧視避無可避。
這種對“資料真實”的追逐本身透露出資料主義(dataism)的傾向,讓技術面臨“刻板型客觀”的困境(陳昌鳳,2021)。部分受訪工程師已對這種傾向有所警惕。一方面,他們同意資料不能刻畫現實全貌,組成訓練集的資料只是過去式,無法讓演算法具備捕捉當下和預測現實的能力。另一方面,當基於有限資料的算法系統面對無限的使用場景時,資料驅動的侷限被進一步凸顯:“我們不可能把所有資料都餵給演算法,這導致演算法面對沒見過的資料時會推理出錯。”(M4, 2023年5月28日)基於資料的推測甚至可能與現實完全無關:“演算法無法弄清有些資料意味著什麼,因為資料可能只是使用者無意劃拉了兩下螢幕產生的。”(M20, 2023年6月1日)儘管如此,受訪工程師依舊認為“資料驅動”系演算法設計的基本邏輯,僅有一位受訪者質疑由資料驅動的求真導向:“如果演算法能捕捉到客觀世界的規律,那麼它應該叫‘物理定理’,又怎麼需要我們工程師更新迭代?”(M22,2023年7月2日)
2. 社會真實
其次,演算法工程師對“真實”的理解還指向“社會現實”,此時求真的面向從資料超越至社會層面,更多寄託了他們的專業追求:“最好的演算法就是能夠還原世界。”(M16,2023年6月17日)在這一視角下,演算法歧視本質上是現實社會癥結在演算法社會中的復現。
對不同情境下不同型別的演算法歧視,受訪工程師都有類似觀點。就出行平臺演算法的價格歧視而言,有工程師提出:“不是大資料在殺熟,也不是隻有大資料才殺熟,反而是因為平臺的資訊透明讓大家能感受到它在殺熟,但這不是演算法造成的,線下也會有這類問題。”(M21,2023年6月6日)就司法裁判演算法的種族歧視而言,有工程師則說:“這個演算法的評估結果在種族上有差異,是因為在美國黑人的犯罪率確實比白人高。”(M13,2023年6月10日)“本質反映了一種具備統計學意義的社會現象。”(M15,2023年6月11日)
當工程師把“擬合真實世界”內化為專業主張時,他們就將“資料真實”進一步等價於“社會現實”,線上的演算法歧視與線下的社會歧視一脈相連,演算法隨之陷於社會既有的結構性困境中。工程師對此感到沮喪,表示化解社會癥結已遠超自身與演算法技術的責任及能力邊界:
我們協助有關部門做過色情行業從業者的演算法識別,結果發現這些人基本上都是來自某個貧困地區的女性。這個結果非常讓人傷心,聽起來也很歧視,但如果我們只是靠在演算法裡摘除這個特徵、不讓演算法指向特定人群,相關的現象依然存在、不會解決。(M6,2023年5月29日)
但值得一提的是,不少工程師考慮了演算法“求真”的風險——演算法在表徵社會現實的同時,可能以“再生產”的方式加固和強化已有的社會偏見(Just & Latzer,2017)。工程師表示,演算法的確是鏡子,但本質是“放大鏡”(M2,2023 年5月28日),會讓本就有偏的社會結構更為失衡:“社會中女性找工作的難度本就大於男性,演算法還輔助得出了一個有利於男性的決策建議,這無形中又提高了女性求職的難度。”(M19,2023年5月30日)在這種認知的驅使下,工程師會將自身責任倫理的框架從“如實反映社會現實”擴充套件至“避免惡化社會現實”,認為自身即使不能改善社會歧視現況,也應防止讓自己設計的演算法淪為歧視的擴散器,這種認知傾向一定程度可避免工程師因將演算法歧視歸咎於社會現實而合理化自己的免責或不作為。
3. 因果真實
追求“資料真實”或“社會真實”均反映出演算法工程師“現象還原”的價值目標。隨著人們對大資料的認識加深,演算法中的因果機制愈發得到關注。大資料驅動的演算法被認為只是更多習得了“統計相關性”,而非事物間的因果關係(Pietsch, 2016)。過去在歧視發現領域,技術人員會依賴演算法結果與訓練資料之間的相關性分析,而忽略混雜變數(confounding biases)的影響,導致了歧視爭議的因果錯判(Qureshi,Kamiran,Karim,Ruggieri & Pedreschi,2020)。
有5位受訪工程師(M4、M8、M9、M15、M16)明確在反思歧視性現象時體現出“因果還原”的思路。如M4就認為:“對演算法歧視的討論不能停留在‘演算法為女性推薦的高薪工作更少’的現象上,應該弄清楚演算法是否真是因求職者性別才算出這種結果。”(2023年5月28日)精準區分相關和因果的追求指引著工程師對 “是否構成歧視”的判斷:他們推崇透過因果推斷方法,判別是否因引入某一特徵才導致了傷害性的區別對待,進而釐定“某一歧視是否真的存在”。在“演算法種族歧視”的案例討論中,M8表示:
如果演算法不考慮種族特徵後,最終還是能得出某一種族的再犯風險顯著高於其他種族的結果,這就說明種族並不是導致演算法結果差異化的原因,它只是一個相關因素。這樣的話,我也不會因為演算法差別對待某一種族而調整演算法。(2023年6月4日)
受訪工程師介紹,明確因果現實是工業界正在努力的方向。在他們看來,這種 “因果還原”的思路雖無法根治演算法歧視現象,但超越了“現象還原”的思路,有助於更好地從邏輯和機制上理解演算法造成的差異化結果。然而,這種價值追求帶有濃厚的技術理性主義色彩,使得歧視作為心理現實(psychological reality)的性質被剝離,僅成一道可用數字精確解釋的客觀現象,背離了人文理性。
綜上,鑑於真實和準確被認為是演算法的理想狀態,工程師認為自己有責任在反映資料分佈、社會現實和內在因果等層面求真求準。這種對“真”的追求,與演算法應具備的人文主義之間產生了張力:諸如“映象世界”這類強調技術和資料客觀性的觀念很大程度上脫離了人的主體性存在,當開發者將其作為主要技術願景,並以資料、社會、統計因果等為依歸時,歧視的發生與再生產就被接納為“映象世界” 中的一條客觀規律,人的感受和體驗也隨之被置於資料實在、關係實在與社會實在之下。
(二)建設“數字花園”之困:演算法工程師“向善”緣何受挫
當從業者對真實與客觀的追求成為演算法歧視的觀念肇因,作為倫理目標的“求善”變得關鍵——它可調適“求真”帶來的隱患,推動技術實踐走向真與善的統一。近年來,研究者在緩解歧視爭議方面倡導嵌入公平性(algorithmic fairness)等理念和設計(張莉莉,朱子升,2021),其實質即“求善”理念的一種技術外化;在業界,為紓解大資料、大平臺時代人文關懷失落的困境,技術人員們也已嘗試以修葺、建設“花園”(data gardening)的思路對資料和系統進行維護和更新(Seaver,2021)。這些技術倡議和實踐都旨在為演算法附著倫理關懷,進而打造一個平衡有序、真善兩全的“數字花園”。
然而,“向善”的理念並未自然地融入技術開發程序。在被問及系統公平與技術正義是否被納入工作目標時,受訪工程師表明“求善”與其自身職業角色定位和專業追求不符:“演算法工程師的目標不是給使用者構造一個花園,不讓他們接觸負面的資訊。”(M4,2023年5月28日)“演算法的本質是數學……數學課本不會附上一頁要求學習數學的人去做善事。”(M7,2023年6月1日)即便部分工程師在個人美德倫理的感召下對數字世界的公平正義心有嚮往,也未能讓“揚善”與其職業倫理和責任倫理的框架充分相容。受訪者們從多個角度解釋了“求善”緣何沒有成為他們的價值目標:
1. 動機衝突
如前所述,“求真求準”是演算法工程師推崇的技術操守和專業目標,且它具有優先性甚至唯一性,與“求善”難兩全。此外,工程師也表示,除“求真”的專業目標外,演算法所服務的業務目標也常與“求善”形成動機衝突。
多位受訪者現服務於電商或新零售平臺,他們直觀地介紹了在“求利”導向下,演算法公平和正義被貶抑或漠視的現實:“為公平性而調整演算法會影響營收和效率。演算法效率優先,公司收益優先,二者結合起來就是要最高效地獲得最大化利益,這個時候公平已經排到演算法設計的最後了。”(M12,2023年6月7日)“公司最在乎ROI(Return on investment,投資回報率),所有工程師們負責的每個小指標都是為了提升這個大指標。”(M8,2023年6月4日)在這一情形下,“求利” 與“求真”一樣對“求善”形成驅逐。尤其當“拉新促活”等可能導致價格歧視的策略漸成行業慣例,平臺為在競爭中勝出,將演算法公平和正義從工程師的責任體系中隱去:年輕工程師表示,他們的業務目標即提升商業指標,基本沒有餘力考慮公平性問題;對資深工程師而言,他們的目標已幾乎和所供職企業的商業目標混同。
泛資訊行業的演算法工程師也揹負著點選率等指標。不同於ROI等直觀的財務指標,點選率等指標引導他們更多關注面向個人的資訊服務質量。推薦演算法在20世紀90年代被引入資訊領域時,其初衷即為實現個性化的資訊服務(陳昌鳳,師文, 2018),這一初衷也會與“求善”形成動機衝突。對於搜尋引擎自動提示演算法而言,工程師就表示難以兼顧消歧與資訊的個性化和多樣化:“當工程師覺得資訊負面、演算法不應該推時,使用者可能就面臨想了解卻又搜不到的情形。我知道公平、正義是使用者體驗的重要內容,但作為資訊工具,搜尋引擎的提示主要還是得照顧使用者的搜尋興趣和需求。”(M21,2023年6月6日)兩難選擇背後是工程師對平臺社會責任的理解:從業者多抱有“渠道中立”的觀念,認為商業公司無從且無需承擔 “建構數字花園”的職責:“搜尋引擎只是幫助檢索的工具,它又不需要讓一個戴有色眼鏡的使用者變成不歧視的人。”(M11,2023年6月5日)
值得注意的是,雖然受訪者中少有為政府決策設計過演算法的工程師,但有3位明確表示,與商業平臺演算法不同,輔助政府決策的演算法應將公平和正義視作絕對核心,因其關乎每個人的基本權益,所以應以純粹的社會公義為目標。
2. 路徑阻斷
在動機上,“求善”遭遇“求真”和“求利”的擠壓;在實現路徑上,技術、組織、教育等路徑的阻斷也令公平和正義未能成為工程師群體的優先目標。
就技術路徑而言,大部分工程師認為公平與正義等是多維甚至無法窮盡的概念,無法量化計算,很難轉化為技術設計、嵌入算法系統。有工程師甚至認為,只有完全隨機的演算法才能在公平性上服眾,當演算法訓練資料裡充斥著未能窮盡的標籤與特徵時,就難有公平可言。受訪者表示,Open AI這類在消除歧視上看似領先的業內代表,也只是在西方社會較為關注的性別、種族等歧視上作出回應,國家歧視等維度同樣被擱置在側。而且,愈來愈複雜的演算法模型使得從技術上維繫演算法公平更加不易:“當引數和策略比較簡單時,我們工程師還可以人工維護;但是像 ChatGPT的引數已經以億為單位,有針對性地設計和維護是不可能的。”(M20, 2023年6月1日)況且,演算法本身的運作邏輯就讓“去偏消歧”難以落地。M22表示:“演算法從歷史資料中學習大機率事件如何發生,難免會用大規模的群體性資料推斷個體,這在根本上就跟消除歧視背道而馳。”(2023年7月2日)誠然,一些工程師也介紹了當前工業界與演算法公平相關的設計,但這些設計其實只為演算法(非)公平提供了判斷依據,目前公平的實現和維護沒有成熟的技術路線。
就組織路徑而言,在員工眾多、規模龐雜的網際網路公司中,每位演算法工程師一般只負責部分細微的子目標,因此單個工程師無法全域性地衡量演算法的公平性:“上級會把一個大指標拆解成許多小指標,分別讓不同工程師去最佳化,比如為了實現使用者轉化這個大目標,有同事就專門負責‘使用者單次購買商品數’這一項指標。” (M8,2023年6月4日)更關鍵的是,由於網際網路公司內設精細的業務線,倫理責任隨著條塊化的架構設計趨於分散式,這被認為是一種常態(Noorman,2023)。因此,工程師們傾向於認為其他部門的工作人員將在求善上“代勞”,如M16就認為公平性是業務與產品部門人員應負責的問題:“我們更關注技術,一些貼近業務或者產品設計上的同事對偏見這樣的負面產品體驗會更重視,大家各有側重。” (2023年6月17日)在M8供職的企業中情況又有所不同:“公平性應該是輿情或者法務團隊負責的事情,不歸我們考慮。”(2023年6月4日)在分散式倫理框架下,面向公平和正義的“求善”被規定為特定行動者的目標,以一種制度化的方式從演算法工程師上剝除。
此外,擱置公平性也與工程師受過的專業教育存在關聯。一眾受訪者都提及了“tradeoff(權衡)”的演算法設計原則,它以一種術語的形式在專業教育中被引入:“這是我上第一節課就接觸到的詞。演算法設計依靠不同的資源條件,老師提醒我們一定要權衡取捨。”(M1,2023年5月27日)在工程師看來,演算法無法盡善盡美,當“善”成為難以實現且無需實現的要素時,這種“權衡”的妥協觀使得他們放低對公平和正義的希冀。另一方面,絕大多數受訪者表示未上過專門的技術倫理課程:“在學校唸書時,學界都在研究怎麼能讓技術更智慧。這幾年技術問題解決了不少,對倫理的關注才相對多起來。”(M2,2023年5月28日)這不僅是中國STEM專業教育面臨的現況,有歐美教育背景的受訪者同樣表示技術倫理不過是 “老師在課程收尾的時候可能會提到的內容,不是課程的主體”(M8,2023年6月4日),倫理教育不足限制了工程師群體對技術向善的理解。
3. 非善之善
目標與路徑的阻礙讓工程師擱置了對“善”的追求。除此之外,工程師表示,出於公平正義的糾偏可能會帶來“不善”的後果,這種面向結果的考量讓他們更為謹慎。特別是當演算法介入公共決策流程時,不少工程師指出,若出於不確定的善意而調整演算法,可能反倒會妨害公共秩序。M5以司法裁判演算法為例:“這種演算法預測的是犯罪,需要強調準確率。如果為了所謂的善、不區別對待,結果危及公共安全,誰來負責?”(M5,2023年5月29日)正是由於後果難料,工程師傾向於將自身的責任倫理框架簡化。
這種“非善之善”還被認為體現在技術發展上:從事前沿演算法模型設計的人員相信技術的未來前景,認為大模型等技術未來可能會改變世界;而對歧視等倫理問題的過分苛責會限制技術的創新與發展。M5借用汽車與安全帶的隱喻表達了他的看法:“汽車(指大模型)還沒發明出來,我們就在設計安全帶(指倫理約束)。一個影響全人類的技術可能就因此無法發展。”(2023年5月29日)
可見,在演算法工程師的責任倫理框架中,“守義”“求公”等對善的追求難免不被高高舉起、輕輕放下——從觀念體系來看,“求善”除了面對“求真”產生的張力外,還會被特定的業務目標替代位置和壓縮空間,多數時候成為工程師的一種彈性動機;從實現路徑來看,倫理之重要性在他們過去所受的專業教育中未得到聲張,倫理概念的難以量化又為求善製造了技術難度,且條塊化和分散式的組織架構讓他們認為求善非己任,加之“向善”並不一定結下“善果”,這些都令工程師審慎對待“數字花園”、逐漸遠離“求善”目標。
(三)“真”與“善”的權衡與超越:演算法工程師的“去偏”和“消歧”實踐
求真、求善與求利三重觀念相互糾纏,影響著工程師對演算法歧視的判斷與立場,進一步作用於他們的“去偏”和“消歧”方案制定。“求真”導向之下,由於工程師自認很難改變“社會現實”,故他們的“去偏”實踐一般面向“資料真實” 和“因果真實”展開:
在“資料真實”方面,工程師意在改變資料的有偏形態,展現出了兩種思路:第一,對資料進行清洗式糾偏,例如推(推薦)/廣(廣告)/搜(搜尋)演算法開發者常用的“黑詞庫”即是清洗式糾偏的代表:“我們工程師會參與搭建平臺‘黑詞庫’,比如訓練一個敏感詞檢測模型,為不同詞的敏感性賦分,最後根據打分結果自動地遮蔽一批資訊。”(M8,2023年6月4日)第二,對資料進行增強性糾偏。所謂資料增強(data augmentation),即透過向代表性不足的資料補充更多等價和有效的資料,豐富訓練資料的分佈,以增進模型的泛化能力,這種思路則旨在補強資料的代表性。M7(2023年6月1日)介紹:“對於資料不平衡的問題,實際上我們也有很多嘗試,比如說隨機、聚類、加噪等等。”
面向因果的糾偏則有賴於可解釋性方法和因果推斷方法的進步,兩種方法都為判斷演算法輸出結果是否存在歧視傷害提供了數理層面的參考。在模型可解釋性上, “可解釋性方法可以把‘黑盒演算法’做決策的思路,用統計語言或者視覺化的方式告訴使用者或開發者,這就可以幫助判斷演算法是否存在偏見”(M16,2023年6 月17日)。在因果推斷上,實驗法相對常見:“如果認為演算法有基於某個特徵的歧視,我們會試著丟掉這個特徵,觀察在去掉特徵後模型是否還會輸出相同的結果。這個在演算法上叫做消融實驗。”(M7,2023年6月1日)
“求善”導向之下,工程師認為“合規”和“提升使用者體驗”兩種方式可讓演算法通往“無傷(harmless)”。前者即讓演算法服從法律的基本規定、避免出現非法亂象,如前文提及的“黑詞庫”就會把涉嫌危害國家安全的資訊首先摒棄。後者則讓演算法順應使用者體驗,以使用者反饋為準繩,借用戶體驗來判斷是否應調整演算法模型。
另外,雖然組織架構讓工程師在求善問題上的主動性與話語權甚微,導致求善成為他們的彈性動機,大多受訪者仍表示會在其他崗位提出“去偏”和“消歧”的技術需求後積極配合:“產品崗會給這些問題劃定優先順序,我們根據他們的優先順序修改技術。”(M11,2023年6月5日)有工程師還強調技術崗應在“求善”上被賦予更多能動性,特別是在前沿新技術領域扮好“吹哨者”。一位受訪者就曾在大模型開發過程中敏銳地定位了種族歧視風險,並主動向決策層提議暫緩產品釋出,最終這一提議被採納。不過類似案例在訪談物件中十分少見,更多受訪者認為,“去偏”和“消歧”關乎公司整體的企業文化,底層員工以個人之力撼動企業價值觀不現實。
在“真”與“善”之外,受訪者亦提及國家意志和社會輿論對他們技術倫理觀念和實踐的塑造。M21即認為:“技術監管的最優方案來自國家,國家會從頂層設計角度權衡技術發展與社會公平之間的度,同時制定對所有公司都平等的方案。” (2023年6月6日)社會輿論也可能發揮決定性作用:“就像之前的大資料殺熟,我們也關注相關社會輿論,畢竟輿論有時會決定一個產品是否退市。公司一般在輿論發酵後會向我們下達命令、要求技術調整。”(M3,2023年5月28日)
四
結論與討論
本研究透過一組對演算法工程師的訪談,關注作為技術建構者的工程師如何看待和應對演算法歧視爭議,並擇重從工程師倫理切入,觀察他們的倫理觀念與實踐如何介入有偏技術的建構過程。
結果表明,工程師群體並非像以往調查所述,在倫理問題上模糊含混和漠不關心。至少在演算法歧視問題上,他們有專業且堅定的價值判斷——他們秉持對真實準確的技術的追求,認為技術系統應當反映現實,且不會超越現實;當資料或社會中存在歧視問題,演算法將有如鏡鑑、一一燭照。這種對“真”的理解很大程度上塑造了有偏的技術系統。同時,部分受訪者也注意到演算法歧視對社會歧視的複製與擴散,認為自己設計的演算法在反映現實歧視之時,應避免擴大歧視、惡化現實。
值得討論的是,本研究與既有調查和研究發現存在出入,這一方面可能與研究方法和研究設計有關:問卷調查等方式雖確保了結論的統計學意義,但量表等資料和資料的收集方式很可能會造成資訊量的損失;而既有訪談關注相對泛化的、一般意義上的倫理,在結合例項與工作場景上有欠缺,鮮有觸及工程師們對演算法歧視這類特定情境的態度、想法與行為。另一方面也與研究面對的現實有關:近兩三年來,“技術後衝”(Techlash)的思潮在全球範圍內湧起,媒體對演算法失範的討論密集,國家對演算法規範的建制頻頻,這可能也補充、調適甚至重塑了工程師們對演算法歧視等倫理問題的理解。本研究的結論可視作對前序研究的一種豐富,也表明有關技術從業者倫理觀念和實踐的討論空間在不斷拓寬,學界的認識需不斷更新。
回到發現中,工程師為何執著於“真實”?訪談發現,這種追求部分地源於他們的專業立場和判斷,亦關乎他們對職業的理解。工程師認為“去偏”和“消歧”在實現上困難重重,這一部分受制於客觀的技術能力——目前在公平正義方面缺乏通用可行的量化模式;同時也受環境制約——在當下的組織分工中,“求善”往往被規定為工程師無須多慮、由其他行動者主理的目標,加之效率和利益的最大化、資訊的個性化等業務目標在組織化力量的加持下嵌進工程師群體的責任倫理框架中,擠壓了個人美德倫理中的“從善”,進一步放大了“求真”的優越性與唯一性。
國內工程師對“真”“善”等的價值追求本質是什麼?此前研究認為當代演算法生產的倫理觀和道德判斷源於其母專業,即工程學的技術自由主義文化(techno-libertarian culture)(Avnoon,Kotliar & Rivnai-Bahir,2023)。對這一觀點,本訪談補充了更本土化的辯證視角——誠然,國內外演算法工程師在演算法歧視問題上有不少共通的、跨越地方的價值觀念,這些很大程度上植根於其專業文化。本研究受訪的工程師們確實表露出了一些技術自由主義傾向:他們嘗試從技術出發將演算法歧視“合法化”,有觀點還認為過分苛責和審查技術會阻礙科技創新。但是,國內的工程師認識到了有偏演算法對社會歧視的“再生產”和加固,但又囿於組織環境給去偏和消歧實踐製造的阻力,進而贊成國家、公眾與技術人員、企業組織一道參與扭正技術缺陷,尤其對政府在技術治理上不可替代的統攝性作用深以為然。這些反映出技術人文主義與技術自由主義在中國社會完成了價值觀調和,正促成一種有別於西方的職業理念,它一併進入了有(去)偏技術系統的社會建構程序。可以認為,我國在網際網路治理體系(如強有力的宏觀治理以及對政府的普遍信任)、歷史文化傳統(如“又紅又專”等中國本土工程師倫理的培育與演進)、企業架構(如企業的科層制遺留)、行業環境(如行業的高度 “內卷”)等層面都區別於西方,這些為中國演算法工程師的“真善之辯”注入了地方性的“基因”。這再度提示:隨著我國數字平臺頻繁出海、中國演算法從業者在全球數字產業中扮演愈來愈顯要的角色,對中國演算法工程師價值目標與倫理實踐的觀察兼具在地和跨地方意義,值得深入探討。
在理論層面,透過觀察工程師倫理如何進入技術建構的流程,研究重新定位了SCOT理論所述的解釋彈性(interpretative flexibility)(Pinch,2012;戴宇辰, 2021)。過去理論認為,技術相關的彈性詮釋一般發生於不同的相關群體間。但訪談發現,這種彈性亦在工程師內部產生:他們對哪些現象屬演算法歧視,相關歧視爭議如何歸因、化解等問題的理解表現出了異質性。或許這正表明,對有(去)偏演算法技術的認知尚未“閉合”,相關的“去偏”和“消歧”實踐亦未進入“穩定化” 的狀態,此時介入研究、提供洞察和見解十分適宜。不過工程師們幾近一致地認同、追求“真”與“準”,且為自己脫責、認為“求善”非己任,這也提醒:有偏技術的社會建構正處程序中,它影響著未來的演算法社會是否會成為現實社會的“映象”,還是會超越有偏現實、建成理想化的“花園”;在這一程序之下,對(反)演算法歧視的觀念與認識變為一道稜鏡,折射出從業者公平、客觀、正義、尊重、透明、可解釋等多種基礎倫理觀之間是如何協調與互構的。
本研究為理解演算法歧視和有偏技術提供了倫理觀與倫理實踐層面的見解,在取徑上較細,這是亮點亦是不足。後續研究可考慮循技術的社會建構進一步延伸,探討政治環境、商業生態等因素如何塑造智慧技術。
本文系簡寫版,參考文獻從略,原文刊載於《國際新聞界》2023年第10期。
封面圖片來源於網路
本期執編/九九
訂閱資訊
全國各地郵局均可訂閱《國際新聞界》,國內郵發代號:82-849,歡迎您訂閱!
您也可透過下方二維碼或網址https://weidian.com/?userid=1185747182,進入國際新聞界微店,購買當期雜誌和過刊。
您還可訪問《國際新聞界》官方網站 http://cjjc.ruc.edu.cn/ ,免費獲取往期pdf版本。