未來,人工智能進入更多的領(lǐng)域、發(fā)揮更強的功能,是無可爭辯的事實。然而,我們的生產(chǎn)關(guān)系能否適應(yīng)人工智能帶來的生產(chǎn)力,這句馬克思政治經(jīng)濟學(xué)的基本原則值得我們認(rèn)真思考...
當(dāng)我們的世界被人工智能所支配,我們有辦法逃脫它們帶來的“惡”嗎?本文來自微信公眾號:人間Museum(museumofus)和果殼網(wǎng)(Guokr42),作者:李子李子短信。
“9·11 是猶太人干的,把他們都送進毒氣室!種族戰(zhàn)爭現(xiàn)在開始!”
2016年3月23日,一個人設(shè)為19歲女性,昵稱為 Tay 的聊天機器人在推特上線。這個微軟開發(fā)的機器人能夠通過抓取和用戶互動的數(shù)據(jù)模仿人類的對話,像人一樣用笑話、段子和表情包聊天。但是上線不到一天,Tay 就被“調(diào)教”成了一個滿口叫囂著種族清洗的極端分子,微軟只好以系統(tǒng)升級為由將其下架。
微軟聊天機器人的極端言論。圖片來源:推特
這樣的口號并不是聊天機器人的發(fā)明,而在社交網(wǎng)絡(luò)上大量存在著。美國大選期間,一些所謂的“政治新媒體”賬號發(fā)出的摻雜陰謀論、種族主義的內(nèi)容,在Facebook 上進行了病毒式傳播。這有賴于人工智能協(xié)助下的“精準(zhǔn)定位”:誰最容易相信陰謀論,誰對現(xiàn)實最不滿?相應(yīng)的政治廣告和假新聞能精準(zhǔn)地投放到這群人中,使人對自己的看法更加深信不疑。
因為設(shè)計缺陷而 “暴走”的聊天機器人,和精心策劃的線上政治行為,看起來仿佛是兩回事。但這種我們似乎從未見過的景象,卻指向了同一個“兇器”——大數(shù)據(jù)驅(qū)動下的人工智能。
一、人工智能有作惡的能力嗎?
人工智能會“作惡”嗎?面對智能的崛起,許多人抱有憂慮和不安:擁有感情和偏見的人會作惡,而僅憑理性計算進行判定的計算機似乎也會“作惡”,且作起來易如反掌。這讓許多人(特別是非技術(shù)領(lǐng)域的人)對人工智能的發(fā)展持悲觀態(tài)度。
這種憂慮并不是最近才有的。人工智能這個詞誕生于上世紀(jì)50年代,指可體現(xiàn)出思維行動的計算機硬件或者軟件,而對機器“擁有思維”之后的倫理探討,早至阿西莫夫開始就在科幻作品里出現(xiàn)。
14 年前,威爾·史密斯主演的電影《機械公敵》里就有這樣一個場景:2035 年的人類社會,超高級的人工智能承擔(dān)大量工作,并與人類和諧相處。這些原本完全符合阿西莫夫“三定律”的人工智能,在一次關(guān)鍵升級之后對人類發(fā)起了進攻。這些機器人擁有了思維進化的能力,在它們的推算下,要達到“不傷害人類”的目的,就必須先消滅“彼此傷害”的人類。
十分高產(chǎn)的科幻作家阿西莫夫(1920-1992)。圖片來源:sciencesetavenir.fr
看起來,人工智能并不像人類一樣擁有所謂“人性”,并不與我們共享一個道德倫理體系。然而將智能的“作惡”簡單理解為“人性缺乏”,未免把這個問題看得太過簡單。
一方面,機器似乎還不夠“智能”。南京大學(xué)計算機科學(xué)與技術(shù)系副教授、人工智能專家俞揚認(rèn)為,“人性”對于人工智能來說是一個非?!案邔哟巍钡臇|西。“描述一張圖片上,有草原,有獅子,機器可以做到,”俞揚舉了個例子,“而要歸納它是‘非洲’,就要更高級一些,對機器來說更困難?!彼f,判斷一件事情在道德上好不好,意義上怎么樣,目前來講并不是機器的能力范圍。
而正視人工智能的“惡”,或許應(yīng)該首先找出作惡之源——為什么人工智能忽然變得可怕起來?
另一方面,機器似乎已經(jīng)太過“智能”,某些方面幾乎要超越人類的理解。近 10 年,人工智能領(lǐng)域迎來了爆發(fā),這要得益于 “機器學(xué)習(xí)”的發(fā)展:擁有強大運算能力的計算機程序能夠?qū)Υ罅繑?shù)據(jù)進行自動挖掘和分析,并學(xué)習(xí)各種行為模式。輸入和輸出不再是人工賦予的幾個變量掌控,而是讓機器在大量數(shù)據(jù)中自己分析特征,決定變量權(quán)重。
目前最火的領(lǐng)域“深度學(xué)習(xí)”就是這樣——行業(yè)者有時會將其戲謔地稱為“當(dāng)代煉金術(shù)”:輸入各類數(shù)據(jù)訓(xùn)練 AI,“煉”出一堆我們也不知道為啥會成這樣的玩意兒。處理數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò),通常由數(shù)十個或者上百個(或者更多)神經(jīng)元組成,然后用數(shù)層邏輯結(jié)構(gòu)組織起來,運算過程及其復(fù)雜。智能程序自己給自己設(shè)定算法和權(quán)重,而最后為什么輸出了某個決策,人類并不能完全理解。
這看起來就仿佛一種本能一樣——蒙特利爾大學(xué)的計算機科學(xué)家約書亞·本奇奧將其稱為“人工直覺”(artificial intuition)。
圖片來源:wpi.edu
我們會信任一個我們“無法理解”的決策對象嗎?當(dāng)它出錯的時候,我們能夠察覺、能夠糾正嗎?
“我們必須清楚地知道人工智能會做出什么樣的決策。對人工智能的應(yīng)用范圍,以及應(yīng)用結(jié)果的預(yù)期,一定要有約束。”俞揚認(rèn)為,“黑箱”的現(xiàn)實應(yīng)用,一定要慎之又慎。環(huán)境是否可控,是否經(jīng)過了可理解性的測試,決定了它是否可以用在關(guān)鍵的場所,否則就是產(chǎn)品的重大缺陷。
今天的人工智能之所以危險,不僅是因為它已經(jīng)具備了一定的能力和“權(quán)力”,還因為人類生活的大規(guī)模網(wǎng)絡(luò)化、數(shù)字化,為機器的“學(xué)習(xí)”提供了足夠多的數(shù)據(jù)“食糧”。
今天的人工智能與其說是擁有“思維”,不如說是對于人類世界中現(xiàn)存數(shù)據(jù)的反映和理解。與其說“沒有人性”,會不會是“太有人性”?機器是否也繼承了我們既有的偏見、無常和貪婪?
二、人工智能的罪惡之源
人工智能在判斷上失誤的一個指責(zé),是它經(jīng)常會 “歧視”。使用最先進圖像識別技術(shù)的谷歌曾經(jīng)陷入“種族歧視”的指責(zé),只因它的搜索引擎會將黑人打上“猩猩”的標(biāo)簽;而搜索“不職業(yè)的發(fā)型”,里面絕大多數(shù)是黑人的大辮子。哈佛大學(xué)數(shù)據(jù)隱私實驗室教授拉譚雅·斯維尼發(fā)現(xiàn),在谷歌上搜索有“黑人特征”的名字,很可能彈出與犯罪記錄相關(guān)的廣告——來自谷歌智能廣告工具 Adsense 給出的結(jié)果。
而這種危險并不僅僅是 “另眼相看”本身——畢竟將一張黑人的照片打上“猩猩”的標(biāo)簽,只是有點冒犯罷了。而人工智能的決策正走入更多與個人命運切實相關(guān)的領(lǐng)域,切實影響著就業(yè)、福利以及個人信用,我們很難對這些領(lǐng)域的“不公平”視而不見。
人工智能會加劇人類社會的不公平嗎?圖片來源:Chatbot's Life
對每個畢業(yè)季都會收到數(shù)以萬計簡歷的大公司人力部門而言,用機器篩簡歷并不是什么新鮮的事情,百分之七十以上的簡歷甚至都到不了 HR 的眼皮底下。篩簡歷的 AI(業(yè)界用語“雇傭前評估”)因此而獲得了大約30億美元左右的市場。有些關(guān)鍵詞,例如性別、地域,或者出身階層,至少在明面上,是不宜成為篩選標(biāo)準(zhǔn)的——這個時候,HR 就會以“并不適合”為由,推掉不喜歡的性別、籍貫?zāi)酥列亲?。那么,徹底排?HR 或者項目經(jīng)理個人偏見的人工智能會解決這個問題嗎?答案可能會更糟。
最新的人工智能雇傭輔助技術(shù),并不需要人為設(shè)置關(guān)鍵詞,而全靠“過往的優(yōu)秀員工數(shù)據(jù)”對機器的訓(xùn)練,決策權(quán)重也并不是加或者減去一個過濾的變量就能解決的,看起來似乎十分公平。然而人工智能的檢視,卻讓少數(shù)族裔、女性、或者有心理疾病史的人更難找到工作。
美國 IT 作家、數(shù)學(xué)家凱西·奧尼爾曾經(jīng)調(diào)查到,人力資源解決方案公司 Kronos 提供的智能篩選服務(wù)會用“個性測試”把有心理疾病史的申請者擋在門外;而施樂在招聘的時候發(fā)現(xiàn),人工智能大量過濾掉了有色人種的申請,因為這些申請者提供的地址位于市內(nèi)某黑人聚居區(qū)。
金融領(lǐng)域也不例外。位于美國洛杉磯的科技金融公司 Zest 開發(fā)了一個人工智能信用評估平臺 ZAML,使用用戶網(wǎng)絡(luò)行為,而不是實際的信用記錄,來判定用戶的信用值。
百度作為搜索引擎合作商,向他們提供了大量可以數(shù)據(jù)用于歸納出用戶可能的財務(wù)狀況。它聲稱有近十萬個數(shù)據(jù)點,沒有所謂“決定因素”,因為美國法律禁止金融機構(gòu)以性別、種族或宗教等決定一個人的信用。然而在現(xiàn)實應(yīng)用中,對于不同人群的“另眼相看”卻體現(xiàn)得非常明顯——比如,它會“研讀用戶的申請”,檢查申請中是否有語法和拼寫錯誤等,來判定一個人“守規(guī)矩”的傾向;然而這導(dǎo)致并不能熟練使用英語的移民群體在信用問題上被抹黑。
圖片來源:Practice Index
歧視的來源是哪里?是打標(biāo)簽者的別有用心,是數(shù)據(jù)擬合的偏差,還是程序設(shè)計哪里出了 bug?機器所計算出的結(jié)果,能為歧視、不公、殘酷提供理由嗎?這些都是值得商榷的問題。
我們訓(xùn)練機器的“過往數(shù)據(jù)”,實際上是人類自身偏見和行為的產(chǎn)物?!禡IT 商業(yè)評論》的分析者認(rèn)為,類似于 ZAML 的智能采用的“貼標(biāo)簽”策略,很難排除相關(guān)性(而非因果性)帶來的偏見。少數(shù)族裔常常會因某種特定行為被打上標(biāo)簽(比如訪問某個網(wǎng)絡(luò)社區(qū)等),即使他/她有良好的信譽和穩(wěn)定的工作,只要出現(xiàn)這樣的行為,就可能會被人工智能判定為低信用,需要為他/她的借貸支付更高的利息,或者干脆沒有資格。
機器能解決處理效率的問題,卻不能避免“過往數(shù)據(jù)”本身造成的缺陷。一個公司過去10年男員工工資比女員工高,有可能源自某個高層的性別歧視;智能篩選卻能把對于此群體的偏見刻印在對于個體的判斷上,這跟人類的刻板印象如出一轍。問題在于,機器的抉擇往往被包裝上“科學(xué)”“客觀”的外衣,此類解決方案往往能夠因為其科技噱頭而賣出高價,殊不知只是用“科學(xué)結(jié)果”對現(xiàn)有的偏見進行的“大數(shù)據(jù)洗白”。
三、資本驅(qū)動的數(shù)據(jù)世界
如果說“過往數(shù)據(jù)”的積累是機器作惡的基礎(chǔ)的話,那么資本力量的驅(qū)動則是更深層次的原因。
如同開篇提到的那樣,2016 年美國大選期間,一家叫劍橋分析(Cambridge Analytica)的公司使用人工智能技術(shù),針對任意一個潛在選民的“心理特征”投放付費政治廣告;而投什么樣的廣告,取決于一個人的政治傾向、情緒特征、以及易受影響的程度。很多虛假的消息在特定人群中能夠迅速傳播、增加曝光,并潛移默化地影響人們的價值判斷。技術(shù)主使克里斯托弗·威利最近向媒體揭發(fā)了這個人工智能技術(shù)的“食糧”來源——以學(xué)術(shù)研究為名,有意攫取的 5000 多萬用戶數(shù)據(jù)。
劍橋分析CEO亞歷山大·尼克斯(Alexander Nix)。圖片來源:wikipedia
劍橋分析并不是一個孤例。澳洲一個 Facebook 的廣告客戶透露,F(xiàn)acebook 的人工智能會分析其用戶特征和所發(fā)的內(nèi)容,給出諸如“有不安全感的年輕人”“抑郁、壓力大”等標(biāo)簽,然后有針對性地投放游戲、癮品和甚至虛假交友網(wǎng)站的廣告,從中獲取巨大利益。
即使不存在數(shù)據(jù)泄露問題,對用戶數(shù)據(jù)的所謂“智能挖掘”也很容易游走在“合規(guī)”但“有違公平”的邊緣。例如,電商能夠根據(jù)一個人的消費習(xí)慣和消費能力的計算,對某個人進行針對的、精密的價格歧視。購買同樣的商品,用 iPhone X 手機的用戶很可能會比用安卓“千元機”的用戶付更多的價錢,因為他們“傾向于對價格不敏感”。而我們所經(jīng)常談?wù)摰摹按髷?shù)據(jù)殺熟”——比如攜程老用戶訂旅館的價格會更高——也建立在用戶行為數(shù)據(jù)的基礎(chǔ)上。
數(shù)據(jù)的收集本身也值得商榷。前百度人工智能首席科學(xué)家吳恩達(Andrew Ng)就曾公開表示,大公司的產(chǎn)品常常不是為了收入而做,而是為了用戶的數(shù)據(jù)而做;在某一個產(chǎn)品上收集的數(shù)據(jù),會用于在另一個產(chǎn)品上獲利。在智能面前,沒有所謂的個人隱私和行蹤,也很難確定數(shù)據(jù)收集的邊界在哪里,尤其是個人隱私與公共信息、主動提供與被動提供的邊界。
總而言之,在以商業(yè)利益為目標(biāo)的人工智能眼里,并沒有“人”或者“用戶”的概念,一切都是可以利用的數(shù)據(jù)。劍橋大學(xué)互聯(lián)網(wǎng)與社會研究中心教授朔沙娜·祖博夫?qū)⑦@種人工智能和資本“合體”的現(xiàn)狀,稱之為“監(jiān)控資本主義”(Surveillance Capitalism)——在大數(shù)據(jù)和人工智能的協(xié)助下,通過對每個人的監(jiān)控和信息的榨取,實現(xiàn)資本的最大化。
業(yè)界對此的態(tài)度很曖昧。AI 作為當(dāng)下最熱門、來錢最快的行當(dāng)之一,這些動輒年薪50萬美元的工程師很少得閑來思考“形而上”的問題。 一位不愿具名的研究人員在與我的微信私聊中表達了他的“個人看法”:“現(xiàn)在的技術(shù)離‘通用人工智能’還很遠(yuǎn),對社會倫理方面的影響沒有那么大,更多還是從繁瑣的重復(fù)勞動中解脫出來。”
作者試圖找到行業(yè)內(nèi)人士對此評論,谷歌(中國)和百度自動駕駛部門的人工智能相關(guān)人員均表示,探討 AI 的社會問題,牽涉到公司利益和形象,比較敏感,不便評論。
“人工智能作為一個工具,如何使用,目前來看決定權(quán)依然在人。”俞揚說道 ,“系統(tǒng)的設(shè)計者和商業(yè)(應(yīng)用)的提供人員需要對此負(fù)責(zé)?!?/p>
如何負(fù)責(zé)?這或許需要我們正視人工智能對整個社會關(guān)系的挑戰(zhàn)。
四、人工智能作惡之后
2018年3月 19 日,一輛自動駕駛的優(yōu)步(Uber)在美國亞利桑那州惹上了麻煩。面對路中出現(xiàn)的一個推著自行車的女性,這輛車速 38 mph(約61km/h)的沃爾沃在昏暗的光線條件下并沒有減速,徑直撞了上去,受害者被送往醫(yī)院之后不治身亡。這是自動駕駛第一例行人致死的事故。
電視臺對自動駕駛優(yōu)步車禍的報道。圖片來源:abc電視臺
事故發(fā)生之后,有不少人將矛頭指向了自動駕駛的人工智能是否足夠安全上,或者呼吁優(yōu)步禁止自動駕駛。然而更關(guān)鍵的問題在于,亞利桑那有著全美國幾乎最開放的自動駕駛政策,事故發(fā)生地坦佩市(Tempe)是實行自動駕駛最火的“試驗田”之一;事故所在的街區(qū)早已做過路線測試,并被自動駕駛的智能采納。但是在事故發(fā)生之后,對于責(zé)任的認(rèn)定依然遇到了困難。
因為人的疏忽造成的車禍數(shù)不勝數(shù),人們早已習(xí)慣了如何處理、怎樣追責(zé);然而機器出錯了之后,人們忽然手足無措。人工智能會出錯嗎?當(dāng)然會。只是我們在這個問題上一直缺乏認(rèn)知。就如同上文提到的“隱性歧視”,深度學(xué)習(xí)的“黑箱”,現(xiàn)有的法律法規(guī)很難對這些錯誤進行追究,因為不要說普通人,就連技術(shù)人員也很難找出出錯的源頭。
當(dāng)人工智能的決策在人類社會中越來越重要時,我們也不得不考慮,智能為什么會犯錯,犯錯了怎么辦;若要讓智能擺脫被商業(yè)或者政治目的支使的工具,真正成為人類的“伙伴”,需要怎么監(jiān)管、如何教育,才能讓人工智能“不作惡”。
人工智能的監(jiān)管問題亟待解決。圖片來源:Getting Smart
對此,現(xiàn)有的法律框架內(nèi)很難有清晰的、可操作的實施方案。歐盟率先在數(shù)據(jù)和算法安全領(lǐng)域做出了立法的嘗試,2018年5月即將生效的新法規(guī)規(guī)定,商業(yè)公司有責(zé)任公開“影響個人的重大決策”是否由機器自動做出,且做出的決策必須要“可以解釋”(explainable)。但法條并沒有規(guī)定怎么解釋,以及細(xì)到什么程度的解釋是可以接受的。
另外一個重要的問題是,讓機器求真求善,需要人類自己直面決策中的黑暗角落。在 Atari 游戲智能的測試中,游戲中的人工智能 bot 可以用最快的速度找到漏洞開始作弊,而游戲玩家又何嘗不是呢?不管是帶有歧視的語義分析,針對少數(shù)族裔進行的“智能監(jiān)視”和跟蹤,或者把已婚未育女性的簡歷扔掉的智能簡歷篩選,都長期以各種形式存在于人類社會中。
人工智能不是一個可預(yù)測的、完美的理性機器,它會擁有人類可能擁有的道德缺陷,受制于人們使用的目標(biāo)和評估體系。至少目前,機器依然是人類實然世界的反應(yīng),而不是“應(yīng)然世界”的指導(dǎo)和先驅(qū)。對機器的訓(xùn)練同樣少不了對人性和社會本身的審視——誰在使用,為了什么而使用,在我們的世界中扮演著怎樣的角色?數(shù)據(jù)是誰給的,訓(xùn)練的目標(biāo)是誰定的?我們期望中的機器,會繼承我們自己的善惡嗎?
谷歌中國人工智慧和機器學(xué)習(xí)首席科學(xué)家李飛飛認(rèn)為,要讓機器“不作惡”,人工智能的開發(fā)需要有人本關(guān)懷?!癆I 需要反映我們?nèi)祟愔悄苤懈顚拥牟糠?,”李飛飛在《紐約時報》的專欄中寫道,“要讓機器能全面地感知人類思維……知道人類需要什么?!彼J(rèn)為,這已經(jīng)超越了單純計算機科學(xué)的領(lǐng)域,而需要心理學(xué)、認(rèn)知科學(xué)乃至社會學(xué)的參與。
未來,人工智能進入更多的領(lǐng)域、發(fā)揮更強的功能,是無可爭辯的事實。然而,我們的生產(chǎn)關(guān)系能否適應(yīng)人工智能帶來的生產(chǎn)力,這句馬克思政治經(jīng)濟學(xué)的基本原則值得我們認(rèn)真思考一番。我們并不想看到未來的“機器暴政”將我們的社會綁在既有的偏見、秩序和資本操縱中。
掃一掃在手機上閱讀本文章