在最近發(fā)布的一篇博文中,谷歌公司全球事務(wù)高級副總裁Kent Walker寫道:谷歌將不會通過Google Cloud提供“通用型”的人臉識別API。除非相關(guān)“挑戰(zhàn)”得到明確“認定與解決”。
Walker解釋稱,“與其它一些公司不同,谷歌正在努力解決與人臉識別技術(shù)相關(guān)的一系列重要技術(shù)與政策性問題。與眾多具有多種用途的新技術(shù)一樣,人臉識別的應(yīng)用同樣需要被慎重考量,從而確保其使用方式符合我們的原則與價值觀,同時避免濫用與可能出現(xiàn)的危害性結(jié)果。”
最近,谷歌公司似乎對新技術(shù)的使用表現(xiàn)出了與業(yè)界不同的謹慎態(tài)度。不久之前,谷歌方面正式?jīng)Q定中止為美國國防部提供對無人機拍攝內(nèi)容進行分析的人工智能方案。
事實上,除了谷歌之外,還有不少科技巨頭一直在廣泛關(guān)注人臉識別技術(shù)中的種種不成熟跡象,以及可能由此造成的危害影響。日前,由布魯金斯學會在華盛頓舉辦的一次活動當中,微軟公司總裁Brad Smith就建議人們應(yīng)當考慮到人臉識別技術(shù)當中可能存在的“高風險場景”,例如該技術(shù)可能被用于限制人身自由。他認為,利用人臉識別技術(shù)的團隊應(yīng)遵守關(guān)于性別、種族以及民族的反歧視法,并且各企業(yè)都應(yīng)對自家人工智能方案的局限性保持高度“透明”。
對此,Smith還進一步指出,微軟公司已經(jīng)得出其中可能存在人權(quán)風險的結(jié)論,并且一直在拒絕客戶提出的部署人臉識別技術(shù)的要求。據(jù)透露,今天6月微軟公司撤銷了一份合約,合約內(nèi)容要求微軟方面為美國移民與海關(guān)執(zhí)法局(簡稱ICE)提供數(shù)據(jù)處理與人工智能類工具
Smith解釋稱:“人臉識別技術(shù)的出現(xiàn)正在催生出一種新的可能性,即實現(xiàn)大規(guī)模監(jiān)控體系。對于政府來說,這項技術(shù)將幫助其在任意位置追蹤任意目標。如果我們不充分考慮到這些可能性,那么這一切有可能在2024年突然降臨到我們自己身上——就如同《一九八四》(《一九八四》(Nineteen Eighty-Four)中刻畫了一個令人感到窒息的恐怖世界,在假想的未來社會中,獨裁者以追逐權(quán)力為最終目標,人性被強權(quán)徹底扼殺,自由被徹底剝奪,思想受到嚴酷鉗制,人民的生活陷入了極度貧困,下層人民的人生變成了單調(diào)乏味的循環(huán)。)一書中描述的可怕景象一樣?!?/p>
Salesforce公司首席科學家Richard Socher也抱有同樣的焦慮情緒。在本月于蒙特利爾召開的NeurlPS 2018大會期間,他在接受VentureBeat采訪時表示,正是由于存在這些顧慮,Salesforce公司目前才決定不通過Einstein圖像識別API為Einstein Vision提供人臉識別功能。
他指出,“一旦我們開始根據(jù)某人的面部做出各種重要的決策,那么由此引發(fā)的后果有可能非??膳?。人工智能在決策層面的實際表現(xiàn),完全取決于其用于訓練的數(shù)據(jù)質(zhì)量。”
人工智能的失誤
然而,并非每一家公司都有同樣的審慎態(tài)度。
今年夏天,亞馬遜公司將Rekognition(一種基于云的圖像分析技術(shù),通過Amazon Web Services事業(yè)部正式對外開放)交付至佛羅里達州奧蘭多市以及俄勒岡州華盛頓縣警長辦公室作為執(zhí)法工具。奧蘭多市隨后決定續(xù)簽相關(guān)協(xié)議,并試行人臉識別監(jiān)控計劃——此項計劃覆蓋該市警察隊伍中的眾多志愿者;此外,華盛頓縣還決定利用該項功能構(gòu)建一款應(yīng)用程序,利用一套包含30萬人臉信息的數(shù)據(jù)庫對可疑犯罪分子的照片進行掃描比對。
在一項測試當中(亞馬遜公司對其準確性提出了質(zhì)疑),美國公民自由聯(lián)盟證明Rekognition從某“公共來源”處獲取到25000張照片,并在將其與國會議員的官方照片進行比較時誤將28人視為罪犯。而更令人震驚的是,大多數(shù)錯誤判斷(占比38%)與有色人種相關(guān)。
AWS公司總經(jīng)理Matt Wood于今年6月對上述結(jié)論提出了質(zhì)疑,認為Rekognition有助于“保護兒童權(quán)益,并可用于為兒童構(gòu)建教育類應(yīng)用程序”,同時還能夠“通過多因素身份驗證機制增強安全性,降低圖像的識別難度,從而用于防止包裹被盜等問題。”
在今年8月發(fā)布的另一篇博文當中,亞馬遜公司指出以Marinus Analytics公司為代表的眾多AWS客戶正在利用Rekognition幫助尋找落入人販子手中的受害者,并幫助其與家人團聚。此外,非營利性組織Thorn等人權(quán)機構(gòu)也在利用這項技術(shù)尋找并營救遭受性虐待的兒童。
他在博文中寫道:“根據(jù)報道,目前并沒有出現(xiàn)任何與亞馬遜Rekognition相關(guān)的執(zhí)法濫用行為。選擇利用這些新型技術(shù)的組織必須采取負責任的態(tài)度,否則將面臨受到法律處罰以及公開譴責的風險。對此,AWS一直抱以嚴肅的態(tài)度和責任?!?/p>
但必須承認,很多參與方并非如此。
今年9月,The Intercept網(wǎng)站發(fā)布的一篇報告顯示,IBM公司與紐約市警察局合作開發(fā)出一套系統(tǒng),允許執(zhí)法方根據(jù)膚色、頭發(fā)顏色、性別、年齡以及各種面部特征進行人物搜索。利用紐約警察局提供的來自約50臺攝像機的“成千上萬”張照片,該人工智能方案學會了如何識別服裝顏色以及其它體貌特征。
IBM公司的一位發(fā)言人指出,這套系統(tǒng)僅被用于“評估性目的”。但于2017年發(fā)布的IBM智能視頻分析2.0產(chǎn)品確實提供一種與此相似的攝像頭監(jiān)控功能,可以通過“亞洲人”、“黑人”以及“白人”等標簽對拍攝目標進行自動標記。
偏見的可能性
除了Socher所提到的道德原則之外,也有越來越多的研究對于人臉識別技術(shù)的整體準確度持懷疑態(tài)度。
于2012年進行的一項研究表明,供應(yīng)商Cognitec公司提供的面部算法在識別非裔美國人方面的表現(xiàn)要比識別白種人低5%至10%;2011年,還有研究人員發(fā)現(xiàn)中國、日本以及韓國開發(fā)出的人臉識別模型很難區(qū)分高加索人與東亞人種。今年2月,麻省理工學院媒體實驗室的研究人員們指出,微軟、IBM與中國廠商Megvii公司的人臉識別技術(shù)在識別淺膚色女性方面錯誤率高達7%,識別深膚色男性的錯誤率為12%,而對深膚色女性的錯判比例更是達到35%。
算法出錯的例子還遠不止于此。最近調(diào)查結(jié)果顯示,倫敦大都會警察局部署的系統(tǒng)在每一次實際應(yīng)用時都會產(chǎn)生最多49次的錯誤匹配。在去年眾議院監(jiān)督委員會關(guān)于人臉識別技術(shù)的聽證會上,美國聯(lián)邦調(diào)查局承認,其用于識別犯罪嫌疑人的算法存在高達15%的錯誤判斷率。此外,弗吉尼亞大學的研究人員正在進行的一項研究發(fā)現(xiàn),兩大著名研究圖像集——ImSitu與COCO(COCO由Facebook、微軟以及初創(chuàng)企業(yè)MightyAI共同構(gòu)建),在對體育、烹飪以及其它多種活動的描述當中,表現(xiàn)出明顯的性別偏見(例如購物圖像一般與女性有關(guān),而教練圖像則往往與男性關(guān)聯(lián))。
在這方面,最臭名昭著的案例之一,無疑是2015年一位軟件工程師提交的報告——其指出谷歌照片中的圖像分類算法將非洲裔美國人判定為“大猩猩”。
即使是美國規(guī)模最大的車載攝像機供應(yīng)商之一Axon公司的CEO Rick Smith,今年夏季也對此做出表態(tài),指出人臉識別技術(shù)對于執(zhí)法類應(yīng)用而言還不夠準確可靠。
他解釋稱,“這類技術(shù)方案還沒有做好真正通過人臉識別做出行動決策的準備。在我們看來,因為其中可能出現(xiàn)的技術(shù)故障或?qū)頌?zāi)難性的后果,大家不應(yīng)急于將其部署至實際場景當中。”
技術(shù)層面的進展
過去十年以來,眾多失誤和問題的出現(xiàn)似乎令人臉識別技術(shù)的前景蒙上了一層陰影。然而,必須承認的是,這項技術(shù)一直在準確度以及解決偏見問題等技術(shù)性層面取得可喜的進展。
今年6月,通過與人工智能公平性專家們開展合作,微軟公司修改并擴展了其用于模型訓練的Face API數(shù)據(jù)集。Face API是一項微軟Azure API,主要提供用于檢測、識別及分析圖像中人臉內(nèi)容的算法。通過與膚色、性別以及年齡相關(guān)的大量新數(shù)據(jù),F(xiàn)ace API如今能夠?qū)⑸钅w色男性與女性的錯誤判斷率降低至原本的二十分之一,對女性的錯誤判斷率則降低為原先的九分之一。
與此同時,初創(chuàng)企業(yè)Gfycat公司也于今年表示,其將引入更為嚴格的檢測閾值,從而努力提高其人臉識別算法在判斷亞裔人士面部方面的準確性。
另外,值得一提的是,一系列新型算法偏見緩解工具的加速出現(xiàn),也在有力提高人工智能方案的公正性水平。
今年5月,F(xiàn)acebook公司發(fā)布了Fairness Flow,該工具會自動警告某種算法是否根據(jù)檢測目標的種族、性別或者年齡,做出了不公平的判斷。另外,埃森哲公司也發(fā)布了一款工具包,能夠自動檢測AI算法中存在的偏見,并幫助數(shù)據(jù)科學家降低這種偏見。微軟方面在今年5月同樣推出了自己的解決方案。谷歌公司也于今年9月發(fā)布了What-If工具,這項由TensorBoard網(wǎng)絡(luò)儀表板提供的偏見檢測功能,主要面向谷歌的TensorFlow機器學習框架。
IBM公司同樣緊跟這股時代潮流,其于今年秋季發(fā)布了AI Fairness 360——這是一款基于云的全自動化套件,能夠為AI系統(tǒng)“提供洞察見解”以,確保對其決策與推薦進行調(diào)整,例如通過算法調(diào)整或數(shù)據(jù)平衡等方式緩解偏見對結(jié)果造成的影響。最近,IBM Watson與云平臺小組的研究重點,也開始放在緩解AI模型中的偏見,特別是與人臉識別相關(guān)的偏差方面。
不過根據(jù)Smith的說法,這方面的發(fā)展道路還相當漫長。
他在今年早些時候發(fā)布的一篇博文中寫道:“即使解決了偏見問題,即人臉識別系統(tǒng)能夠以對所有人都公平公正的方式運作,其中仍然存在著潛在的失敗風險。與眾多其它人工智能技術(shù)一樣,就算徹底排除到偏見性因素,人臉識別方案通常都會存在一定程度的誤差。一切工具都可用于善途或者惡途,而工具本身越強大,其可能帶來的收益或者損害也就越明顯。人臉識別技術(shù)給我們提出了一系列新問題,特別是在與隱私以及言論自由等基本人權(quán)保護核心相關(guān)的層面,因此,必須始終對此保持謹慎的心態(tài)。”
掃一掃在手機上閱讀本文章