人臉識別背後:可怕的不是技術

讀芯術 發佈 2020-01-11T14:04:13+00:00

據《華盛頓郵報》的一項調查報告顯示,該公司與國際情報組織沒有交集,也不會給非法監視組織提供信息資源,目前也並沒有用存儲的照片來升級改造什麼人臉識別系統。

全文共3001字,預計學習時長9分鐘


此前,AI換臉軟體ZAO的一夜爆紅,不僅讓其伺服器陷入了「滿負荷至崩潰運行「的危機之中,也將用戶的安全與隱私暴露在種種危險地帶。


同樣的情況,國外也不少見。


今年七月,一款「變容」軟體讓眾多(美國)手機用戶惶恐不安。大可稱其為FaceApp,該修圖軟體憑藉其能將拍攝的人臉賦予逼真的滄桑感而圈粉無數,自此一躍成為網上的「病毒」,無孔不入。


而且放眼各大社交平台和曬圖網站,全是它的成果。


剛開始,FaceApp的爆紅似乎並沒有什麼異樣,直到一些心懷疑慮的網際網路調查員發現軟體提供商為俄方公司,事情有了新的走向。


民眾一瞬間沸騰起來,社交平台、網絡論壇無不充斥著人們的焦慮感:這些俄羅斯人是誰?為什麼想要我們的臉部照片?他們會怎樣利用收集的數據?一些新聞媒體主播就此提醒廣大民眾;還有一位民主黨人士呼籲(有關部門)對此展開調查。全國上下所有人內心都有這麼個疑問——令人不安的俄方情報機構是否在非法利用他們的面部信息來完善本國的人臉識別程序?


而事實證明,FaceApp供應商與俄政府之間的聯繫被誇大了,其實什麼都沒有。據《華盛頓郵報》的一項調查報告顯示,該公司與國際情報組織沒有交集,也不會給非法監視組織提供信息資源,目前也並沒有用存儲的照片來升級改造什麼人臉識別系統。整件事下來就是對數據的小題大做。


但這樣的騷動並不意外。人們對許多看似有趣方便且有利用價值的網絡服務都相繼產生擔憂,而FaceApp的窘境不過是最近剛發生的。人們想知道,這種自動給臉書上照片貼標籤排隊的技術會讓公司了解他們的個人信息並跟蹤利用他們嗎?在顧客走進一家免付款(cashier-less)亞馬遜商店時,零售商會利用收集的監控錄像對付顧客嗎?


人們對此通常是無法感知的——而這就是問題所在。所以背後引發的一個問題就是:當下AI程序到底會用人類面孔做什麼?有多少的恐懼是來源於傳言,而非擺在面前的事實?技術的力量是否讓人類的擔憂不斷增多?


我們來一起想想這個問題。



人臉識別究竟為何物?


在深入探討人臉識別的風險之前,有必要先了解一下它是如何工作的。


人臉識別技術(FRT)的功能主要依靠於對人臉節點測量結果的識別和模型創建;包括但不限於鼻子的寬度、下巴的長度或雙眼間的距離。這些測量結果最終會轉錄到一個擁有特定代碼的模板中,之後便可以將圖片與資料庫中已有圖像進行比對甚至可能進行匹配。


比如,賭場可能會用這種技術對入場玩家與列有問題賭者的內部資料進行比對。還有些調查人員可以通過駕照資料庫、警方存檔的嫌犯照片或臉書這種社交平台得到想要的資源。然而,照片庫的使用寬限則取決於這些人擁有多少圖片資源的使用權,這也是接下來會說到的——搜查的準確度。



人臉識別可以(或不能)做什麼?


與觀眾追的所有間諜劇劇情不同的是,FRT很少會立即反饋準確的信息,在環境複雜時亦如此。說政府會通過街道上不清晰的監控片段在幾秒內找到目標人物的說法實屬誇張。


但人臉識別監控的確有可能實現,所要面臨的無非是精確度低和各種環境因素問題。相機質量、計算程序、時間、距離、資料庫大小甚至包括人口學中的種族和性別都會影響FRT搜索的最終效果。


筆者記得很清楚,2018年美國公民自由聯盟(ACLU)組織進行了一項測試,其結果顯示亞馬遜平台的人臉識別系統Rekognition錯誤地將28名國會成員與警方存底的嫌犯照片進行了匹配。


另一項由麻省理工媒體實驗室(MIT Media Lab)發起的調查顯示亞馬遜識別系統還在苦苦掙扎於性別的識別,有19%的可能性會將女性誤認為男性,有超過1/3的可能性會將膚色較深的女性誤判為男性。而亞馬遜將一切的誤差都歸咎於低校準度。


亞馬遜的說法也不為過,至少還是占點理的。畢竟研究人員發現臉書的識別系統比FBI還準確,因為社交平台上有相當多的照片可供參考,同時還會主動要求用戶驗證其相片從而完善算法。人們因此會對Rekognition產生誤解,當然所有的FRT軟體都免不了遭受質疑:這些軟體能做到的程度只取決於其照片參考量。



亞馬遜的一位發言人告訴the Verge網說,「80%的可信度對熱狗、椅子、動物或其他社交媒體上的照片是可以接受的,但對於有面部特徵的人是不夠的」。


點評的很客觀,也似乎有些打臉。因為公司已經下架Rekognition,並將其遞交給了執法部門和ICE,但依然沒有確立一個法定的FRT置信度。識別的一再不準確給FRT的前進道路布設了重重障礙,比如不能單憑技術作為逮捕嫌疑人的根據,它只可用於協助調查。


可別搞錯了,雖說目前美國的FRT能力不能在模糊的監控片段中於漆黑道路上鎖定目標,可獲得這種能力只是時間的問題。中國以監督百姓生活聞名,近期因通過FRT在短短七分鐘內追蹤一名BBC記者,成為了新聞熱點話題。這給美國未來如何使用該技術提供了先例。


不過有一點很明確:雖然當下美國的人臉識別技術無法做到一直保持準確,但國內的企業正致力於改進和使用它。目前為止存在的兩大問題:第一,不可靠的技術也許會讓人蒙受不實的斥責;第二,隨著技術發展的更加準確,範圍越廣,監控趨勢會向中國靠攏。


FaceApp的用戶置身於何種境地?


FRT的發展是大勢所趨,現在也許無法做到完全準確或者合理使用,但未來會實現。與此同時,人們需要開始思考該如何、何時、何種程度地使用該技術,在FRT超出監管之前制定嚴苛的限制。正如《華盛頓郵報》一名作者寫的,「今天,人臉識別也許會讓你開開心心地進到棒球賽場,但基於系統原先編寫的視覺假設,你也有可能被認為具有暴力犯罪行為,那時可能就不太愉快了」


所以用戶身處的境地更多是關於哲學意味的。一款滑稽的程序會給照片上的自己加一些逼真的皺紋,這興許很有意思,但背後收集的數據可能早晚會用來對付人們自己。當然,這些照片可能會受困於某處的俄方供應商,無法觸碰,或者作為參考實現一個更加高效準確的FRT系統,用於監督人民。該事件指向了數字世界不安全的核心問題,也促使人們發問:「長期以來我們如此信任的看似無辜的數據,是否會傷害我們自己?」



現在領悟到什麼了嗎?


下一次有照片過濾器、網上遊戲或數字趨勢蔓延開來,系好安全帶把自己拴緊,考慮一下要不要躋身潮流。


哪怕覺得自己的自拍會以數字或文字形式隱匿於某西伯利亞的伺服器,也要想著會有人利用它。


就像國內ZAO的橫空出世,地下灰色產業逐漸浮出水面一般,在掀起病毒式恐慌之前,人們永遠不會意識到問題有多嚴重。。


沒有危機意識的你,也許只有在看毛片黃圖時,意外發現自己的臉後,才會感到恐慌和危險。

留言點讚關注

我們一起分享AI學習與發展的乾貨

如轉載,請後台留言,遵守轉載規範

關鍵字: