圖/僅為情境配圖。達志影像
假設有一天,台灣桃園機場開始啟用臉部辨識AI,來過濾境外移入的疑似病例,除了輸入新冠肺炎徵狀外,由於過往染病的多是年長者,AI從舊資料來判斷,索性就針對年長的旅客仔細監控,其他族群旅客就放水。這樣的差別待遇,你能接受嗎?
AI差別待遇的問題,其實已經出現在美國。根據一位麻省理工媒體實驗室的資料科學家喬伊.波拉維尼(Joy Buolamwini),所做的研究,她發現由微軟、亞馬遜與IBM等公司研發出的臉部辨識AI演算法,對於判讀白人,以及黑人與女性竟然出現了差別待遇。
也就是判讀白人的正確度比較高,判讀黑人與女性的正確性則低。雖然這個漏洞並不全是人為刻意造成,它造成的衝擊,可能比街頭上歧視黑人的警察更嚴重。
更不妙的是,許多矽谷公司已看出臉部辨識AI,是即將爆紅的新趨勢之一,正積極鼓吹警察與政府使用,這裡面包括拿來辦案與查嫌疑犯。因此在最近引發了軒然大波,包括綠色和平組織在內等超過40個公民團體,在近期要求應該盡速立法禁止警察使用AI。也因此讓亞馬遜、微軟與IBM等矽谷企業紛紛出來滅火暫停服務。
黑人得戴上白人面具,AI才能判讀
這種科技裡潛藏的差別待遇,到底是怎麼回事?故事要從揭發真相的喬伊.波拉維尼本人說起。
她,除了是個優秀的資料科學家,也是位黑人女性。從小到大,被周遭白人排擠對她來說,根本是生活的日常。然而喜愛科學的她,總是相信科技創新可以為所有種族帶來更公平的做法。直到有一天,她用自己的臉與照片測試了微軟、IBM等矽谷公司研發的臉部辨識AI服務,才發現驚人事實:這些號稱先進的辨識服務,有的根本對她的照片沒反應,跳不出任何結果;有的則把她的性別判讀成男性,錯誤率高得離譜。直到她戴上白人面具,判讀才恢復正常。
到底是她自己長的太特別,剛好是AI辨識不出來的特例?還是這些演算法本身有漏洞?於是,波拉維尼決定用更多照片來測試,包括了白人、亞洲人、黑人等多元種族;以及男性與女性。結果發現,膚色愈白,辨識正確率變高;男性的辨識率也遠較女性高。由於她是黑人女性,雙重弱勢的狀況下,讓她這類人的辨識正確度,遠低於白人男性。
圖/麻省理工媒體實驗室資料科學家喬伊.波拉維尼(Joy Buolamwini)。取自Joy Buolamwini臉書
矽谷積極推銷AI給警察,有歧視的服務竟能上線?
就波拉維尼的專業研判,培養演算法,某種程度就像養小孩,給他讀什麼,他認知的世界就會變成這樣,這個問題,應該是開發團隊沒給夠多元種族與性別的資料導致的。只要花點時間就可以修正。難道工程師都沒發現嗎?這樣的服務為何要上線?
波拉維尼繼續追查下去,發現許多矽谷公司,正企圖推銷這樣的臉部辨識AI給警局。最積極的是亞馬遜,它有一個智慧鏡頭服務Ring,用來替民眾監控拍攝在住家周圍閒晃的陌生人影像。而目前,也已有約500家美國各地警局和Ring連線合作,善用這個鏡頭拍下的影像,來協助警察去抓路上偷車或闖空門的嫌犯。最近,Ring更開始申請臉部辨識AI的專利,看來結合人工智慧分析來協助查案,就是下一步。但是一旦發生,問題肯定很大。為什麼?
因為,在原有的設計思惟沒變下,只有白人嫌犯會被正確辨識,黑人與女性的抓錯人機率則會很高。換句話說,這些智慧AI,和許多美國民眾深惡痛絕的街頭惡警所做的事:對黑人與白人態度大不同,某種程度是一樣的。這些惡警在黑街裡,往往看到一個黑人跑出來就先開槍,也不想花時間查看這個黑人是否手上有槍,或根本只是個晚歸上班族?因為在他們心裡,黑人大多數都是罪犯,不需要仔細看。但如果在黑街裡跑出來的是一個白人,通常就會花時間檢視對方身分。
2016年,波拉維尼在TED上演講公開指出矽谷存在的演算法偏見,慢慢集結了一些有人權意識的資料科學家,以及亞馬遜股東等,一起呼籲亞馬遜停止將這服務提供給執法單位。但這些還是沒阻止這間企業放手。
直到今年佛洛伊德事件發生,成為全美關注焦點;美國國會也開始舉辦臉部辨識AI新法案的聽證會,一個個被點名到的矽谷公司才開始亡羊補牢。IBM指出將退出此市場;微軟與亞馬遜則強調現階段,公司絕不賣臉部辨識AI給警察。為什麼他們如此被動?一個容易理解的原因是,承認演算法有漏洞,不就證明這產品並不成功,應該停止使用? 對他們的業務影響不小。
有些人應該會想到,台灣用科技防疫的成果斐然,是否未來過度仰賴,也會衍生出誤判問題?首先,這些矽谷公司和警方合作的是日常例行查案,和防疫這種極端狀況大不同。不過,當有一天,台灣防疫開始善用各類AI,結果因為數據偏見,專門去鎖定台商或從中國入境的旅客,這樣的偏差,當然還是不能被容許。
更正面的做法,也許是開發最懂台灣人的AI服務。畢竟未來AI會協助人類很多事情,包括判別健康狀態、身分甚至發薪水,沒人想要用把自己族群當作次等人的AI服務。不是嗎?
更多相關報導及精彩內容,請參閱遠見雜誌。
採訪撰文/林士蕙
錄音轉述/陳雨新