cover
avatar
王琍瑩 | 今天就用得上的數位科技必修課
聲音課程 2小時58分53秒 商業職場 13集

大家好,我是王琍瑩律師。上一集我們大致介紹了全部課程的主題、跟脈絡,我認為,今天從「好 AI 與壞 AI」這個話題出發,會是一個很好的開始。怎麼說呢?因為如果針對 AI (Artificial Intelligence;人工智慧) 這個議題,我的朋友名單啊,大致可以分為三種,一種是「無限期支持」、一種是「誓死反對」、還有一種就是會問「蛤?什麼?」 

 

這種「蛤?什麼?」的朋友,常常會跟我說:「欸好巧喔!我才剛想說要去北海道玩,臉書就跳出來旅行社的廣告!」,並且為此感到幸福。為了這樣的朋友,我會先試著解釋,雖然我們都用 Facebook 交朋友、看新聞,用 Messenger 和 WhatsApp 傳訊息、打電話,滑著 Instagram 羨慕別人的生活,但是 Facebook 和它的這些兄弟姊妹,本質上就是四個字:「廣告公司」。 

 

我不知道你接不接受「Facebook 就是一間廣告公司」的這個說法,但是如果我的朋友不相信,我就會請他到我們「明日科技法律事務所」的粉絲專頁按個讚,然後開後台給他看「小編的一天」到底都在忙些什麼。 


 

赤裸裸地打開後台,就會看到我們事務所的貼文成效,包括觸及的人數、互動的情形,然後 Facebook 還會幫忙列出競爭對手的成效對照,用激將法鼓勵小編再接再厲。我先跟大家自首,我們是一個沒有花錢投放廣告的粉專,所以貼文成效慘不忍睹,也是剛好而已,就靠大家聽完這一集,幫忙按個讚了。其實關於律師到底能不能夠投放廣告,還牽涉到科技法律和法律科技這個繞口令的話題,我們之後課程再來討論。 

 

但假設我們要花錢投放廣告,Facebook 後台會有密密麻麻的選單,就像今天課程文稿中提供的幾張截圖,包括性別、年齡、地域、學歷、企業、財務、家庭、興趣等等,好多好多,協助我們來「建立廣告受眾」,也就是 Target Audience (TA)。比方說,我們事務所想要設定的 TA 是走在科技前線的創業家、以及負責推動數位轉型的企業經理人,那麼我可能會點選25 到45 歲、公司負責人或主管、喜歡科技、或許再勾一下喜歡健身和重訓。如果我不確定已婚或未婚和我的 TA 有沒有關聯性,我也可以做 AB Testing,觀察哪一種成效比較好。然後如果某些講座特別適合連續創業家,也可以在活動的廣告設定中,排除社會新鮮人。 


 


「小編的一天」介紹到這裡,我的朋友通常就會插嘴問說:那 Facebook 怎麼會知道大家的背景、喜歡或討厭什麼呢?事實上,不只是 Facebook 的廣告置入,從 Google 搜尋引擎、Siri 語音助理、Netflix 影片推薦、到 UberEats 訂餐外送,這一類將使用者 Profiling (剖析建檔) 的過程,當然依賴的就是大量的數據、和協助進行數據分析的 AI 技術。在後續的課程當中,我們還會從各種不同面向來觀察這些數據經濟 (Data Economy) 是如何不知不覺、方方面面介入我們的日常生活,也會進一步討論數據的壟斷,已經大到一個多麼驚悚的程度。 

 

所以當朋友問我「蛤?AI 是什麼?」的時候,我的白話文答案就是「AI 讓有好的數據、又懂得善用數據的公司,想要做什麼都可以」,這裡的數據,包括了文字的、數字的、圖像的、語音的、行為的、生物的、動態的、靜態的⋯⋯各式各樣。當然,這句話,把「公司」代換成「政府」也是完全無違和的。但無論是公司或政府,這句話往往就是讓我的朋友分裂成「無限期支持 AI」和「誓死反對 AI」的原因。 

 

我站在中間,沒有辦法裁決,因為兩邊都有非常好的理由。為什麼 Internet 和 AI 會造就所謂的數據經濟,因為 Internet 讓數據的蒐集和交換變得更加容易,然後 AI 讓數據的分析和使用變得更有效率。AI 的影響可以是這麼迅速、這麼廣大,所以我常常說:「Who can do good will do better with AI. What can go wrong will go worse with AI.」所有好事,會因為 AI 而變得更好,所有壞事,也會因為 AI 而變得更糟。 

 

再回到我們剛剛說的「小編的一天」,一開始,AI 只是幫助在 Profiling 的過程中,猜猜看你想買什麼、想看什麼、想吃什麼。但是,隨著更多的數據和更精準的演算,AI 開始會知道像是,誰剛懷孕了、誰準備跳槽、誰又暗戀誰,這些「不能說的秘密」。 

 

然後,無論你願不願意、承不承認,AI 會比你更瞭解你自己,這些數據和演算的結果,可能會成為貸款的信用分數、看病的用藥依據、甚至是犯罪的呈堂證供。 

 

再更進一步,AI 其實會回過頭來操縱個人意志,決定我們該買什麼、該看什麼、該吃什麼,甚至,票投給誰。後面的課程,我們會再聊聊「假新聞、帶風向、和數位民主 (Digital Democracy)」這些非常重要的議題。 

 

難就難在,當我們說「所有壞事,會因為 AI 而變得更糟」。這些壞事,包括了惡意的、當然也包括無意的。所有機器學習 (也就是Machine Learning))的模型和成效,都取決於人為的建構,尤其目前主流的深度學習 (也就是Deep Learning),所謂類神經網路的開發,就像我們人類的學習,對一件事情,為什麼會得出這樣的結論,自己也說不上來,Deep Learning 的系統開發者,也只能判斷運算結果的好壞,而無從得知 AI 作成決策的過程,所以才被稱之為「演算法黑箱」。 

 

既然 AI 演算法的每一筆訓練資料 (Training Data),都是已經發生的事實,那麼當這些事實存在偏見,演算法的產出,就必定是偏見的重現。這就是實務運作中,常常無意造成的演算法偏見 (Unconscious Bias)。為了降低「演算法黑箱」可能造成的偏見,各界開始推動「Trustable AI」(可信任的人工智慧) 這樣的觀念和作法。 

 

Trustable AI 要處理的,就是藉由提升演算法的公平性、倫理性、當責性和透明性,也就是 Fairness、Ethics、Accountability 和 Transparency (所謂的 FEAT Principles) 來設法校正這些偏見,包括大家現在非常重視的歐盟 GDPR (General Data Protection Regulation) 個資保護規範,也相當強調這樣的觀念。 

 

說起來非常抽象,大家如果想要讀比較硬的法條介紹,歡迎點選文稿提供的我的文章連結。 

 

那我們就先不講抽象的 FEAT 原則,先回到「小編的一天」。你可能還記得,剛剛我們開後台的時候,可以透過各種選項,來精準設定廣告 TA。可是,你有沒有覺得哪裡怪怪的?如果今天企業要投放徵才的廣告,但是只勾選男性呢?如果今天銀行要投放貸款的廣告,但是只勾選天龍國居民呢?這些案例,可能涉及歧視,都必須被限制。事實上,Facebook 針對住房 (Housing)、僱傭(Employment) 和信用貸款 (Credit Offers) 這些敏感項目,都已經正式宣佈新的廣告投放措施,禁止使用年齡、性別或郵遞區號來鎖定投放對象。 

 

聊到這裡的時候,我的「無限期支持 AI」的朋友,通常會修正為「無限期支持 Trustable AI」,但我的「誓死反對 AI」的朋友,還是會追問說:那如果是 AI 惡意使壞呢? 

 

這當然是合理而且重要的疑慮,例如像 Deepfake 這一類AI 人體圖像合成技術,大家可能都看過媒體報導,把偶像明星的臉,移花接木到色情影片,把美國總統不曾說過的話,塞到他的嘴裡。關於網路上的訊息氾濫、真假難辨,我們之後的課程還會有很多討論,今天,我們就先樂觀地想像,既然 AI 可以為善、也可以為惡,那就表示,當有人以 AI 當矛、向外攻擊的時候,就會有人發明更厲害的 AI 為盾、加以反制。像是 Adobe 在 2019 年發表的一項新的 AI 工具,可以把我們 Photoshop 編輯的美肌照片一張一張還原,除了可以一秒抓包我們的美肌小心機,當然也可以用來對付惡意變造的假新聞照片。如果聽眾朋友當中有 AI 應用的業者,我相信「提供更厲害的 AI solution 來對付使壞的 AI」,絕對會是一門好生意。 

 

至於如果要講到 Trustable AI 的公共政策,我常常會用「無人車」的三個問題來問大家: 

 

  • 如果有一輛無人車,出車禍的時候會保護比較多人,另一輛會傷害比較多人,你選那一輛呢? 

  • 如果為了保護比較多人,有可能傷害車子裡的你,你選哪一輛呢? 

  • 如果為了保護比較多人,有可能傷害車子裡你摯愛的家人,那麼你又會選哪一輛呢? 

 

通常第一個問題,大家的回答都相當道德正確,到第二題,也有很多朋友會願意犧牲小我、完成大我,但是到了第三題,往往就是一陣沉默。 

 

這就是典型 AI 應用的 Trolley Problem 倫理兩難,況且,無論「保護多數人」的這個選項多麼道德正確,在現實世界中,銷量第一的,恐怕還是能夠優先保護使用者的無人車吧!這也就是為什麼 Trustable AI 的推動,無論在民間自發的力量、或是政府公共政策的角色,都是又急又重要。 

 

今天的課程到這裡告一個段落,如果你還想知道更多,歡迎點選文字稿提供的參考資料連結。 

 

還有,既然大家都對我赤裸裸的粉專後台充滿同情了,聽完課程,記得要去按讚、留言、加分享喔!我們下次再見!