《編碼偏見/Coded Bias》在內容上想要傳達的主軸思想很明確,起承轉合我都覺得不錯,利用許多案例來呈現給觀眾,了解日常生活中的演算法如何會帶有種族歧視的問題?一樣在說演算法的紀錄片還有另一部很推薦《智能社會:進退兩難》,也很值得觀看。我覺得這部與《智能社會:進退兩難》的主題雖然都是說到演算法,可是


我自己還蠻喜歡《編碼偏見》這部紀錄片,裡面的真實狀況我覺得在台灣很罕見,對我自己來講,較難感同身受,可是透過本片這些活生生、血淋淋的例子卻還是可以引發我一連串的省思,我蠻推薦大家看這部紀錄片,可以知道科技帶來好處之外,也帶來你想不到的種族歧視結果,或許了解這個論點可以我們讓我們保護自己、為自己權益發聲。


《編碼偏見/Coded Bias》IMDb評分:6.8 / 10(本片即時評分這邊請








Netflix紀錄片《編碼偏見》觀後感心得

  • 看影劇本就很主觀,就是紀錄影劇心得,本站不會寫影評,只會寫心得觀後感。
  • 心得(觀後感):小編的文章只會寫心得觀後感,找內容有共鳴的點作為心得分享,所以每個人的心得一定不同。
  • 影評:用客觀專業的電影賞析方式,講述拍攝手法來告訴觀眾事實,小編幾乎不會寫這種類型文章,因此想要看影評的人建議看專業影評文章喔。


圖片來源:Netflix《編碼偏見》海報




◍演算法那些數據都來自歷史,更包含黑歷史

如果數據已經有偏見,那人工智慧做出來的判斷就並非客觀

–《編碼偏見》

在紀錄片一開頭就已經告訴觀眾關於人工智慧是怎麼被製作出來的,我自己本身對於程式的運作略懂,基本上程式、軟體、系統的產生背後必須要先有一個「數據」、「資料庫」,然後寫程式就是將背後這些數據、資料庫做演算,因此能決定結果的事實上就是背後那些數據與資料庫。


這就等同於我們做研究、實驗一樣,如果背後的樣本群已經不是客觀,那你做出來的結果當然也會跟著不客觀,這是一樣的道理的。因此我還蠻認同凱西說的,人工智慧是用過去資料來預測未來,演算法那些數據都來自歷史,更包含黑歷史


而《編碼偏見》在說的也就是這一點,也就是背後的數據、資料庫已經帶有偏見,甚至有著種族歧視的狀況發生,說到底,演算法的產生終究是由人類而來的,人類會有思想、會有偏見,因此本片的重點就在於數據有種族歧視演算法的編寫也有歧視








◍AI對人類的支配,你其實已經沒有隱私了你知道嗎?

走在路上莫名其妙被盤查、要求按捺指紋,誰不會嚇哭?

–《編碼偏見》

科技這種東西本來就是很難去界定有沒有對錯,就因為它是虛擬的、無形的。在本片中舉了許多「有歧視的科技」案例來讓觀眾了解,其實我在看這些案例時發現國外對於科技的使用真的好普及化,幾乎已經用在你可以想得到的狀況了。

  • 路上警方用的人臉辨識系統

    在本片中最核心的問題就在於這個「警方人臉辨識系統」,看到這案例時我突然在想「誰授權可以直接對人的臉做掃描?」、「為什麼人民不能拒絕被掃描?」 在片中有一個老大哥因為用外套套住下巴,就被警察給攔下藍並解罰款,還有一個例子是在本片的最後一個14歲的黑人青少年被突然盤查,要求按捺指紋,把這個孩子給嚇哭。

    這樣的技術在台灣我自己是沒有看過,因此看到本片有這樣的系統覺得很訝異,畢竟我也存在著疑惑,套用這個系統的由來,必須背後要有大數據、資料庫才能寫出程式讓系統可以辨識人臉,但問題就來了,這系統的背後資料哪裡來?喬伊就是發現這個系統有很大問題的重要關鍵人物,因為當中發現大多數的有色人種被偵測到機率比白人多,並且被盤查的九成以上都不準確,驚動的是乖乖生活的人民,畢竟罪犯應該也不會笨到自己走去被掃描吧!


  • 利用人工智慧來篩選履歷

    這一點我就覺得充滿歧視,本片中關於這個例子就在於女性都是被刷掉的族群,一方面這個技術對我來說覺得很驚奇,畢竟這麼「主觀」的事情居然可以靠科技來做,另一方面就是程式編寫是完全有性別歧視的狀況發生!畢竟程式的編寫是以人的思想去做編寫,所以在編寫時就已經把「除去女性」給寫進去,完全是用科技來演改人類的內心偏見。




  • 另一層就在於被追蹤的人是有多麼不舒服了,想像你住的社區大樓每天有人看監視器記錄你在做什麼,你不會覺得不自在嗎? 再加上誰又授權給大樓管委會去做這事呢?

    在本片中說到這個大樓中你有時候會收到你在大樓中違規的畫面,甚至會被截圖、圈選、寫下你犯下哪些錯,這很像是你時時刻刻都在被監視,


這其實也顯示未來政府或是有心有權人士利用這技術來做一切控制人民的事情、監視,又或是用來控制他想要發展的伎倆,都是我們無力反抗的。而且像是美國就有一億七千多萬人的臉被存在資料庫中,搞不好我們哪天根本就失去了自由,也毫無隱私了。





◍誰讓科技變邪惡?人工智慧的「道德界線」哪裡來?


是誰讓科技變邪惡? 來源還是來自「人類」,推特的泰伊聊天機器人居然在一天內變成一個「仇女混蛋」,原因來自酸民讓這機器人變這樣的,因為機器沒有個性、沒有思想意識,因此人工智慧會是好或是壞也是人類的決定。在本片中關於道德界線問題有兩個重要的案例:

  • 學校用系統來評估誰是終生職,但一個獲獎無數的老師卻被系統評斷為壞老師,等於是斷送一個人的一生職業,這個系統的公平性已經不在,何以有什麼權利評估老師呢?

  • 法院利用風險評估系統來評估一個罪犯是否會有累犯風險而決定釋放與否,這一定會牽涉到種族歧視與偏見的問題,畢竟這些數據哪裡來?這很明顯就會讓黑人被標籤化,並且被高度注意。並且你再想想,當中一個女黑人緩刑犯被電腦評估為高風險緩刑犯,然而她四年來都表現良好,甚至拿到市長獎項,卻不能去改變電腦對她的評斷,這很明顯就是這套人工智慧裡面除了有種族歧視之外,也無法偵測到罪犯的變數,到頭來等於是判一個人一輩子的死罪,因為她可能永遠被標籤化,找不到工作。


人工智慧的道德哪裡來的?又怎麼有界線?說到底就是從人類賦予的,喬伊一開頭也有說到,掌大數據的人是誰很重要,否則這些人工智慧會是往壞的方面一直失控,這也是喬伊想要有規範的原因。








◍人工智慧並非不好,而是需要規範才能保障所有人


我覺得本片最後的結尾其實也算好的方面去發展,喬伊並沒有把人工智慧這東西給說死,畢竟她身為一個資訊IT研究員當然會知道科技在人類生活中的重要性以及好處,因此本片的最後用了一些正面例子來收尾。


例如中國社會信用系統,說白一點就是監控所有中國人民,每個人有社會信用分數,只要關於任何共產黨的發言,都會影響你的分數,甚至影響朋友、家人的分數,等於是演算法讓人民乖乖聽話,這一點有好有壞,可以讓社會變得更為有秩序,這一點我覺得也挺有道理,在中國可以接受,這我們是管不著的,至少他們透明化讓你知道你會被監控。


而本片中喬伊想要改變的重點也有得到一些解答與回應,也的確將人臉辨識系統踢除使用。


並且最後用強調自動化並不是不好,作者並沒有特別完全抨擊人工智慧是帶來不好的結果,而只是要改善,就像是最後舉例的一個國家對另一個國家無預警發射核彈,另一個國家因為人的關係只有幾秒鐘的反應時間,卻因為人性的猶豫帶來毀滅,所以自動化也是個好方法,因為它會說執行就執行。





More >> 延伸閱讀: Netflix《智能社會:進退兩難》:科技利益陰謀你也參與其中



以上,觀後感分享給大家,個人一些淺見。歡迎在側邊欄位訂閱免費電子報,或是利用臉書專頁追蹤新文章發布!

 文章中圖片擷取自預告、影音平台及其他相關網站提供之劇照,僅作為影劇推薦與評論所用,如有侵權敬請告知刪除,謝謝。

You may also like ♥