
作者穆吉亞,是《金融時報》AI領域編輯,負責AI和其他新興技術的報導,她走訪各地,為許多媒體撰寫尖端技術人物、新創公司、科學和科技對社會影響的文章,也場出現在各大電視節目。在TED講述個人數據遭盜用的經歷,吸引了4000萬人觀看。
濫用個資
一種聽起來可愛無害的數位物件叫做「網路餅乾」cookie,每當我們用手機或電腦造訪某個網站,就開始留下數位餅乾屑的路徑。穆吉亞,找了一家公司要探究這些餅乾屑到底通往何處。結果令人震驚!這家公司從餅乾屑彙整一份完整的資料,把穆吉亞的種族、年紀、工作、居住地、看劇習慣、食物喜好、平常活動、消費項目、甚至政治傾向、人格特質等,寫的鉅細靡遺,幾乎可以完整定義一個人了。這些資料被轉換成資料封包兜售。我們成為了商品!
AI更是把巨量資料的貢獻發揚光大,如今,我們的日常生活都是以這些資料為基礎的自動化系統,生成式AI更是可以透過文字、視覺、聲音,輕易操控我們的心情和情緒。
AI正在改變我們身為人類的基本經驗!
勞動剝削
除了矽谷以外,AI產業有超級多你不知道的隱形工人,他們在非洲、南美洲、一些低收入國家。
自動駕駛的AI,除了要海量的道路影片,更需要有人畫線表示這是車、這是人、這是建築物等,來讓機器學習,要標記的資料量非常巨大,所以都是外包到收入低的國家,低薪榨取勞力外。
除了標記工人外,還有另一群更慘的人,他們是「影片內容審查員」,他們必須日復一日長時間觀看慘不忍睹的影像,然後過濾掉,也教AI濾掉,我們才不會看到,這項工作讓他們心理受到創傷,而且是長遠的傷害。
這群勞工受到不平等的待遇,卻沒有談判能力。
深度偽造
不肖份子把大家公開在網路上的照片,透過AI深度學習,把臉孔自然地移花接木到色情影片裡,大家在不知情的情況下變成了色情影片的主角⋯⋯更可惡的是,這些AI創作的影片並沒有任何法律可管,受害者無法依法要求色情平台將影片下架。
變相歧視
荷蘭一個城市的市長,為了降低犯罪率,針對青少年做了兩個名單:
- Top600是紀錄有過犯罪紀錄的青少年
- Top400則是透過AI機器學習ProKid+ 彙整出的「高風險暴力犯罪和財產犯罪」的未犯罪11-18歲的青少年
結果因為弟弟名列top600,乖巧清白的哥哥竟然被列入top400這使得社工人員可以任意進去他們家,讓他們的父母被貼上管教無方的標籤受到社區鄰居歧視、哥哥也因為這樣的不堪其擾,最後也犯罪了。top400根本沒有減少犯罪,反而是讓犯過錯的人和家屬完全無法翻身!
阿根廷未成年懷孕問題,一樣透過AI機器學習去列出了可能未婚懷孕的女孩,可笑的是機器學習不包含強暴等非自願的懷孕,弄到好像未成年懷孕全是這些年輕女孩的問題⋯
自動化的人臉辨識,辨認白人男性的正確性高達99%,辨認其他人卻只有70%,造成警察誤抓未犯罪的黑人或女性。
政府出賣市民的資料,攜手科技公司打造各式AI 系統,口口聲聲要解決社會問題,最後只是在造成歧視和懲罰窮人。
老闆不是人
Uber優步給了許多人彈性工時的工作機會,但是真的替優步工作的人,久了就會開始遇到「老闆不是人」的問題。因為從最開始的送餐員資料認證就是靠機器辨識、接著分派外送任務也是靠機器、完成後的計算里程,整個管理系統都是機器,當你發現里程計算錯誤,你只能跟機器反應;有天你收到你有詐欺行為警告,你想知道原因也詢問無門,你只能申訴,然後得到罐頭回答,這是程式抓出來的問題!(好像程式都不會犯錯,一定是你自己忘了做錯了什麼),只有不斷申訴才有機會遇到「真人」介入。
曾有個司機發現優步會偷減少里程開放了「優弊UberCheat」來制衡,但最後還是下架了。
這些AI是用來幫助這些巨擘公司管理窮人的工具,它們站在巨人的肩膀上,我們看不到更鬥不過。
👧🏻我們看見的是AI的光鮮亮麗、AI的無限可能,但實際上,AI背後不僅只是工程師,還靠一堆低薪勞工一起打造出來的,最令人不勝唏噓的是這份工作的最終目標是他們訓練AI來取代他們。
AI需要大量資料訓練,我們也默默地被監控著(網路、社群、甚至監視器),我們的資料被奉獻給AI訓練,當AI強大到可以有明顯好處的時候,一定是富人優先使用,可預見的是貧富差距會因此擴大,而有AI控制權的人將主宰世界。
順讀性:⭐⭐⭐⭐
含金量:⭐⭐⭐⭐



