人工智慧最後的祕密:權力、政治、人類的代價,科技產業和國家機器如何聯手打造AI神話?

凱特•克勞馥

79折$ 394
人工智慧背後的預設、連結與代價
作者 Kate Crawford 是微軟的資深首席研究員,也是大學教授和研究人工智慧近二十年的專家,此書以英語出版於 2021 年。全書主旨在挑戰人工智慧既不人工、亦不智慧、也不中立,並揭示背後權力與資本的運作,反映鮮為人知的期望、意識形態、環境代價、欲望和恐懼。書中分為主要的六章,分別探討:過度搾取地球資源、取盡勞動和時間、有違背倫理的數據、分類問題、表情錯判、國家監控。

作者首先透過「聰明漢斯」的馬匹案例,來說明我們無從得知機械學習得到什麼,同時旁觀者期望也可能影響其結果。而背後也有二種謎思:第一是把非人系統當成與人相同的智慧,第二將智慧看成獨立、自然存在的東西,忘記其背後的社會、文化、歷史與政治。此外,書中指出人工智慧如何服務於僱用、教育和警政系統。

作者以地圖集 (Atlas) 作為人工智慧的比喻,因為人工智慧以不同方式來觀察和連結世界,也彰顯了產業的野心。就像地圖一樣,人工智慧用按特定的信念與觀點來建構,以一種特定的方式來衡量和定義世界,而由少數人所決定,來監視人類行為、交流和勞動。因此作者試寫一本關於人工智慧的地圖集,根據自身在美國工作和生活的經驗,來揭示其「實體架構、脈絡環境和占優勢的政治,並追溯它們之間如何連結,望而了解人工智慧在世界上的角色」。

其次,書中著重勞動對人工智慧形成的重要性,並指出大量手動的標記、修正的微任務支持下 ,才讓人工智慧系統看起來十分聰明。而且勞動也關於如何「有效率地」利用時間,書中以亞馬遜作為案例,來說明科技如何控制勞工如何做、何時做以及重複地做,讓勞工愈來愈工作在如此的環境。

再者,作者又論討到資料與分類的問題,忽略了資料的私隱和分類的政治性。前者的問題在於大量訓練人工智慧模式的圖片和文字,不少未經授權、不合倫理的資料集,而且形成合理化揭取資料來改善系統的道德要求。比如部分來自囚犯等的公家資料,部份來自互動摘取下來的公開資料 (如 Flickr 的海量圖片),又有不少是隱瞞用家而來發掘的資料。更重大的問題是不少大學的倫理委員會並不禁止如此的人工智慧技術研發,只當作成應用數學的研究,忽略了潛在對人的影響。後者的問題在於,以生物和文化作為事物的本質和排序可以是危險的,不合理的分類會成為了壓迫的來源。