要「對付」科技巨頭,記者們的武器從筆變成數據和演算法。
ProPublica 被Fast Company 形容為科技巨頭最怕的「看門狗」(新聞術語,指新聞媒體替公眾監督政府、企業,調查社會問題)。
ProPublica是我非常喜歡的一個媒體。簡單形容其模式,有兩個關鍵詞,一是「數據新聞」,二是「公共媒體」。
數據新聞指的是生產方式,ProPublica一直是數據新聞界的典範,除了講好故事,還以數據、圖表、街景圖等多元化的方式生產和呈現新聞。
公共媒體則指盈利模式,ProPublica的名字在拉丁文裡意為「為了公眾」,基本不靠廣告盈利,收入來自非營利基金和眾籌,並且在逐漸減少單個基金的佔比。
接下來我們要看到的這篇報導,編譯自 Fast Company,介紹了在科技時代,當真相掩藏在Facebook、Amazon等科技巨頭的「黑箱」中,ProPublica如何用數據和演算法行使監管職責。如何告訴大眾,你的生活究竟如何被科技巨頭影響。
Facebook像個政治戰場,俄羅斯的特工試圖影響選舉,假新聞氾濫,政治候選人利用廣告來觸達不確定的選民。我們不知道Facebook隱藏的黑箱演算法中發生了什麼,它控制著整個News Feed。政客們遵守規則嗎?我們能信任Facebook去監管他們嗎?我們真的有什麼選擇嗎?
要想「對付」 Facebook 的科技巨頭,也許只能以其人之道還其人之身——用類似的技術去刺探黑匣子裡在發生什麼,收集數據,不斷驗證假設,就像早期天文學家探測太陽系一樣。
這就是ProPublica的記者Julia Angwin團隊採用的策略。Julia Angwin是普利策獲獎者,她的團隊裡包括程序員、記者、研究員。他們專門調查影響人們生活的演算法,包括Facebook的新聞源,Amazon的定價模型,軟體如何確定汽車保險費,甚至軟體如何決定犯人被關押的時間。為了研究這些演算法,他們使用機器學習和聊天機器人等新技術。
Angwin表示,他們得不斷地建立新演算法,這是個資源密集型、非常具有挑戰性的任務,很少有普通媒體願意投入金錢和人力去做。但這個任務顯然很重要,Angwin認為他們需要為立法者提供科技巨頭在進行不法行為的具體證據。
ProPublica在最初沒有使用技術作為調查工具。團隊在2016發出了一篇關於犯罪風險評分的轟動性報導。
報導顯示這些評分由一種演算法產生,用來給法官決定保釋和入獄判決,而評分充斥著系統性的種族主義:黑人男子通常被認為比具有類似犯罪歷史的白人更高的風險。不過根據訊息自由法的要求,這篇報導是以傳統調查報導的方式呈現的。
Angwin團隊第一次在調查中搭建演算法,是針對Amazon的定價體系。ProPublica的程序員測試了很多假設—— Amazon的東西在行動端比PC端更貴,Prime會員比非會員看到的價格更高等等。最終他們發現Amazon給用戶優先推薦的是自有品牌產品,而不是性價比最高的產品。
不可避免的,記者們把目光投向了Facebook,更確切的說,是用戶們最常接觸的News Feed。
但破解News Feed 並非易事,因為News Feed 是Facebook 的獨創,和任何普通人一樣,Angwin 團隊對Facebook 如何掌握用戶數據,以什麼演算法決定News Feed 給用戶看什麼一無所知,只能另尋辦法。
他們的重大突破源於得到了一份洩密文件,講述Facebook的秘密審查制度。相關報導發出後,讀者告訴Angwin他們有過Facebook不遵守(自己設立的)規則的經歷。
讀者提供的素材讓ProPublica能進一步調查,而且為了獲取更多證據,他們建了自己的Facebook Messenger聊天機器人,號召更多讀者來提供證據。
使用聊天機器人,顯然是為了更廣泛地收集證據。團隊需要獲取、評估讀者提供的例子,是否能證明Facebook違反了自己設立的審查制度。
團隊裡的程序員Varner精心設計了機器人的問題,他認為在Facebook這個大家討論的平台上接收這些訊息具有重要的意義。而對於已經不使用Facebook的人群,他們也提供了獨立調查表格。
在收集到的幾千份回復中,可用的約有900個,團隊最終選出了49個典型案例,來證明Facebook不遵循自己的規則。作為此報導的回應,Facebook把「年齡」作為受保護群體的條件,加入了審查制度,這意味著「黑人小孩」將成為保護群體,不會再看到仇恨言論(Hate Speech)。然而,由於這個制度只針對群體,而不針對個人,因此仍有許多人會看到仇恨言論
Angwin認為,雖然Facebook聲稱他們通過抽樣調查來檢查News Feed裡的新聞是否符合審查制度,但他們的數據設置方式都是秘密的,凌駕於司法之外。「他們可以隨便怎麼說,說他們在執行審查制度,但我們需要有能力搞清楚他們究竟怎麼做。」
接著,ProPublica開始調查Facebook上的廣告,這次他們採用的辦法是自己購買廣告。他們發現在2016年,Facebook允許廣告商排除特定種族、年齡的受眾,比如允許房地產廣告商專門投放給「猶太人仇恨者」,或者防止老年人看到招聘廣告。
在ProPublica爆炸性的報導後,Facebook稱他們建立了一個系統拒絕歧視性廣告(雖然Angwin測試了一遍,發現平台仍允許房產廣告向特定種族投放)。Facebook取消了像「Jew Haters」這樣的標籤,並承諾將更好地監控廣告目標類別。但Facebook否認只向某一年齡段的人發招聘廣告是違法的,訴訟已經開始。
「這麼多的個人數據被用來決定看什麼廣告,聽起來非常無所謂,直到你意識到你看不到招聘廣告是因為你太老了。」 Angwin 說。
該團隊目前在操作的項目是,調查政治廣告在Facebook上是如何運作的。和上次主動買廣告不同,這次他們建了個瀏覽器插件,挑選你看到的News Feed廣告,並用機器演算法識別這個是否為政治廣告。
本週他們發表了一些關於政治廣告的報導,稱不少美國政治廣告沒有包含強制性的「我讚同這個訊息」的免責聲明,而這個聲明通常在電視、印刷廣告中都有。
這個政治廣告收集插件符合最嚴格的隱私標準,也在德國、瑞士、義大利、丹麥等8個國家亮相。ProPublica為每個國家建立了自定義演算法,可以識別這些國家政治廣告的獨特風格。
Angwin認為,把假設變成故事不是最重要的,更重要的是要有具體的證據,要讓立法者能採取行動。「有很多人在寫:技術平台,他們的權力太大了!但這還不夠具體,決策者也不能對此採取任何行動。所以我們要把更多數據放到桌子上來。」
她稱這些數據為「小數據」,和Facebook、Google、Amazon等公司的數據比起來,這些數據的確不值一提。但這已經比一般記者所能獲得的數據更多了。「每一家科技公司都應該得到同等力度的審查,非科技公司也一樣,因為技術在入侵一切。」
抗爭的一部分還包括教育人們演算法會給他們帶來多大的影響,團隊的一位記者Tobin認為,讓更多人意識到這一點,也能給他們帶來更多新聞源。「我們希望人們多說。」
「同時也希望人們憤怒。」Angwin 補充道,「Outrage is the new porn,這是我在2017 年的箴言。不少政治廣告就是虛假廣告、垃圾軟體、垃圾郵件,因為這些能誘導用戶去點擊。 」
Angwin的小團隊、以及越來越多的記者和巨頭抗爭的畫面看起來有些悲涼,他們的報導讓一些人認識到了演算法的「兩面三刀」,但我們也不禁要問,我們能做什麼?我們真的能做出真的改變嗎?
「我總是用環境的比喻來安慰自己,我們的河流一直在著火,然後人們過了50年才意識到,我們不應該讓河流被污染。」 Angwin說,「我想人們只是需要一段時間才能清醒。」