大數據被設計為一種監管模式 2

本篇是翻譯與整理Yeung, Karen (2016) ‘Hypernudge’: Big Data as a Mode of Regulation by Design . Information, Communication & Society這篇論文,有些專有名詞是自己翻譯的且自己是業餘的,所以翻譯不周或超譯之處請見諒。


 三、大數據驅動的“超輕推 (hypernudge)”技術是否合法?

雖然超輕推是使用軟性的力量,但它卻異常強大,所以軟性力量不意味就是弱。然而權力所在之處,也存在過度擴張、剝削和濫用的可能。如果合法性主要被理解為,符合自由民主原則和尊重個人自治的價值觀,那麼應該如何評估超輕推的合法性?

在這之前,有兩個因素需要留意,第一、權力不對等,如:科技巨頭與用戶間的權力不對等;國家情報機構與人民的權力不對等,尤其是將物聯網技術融入到民眾生活這件事情。第二、大數據驅動的超輕推是一對多的影響力,減速丘的影響是一對一的,但科技巨頭所發起的演算法是可以同時影響數百萬用戶。


(一)輕推的自由操縱 (liberal manipulation)

1. 非法動機(主動操縱)

有些人擔心輕推可能被用於非法目的,我們來回顧2012年Facebook對將近70萬用戶進行為期一週的使用者情緒實驗,他們調整這些用戶動態消息正面與負面消息的比例,來測試人們是否會因情緒傳染,而改變自己的發文行為?

批評者稱其為情緒操縱的大規模實驗,指責 Facebook 沒有通知受影響的用戶他們在實驗中被操縱,因此違反道德和法律準則。Facebook 則辯護道,我們合法地試圖“改善我們的服務,並使人們在 Facebook 上看到的內容具有相關性和盡可能參與”。 但在實驗公開 5 個月後,Facebook 首席技術官 Mike Schroepfer 承認它處理不當研究,並宣布將建立一個新的內部“審查程序”來處內部實驗和研究。

2. 欺騙形式(被動操縱)

即使動機合法,有些人認為故意利用人類認知弱點來達到期望行為的輕推,其實是一種欺騙形式。自主決策是指一個有精神能力和完全知情的情況下,透過理性思考所做出的決定。可是許多輕推的機制,會識圖繞過個人的理性決策機制,利用人們的不理性,進而導致非法操縱。這一機制是對自主理性個體的蔑視且不尊重個體能做出理性決策的體現。

搜尋引擎和排名網站的標準將不可避免地存在結構上的偏見,即既滿足用戶需求又保持企業競爭優勢。由於這些結構性偏見,進而鞏固企業的潛在利益與扭曲的結果,而這些扭曲的結果會影響到用戶做出明智且有意義的決策並破壞個體的自主性。

3. 缺乏透明度

雖然傳統輕推技術的透明度水平不同,但超輕推所利用的關鍵影響機制已融入到復雜的機器學習演算法中,而這些演算法是高度不透明的,因為受到商業機密的保護,因而加劇對濫用的擔憂。


(二)可以透過知情同意來克服這些擔憂嗎?

1. 隱私自我管理模式

當代數據保護法依賴於 Daniel Solove 所說的“隱私自我管理 (privacy self-management)”模式,在該模式中,法律為個人提供了一系列權利,使個人能夠控制自己數據的使用,而這種方法仰賴“知情同意”。

有些人認為個人不可能對自己數據共享與處理給出有意義且自願的同意,尤其是要用於大數據分析的數據,這一觀點也凸顯出個人在快速發展的技術環境中所面臨的挑戰。

第一、通常在獲得網站服務前,會要求用戶必須“接受”網站自定的隱私條款,但大多數人既不閱讀也不理解隱私條款,也就是同意歸同意,但其實是沒有充分知情的。一項經常被引用的研究估計,如果個人真的閱讀它們,這將花費 244 小時/年。

第二、由於有限理性問題與聚合問題 (aggregation problem),人們難以就個人的訊息隱私做出明智的決定,因為難以管理多個服務供應商的隱私關係與一系列的傷害風險,因為許多隱私損害本是累積的。

第三、個人的隱私偏好具有高度可塑性 (malleable)和脈絡相依性 (context dependent)。由於難以確定隱私行為的潛在風險,人們對隱私的重要性有相當大的不確定性,且許多因隱私所帶來的危害是無形的,如:如果一個陌生人知道一個人的生活史會不會有害?並且保護隱私也不見得能帶來純粹的好處,所以人們會對自己的隱私有所利弊權衡。由於普遍依賴經驗和社會規範,個人的隱私行為也很容易受到環境提示(例如默認值)和網絡環境設計的影響,因此個人的隱私偏好也具有脈絡相依性。

2. 大數據削弱隱私自我管理的充分性

隱私自我管理模型的充分性在大數據環境中被進一步削弱。 

第一、Helen Nissenbaum提出“透明悖論 (transparency paradox)”,如今以互聯網為特徵的複雜且高度動態的信息網路生態中,必須告知個人收集信息的目的,以便給予有意義的同意。如果供應商能提供足夠細節的隱私條款,用戶不見得能充分理解;反之,如果只提供精簡的條款,用戶就會因為資訊不夠充足而無法做出明智的決定。

第二、信息隱私的保護也包括“目的說明原則”,要求數據收集者在收集數據時明確說明收集和處理該數據的明確目的。然而這一原則是違背大數據的概念,即收集更多數據,並希望未來在意想不到的情境中使用它。如果想要使用在意想不到的情境中,那麼收集者不可能也無法在當前具體說明其目的。

第三、大數據貨幣化的主要商業模式,是直接利用個人隱私行為對下意識外部影響的敏感性,特別是表面上“免費”的服務,人們容易因免費而放棄自己的隱私。當代數位服務的主要之一的商業模式是“易貨交易”,即用戶同意在“免費”服務下,提供自己的數據給公司。這種以物易物的方式,公司除了可以拿到數據外,也同時吸引新用戶。然而,正如行為經濟學家 Dan Ariely 所證明的那樣,“免費的力量可以讓我們做出很多愚蠢的決定”。

因此,在大數據環境中,現有的知情同意模型不足以來保護信息隱私權。


相關文章

  1. 大數據被設計為一種監管模式 1
  2. 大數據被設計為一種監管模式 2

參考文獻

Yeung, Karen, ‘Hypernudge’: Big Data as a Mode of Regulation by Design (May 2, 2016). Information, Communication & Society (2016) 1,19, TLI Think! Paper 28/2016, Available at SSRN: https://ssrn.com/abstract=2807574

留言