2月28日Harari對保護性AI的第一個要求是它可以看到你所做的一切
這是一個公平的前提,因為眾所周知,當代人工智能與人類智能有很大不同,并且過于依賴高質量數據。人類的“伙伴”——比如父母或年長的兄弟姐妹——將能夠根據他們自己的個人生活經歷來判斷是非。他們有一個抽象的世界模型和對人類行為后果的一般感知。例如,如果您看太多電視而很少鍛煉,他們將能夠預測會發生什么。
與人類不同,人工智能算法從一張白紙開始,沒有人類經驗的概念。當前最先進的人工智能技術是深度學習,這是一種特別擅長在大型數據集中發現模式和相關性的人工智能技術。根據經驗,您為深度學習算法提供的質量數據越多,它在對新數據進行分類和進行預測方面就會越好。
現在的問題是,你如何創建一個可以監控你所做的一切的深度學習系統。目前,沒有。隨著云和物聯網 (IoT)的爆炸式增長,科技公司、網絡分子和機構有許多新的方式來打開我們日常生活的窗口、收集數據和監控我們的活動。但是,幸運的是,他們都無法訪問我們所有的個人數據。
Google 對您的在線數據有非常廣泛的了解,包括您的搜索和瀏覽歷史記錄、您在 Android 設備上安裝的應用程序、您的 Gmail 數據、您的 Google 文檔內容和您的 YouTube 觀看歷史記錄。但是,Google 無權訪問您的 Facebook 數據,其中包括您的朋友、您的點贊、點擊和其他參與偏好。Facebook 可以訪問您訪問的某些網站,但無法訪問您的亞馬遜購物和瀏覽數據。由于其廣受歡迎的 Echo 智能揚聲器,亞馬遜對您的家庭活動和偏好非常了解,但它無法訪問您的 Google 數據。
關鍵是,即使您向科技公司提供了大量信息,也沒有一家公司可以訪問所有這些信息。另外,還有很多信息沒有被數字化。例如,Harari 經常提到的一個例子是 AI 如何能夠通過監控您查看圖像時脈搏率的變化來量化您對某個圖像的反應。但他們將如何做到這一點?哈拉里說,科技公司不一定需要可穿戴設備來捕捉你的心率,他們可以通過你面部的高分辨率視頻和監測視網膜的變化來做到這一點。但這還沒有發生。
此外,我們進行的許多在線活動都受到我們在現實世界中的經歷的影響,例如我們與同事的對話或我們在課堂上聽到的事情。也許是我在等公共汽車時看到的廣告牌,或者是我坐在地鐵里心不在焉地聽到的兩個人之間的對話。這可能與我前一天晚上的睡眠質量或我早餐攝入的碳水化合物量有關。
現在的問題是,我們如何向 AI 代理提供我們所有的數據?使用當前技術,您將需要硬件和軟件的組合。例如,您需要智能手表或健身追蹤器,讓您的 AI 助手在您進行不同活動時監控您的生命體征。你需要一個眼動追蹤頭飾,它可以讓你的 AI 助手追蹤你的凝視并掃描你的視野,以找到你的生命體征和你所看到的東西之間的相關性。
你的人工智能助手還必須存在于你的計算設備、智能手機和筆記本電腦中。然后它將能夠記錄有關您在線進行的所有活動的相關數據。將所有這些數據放在一起,您的 AI 助手將能夠更好地識別有問題的行為模式。
這些要求有兩個問題。首先,硬件成本將有效地使人工智能助手只能提供給有限的受眾,可能是硅谷的富有精英,他們了解這種助手的價值并愿意承擔財務成本。然而,研究表明,風險最大的人不是富裕的精英階層,而是可以使用低價手機屏幕和互聯網并且對屏幕時間的不利影響了解較少的窮人。他們將買不起人工智能助手。
第二個問題是存儲您收集的有關用戶的所有數據。在一個地方擁有如此多的信息可以讓您深入了解自己的行為。但它也將賦予任何未經授權訪問它的人難以置信的杠桿作用,將其用于邪惡目的。您將信任誰來處理您最敏感的數據?谷歌?Facebook?亞馬遜?這些公司中沒有一家在考慮用戶利益方面有著積極的記錄。Harari 確實提到你的 AI 伙伴有受托責任。但是,哪家商業公司愿意為存儲和處理您的數據而付出代價卻得不到回報呢?
應該持有你的數據嗎?以及如何防止當局不將其用于監視和操縱等邪惡目的。我們可能想嘗試使用區塊鏈和云服務的組合來確保只有您可以完全控制您的數據,并且我們可以使用去中心化的 AI 模型來防止任何單個實體對數據進行獨占訪問。但這仍然不能消除存儲數據的成本。
該實體可以是由和私營部門提供巨額資金支持的非營利組織。或者,它可以選擇貨幣化的商業模式。基本上,這意味著您必須支付訂閱費用才能讓服務存儲和處理您的數據,但這將使 AI 伙伴變得更加昂貴,并且更容易受到弱勢群體的訪問。
最終結論:可以收集所有數據的 AI 助手并非不可能,但它非常困難且成本高昂,而且并非所有人都可以使用。