5G|現在電腦連接了我們所有人,那么接下來會發生什么?( 七 )


計算機也能使欺騙成為可能 。 人工智能可以生成看起來真實的內容 。 語言模型可能被用來為極端組織提供虛假新聞和招募材料 。 生成式對抗網絡是一種深度學習 , 可以生成逼真的內容 , 可以幫助藝術家或創建深度偽造、圖像或視頻 , 顯示人們在做他們從未做過的事情
在社交媒體上 , 我們也需要擔心人們的社會、政治等觀點的兩極分化 。 一般來說 , 推薦算法優化用戶參與度(平臺通過廣告盈利) , 而不是民間話語 。 算法還可以以其他方式操縱我們 。 機器人顧問——提供金融建議或客戶支持的聊天機器人——可能會了解我們真正需要什么 , 或者按下我們的按鈕 , 向我們推銷無關的產品 。
多個國家正在開發自主武器 , 機器人手中的槍支或導彈引發了科幻小說中終結者試圖消滅人類的幽靈 。 他們甚至可能沒有惡意 , 錯誤地認為他們正在通過消滅人類癌癥來幫助人類 。 在更短的時間內 , 現實世界中的自動化系統已經造成了股市的閃電崩盤 , 例如量化交易 。 如果AI被要求做出生死攸關的決定 , 他們就會面臨著名的電車問題 , 即在不是每個人都能獲勝的情況下 , 決定犧牲誰或什么 。

由于致命自主武器的存在 , 比如土耳其制造的STM無人機 , 專家們呼吁禁止那些可以在無需人工干預的情況下發動襲擊的設備
還有關于如何在社會中管理技術的社會、政治和法律問題 。 當人工智能系統造成傷害時 , 誰應該承擔責任?(例如 , 自動駕駛汽車已經導致了人員死亡 。 )我們如何才能確保更平等地獲得人工智能工具及其好處 , 并確保它們不會歧視群體或個人?持續的工作自動化將如何影響就業?我們能管理數據中心對環境的影響嗎?這些數據中心使用大量的電力 。 我們是否應該優先使用可解釋的算法 , 而不是許多神經網絡的黑盒以獲得更大的信任和可調試性 , 即使這會使算法在預測方面更差?
我們能做些什么賓夕法尼亞大學計算機科學家、2019年《道德算法》(the Ethical Algorithm)一書的合著者邁克爾·卡恩斯將這些問題置于可管理性的范圍內 。 一方面是所謂的差異隱私 , 即向醫療記錄數據集添加噪音的能力 , 這樣它就可以與研究人員有效地共享 , 而無需透露太多的個人記錄 。 我們現在可以用數學來保證個人數據應該如何保存 。
介于兩者之間的是機器學習的公平性 。 研究人員已經開發出一些方法 , 通過刪除或改變有偏見的訓練數據來增加公平性 , 或者最大化某些類型的平等——例如貸款——同時最小化利潤的減少 。 然而 , 某些類型的公平將永遠處于相互沖突之中 , 數學無法告訴我們哪些是我們想要的 。
另一端是可解釋性 。 與公平性相反 , 公平性可以用多種數學方法進行分析 , 而解釋的質量很難用數學術語來描述 。 “我覺得我還沒有看到一個好的定義 , ”卡恩斯說 。 “你可以說 , ‘這是一個算法 , 它將使用一個訓練有素的神經網絡 , 試圖解釋它為什么拒絕你的貸款 , ’但(感覺不太有原則 。 ”最終 , 如果受眾不理解它 , 這就不是一個好的解釋 , 衡量它的成功——無論你如何定義成功——都需要用戶研究 。
像阿西莫夫的三定律這樣的東西不會把我們從試圖幫助我們去傷害我們的機器人手中拯救出來 。 而且 , 即使這一列表擴大到一百萬條法律 , 法律的文字與它的精神也不相同 。 一種可能的解決方案是所謂的反向強化學習 , 在這種學習中 , 計算機可能會根據我們的行為來解讀我們真正看重的東西 。
本文參考science news.文章 , “Now that computers connect us all for better and worse what’s next?” , 如有興趣還可查閱原文 。

相關經驗推薦