算法|人工智能接管世界? 這可能是相當不科學的假設,威脅來自人類自己

算法|人工智能接管世界? 這可能是相當不科學的假設,威脅來自人類自己

文章圖片

算法|人工智能接管世界? 這可能是相當不科學的假設,威脅來自人類自己

文章圖片


我們應該害怕人工智能嗎?包括已故物理學家史蒂芬·霍金在內的許多人都擔心 , 強大的人工智能系統的崛起可能意味著人類的終結 。

人工智能接管人類的想法已經討論了幾十年 , 描述人工智能企圖毀滅人類的科幻電影這些年也有不少 。 2021 年 1 月 , 有科學家們再次就人類是否能夠控制超級智能做出了判斷 , 答案也是否定的 。 問題在于研究超級人工智能 , 就需要對可以分析的人工智能進行模擬 , 但是如果已經到了制造它的人都無法理解它 , 創建這樣的模擬就不是那么簡單了 。
得出人類將無法控制人工智能結論的學者認為 , 如果人類不再了解 AI 將提出的場景類型 , 則無法設定諸如“不傷害人類”這樣的規則 。 一旦計算機系統的工作水平超出了程序員的范圍 , 設置任何限制都不再可能了 。
人工智能雖然基于人腦設計 , 但這些機器有朝一日可能存在于另一個層面 , 像人類智勝黑猩猩一樣 , 終有一天它們會智勝我們 , 因為超級的人工智能程序不僅具備學習模式 , 還可以做出決定 , 從而開辟出程序員沒無法預料到的新學習途徑 。 簡單的案例包括在分析繪畫庫后創作新穎的藝術作品 , 或者在玩過電腦游戲的歷史后設計出一個全新游戲等 。 這種深度學習的功能讓使用者感到它的危險 , 史蒂芬·霍金在生前就對人類使用人工智能提出過警告 , 他擔心它很快就會變得更超級智能 , 并不再需要人類了 。

曾經有超過100 位人工智能領域的領導人和專家敦促聯合國禁止殺手機器人技術 , 因為這些AI領域的學者們擔心它最終會失控出現差錯 。
然而 , 也有不同的觀點則認為 , 人工智能的最大威脅不是AI本身 , 而將是人類選擇使用它的方式 , 就像核武器本身并不傷害人類 , 但使用它的人才會遭遇瘋狂 。 所以即使是看似無害的高級AI 形式也可能被惡意使用 。 最近 , 計算機科學家不得不縮減一個“類似變色龍”的語言預測系統 , 稱其太危險而不能向公眾發布 。
人工智能已經在以幾十年前我們無法想象的方式改變世界 , 但其實它如何塑造未來取決于人類自己 。 對人工智能是否會接管世界的看法 , 將取決于它能否發展出超越人類的智能行為 , 也就是所謂的“超級智能” 。 那么這種可能性有多大 , 以及是什么讓人們對人工智能的未來如此擔憂?
機內無幽靈

人類往往會害怕不能理解的東西 , 因此 , 對于超出多數人預期的新技術被神秘所籠罩 , 在某些情況下也超出人類的表現 , 提防害怕也就很好理解了 。
現在來揭開最流行的人工智能技術的神秘面紗 , 這些技術統稱為“機器學習” , 這使得機器可以在沒有明確指令的情況下進行學習任務 。 這聽起來可能有點嚇人 , 但事實是 , 這一切都取決于一些相當普通的統計數據 。 這臺機器是一個程序 , 或者更確切地說是一個算法 , 被設計成能夠發現所提供數據之間的關系 , 有許多不同的方法可以實現這一點 。
例如 , 我們可以將手寫字母(a-z)的圖像一個一個地呈現給機器 , 然后讓它告訴用戶每次按順序顯示的是哪個字母 , 用戶已經賦予可能的答案 , 它只能是(a-z)之一 , 機器一開始隨機說出一個字母 , 用戶通過提供正確的答案來糾正它 。 用戶也編寫了程序 , 讓機器重新配置自己 , 這樣下次 , 遇到同樣的順序問題 , 它就可以很快給出正確答案 。 因此 , 隨著時間的推移 , 機器的性能會提高 , 也就“學會”了識別字母表 。

相關經驗推薦