聊天機器人ChatGPT火出圈,能寫論文、編代碼、創作小說( 五 )


人們普遍表示擔心,該工具可能會鼓勵學生抄襲 。詹娜·萊爾說,雖然ChatGPT能夠為問題提供快速而簡單的答案,但它沒有培養批判性思維和解決問題的能力,而這些能力對學術和終身成功來說是至關重要的 。
2022年12月27日,美國西北大學的一個團隊在預印本論文bioRxiv上發表了一篇文章 。這項研究中,研究者讓ChatGPT學習發表在《柳葉刀》《美國醫學會雜志》等頂刊上的文章 , 并撰寫50篇醫學研究摘要,然后讓抄襲檢測器、人工智能輸出檢測器和期刊審稿人將這些摘要與原始摘要比較,找出ChatGPT編造的摘要 。
結果發現,ChatGPT生成的摘要全部順利通過了抄襲檢測器,人工智能輸出器找出了66%的生成摘要,期刊審稿人僅正確識別了68%的生成摘要和86%的真實摘要 。研究者們表示,使用大型語言模型進行科學寫作的道德和可接受邊界需要被進一步明確 。
《自然》雜志最新發布的規定稱,任何大型語言模型工具都不能成為論文作者;如在論文創作中用過相關工具,作者應在“方法”或“致謝”或適當部分明確說明 。
王帥認為,用AI寫論文這樣的事情,技術上一定會發生的,而且知識獲取的門檻越來越低,“我覺得發展方向上更多不一定是禁止它 , 而是說教育評估的標準和理念需要發生變化 。相比那些大段輸出的、能夠在機器的幫助下寫得更好的文字,思考的質量、深度和研究的原創性等將會越來越重要” 。
這就好像一項新的技術,比如說汽車、飛機被發明了,不可能說不用它們,關鍵是如何使用、如何規范 。從這一意義上來說,王帥表示,以ChatGPT為代表的生成式人工智能的出現,圍繞它及其應用相關的各方面都沒有跟上,包括法律、教育、社會、倫理等 。實際上,就算是圈內人,也沒有完全理解AI領域正在發生的事情意味著什么 。
2022年12月,《大西洋月刊》在《大學論文已死》的文章中警示,沒有人為人工智能將如何改變學術界做好準備 ?!叭缃馎I模型遠比我們想象的更強大,而我們用于探索它們的技術卻非常幼稚 ?!監penAI實驗室的人工智能政策專家杰克·克拉克在近來的一篇文章中寫道 。
劉少山也認為,目前,業內沒有能力去處理AI帶來的可能的社會影響,因為人們對它的了解還很有限,這是最大的問題 。比如說,盡管美國部分學校禁用ChatGPT生成的內容,但現在卻沒有手段檢測和區分機器與人類生產的內容,也就更加難說防御機制,“因為GPT這些技術太新了,監管部門也沒辦法去理解 。我認為,在幾年時間內,網絡上會有很多虛假信息的出現” 。
每一次AI出現一個新東西 , 大眾總是會覺得某種巨大的變化將要來臨,并且往往伴隨著機器代替人工的擔憂 。然而,王詠剛說 , 人們一方面太容易夸大AI短期內取得的成果和影響;另一方面,卻又忽視AI正在發生的、真正可能帶來不可逆的長期變化 。
在他看來,短期來說 , ChatGPT等人工智能的應用仍舊是工具式的 , 它會提高效率、替代一部分工作,但真正值得擔心的是,隨著計算機能夠處理的數據結構、模型、算法越來越膨脹和復雜,里面可能有大量的“黑盒子”運算,人們未必能預測其最終輸出的結果 。會不會在某個時間點,人工智能會跨越某個關鍵的節點,進入到一個我們尚未看到的世界,沒有人可以預測 。
(文中王帥為化名,實習生李金津對本文亦有貢獻 。)
采訪人員:彭丹妮

相關經驗推薦