ChatGPT很厲害,但還有關鍵問題懸而未決


ChatGPT很厲害,但還有關鍵問題懸而未決

文章插圖

ChatGPT很厲害,但還有關鍵問題懸而未決

文章插圖

ChatGPT很厲害,但還有關鍵問題懸而未決

文章插圖


出品|虎嗅科技組
作者|齊健
編輯|陳伊凡
頭圖| 6penAI生成
1月27日,路透社消息稱法國頂尖學府之一的巴黎政治學院宣布該校將禁止使用ChatGPT,對使用該軟件的處罰可能會嚴重到被學校開除,甚至被整個法國高等教育開除 。
“ChatGPT軟件正在向全世界的教育工作者和研究人員提出一個涉及欺詐和剽竊的嚴肅問題 , ”巴黎政治學院在這份通知中稱,“在沒有透明參考的情況下,除特定課程目的外 , 學生不得使用該軟件制作任何書面作品或演示文稿 。”
巴黎政治學院并不是第一所宣布禁用ChatGPT的學校 。ChatGPT發布不到一個月,就引起了美國教育界的高度重視 。多所美國中學及大學陸續宣布校內禁用ChatGPT , 并通過減少課后作業的方式,避免學生利用家庭網絡訪問ChatGPT作弊 。美國紐約市教育部,甚至要求全紐約市的學生和教師不要使用這款AI工具 , 并對下轄的教育部設備或互聯網設卡,限制訪問ChatGPT 。
AI生成內容的倫理和法律問題,正在引發社會各界的廣泛討論與思考 。
AI背后的學術隱憂
“ChatGPT很好玩 , 但它不是作者”,這是《Science》期刊主編Holden Thorp在1月26日發表的一篇關于人工智能的社論 。Holden Thorp指出,“原創”是Science發表論文的基礎 , 而利用ChatGPT編寫文本的行為 , 等同于從ChatGPT中抄襲 。
“我們正在更新編輯政策,要求作者不要使用ChatGPT(或任何其他人工智能工具)生成的文本、數據、圖像或是圖形 。違反這一政策將被Science期刊視為學術不端行為,這與篡改圖像或抄襲無異 ?!辈贿^Holden Thorp也表示,上述規定并不包含AI論文中以研究為目的生成的數據 。
在AI學界,知名機器學習會議之一的ICML(International Conference on Machine Learning)最近也宣布禁止“發表包含從大型語言模型(LLM,Large Language Model)生成的文本(例如ChatGPT)的論文(相關研究除外)”,以免出現“意想不到的后果和無法解決的問題” 。
對于學術期刊和頂會論文來說 , AI生成的內容最大的問題在于知識權屬和責任確定問題 。作為論文作者,研究人員無疑要對論文的觀點和內容負責,而AI要如何對文章內容負責?如果AI生成的內容出現了謬誤、不恰當、造假,甚至是抄襲剽竊 , 又該如何追責呢?
考慮到“AI作弊”帶來的普遍問題,目前從OpenAI官方,到學術期刊出版商,以及“草根”開發者都在研究如何分辨一篇文章的“作者”到底是人還是機?
目前,OpenAI正在研發相應的AI檢測工具 。OpenAI客座研究員Scott Aaronson在德克薩斯大學的一次演講中表示,他們正在通過給AI生成內容打“水印”來打擊作弊 。這項技術將通過調整ChatGPT生成單詞的規則 , 在生成內容的特定位置制造“偽隨機”的特定單詞,讀者很難察覺,但就如同密電碼一樣 , “握有密鑰”的人就輕易判斷這篇內容是否是ChatGPT生成的了 。
《Nature》的出版商Springer Nature也正在開發可以檢測LLM的技術 。而就在前不久,普林斯頓大學的一位22歲的華裔學生Edward Tian研究出了一款專門給ChatGPT挑毛病的應用GPTZero , 可以通過檢測文本的“困惑性(Perplexity)”和“突發性(Burstiness)”這兩項指標,來判斷內容是人類創作還是機器生成 。

相關經驗推薦