国产婷婷丁香久久综合,久久久久精品免费播放,亚洲一区欧美一区,欧美激情完整视频免费看

      您的位置: 技術(shù)市場>人工智能>

      審稿人或難識別AI撰寫的論文摘要

      發(fā)布時間:2023-01-17 12:26:27  |  來源:科技日報  |  作者:張夢然  |  責任編輯:徐麗麗

      據(jù)近日發(fā)表在預(yù)印本服務(wù)器bioRxiv上的一項研究,人工智能(AI)聊天機器人ChatGPT已可寫出令人信服的假研究論文摘要,甚至連審稿科學家也無法發(fā)現(xiàn)。


      聊天機器人ChatGPT會根據(jù)用戶提示創(chuàng)建逼真文本,它通過消化大量現(xiàn)有的人類生成文本來學習執(zhí)行任務(wù)。美國的軟件公司OpenAI于去年11月發(fā)布了該工具,并供用戶免費使用。


      自發(fā)布以來,研究人員一直在努力解決相關(guān)倫理道德問題,因為它大部分輸出可能很難與人類撰寫的文本區(qū)分開來。近日美國西北大學的一個研究小組使用ChatGPT生成人工研究論文摘要,以測試科學家是否可辨別它們。


      研究人員要求機器人基于發(fā)表在《美國醫(yī)學會雜志》《新英格蘭醫(yī)學雜志》《英國醫(yī)學雜志》《柳葉刀》和《自然·醫(yī)學》上的50篇研究編寫摘要。然后,他們通過抄襲檢測器和AI輸出檢測器將這些摘要與原始摘要進行比較,并要求一組醫(yī)學研究人員找出編造的摘要。


      結(jié)果,ChatGPT生成的摘要通過了抄襲檢查器,原創(chuàng)性得分中位數(shù)為100%,表明沒有檢測到抄襲。人工智能輸出檢測器發(fā)現(xiàn)了66%的生成摘要,但人工審稿人只正確識別了68%的生成摘要和86%的真實摘要,他們錯誤地將生成摘要中的32%識別為真實,將14%的真實摘要識別為編造。


      研究人員稱,ChatGPT寫出了能騙過人類的科學摘要,如果科學家無法確定研究是否屬實,或會產(chǎn)生“可怕的后果”。


      研究人員表示,在虛假信息會危及人們生命安全的醫(yī)學等領(lǐng)域,期刊需要采取更嚴格的方法來驗證信息的準確性。而這些問題的解決方案,不應(yīng)集中在機器人本身,“而是導致這種行為的不正當激勵措施,例如通過論文數(shù)量進行招聘和晉升審查,而不考慮其質(zhì)量或影響”。

        

      【總編輯圈點】


      大火的ChatGPT,不止是聊天工具,它在教育領(lǐng)域的滲透已經(jīng)引起了廣泛關(guān)注和討論,當然,隨之而來的還有憂慮。如果你使用過ChatGPT,也會驚訝于它撰寫報告的能力。給它一個主題,它就能在幾秒內(nèi)生成大綱,也能在幾秒內(nèi)進行細化,而且看起來非常是那么回事。這次,科研人員發(fā)現(xiàn)它撰寫的論文甚至能騙過審稿人。這又是一個人如何使用新技術(shù)的經(jīng)典倫理問題。工具本身無罪,但應(yīng)用邊界應(yīng)該清晰,使用者也要對自己的行為負起責任。


       
      分享到:
      0