過去十年,關于人工智能(AI)的研究論文數量在各個領域都有顯著增加。
科學家們已經開始運用 AI 工具來協(xié)助總結和撰寫研究論文和編寫代碼。一些研究者嘗試借助生成式 AI 技術來探索新的領域,如蛋白質結構的發(fā)現(xiàn)、天氣預報的改進以及醫(yī)學診斷的創(chuàng)新等各種有前景的領域。
AI 已然滲透到科學研究中。那么,科學家們是如何看待它們的?
近日,頂級期刊《自然》(Nature)對全球 1600 多名研究人員進行了一項調查。結果表明,AI 工具在科學領域越來越常見,并且許多科學家預計它們將很快成為研究實踐的核心。另外,超過一半的受訪者認為 AI 工具將在未來十年內變得非常重要或必不可少。
相關調查結果以“AI and science: what 1,600 researchers think”為題,已發(fā)表在 Nature 上。
在這項調查中,有 2/3 的受訪者認為 AI 提供了更快的數據處理方式,58% 的人認為 AI 加速了以前不可行的計算,55% 的人則提到 AI 節(jié)省了時間和金錢。
來自杜克大學的計算生物學家 Irene Kaplow 表示:“AI 讓我能夠在以前難以攻克的生物學問題中取得進展?!?/p>
然而,也有 69% 的研究人員表示,AI 工具可能導致更多地依賴模式識別而不是深刻理解,58% 的人認為 AI 可能會在數據中強化偏見或歧視,55% 認為這些工具可能會增加欺詐的發(fā)生概率,53% 的人指出草率使用可能會導致研究無法重現(xiàn)。
任職康涅狄格州的杰克遜實驗室、從事癌癥圖像分析的 Jeffrey Chuang 表示:“主要問題在于 AI 正在挑戰(zhàn)我們現(xiàn)有的證據和真相標準?!?/p>
科學家的擔憂與興奮
為了評估活躍研究人員的觀點,《自然》雜志通過電子郵件聯(lián)系了在 2022 年最后 4 個月內發(fā)表論文的 4 萬多名科學家,并邀請《自然簡報》的讀者參與調查。
在這些受訪者中,48% 的人直接開發(fā)或研究 AI,30% 的人在研究中使用了 AI,剩下的 22% 的人在科學中沒有使用 AI。
在那些在研究中使用 AI 的人中,超過 1/4 的人認為 AI 工具將在未來十年內變得必不可少,而認為 AI 工具現(xiàn)在是“必需品”的人只占 4%。另有 47% 的人認為 AI 將變得非常有用。然而,不使用 AI 的研究人員對此并不太感興趣。即便如此,仍然有 9% 的人認為這些技術將在未來十年內變得必不可少,另有 34% 的人表示它們將非常有用。
當被要求從可能的生成式 AI 負面影響列表中選擇時,68% 的研究人員擔心信息傳播不準確,另有 68% 的人認為這將使抄襲更容易,檢測更難,66% 的人擔心會引入錯誤或不準確的內容到研究論文中。
此外,受訪者還提到,如果用于醫(yī)學診斷的 AI 工具是基于具有歷史偏見的數據進行訓練,他們擔心會出現(xiàn)偽造研究、虛假信息和偏見。科學家們已經看到了這方面的證據:例如,美國的一個團隊報告說,當他們要求 GPT-4 為臨床案例研究提供診斷和治療建議時,答案會根據患者的種族或性別而變化。
英國布里斯托爾大學攻讀醫(yī)學 AI 博士學位的軟件工程師和前企業(yè)家 Isabella Degen 表示:“大型語言模型(LLMs)被濫用,存在不準確和虛假但聽起來專業(yè)的結果。在我看來,我們對于正確使用和濫用之間的界限認識還不夠清晰?!?/p>
研究人員認為,最明顯的好處是 LLMs 可以幫助非英語母語的研究人員,改進他們研究論文的語法和風格,總結或翻譯其他工作。新加坡國立大學材料科學家 Kedar Hippalgaonkar 指出,“盡管存在一小部分惡意玩家,但學術界可以展示如何善用這些工具?!?/p>
即使在對 AI 感興趣的研究人員中,經常在工作中使用 LLMs 的研究人員也仍占少數。那些學習AI 的人中有 28% 表示每天或每周使用生成式 AI 產品,而僅使用 AI 的人中有 13% 這樣做,而其他人中只有 1%,盡管許多人至少嘗試過這些工具。此外,所有群體中最流行的用途是與研究無關的創(chuàng)意娛樂;較少一部分人使用這些工具來編寫代碼、構思研究思路和幫助撰寫研究論文。
另外,一些科學家對 LLMs 的輸出并不滿意。一位使用 LLMs 來幫助編輯論文的研究人員寫道:“ChatGPT 好像復制了人類的所有不良寫作習慣。”芬蘭圖爾庫大學的物理學家 Johannes Niskanen 則表示:“如果我們開始使用 AI 來閱讀和撰寫文章,科學很快就會從‘由人類為人類(for humans by humans)’轉變?yōu)椤蓹C器為機器(‘for machines by machines)’?!?/p>
AI 發(fā)展面臨困境
在這項調查中,大約一半的科學家表示他們在開發(fā)或使用 AI 方面遇到了阻礙。直接研究 AI 的研究人員最擔心的問題包括計算資源不足、為其工作提供的融資不足以及獲取運行 AI 所需的高質量數據不足。而那些在其他領域工作但在研究中使用 AI 的人則更擔心缺乏熟練的科學家和訓練資源,此外,他們還提到了安全和隱私方面的考慮。然而,不使用 AI 的研究人員表示他們不需要 AI 或認為它不實用,或者缺乏研究 AI 的經驗和時間。
調查中出現(xiàn)的另一個主題是商業(yè)公司主導了 AI 的計算資源和 AI 工具的所有權。研究 AI 的科學家中有 23% 表示他們與開發(fā)這些工具的公司合作或在這些公司工作(其中最常提到的是谷歌和微軟),而使用 AI 的人中只有 7% 這樣做??傮w而言,略多于一半的受訪者認為,使用 AI 的研究人員與這些公司的科學家合作是非常重要或有些重要的。
此前,已有研究人員多次警告稱,科學中對 AI 工具的天真使用可能導致錯誤、虛假陽性和無法重現(xiàn)的研究結果,從而潛在地浪費時間和精力。一些科學家表示,他們擔心使用 AI 的論文中存在質量不佳的研究。
堪薩斯州立大學曼哈頓分校的計算機科學家 Lior Shamir 表示,“機器學習有時可能有用,但 AI 引發(fā)的問題比幫助多??茖W家在不了解自己在做什么的情況下使用 AI,可能會導致虛假的發(fā)現(xiàn)?!?/p>
當問及期刊編輯和同行評審人是否能夠充分審查使用 AI 的論文時,受訪者意見不一。在那些使用 AI 進行工作但不直接開發(fā) AI 的科學家中,大約一半表示不知道, 1/4 認為審查是充分的,1/4 認為不充分。直接開發(fā) AI 的人傾向于對編輯和審查過程持更積極的看法。
另外,《自然》還詢問了受訪者對于 AI 在社會的 7 種潛在影響的擔憂程度,2/3 的人表示他們對此非常擔憂或很擔憂。自動化 AI 武器和 AI 輔助監(jiān)視也高居榜首,最不令人擔憂的是 AI 可能對人類構成生存威脅的想法。
然而,許多研究人員表示,AI 和 LLMs 已經成為不可回避的趨勢。波士頓馬薩諸塞州貝斯以色列圣救主醫(yī)療中心的肝病專家 Yury Popov 寫道:“AI 是具有變革性的,我們現(xiàn)在必須關注如何確保它帶來更多的好處,而不是問題。”
上一篇:純電還是燒油?小米汽車:我都要