研究:長期依賴 ChatGPT 等大型語言模型或將損害認知能力
2025-06-20 10:03:23
分享至

ChainCatcher 消息,麻省理工學院、韋爾斯利學院和馬薩諸塞藝術學院的研究團隊最新發現,長期依賴 ChatGPT 等大型語言模型(LLM)可能損害認知能力。
研究顯示,使用 AI 寫作的參與者大腦中 Alpha 波連接數量僅為獨立思考者的一半(42 比 79),且 83.3%無法準確引用自己的文章內容。研究者稱這種現象為"認知負債"------短期內減輕思維負擔但長期導致批判性思維和創造力下降。
最新快訊
數據:BTC 突破 119000 美元
ChainCatcher
2025-08-10 23:10:01
當前主流 CEX、DEX 資金費率顯示市場走向分化,看漲與中立並存
ChainCatcher
2025-08-10 22:55:16
京東開啟穩定幣鏈上活動策劃崗位招聘
ChainCatcher
2025-08-10 22:52:20
Scam Sniffer:某 Aave 用戶在簽署釣魚簽名後損失逾 34.3 萬美元 aEthWETH
ChainCatcher
2025-08-10 22:35:57
觀點:“萬物皆可 RWA”是偽命題,目前僅覆蓋金融、不動產等五類主流資產
ChainCatcher
2025-08-10 22:31:34