RootData免費推送:提交首發融資資訊,審核通過後即可享App推送服務。 立即聯絡
API 下載RootData App

研究:長期依賴 ChatGPT 等大型語言模型或將損害認知能力

2025-06-20 10:03:23

分享至

ChainCatcher 消息,麻省理工學院、韋爾斯利學院和馬薩諸塞藝術學院的研究團隊最新發現,長期依賴 ChatGPT 等大型語言模型(LLM)可能損害認知能力。

研究顯示,使用 AI 寫作的參與者大腦中 Alpha 波連接數量僅為獨立思考者的一半(42 比 79),且 83.3%無法準確引用自己的文章內容。研究者稱這種現象為"認知負債"------短期內減輕思維負擔但長期導致批判性思維和創造力下降。

最近融資

查看更多
$410 万 08-09
$150 万 08-08
-- 08-08

近期發行Token

查看更多
08-08
08-07
08-07

𝕏 最新關注

查看更多
08-09