研究:長期依賴 ChatGPT 等大型語言模型或將損害認知能力
2025-06-20 10:03:23
分享至

ChainCatcher 消息,麻省理工學院、韋爾斯利學院和馬薩諸塞藝術學院的研究團隊最新發現,長期依賴 ChatGPT 等大型語言模型(LLM)可能損害認知能力。
研究顯示,使用 AI 寫作的參與者大腦中 Alpha 波連接數量僅為獨立思考者的一半(42 比 79),且 83.3%無法準確引用自己的文章內容。研究者稱這種現象為"認知負債"------短期內減輕思維負擔但長期導致批判性思維和創造力下降。

最新快訊
美國財長貝森特:加密貨幣不會對美元構成威脅,穩定幣可以鞏固美元霸權地位
ChainCatcher
2025-06-21 21:29:20
James Wynn:已關閉比特幣多單,等時機再進空單
ChainCatcher
2025-06-21 21:09:31
數據:某遠古巨鯨拋售 5000 枚 ETH,回報率超 200 倍
ChainCatcher
2025-06-21 20:38:52
香港財政司長陳茂波:香港將會在二至三年內成為全球第一跨境資產管理中心
ChainCatcher
2025-06-21 20:13:56
納斯達克批准區塊鏈 ASIC 芯片研發公司 AGM Group 繼續上市請求
ChainCatcher
2025-06-21 19:32:04