研究:長期依賴 ChatGPT 等大型語言模型或將損害認知能力
2025-06-20 10:03:23
Chia sẻ để

ChainCatcher 消息,麻省理工學院、韋爾斯利學院和馬薩諸塞藝術學院的研究團隊最新發現,長期依賴 ChatGPT 等大型語言模型(LLM)可能損害認知能力。
研究顯示,使用 AI 寫作的參與者大腦中 Alpha 波連接數量僅為獨立思考者的一半(42 比 79),且 83.3%無法準確引用自己的文章內容。研究者稱這種現象為"認知負債"------短期內減輕思維負擔但長期導致批判性思維和創造力下降。

Tin tức mới nhất
Nguồn: OKX đang cân nhắc IPO tại Hoa Kỳ
BitouChnews
2025-06-23 09:09:20
Đồng tiền ổn định WYST của Wyoming sẽ được ra mắt vào ngày 20 tháng 8
BitouChnews
2025-06-23 09:03:35
Bộ Tư pháp Hoa Kỳ: Việc Trump sử dụng vũ lực chống lại Iran là hợp hiến, nhưng có thể cần sự chấp thuận của quốc hội nếu xung đột vẫn tiếp diễn
BitouChnews
2025-06-23 08:21:47
Luật sư FTX phản đối yêu cầu bồi thường 1,53 tỷ đô la của Three Arrows Capital, yêu cầu tòa án bác bỏ hoàn toàn
BitouChnews
2025-06-23 08:09:29
Michael Saylor lại công bố thông tin về Bitcoin Tracker và có thể tiết lộ dữ liệu nắm giữ vào tuần tới
BitouChnews
2025-06-22 20:02:48