掃碼下載
首頁
快訊
深度
日曆
數據
發現
HK Web3 Feastival
BTC
$76,049.63
+0.08%
ETH
$2,285.21
+0.63%
BNB
$618.29
-0.61%
XRP
$1.36
-0.70%
SOL
$83.20
-0.07%
TRX
$0.3230
-0.09%
DOGE
$0.1045
+5.79%
ADA
$0.2450
-0.22%
BCH
$448.95
+1.03%
LINK
$9.14
-0.60%
HYPE
$39.68
-0.05%
AAVE
$93.49
-2.72%
SUI
$0.9077
-1.24%
XLM
$0.1601
-1.44%
ZEC
$324.52
-2.78%
BTC
$76,049.63
+0.08%
ETH
$2,285.21
+0.63%
BNB
$618.29
-0.61%
XRP
$1.36
-0.70%
SOL
$83.20
-0.07%
TRX
$0.3230
-0.09%
DOGE
$0.1045
+5.79%
ADA
$0.2450
-0.22%
BCH
$448.95
+1.03%
LINK
$9.14
-0.60%
HYPE
$39.68
-0.05%
AAVE
$93.49
-2.72%
SUI
$0.9077
-1.24%
XLM
$0.1601
-1.44%
ZEC
$324.52
-2.78%
首頁
文章
快訊
專題
專欄
知識庫
日曆
市場
圖表
活動
工具導航
alpha波連接數量
全部
文章
快訊
全部
研究:長期依賴 ChatGPT 等大型語言模型或將損害認知能力
ChainCatcher 消息,麻省理工學院、韋爾斯利學院和馬薩諸塞藝術學院的研究團隊最新發現,長期依賴 ChatGPT 等大型語言模型(LLM)可能損害認知能力。研究顯示,使用 AI 寫作的參與者大腦中 Alpha 波連接數量僅為獨立思考者的一半(42 比 79),且 83.3%無法準確引用自己的文章內容。研究者稱這種現象為"認知負債"------短期內減輕思維負擔但長期導致批判性思維和創造力下降。
2025-06-20
ChatGPT
Alpha波連接數量
ChainCatcher
與創新者共建Web3世界
開啟App