掃碼下載
首頁
快訊
深度
日曆
數據
發現
HK Web3 Feastival
BTC
$75,610.28
-1.11%
ETH
$2,240.08
-2.38%
BNB
$615.41
-1.45%
XRP
$1.36
-1.44%
SOL
$82.58
-1.43%
TRX
$0.3232
+0.25%
DOGE
$0.1019
+2.18%
ADA
$0.2428
-1.94%
BCH
$446.01
-1.30%
LINK
$9.05
-2.28%
HYPE
$39.77
-0.50%
AAVE
$93.72
-2.98%
SUI
$0.9018
-2.75%
XLM
$0.1590
-2.38%
ZEC
$322.91
-4.03%
BTC
$75,610.28
-1.11%
ETH
$2,240.08
-2.38%
BNB
$615.41
-1.45%
XRP
$1.36
-1.44%
SOL
$82.58
-1.43%
TRX
$0.3232
+0.25%
DOGE
$0.1019
+2.18%
ADA
$0.2428
-1.94%
BCH
$446.01
-1.30%
LINK
$9.05
-2.28%
HYPE
$39.77
-0.50%
AAVE
$93.72
-2.98%
SUI
$0.9018
-2.75%
XLM
$0.1590
-2.38%
ZEC
$322.91
-4.03%
首頁
文章
快訊
專題
專欄
知識庫
日曆
市場
圖表
活動
工具導航
alpha波連接數量
全部
文章
快訊
全部
研究:長期依賴 ChatGPT 等大型語言模型或將損害認知能力
ChainCatcher 消息,麻省理工學院、韋爾斯利學院和馬薩諸塞藝術學院的研究團隊最新發現,長期依賴 ChatGPT 等大型語言模型(LLM)可能損害認知能力。研究顯示,使用 AI 寫作的參與者大腦中 Alpha 波連接數量僅為獨立思考者的一半(42 比 79),且 83.3%無法準確引用自己的文章內容。研究者稱這種現象為"認知負債"------短期內減輕思維負擔但長期導致批判性思維和創造力下降。
2025-06-20
ChatGPT
Alpha波連接數量
ChainCatcher
與創新者共建Web3世界
開啟App