扫码下载
BTC $76,572.94 -1.85%
ETH $2,275.69 -2.98%
BNB $621.48 -1.58%
XRP $1.39 -2.70%
SOL $84.24 -2.56%
TRX $0.3251 +0.39%
DOGE $0.0974 -1.09%
ADA $0.2447 -2.83%
BCH $448.40 -0.63%
LINK $9.19 -2.73%
HYPE $41.70 +0.97%
AAVE $96.50 +1.01%
SUI $0.9213 -2.33%
XLM $0.1645 -3.27%
ZEC $353.31 -0.46%
BTC $76,572.94 -1.85%
ETH $2,275.69 -2.98%
BNB $621.48 -1.58%
XRP $1.39 -2.70%
SOL $84.24 -2.56%
TRX $0.3251 +0.39%
DOGE $0.0974 -1.09%
ADA $0.2447 -2.83%
BCH $448.40 -0.63%
LINK $9.19 -2.73%
HYPE $41.70 +0.97%
AAVE $96.50 +1.01%
SUI $0.9213 -2.33%
XLM $0.1645 -3.27%
ZEC $353.31 -0.46%

研究:长期依赖 ChatGPT 等大型语言模型或将损害认知能力

2025-06-20 10:03:23
收藏

ChainCatcher 消息,麻省理工学院、韦尔斯利学院和马萨诸塞艺术学院的研究团队最新发现,长期依赖 ChatGPT 等大型语言模型(LLM)可能损害认知能力。

研究显示,使用 AI 写作的参与者大脑中 Alpha 波连接数量仅为独立思考者的一半(42 比 79),且 83.3%无法准确引用自己的文章内容。研究者称这种现象为"认知负债"——短期内减轻思维负担但长期导致批判性思维和创造力下降。

app_icon
ChainCatcher 与创新者共建Web3世界