掃碼下載
BTC $76,067.71 -0.90%
ETH $2,279.92 +0.26%
BNB $622.62 +0.28%
XRP $1.38 -0.89%
SOL $83.41 -0.84%
TRX $0.3232 -0.49%
DOGE $0.0994 +2.32%
ADA $0.2462 +0.76%
BCH $445.88 -1.09%
LINK $9.21 +0.34%
HYPE $39.70 -4.85%
AAVE $96.51 -0.66%
SUI $0.9200 -0.01%
XLM $0.1629 -1.28%
ZEC $334.07 -4.65%
BTC $76,067.71 -0.90%
ETH $2,279.92 +0.26%
BNB $622.62 +0.28%
XRP $1.38 -0.89%
SOL $83.41 -0.84%
TRX $0.3232 -0.49%
DOGE $0.0994 +2.32%
ADA $0.2462 +0.76%
BCH $445.88 -1.09%
LINK $9.21 +0.34%
HYPE $39.70 -4.85%
AAVE $96.51 -0.66%
SUI $0.9200 -0.01%
XLM $0.1629 -1.28%
ZEC $334.07 -4.65%

Vitalik 分享本地私有 LLM 方案,強調隱私與安全優先

2026-04-02 14:53:42
收藏

ChainCatcher 消息,Vitalik Buterin 發文分享其截至 2026 年 4 月的本地化、私有化 LLM 部署方案,核心目標是將隱私、安全與自主可控作為前提,儘量減少遠程模型及外部服務接觸個人數據的機會,並透過本地推理、文件本地存儲及沙箱隔離等方式降低數據洩露、模型越獄及惡意內容利用風險。

在硬體方面,其測試了搭載 NVIDIA 5090 GPU 的筆記本、AMD Ryzen AI Max Pro 128 GB 統一記憶體設備及 DGX Spark 等方案,並使用 Qwen3.5 35B 與 122B 模型進行本地推理。

其中,5090 筆記本在 35B 模型下可達約 90 tokens/s,AMD 方案約 51 tokens/s,DGX Spark 約 60 tokens/s。Vitalik 表示,其更傾向於基於高性能筆記本構建本地 AI 環境,同時使用 llama-server、llama-swap 及 NixOS 等工具搭建整體工作流。

app_icon
ChainCatcher 與創新者共建Web3世界