扫码下载
BTC $76,672.72 -1.74%
ETH $2,281.34 -2.78%
BNB $622.57 -1.39%
XRP $1.39 -2.31%
SOL $84.39 -2.51%
TRX $0.3251 +0.35%
DOGE $0.0977 -1.04%
ADA $0.2453 -2.57%
BCH $447.56 -0.83%
LINK $9.21 -2.55%
HYPE $41.59 +0.60%
AAVE $96.64 +0.83%
SUI $0.9223 -2.12%
XLM $0.1647 -3.28%
ZEC $355.34 +0.10%
BTC $76,672.72 -1.74%
ETH $2,281.34 -2.78%
BNB $622.57 -1.39%
XRP $1.39 -2.31%
SOL $84.39 -2.51%
TRX $0.3251 +0.35%
DOGE $0.0977 -1.04%
ADA $0.2453 -2.57%
BCH $447.56 -0.83%
LINK $9.21 -2.55%
HYPE $41.59 +0.60%
AAVE $96.64 +0.83%
SUI $0.9223 -2.12%
XLM $0.1647 -3.28%
ZEC $355.34 +0.10%

Vitalik 分享本地私有 LLM 方案,强调隐私与安全优先

2026-04-02 14:53:42
收藏

ChainCatcher 消息,Vitalik Buterin 发文分享其截至 2026 年 4 月的本地化、私有化 LLM 部署方案,核心目标是将隐私、安全与自主可控作为前提,尽量减少远程模型及外部服务接触个人数据的机会,并通过本地推理、文件本地存储及沙箱隔离等方式降低数据泄露、模型越狱及恶意内容利用风险。

在硬件方面,其测试了搭载 NVIDIA 5090 GPU 的笔记本、AMD Ryzen AI Max Pro 128 GB 统一内存设备及 DGX Spark 等方案,并使用 Qwen3.5 35B 与 122B 模型进行本地推理。

其中,5090 笔记本在 35B 模型下可达约 90 tokens/s,AMD 方案约 51 tokens/s,DGX Spark 约 60 tokens/s。Vitalik 表示,其更倾向于基于高性能笔记本构建本地 AI 环境,同时使用 llama-server、llama-swap 及 NixOS 等工具搭建整体工作流。

app_icon
ChainCatcher 与创新者共建Web3世界