ヴィタリック:スーパーインテリジェントAIの存在リスクは急いで推進すべきではない
ChainCatcher のメッセージ、イーサリアムの共同創設者である Vitalik が X プラットフォームで AI に関する議論に返信した際、スーパーインテリジェントな AI は非常にリスクが高く、急いで推進すべきではなく、推進しようとする人々に反対すべきだと述べました。$7T のサーバー規模を構築しないでください。
消費者ハードウェア上で動作するオープンモデルの強力なエコシステムは、将来の人工知能によって捕らえられる価値が高度に集中し、大多数の人間の思考が少数の中央サーバーによって制御されるのを防ぐための重要なヘッジです。企業の傲慢さや軍隊と比較して、このようなモデルの破壊リスクははるかに低いです。
人工知能を「小」および「大」のカテゴリーに分け、「小」カテゴリーを免除し「大」カテゴリーを規制することは、原則として合理的に思えます。また、405B の規模は消費者ハードウェアよりも大きいですが(70B はそうではありません;私はそれを実行できます)。しかし、懸念されるのは、現在の多くの提案が最終的にすべてを「大」カテゴリーに滑り込ませることになることです。
関連タグ
関連タグ








