AI 발전사를 통해 본 “AI + DePin” 개념 하의 IO.NET
저자: Biteye 핵심 기여자 Fishery
편집: Biteye 핵심 기여자 Crush
커뮤니티: @BiteyeCN
io.net은 IO Research가 개발한 Solana 기반의 탈중앙화 AI 컴퓨팅 플랫폼으로, 최근 자금 조달 라운드에서 10억 달러의 FDV 평가를 달성했습니다.
io.net은 올해 3월 Hack VC의 주도로 3천만 달러의 A 라운드 자금을 조달했으며, Multicoin Capital, 6th Man Ventures, Solana Ventures, OKX Ventures, Aptos Labs, Delphi Digital, The Sandbox 및 The Sandbox의 Sebastian Borget 등이 참여했습니다.
io.net은 AI 및 머신러닝 회사들을 위해 GPU 자원을 집계하는 데 집중하며, 더 낮은 비용과 더 빠른 납기를 통해 서비스를 제공하는 데 전념하고 있습니다. 지난해 11월 시작 이후, io.net은 25,000개 이상의 GPU로 성장했으며, AI 및 머신러닝 회사들을 위해 40,000시간 이상의 컴퓨팅 시간을 처리했습니다.
io.net의 비전은 전 세계적으로 탈중앙화된 AI 컴퓨팅 네트워크를 구축하여 AI 및 머신러닝 팀/기업과 전 세계의 강력한 GPU 자원 간의 생태계를 구축하는 것입니다.
이 생태계에서 AI 컴퓨팅 자원은 상품화되어, 수요와 공급 양측은 더 이상 자원이 부족해 고민하지 않게 됩니다. 앞으로 io.net은 IO 모델 상점 및 서버리스 추론, 클라우드 게임, 픽셀 스트리밍과 같은 고급 추론 기능에 대한 접근을 제공할 예정입니다.
01.**** *비즈니스 배경*
io.net의 비즈니스 논리를 소개하기에 앞서, 탈중앙화 컴퓨팅 분야를 두 가지 차원에서 이해해야 합니다: 하나는 AI 컴퓨팅의 발전 과정이고, 다른 하나는 과거에 탈중앙화 컴퓨팅을 사용한 사례를 이해하는 것입니다.
AI 컴퓨팅의 발전 과정
AI 컴퓨팅의 발전 궤적을 몇 가지 주요 시점을 통해 그려볼 수 있습니다:
1. 머신러닝의 초기 (1980년대 - 2000년대 초)
이 시기에는 머신러닝 방법이 주로 비교적 간단한 모델에 집중되었습니다. 예를 들어, 결정 트리, 서포트 벡터 머신(SVM) 등이 있습니다. 이러한 모델의 계산 요구는 상대적으로 낮아 당시의 개인 컴퓨터나 소형 서버에서 실행할 수 있었습니다. 데이터 세트는 상대적으로 작았으며, 특성 엔지니어링과 모델 선택이 주요 과제였습니다.
시간대: 1980년대부터 2000년대 초까지
계산 요구: 상대적으로 낮음, 개인 컴퓨터나 소형 서버로 충분함.
계산 하드웨어: CPU가 계산 자원을 주도함.
2. 딥러닝의 부상 (2006년 - 현재)
2006년, 딥러닝 개념이 다시 도입되었으며, 이 시기는 Hinton 등의 연구로 상징됩니다. 이후 딥 신경망, 특히 합성곱 신경망(CNN)과 순환 신경망(RNN)의 성공적인 응용은 이 분야의 돌파구를 나타냅니다. 이 단계에서는 계산 자원에 대한 요구가 크게 증가했으며, 특히 이미지 및 음성과 같은 대규모 데이터 세트를 처리할 때 더욱 두드러졌습니다.
시간대:
ImageNet 대회(2012년): AlexNet의 이 대회에서의 승리는 딥러닝 역사에서 상징적인 사건으로, 이미지 인식 분야에서 딥러닝의 엄청난 잠재력을 처음으로 보여주었습니다.
AlphaGo(2016년): Google DeepMind의 AlphaGo가 세계 바둑 챔피언 이세돌을 이긴 것은 AI의 가장 빛나는 순간 중 하나로, 복잡한 전략 게임에서의 딥러닝 응용을 보여주었으며, 고도로 복잡한 문제 해결 능력을 세계에 증명했습니다.
계산 요구: 크게 증가, 복잡한 딥 신경망을 훈련하기 위해 더 강력한 계산 자원이 필요함.
계산 하드웨어: GPU가 딥러닝 훈련의 핵심 하드웨어로 자리 잡기 시작했으며, 이는 CPU보다 병렬 처리에서 훨씬 우수합니다.
3. 대형 언어 모델 시대 (2018년 - 현재)
BERT(2018년)와 GPT 기술(2018년 이후)의 출현으로 대형 모델이 AI 분야를 지배하기 시작했습니다. 이러한 모델은 수십억에서 수조 개의 매개변수를 가지고 있으며, 계산 자원에 대한 요구는 전례 없는 수준에 도달했습니다. 이러한 모델을 훈련하는 데는 대량의 GPU 또는 더 전문화된 TPU가 필요하며, 많은 전력과 냉각 시설 지원이 필요합니다.
시간대: 2018년부터 현재까지.
계산 요구: 매우 높음, 대량의 GPU 또는 TPU가 필요하며 이에 따른 인프라 지원이 필요함.
계산 하드웨어: GPU와 TPU 외에도 대형 머신러닝 모델 최적화를 위한 전용 하드웨어가 등장하기 시작했습니다. 예를 들어, Google의 TPU, Nvidia의 A, H 시리즈 등이 있습니다.
지난 30년간 AI의 계산 자원 요구가 기하급수적으로 증가한 것을 보면, 초기 머신러닝은 낮은 요구를 보였고, 딥러닝 시대는 요구를 증가시켰으며, AI 대형 모델은 이 요구를 극대화했습니다. 우리는 계산 하드웨어의 수량과 성능이 크게 향상되는 것을 목격했습니다.
이러한 성장은 전통적인 데이터 센터의 규모 확대와 GPU와 같은 하드웨어 성능 향상에만 국한되지 않고, 높은 투자 장벽과 풍부한 수익 기대를 통해 인터넷 거대 기업 간의 경쟁을 공개화했습니다.
전통적인 중앙 집중식 GPU 컴퓨팅 센터는 초기 투자에 비싼 하드웨어 구매(예: GPU 자체), 데이터 센터 건설 또는 임대 비용, 냉각 시스템 및 유지 관리 인력 비용이 필요합니다.
반면, io.net이 구축한 탈중앙화 컴퓨팅 플랫폼 프로젝트는 구축 비용에서 명확한 이점을 가지고 있으며, 초기 투자 및 운영 비용을 크게 줄일 수 있어 소규모 팀이 자신의 AI 모델을 구축할 수 있는 가능성을 열어줍니다.
탈중앙화 GPU 프로젝트는 이미 존재하는 분산 자원을 활용하여 하드웨어 및 인프라 구축에 집중 투자할 필요가 없습니다. 개인 및 기업은 유휴 GPU 자원을 네트워크에 기여할 수 있으며, 이는 고성능 컴퓨팅 자원의 집중 구매 및 배포 필요성을 줄여줍니다.
또한 운영 비용 측면에서 전통적인 GPU 클러스터는 지속적인 유지 관리, 전력 및 냉각 비용이 필요합니다. 그러나 탈중앙화 GPU 프로젝트는 분산 자원을 활용하여 이러한 비용을 각 노드에 분산시켜 단일 조직의 운영 부담을 줄일 수 있습니다.
io.net의 문서에 따르면, io.net은 독립 데이터 센터, 암호화폐 채굴자 및 Filecoin, Render 등 다른 하드웨어 네트워크에서 충분히 활용되지 않은 GPU 자원을 집계하여 운영 비용을 크게 줄였습니다. 여기에 Web3의 경제적 인센티브 전략이 더해져 io.net은 가격 책정에서 큰 이점을 갖게 되었습니다.

탈중앙화 컴퓨팅
역사를 되돌아보면, 과거에 몇몇 탈중앙화 컴퓨팅 프로젝트가 상당한 성공을 거두었으며, 경제적 인센티브 없이도 많은 참여자를 끌어모으고 중요한 성과를 창출했습니다. 예를 들어:
Folding@home: 이는 스탠포드 대학교가 시작한 프로젝트로, 분산 컴퓨팅을 통해 단백질 접힘 과정을 시뮬레이션하여 과학자들이 질병 메커니즘을 이해하는 데 도움을 주고, 특히 단백질 접힘 이상과 관련된 질병인 알츠하이머병, 헌팅턴병 등을 연구하는 데 기여합니다. COVID-19 팬데믹 기간 동안 Folding@home 프로젝트는 대량의 계산 자원을 모아 코로나바이러스 연구를 지원했습니다.
BOINC (Berkeley Open Infrastructure for Network Computing)**: 이는 다양한 유형의 자원봉사자 및 그리드 컴퓨팅 프로젝트를 지원하는 오픈 소스 소프트웨어 플랫폼으로, 천문학, 의학, 기후 과학 등 여러 분야를 포함합니다. 사용자는 유휴 계산 자원을 기여하여 다양한 연구 프로젝트에 참여할 수 있습니다.
이러한 프로젝트는 탈중앙화 컴퓨팅의 실행 가능성을 입증했을 뿐만 아니라, 탈중앙화 컴퓨팅의 거대한 발전 잠재력을 보여주었습니다.
사회 각계에서 활용되지 않은 계산 자원을 동원함으로써 계산 능력을 크게 향상시킬 수 있으며, Web3의 경제 모델을 혁신적으로 도입하면 경제적으로도 더 큰 비용 효율성을 실현할 수 있습니다. Web3 경험은 합리적인 인센티브 메커니즘이 사용자 참여를 유도하고 유지하는 데 중요하다는 것을 보여줍니다.
인센티브 모델을 도입함으로써 상호 이익을 추구하는 커뮤니티 환경을 구축할 수 있으며, 이는 비즈니스 규모 확대를 촉진하고 기술 발전을 긍정적으로 순환시킬 수 있습니다.
따라서 io.net은 인센티브 메커니즘을 도입하여 광범위한 참여자를 유치하고 함께 계산 능력을 기여하여 강력한 탈중앙화 컴퓨팅 네트워크를 형성할 수 있습니다.
Web3의 경제 모델과 탈중앙화 컴퓨팅의 잠재력은 io.net에 강력한 성장 동력을 제공하며, 효율적인 자원 활용과 비용 최적화를 실현합니다. 이는 기술 혁신을 촉진할 뿐만 아니라 참여자에게 가치를 제공하여 io.net이 AI 분야의 경쟁에서 두각을 나타내고, 거대한 발전 잠재력과 시장 공간을 확보할 수 있게 합니다.
02.**** *io.net 기술*
클러스터
GPU 클러스터는 복잡한 계산을 통해 여러 GPU를 네트워크로 연결하여 협력하는 계산 클러스터를 형성하는 것으로, 이러한 방법은 복잡한 AI 작업의 효율성과 능력을 크게 향상시킵니다.
클러스터 컴퓨팅은 AI 모델의 훈련 속도를 가속화할 뿐만 아니라 대규모 데이터 세트를 처리하는 능력을 강화하여 AI 응용 프로그램을 더욱 유연하고 확장 가능하게 만듭니다.
전통적인 인터넷에서 AI 모델을 훈련하는 과정에서는 대규모 GPU 클러스터가 필요합니다. 그러나 이러한 클러스터 컴퓨팅 모델을 탈중앙화로 전환할 때 일련의 기술적 도전이 발생합니다.
전통적인 인터넷 회사의 AI 컴퓨팅 클러스터와 비교할 때, 탈중앙화 GPU 클러스터 컴퓨팅은 더 많은 문제에 직면하게 됩니다. 예를 들어, 노드가 서로 다른 지리적 위치에 분포할 수 있어 네트워크 지연 및 대역폭 제한 문제를 초래할 수 있으며, 이는 노드 간 데이터 동기화 속도에 영향을 미쳐 전체 계산 효율성에 영향을 줄 수 있습니다.
또한, 각 노드 간 데이터의 일관성과 실시간 동기화를 유지하는 방법도 계산 결과의 정확성을 보장하는 데 매우 중요합니다. 따라서 탈중앙화 컴퓨팅 플랫폼은 효율적인 데이터 관리 및 동기화 메커니즘을 개발해야 합니다.
분산된 계산 자원을 관리하고 조정하여 계산 작업이 효과적으로 완료될 수 있도록 하는 것도 탈중앙화 클러스터 컴퓨팅이 해결해야 할 문제입니다.
io.net은 Ray와 Kubernetes를 통합하여 탈중앙화된 클러스터 컴퓨팅 플랫폼을 구축했습니다.
Ray는 분산 컴퓨팅 프레임워크로, 여러 노드에서 계산 작업을 실행하는 역할을 하며, 데이터 처리 및 머신러닝 모델 훈련 과정을 최적화하여 각 노드에서 작업이 효율적으로 실행되도록 보장합니다.
Kubernetes는 이 과정에서 중요한 관리 역할을 하며, 컨테이너 애플리케이션의 배포 및 관리를 자동화하여 계산 자원이 필요에 따라 동적으로 할당되고 조정되도록 보장합니다.
이 시스템에서 Ray와 Kubernetes의 결합은 동적이고 유연한 계산 환경을 실현합니다. Ray는 계산 작업이 적절한 노드에서 효율적으로 실행되도록 보장하고, Kubernetes는 전체 시스템의 안정성과 확장성을 보장하여 노드의 추가 또는 제거를 자동으로 처리합니다.
이러한 협력 작용은 io.net이 탈중앙화된 환경에서 일관되고 신뢰할 수 있는 계산 서비스를 제공할 수 있게 하며, 데이터 처리 및 모델 훈련 측면에서 사용자들의 다양한 요구를 충족시킬 수 있습니다.
이러한 방식으로 io.net은 자원 사용을 최적화하고 운영 비용을 줄이며 시스템의 유연성과 사용자 제어도를 향상시켰습니다. 사용자는 기본 자원의 구체적인 구성 및 관리 세부 사항에 대해 걱정할 필요 없이 다양한 규모의 계산 작업을 쉽게 배포하고 관리할 수 있습니다.
이러한 탈중앙화된 계산 모델은 Ray와 Kubernetes의 강력한 기능을 활용하여 io.net 플랫폼이 복잡하고 대규모 계산 작업을 처리할 때 효율성과 신뢰성을 보장합니다.
프라이버시
탈중앙화 클러스터의 작업 조정 논리는 데이터 센터의 클러스터 논리보다 훨씬 복잡한 사용 사례를 가지고 있으며, 데이터와 계산 작업의 네트워크 전송이 잠재적인 보안 위험을 증가시킴에 따라, 탈중앙화 클러스터는 보안성과 프라이버시 보호를 고려해야 합니다.
io.net은 메쉬(mesh) 프라이빗 네트워크 채널의 탈중앙화 특성을 활용하여 네트워크의 보안성과 프라이버시를 향상시킵니다. 이러한 네트워크에서는 중앙 집중점이나 게이트웨이가 없기 때문에 네트워크가 직면하는 단일 실패 위험이 크게 줄어들며, 일부 노드에 문제가 발생하더라도 전체 네트워크는 여전히 운영될 수 있습니다.
데이터는 메쉬 네트워크 내에서 여러 경로를 통해 전송되며, 이러한 설계는 데이터 출처나 목적지를 추적하기 어렵게 만들어 사용자 익명성을 강화합니다.
또한, 데이터 패킷 채우기 및 시간 혼란과 같은 기술(트래픽 혼란)을 채택함으로써, 메쉬 VPN 네트워크는 데이터 흐름 패턴을 더욱 모호하게 만들어 도청자가 트래픽 패턴을 분석하거나 특정 사용자 또는 데이터 흐름을 식별하기 어렵게 만듭니다.
io.net의 프라이버시 메커니즘이 효과적으로 프라이버시 문제를 해결할 수 있는 이유는 이들이 복잡하고 변동성이 큰 데이터 전송 환경을 공동으로 구축하여 외부 관찰자가 유용한 정보를 포착하기 어렵게 만들기 때문입니다.
동시에 탈중앙화 구조는 모든 데이터가 단일 지점을 통과하는 위험을 피하며, 이러한 설계는 시스템의 강인성을 높이고 공격 가능성을 줄입니다. 또한 데이터의 다중 경로 전송과 트래픽 혼란 전략은 사용자 데이터 전송에 추가적인 보호층을 제공하여 io.net 네트워크의 전체 프라이버시를 강화합니다.
03.**** *경제 모델*
IO는 io.net 네트워크의 원주율 암호화폐 및 프로토콜 토큰으로, 생태계 내 두 가지 주요 주체인 AI 스타트업 및 개발자와 계산 자원 제공자의 요구를 충족할 수 있습니다.
AI 스타트업 및 개발자에게 IO는 클러스터 배포의 결제 프로세스를 간소화하여 더욱 편리하게 만들어 줍니다. 그들은 또한 달러에 연동된 IOSD Credits를 사용하여 네트워크에서 계산 작업의 거래 수수료를 지불할 수 있습니다. io.net에 배포된 각 모델은 미세한 IO 코인 거래를 통해 추론을 수행해야 합니다.
공급자, 특히 GPU 자원 제공자에게 IO 코인은 그들의 자원이 공정한 보상을 받을 수 있도록 보장합니다. GPU가 임대될 때의 직접적인 수익이든, 유휴 상태에서 네트워크 모델 추론에 참여할 때의 수동적 수익이든, IO 코인은 GPU의 모든 기여에 대해 보상을 제공합니다.
io.net 생태계에서 IO 코인은 결제 및 인센티브 매개체일 뿐만 아니라 거버넌스의 핵심입니다. 이는 모델 개발, 훈련, 배포 및 애플리케이션 개발의 모든 단계가 더욱 투명하고 효율적이며, 참여자 간의 상호 이익을 보장합니다.
이러한 방식으로 IO 코인은 생태계 내 참여와 기여를 촉진할 뿐만 아니라 AI 스타트업과 엔지니어에게 포괄적인 지원 플랫폼을 제공하여 AI 기술의 발전과 응용을 촉진합니다.
io.net은 인센티브 모델에 많은 노력을 기울여 전체 생태계가 긍정적으로 순환할 수 있도록 보장합니다. io.net의 목표는 네트워크 내 각 GPU 카드에 대해 달러로 표시된 직접 시간 요금을 설정하는 것입니다. 이를 위해 명확하고 공정하며 탈중앙화된 GPU/CPU 자원 가격 책정 메커니즘을 제공해야 합니다.
양면 시장으로서 인센티브 모델의 핵심은 두 가지 도전을 해결하는 것입니다: 한편으로는 GPU/CPU 계산 능력을 임대하는 높은 비용을 낮추는 것이며, 이는 AI 및 ML 계산 능력 수요의 핵심 지표입니다. 다른 한편으로는 GPU 클라우드 서비스 제공자에서 GPU 노드를 임대하는 데 있어 부족 문제를 해결하는 것입니다.
따라서 설계 원칙에서 수요 측면의 고려 사항에는 경쟁자의 가격 책정 및 가용성이 포함되어, 시장에서 경쟁력 있고 매력적인 선택을 제공하고, 피크 시간대 및 자원이 부족할 때 가격을 조정합니다.
계산 자원 공급 측면에서 io.net은 두 가지 주요 시장에 주목하고 있습니다: 게이머와 암호화 GPU 채굴자입니다. 게이머는 고급 하드웨어와 빠른 인터넷 연결을 가지고 있지만, 일반적으로 한 개의 GPU 카드만 보유하고 있습니다. 반면 암호화 GPU 채굴자는 대량의 GPU 자원을 보유하고 있지만, 인터넷 연결 속도와 저장 공간의 제한에 직면할 수 있습니다.
따라서 계산 자원 가격 책정 모델은 하드웨어 성능, 인터넷 대역폭, 경쟁자 가격 책정, 공급 가용성, 피크 시간대 조정, 약속 가격 및 위치 차이와 같은 다차원 요소를 포함합니다. 또한 하드웨어가 다른 작업 증명 암호화 채굴을 수행할 때의 최적 이익도 고려해야 합니다.
앞으로 io.net은 완전 탈중앙화 가격 책정 솔루션을 제시하고, 채굴자 하드웨어를 위해 speedtest.net과 유사한 벤치마크 도구를 만들어 완전 탈중앙화되고 공정하며 투명한 시장을 구축할 것입니다.
04.**** *참여 방법*
io.net은 Ignition 활동을 시작했습니다. 이는 io.net 커뮤니티 인센티브 프로그램의 첫 번째 단계로, IO 네트워크의 성장을 가속화하는 것을 목표로 합니다.
계획은 총 세 개의 보상 풀로 구성되어 있으며, 이들은 완전히 독립적입니다.
작업자 보상(GPU)
은하 임무 보상
Discord 역할 보상(에어드랍 티어 역할)
이 세 개의 보상 풀은 완전히 독립적이며, 참여자는 이 세 개의 보상 풀에서 각각 보상을 받을 수 있으며, 동일한 지갑을 각 보상 풀과 연결할 필요가 없습니다.
GPU 노드 보상
이미 연결된 노드에 대해, 에어드랍 포인트는 2023년 11월 4일부터 2024년 4월 25일 활동 종료 시까지 계산됩니다. Ignition 활동 종료 시, 사용자가 획득한 에어드랍 포인트는 에어드랍 보상으로 전환됩니다.
에어드랍 포인트는 네 가지 측면을 고려합니다:
A. 고용된 시간(작업 시간 비율 - RJD): 2023년 11월 4일부터 활동 종료 시까지 고용된 총 시간.
B. 대역폭(대역폭 - BW): 대역폭 속도 범위에 따라 노드의 대역폭을 등급 분류합니다:
저속: 다운로드 속도 100MB/초, 업로드 속도 75MB/초.
중속: 다운로드 속도 400MB/초, 업로드 속도 300MB/초.
고속: 다운로드 속도 800MB/초.
C. GPU 모델(GPU 모델 - GM): GPU 모델에 따라 결정되며, 성능이 높은 GPU일수록 포인트가 많습니다.
D. 성공적인 운영 시간(Uptime - UT): 2023년 11월 4일부터 작업자에 연결된 이후 활동 종료 시까지의 총 성공적인 운영 시간.
에어드랍 포인트는 2024년 4월 1일경에 사용자에게 제공될 예정입니다.
은하 임무 보상(Galxe)
은하 임무 연결 주소: https://galxe.com/io.net/campaign/GCD5ot4oXPAt
Discord 역할 보상
이 보상은 io.net의 커뮤니티 관리 팀이 감독하며, 사용자가 Discord에서 올바른 Solana 지갑 주소를 제출해야 합니다.
사용자의 기여도, 활동성, 콘텐츠 창작 등 다른 활동에 참여하여 해당 에어드랍 티어 역할 등급을 획득할 수 있습니다.
05.**** *요약*
전반적으로 io.net과 유사한 탈중앙화 AI 컴퓨팅 플랫폼은 AI 컴퓨팅의 새로운 장을 열고 있으며, 기술 구현의 복잡성, 네트워크의 안정성 및 데이터 보안성의 도전에 직면해 있습니다. 그러나 io.net은 AI 비즈니스 모델을 근본적으로 변화시킬 잠재력을 가지고 있습니다. 이러한 기술이 성숙하고 계산 커뮤니티가 확대됨에 따라, 탈중앙화 AI 컴퓨팅은 AI 혁신과 보급을 촉진하는 핵심 힘이 될 수 있습니다.















