지난 해 a16z, Sequoia, Lightspeed, Polychain과 같은 주요 VC가 수천만 달러를 베팅하는 등 암호화폐 시장에서 AI 스토리텔링이 붐을 일으키고 있습니다. 과학적 연구 배경과 명문 학교 배경을 갖춘 많은 고품질 팀도 Web3에 진출하여 분산형 AI를 향해 나아가고 있습니다. 향후 12개월 동안 우리는 이러한 고품질 프로젝트의 점진적인 구현을 목격하게 될 것입니다.
올해 10월 OpenAI는 66억 달러를 추가로 모금했으며 AI 트랙의 군비 경쟁은 전례 없는 수준에 이르렀습니다. 소매 투자자들은 Nvidia와 하드웨어에 대한 직접 투자 외에 돈을 벌 수 있는 기회가 거의 없습니다. 이러한 열정은 특히 최근 AI Meme에 의해 개를 잡는 사람들의 물결이 계속해서 Crypto로 확산될 것입니다. 기존 상장 토큰이든 새로운 스타 프로젝트이든 Crypto x AI는 여전히 강력한 추진력을 가질 것으로 예상됩니다.
분산형 AI 선도 프로젝트인 Hyperbolic이 최근 Polychain과 Lightspeed로부터 2차 투자를 받은 만큼, 최근 선도 기관으로부터 대규모 자금을 조달한 6개 프로젝트를 시작으로 Crypto x AI 인프라 프로젝트의 개발 맥락을 정리하고, 탈중앙화를 기대한다 AI의 미래 기술이 어떻게 인간을 보호할 수 있을지.
Hyperbolic: 최근 Variant와 Polychain이 공동으로 주도하는 1,200만 달러 규모의 시리즈 A 자금 조달이 완료되었다고 발표했습니다. Bankless Ventures, Chapter One, Lightspeed Faction, IOSG, Blockchain Builders Fund, Alumni Ventures, Samsung Next 등 유명 VC 참여.
PIN AI: a16z CSX, Hack VC 및 Blockchain Builders Fund(Stanford Blockchain Accelerator)와 같은 유명 VC의 투자를 통해 1,000만 달러의 사전 시드 자금 조달을 완료했습니다.
Vana: Paradigm, Polychain, Coinbase 등 유명 VC의 투자를 받아 시리즈 A 파이낸싱 1,800만 달러, 전략적 파이낸싱 500만 달러를 완료했습니다.
Sahara: Binance Labs, Pantera Capital 및 Polychain과 같은 유명 VC의 투자를 통해 시리즈 A 파이낸싱에서 4,300만 달러를 완료했습니다.
Aethir: 2023년에 1억 5천만 달러의 평가액으로 900만 달러의 Pre-A 자금 조달을 완료하고 2024년에 약 1억 2천만 달러의 노드 판매를 완료합니다.
IO.NET: Hack VC, Delphi Digital 및 Foresight Ventures와 같은 유명 VC의 투자를 통해 시리즈 A 파이낸싱에서 3천만 달러를 완료했습니다.
AI의 3대 요소: 데이터, 컴퓨팅 파워, 알고리즘
마르크스는 『자본론』에서 생산수단, 생산성, 생산관계가 사회적 생산의 핵심 요소라고 말했습니다. 비유해 보면 인공지능 세계에도 세 가지 핵심 요소가 있다는 것을 알 수 있다.
AI 시대에는 컴퓨팅 파워와 데이터, 알고리즘이 핵심이다.
AI에서 데이터는 생산 수단이다. 예를 들어, 매일 휴대폰으로 타이핑하고 채팅하고, 사진을 찍어 모멘트에 게시하는 것들은 모두 AI의 '구성요소'이자 AI가 작동하는 기반이다.
이 데이터는 구조화된 숫자 정보부터 구조화되지 않은 이미지, 오디오, 비디오, 텍스트까지 다양합니다. 데이터가 없으면 AI 알고리즘은 학습하고 최적화할 수 없습니다. 데이터의 품질, 수량, 범위, 다양성은 AI 모델의 성능에 직접적인 영향을 미치며 특정 작업을 효율적으로 완료할 수 있는지 여부를 결정합니다.
AI에서 컴퓨팅 능력은 생산성입니다. 컴퓨팅 파워는 AI 알고리즘을 실행하는 데 필요한 기본 컴퓨팅 리소스입니다. 컴퓨팅 파워가 강할수록 데이터 처리 속도는 더 빠르고 좋아집니다. 컴퓨팅 성능의 강도는 AI 시스템의 효율성과 기능을 직접적으로 결정합니다.
강력한 컴퓨팅 성능은 모델의 훈련 시간을 단축할 뿐만 아니라 보다 복잡한 모델 아키텍처를 지원하여 AI의 지능 수준을 향상시킬 수 있습니다. OpenAI의 ChatGPT와 같은 대규모 언어 모델은 강력한 컴퓨팅 클러스터에서 훈련하는 데 몇 달이 걸립니다.
AI에서 알고리즘은 생산 관계입니다. 알고리즘은 AI의 핵심입니다. 알고리즘의 설계는 데이터와 컴퓨팅 성능이 함께 작동하는 방식을 결정하며 데이터를 지능적인 결정으로 변환하는 핵심입니다. 강력한 컴퓨팅 성능의 지원으로 알고리즘은 데이터의 패턴을 더 잘 학습하고 이를 실제 문제에 적용할 수 있습니다.
이러한 관점에서 데이터는 AI의 연료, 컴퓨팅 파워는 AI의 엔진, 알고리즘은 AI의 영혼과 같습니다. AI = 데이터 + 컴퓨팅 파워 + 알고리즘 AI 트랙에서 두각을 나타내고 싶은 스타트업은 세 가지 요소를 모두 갖췄거나 그 중 하나에서 독보적인 우위를 보여야 한다.
AI가 다중 양식(모델은 다양한 형태의 정보를 기반으로 하며 텍스트, 이미지, 오디오 등을 동시에 처리할 수 있음)으로 발전함에 따라 컴퓨팅 성능과 데이터에 대한 수요는 기하급수적으로 증가할 것입니다.
컴퓨팅 능력이 부족한 시대에 암호화폐는 AI에 힘을 실어줍니다
ChatGPT의 출현은 인공 지능의 혁명을 촉발했을 뿐만 아니라 의도치 않게 컴퓨팅 성능과 컴퓨팅 하드웨어를 기술 검색의 최전선으로 밀어 넣었습니다.
2023년 '천개 모델 전쟁' 이후, 2024년에는 AI 대형 모델에 대한 시장의 이해가 계속 심화되면서 대형 모델을 둘러싼 글로벌 경쟁은 '능력 향상'과 '시나리오 개발'이라는 두 가지 경로로 나뉘어지고 있다.
대형 모델 성능 향상 측면에서 시장의 가장 큰 기대는 OpenAI가 올해 출시할 것이라는 소문이 있는 GPT-5입니다. 대형 모델이 진정한 멀티모달 단계로 추진될 것이라는 기대가 큽니다.
대형 모델 장면 개발 측면에서 AI 거대 기업은 애플리케이션 가치를 창출하기 위해 대형 모델을 산업 시나리오에 더 빠르게 통합하는 것을 추진하고 있습니다. 예를 들어 AI Agent, AI 검색 등 분야에서의 시도는 대형 모델을 활용해 기존 사용자 경험의 개선을 지속적으로 심화시키고 있습니다.
이 두 가지 경로 뒤에는 의심할 여지 없이 컴퓨팅 성능에 대한 더 높은 수요가 있습니다. 대규모 모델 기능의 향상은 주로 짧은 시간에 엄청난 고성능 컴퓨팅 성능을 사용해야 하는 교육을 기반으로 하며, 대규모 모델 시나리오의 적용은 주로 추론을 기반으로 하며 컴퓨팅 성능에 대한 성능 요구 사항은 상대적으로 낮습니다. , 그러나 안정성과 짧은 대기 시간이 더 강조됩니다.
2018년 OpenAI가 추정한 대로, 2012년부터 대형 모델을 훈련하는 데 필요한 컴퓨팅 성능은 3.5개월마다 두 배씩 증가했으며, 필요한 컴퓨팅 성능도 매년 최대 10배씩 증가했습니다. 동시에 기업의 실제 비즈니스 시나리오에 대규모 모델과 애플리케이션이 점점 더 많이 배포됨에 따라 추론 컴퓨팅 성능에 대한 수요도 증가하고 있습니다.
문제는 전 세계적으로 고성능 GPU에 대한 수요가 급증하고 있지만 공급이 이를 따라가지 못하고 있다는 점이다. 엔비디아의 H100 칩을 예로 들면, 2023년에는 43만대 이상의 공급 격차로 심각한 공급 부족을 겪었습니다. 성능은 2.5배 향상되고 가격은 25%만 더 비싼 곧 출시될 B100 칩은 다시 공급 부족을 경험할 가능성이 높습니다. 이러한 수요와 공급의 불균형으로 인해 컴퓨팅 성능 비용이 다시 상승하게 되어 많은 중소기업이 높은 컴퓨팅 비용을 감당하기 어렵게 되어 AI 분야의 개발 잠재력이 제한됩니다.
OpenAI, Google, Meta와 같은 대규모 기술 기업은 강력한 리소스 확보 능력을 보유하고 있으며 자체 컴퓨팅 인프라를 구축할 수 있는 자금과 리소스를 보유하고 있습니다. 하지만 아직 자금을 조달하지 못한 AI 스타트업은 말할 것도 없고 AI 스타트업은 어떨까요?
실제로 eBay, Amazon 및 기타 플랫폼에서 중고 GPU를 구입하는 것도 가능한 방법입니다. 비용은 절감되지만 성능 문제와 장기적인 수리 비용이 발생할 수 있습니다. GPU가 부족한 시대에 인프라 구축은 결코 스타트업을 위한 최적의 솔루션이 아닐 수 있습니다.
필요에 따라 임대할 수 있는 GPU 클라우드 제공업체가 있더라도 높은 가격도 큰 문제입니다. 예를 들어, 50개의 GPU가 필요한 경우 하루에 25개를 실행하는 데 Nvidia A100의 가격이 약 80달러입니다. 현재 컴퓨팅 파워 비용만 따지면 월 80 x 50 x 25 = 100,000달러에 달합니다.
이는 DePIN을 기반으로 한 분산형 컴퓨팅 파워 네트워크가 이러한 상황을 활용할 수 있는 기회를 제공하며 순조롭게 진행된다고 할 수 있습니다. IO.NET, Aethir 및 Hyperbolic이 그랬던 것처럼 AI 스타트업의 컴퓨팅 인프라 비용을 네트워크 자체로 전환합니다. 또한 전 세계 누구나 집에서 사용하지 않는 GPU를 연결할 수 있어 컴퓨팅 비용이 크게 절감됩니다.
Aethir: 컴퓨팅 성능을 보편적으로 만드는 글로벌 GPU 공유 네트워크
Aethir는 2023년 9월에 1억 5천만 달러의 평가액으로 900만 달러의 Pre-A 자금 조달을 완료했으며 올해 3월부터 5월까지 약 1억 2천만 달러의 Checker Node 노드 판매를 완료했습니다. Aethir는 Checker Node를 단 30분 만에 판매하여 6천만 달러의 수익을 올렸는데, 이는 해당 프로젝트에 대한 시장의 인식과 기대를 보여주는 것입니다.
Aethir의 핵심은 분산형 GPU 네트워크를 구축하여 모든 사람이 유휴 GPU 리소스를 기여하고 수익을 얻을 수 있는 기회를 갖는 것입니다. 이는 모든 사람의 컴퓨터를 모든 사람이 컴퓨팅 성능을 공유하는 작은 슈퍼컴퓨터로 바꾸는 것과 같습니다. 이것의 장점은 GPU 활용도를 크게 향상시키고 리소스 낭비를 줄일 수 있다는 것입니다. 또한 많은 컴퓨팅 성능을 필요로 하는 기업이나 개인이 필요한 리소스를 저렴한 비용으로 얻을 수 있다는 것입니다.
Aethir는 리소스 풀처럼 작동하는 분산형 DePIN 네트워크를 만들어 전 세계의 데이터 센터, 게임 스튜디오, 기술 회사 및 게이머에게 유휴 GPU를 연결하도록 장려합니다. 이러한 GPU 공급자는 네트워크에서 GPU를 자유롭게 켜고 끌 수 있으므로 유휴 상태일 때보다 활용도가 더 높습니다. 이를 통해 Aethir는 Web2 클라우드 제공업체보다 80% 이상 낮은 가격으로 컴퓨팅 성능 수요자에게 소비자 수준, 전문가 수준 및 데이터 센터 수준 GPU 리소스를 제공할 수 있습니다.
Aethir의 DePIN 아키텍처는 분산된 컴퓨팅 성능의 품질과 안정성을 보장합니다. 가장 핵심적인 세 부분은 다음과 같습니다.
컨테이너는 클라우드 서버 역할을 하며 애플리케이션 실행 및 렌더링을 담당하는 Aethir의 컴퓨팅 단위입니다. 각 작업은 작업 간의 상호 간섭을 피하면서 고객 작업을 실행하기 위해 상대적으로 격리된 환경으로 독립적인 컨테이너에 캡슐화됩니다.
인덱서는 주로 작업 요구 사항에 따라 사용 가능한 컴퓨팅 리소스를 즉시 일치시키고 예약하는 데 사용됩니다. 동시에 동적 리소스 조정 메커니즘은 전체 네트워크의 로드를 기반으로 다양한 작업에 리소스를 동적으로 할당하여 최고의 전체 성능을 달성할 수 있습니다.
Checker는 컨테이너 성능에 대한 실시간 모니터링 및 평가를 담당하며 전체 네트워크 상태를 실시간으로 모니터링 및 평가하고 발생할 수 있는 보안 문제에 적시에 대응할 수 있습니다. 네트워크 공격 등 보안 사고에 대응해야 하는 경우, 이상 행위를 감지하면 즉시 경고를 발령하고 보호 조치를 취할 수 있습니다. 마찬가지로, 네트워크 성능 병목 현상이 발생하면 Checker는 문제가 즉시 해결될 수 있도록 적시에 미리 알림을 보내 서비스 품질과 보안을 보장할 수도 있습니다.
Container, Indexer 및 Checker 간의 효과적인 협업은 고객에게 자유롭게 맞춤화된 컴퓨팅 성능 구성, 안전하고 안정적이며 상대적으로 저렴한 클라우드 서비스 경험을 제공합니다. Aethir는 AI 및 게임과 같은 분야에 적합한 상용급 솔루션입니다.
일반적으로 Aethir는 DePIN을 통해 GPU 리소스 할당 및 사용을 재구성하여 컴퓨팅 성능을 더욱 대중적이고 경제적으로 만듭니다. AI와 게임 분야에서 좋은 성과를 거두었고, 파트너와 비즈니스 라인을 지속적으로 확장하고 있으며 향후 발전 가능성은 무한합니다.
IO.NET: 컴퓨팅 성능 병목 현상을 해결하는 분산 슈퍼컴퓨팅 네트워크
IO.NET은 Hack VC, Delphi Digital 및 Foresight Ventures와 같은 유명 VC의 투자를 받아 올해 3월 3천만 달러 규모의 시리즈 A 자금 조달을 완료했습니다.
Aethir와 유사하게 전 세계의 유휴 컴퓨팅 리소스(GPU, CPU)를 수집하여 AI 스타트업에 저렴하고 쉽게 얻을 수 있으며 보다 유연하게 적응할 수 있는 컴퓨팅 서비스를 제공하기 위해 엔터프라이즈급 분산 컴퓨팅 네트워크를 구축합니다.
Aethir와 달리 IO.NET은 Ray 프레임워크(IO-SDK)를 사용하여 수천 개의 GPU 클러스터를 전체로 변환하여 기계 학습을 제공합니다(Ray 프레임워크는 OpenAI에서도 GPT-3을 교육하는 데 사용됩니다). CPU/GPU 메모리 제한 및 순차 처리 워크플로는 단일 장치에서 대규모 모델을 훈련할 때 심각한 병목 현상을 나타냅니다. Ray 프레임워크는 병렬 컴퓨팅 작업을 달성하기 위한 오케스트레이션 및 일괄 처리에 사용됩니다.
이를 위해 IO.NET은 다층 아키텍처를 사용합니다.
사용자 인터페이스 레이어: 사용자에게 공개 웹사이트, 고객 영역, GPU 공급업체 영역을 포함한 시각적 프런트엔드 인터페이스를 제공하여 직관적이고 친숙한 사용자 경험을 제공하는 것을 목표로 합니다.
보안 계층: 네트워크 보호, 사용자 인증, 활동 로깅 및 기타 메커니즘을 통합하여 시스템의 무결성과 보안을 보장합니다.
API 레이어: 웹사이트, 공급업체 및 내부 관리를 위한 커뮤니케이션 허브로서 데이터 교환 및 다양한 작업 실행을 촉진합니다.
백엔드 레이어: 시스템의 핵심을 형성하며 클러스터/GPU 관리, 고객 상호 작용, 자동 확장 등 운영 작업을 담당합니다.
데이터베이스 계층: 데이터 저장 및 관리를 담당하고, 메인 스토리지는 구조화된 데이터를 담당하며, 캐시는 임시 데이터 처리에 사용됩니다.
작업 계층: 비동기 통신 및 작업 실행을 관리하여 데이터 처리 및 순환의 효율성을 보장합니다.
인프라 레이어: GPU 리소스 풀, 오케스트레이션 도구, 실행/ML 작업 등 시스템의 기반을 형성하며 강력한 모니터링 솔루션을 갖추고 있습니다.
기술적인 관점에서 볼 때 분산 컴퓨팅 성능이 직면한 어려움을 해결하기 위해 IO.NET은 핵심 기술인 IO-SDK의 계층형 아키텍처와 역터널 기술 및 메시 VPN 아키텍처를 출시하여 보안 연결 및 문제를 해결했습니다. 데이터 개인 정보 보호 문제. Web3에서 인기가 높으며 미래가 밝은 차세대 Filecoin으로 불립니다.
일반적으로 IO.NET의 핵심 임무는 세계 최대의 DePIN 인프라를 구축하고, 전 세계 유휴 GPU 리소스를 풀링하며, 많은 컴퓨팅 성능이 필요한 AI 및 기계 학습 분야에 대한 지원을 제공하는 것입니다.
쌍곡선: 번영하고 상호 지원하는 분산 AI 인프라 생태계를 실현하기 위해 "AI 열대 우림"을 만듭니다.
오늘 Hyperbolic은 Variant와 Polychain Capital이 공동으로 주도하여 총 1,200만 달러 이상의 시리즈 A 자금 조달을 완료했으며 총 자금 조달 금액은 2,000만 달러가 넘었다고 다시 한 번 발표했습니다. 이번 투자에는 Bankless Ventures, Chapter One, Lightspeed Faction, IOSG, Blockchain Builders Fund, Alumni Ventures, Samsung Next 등 유명 VC 기관이 참여했습니다. 이 가운데 실리콘밸리의 대표적인 벤처캐피탈 기업인 폴리체인(Polychain)과 라이트스피드팩션(LightSpeed Faction)이 시드라운드 이후 두 번째로 투자를 늘린 것은 하이퍼볼릭이 Web3 AI 트랙에서 선두적인 위치를 차지하고 있음을 보여주기에 충분하다.
Hyperbolic의 핵심 임무는 모든 사람이 AI를 사용할 수 있고, 개발자에게는 저렴하고, 창작자에게는 저렴한 가격으로 AI를 제공하는 것입니다. Hyperbolic은 개발자가 생태계 내에서 혁신, 협업 및 성장하는 데 필요한 리소스를 찾을 수 있는 "AI 열대우림"을 구축하는 것을 목표로 합니다. 자연 열대 우림과 마찬가지로 생태계는 서로 연결되어 있고, 활기차고, 재생 가능하므로 창작자들은 제한 없이 탐험할 수 있습니다.
두 공동 창업자인 Jasper와 Yuchen의 견해에 따르면 AI 모델은 오픈 소스일 수 있지만 오픈 컴퓨팅 리소스가 없으면 충분하지 않습니다. 현재 많은 대규모 데이터 센터가 GPU 리소스를 제어하므로 AI 사용을 원하는 많은 사람들이 의욕을 잃습니다. Hyperbolic은 전 세계의 유휴 컴퓨팅 자원을 통합하여 누구나 쉽게 AI를 사용할 수 있도록 DePIN 컴퓨팅 인프라를 구축함으로써 이러한 상황을 타파하는 것을 목표로 합니다.
이에 하이퍼볼릭은 '개방형 AI 클라우드' 개념을 도입했다. 개인용 컴퓨터부터 대규모 데이터센터까지 모든 것을 하이퍼볼릭에 연결해 컴퓨팅 파워를 제공할 수 있다. 이를 기반으로 Hyperbolic은 개발자가 추론 기능을 갖춘 AI 애플리케이션을 구축할 수 있는 동시에 필요한 컴퓨팅 성능이 AI 클라우드에서 직접 제공될 수 있도록 검증 가능하고 개인 정보 보호가 강화된 AI 계층을 만듭니다.
Aethir 및 IO.NET과 유사하게 Hyperbolic의 AI 클라우드에는 "태양계 클러스터"라고 불리는 고유한 GPU 클러스터 모델이 있습니다. 우리가 알고 있듯이 태양계에는 수성, 화성과 같은 다양한 독립 행성이 포함되어 있습니다. Hyperbolic의 태양계 클러스터는 예를 들어 수성 클러스터, 화성 클러스터, 목성 클러스터를 관리합니다. 이러한 GPU 클러스터는 다양한 용도와 크기를 가지고 있습니다. 하지만 서로 독립적입니다.
이러한 모델은 GPU 클러스터가 Aethir 및 IO.NET에 비해 두 가지 특성을 충족하고 더 유연하며 효율성을 극대화하도록 보장합니다.
상태 균형을 조정하면 GPU 클러스터가 수요에 따라 자동으로 확장되거나 축소됩니다.
클러스터가 중단되면 태양계 클러스터가 자동으로 이를 감지하고 복구합니다.
LLM(대형 언어 모델)의 성능 비교 실험에서 Hyperbolic GPU 클러스터의 처리량은 43개 토큰/초에 달했습니다. 이 결과는 60명으로 구성된 Together AI 팀의 42개 토큰/초를 넘어섰을 뿐만 아니라, 또한 300명 이상의 팀원이 있는 HuggingFace의 초당 27개 토큰보다 훨씬 더 높았습니다.
이미지 생성 모델의 생성 속도 비교 실험에서도 Hyperbolic GPU 클러스터는 그 기술적 강점을 과소평가해서는 안 된다는 점을 보여주었습니다. 또한 SOTA 오픈소스 이미지 생성 모델을 사용하는 Hyperbolic은 분당 17.6개의 생성 속도로 선두를 달리고 있습니다. 이는 Together AI의 분당 13.6개 이미지를 능가할 뿐만 아니라 IO.NET의 분당 6.5개 이미지보다 훨씬 높은 속도입니다.
이러한 데이터는 Hyperbolic의 GPU 클러스터 모델이 매우 높은 효율성을 가지고 있으며, 뛰어난 성능으로 인해 대형 경쟁사 중에서 두각을 나타내고 있음을 강력하게 입증합니다. 저렴한 가격의 장점과 결합된 Hyperbolic은 높은 컴퓨팅 성능 지원이 필요한 복잡한 AI 애플리케이션에 매우 적합하며, 거의 실시간 응답을 제공하고 복잡한 작업을 처리할 때 AI 모델이 더 높은 정확도와 효율성을 갖도록 보장합니다.
또한 암호화 혁신의 관점에서 Hyperbolic의 가장 주목할만한 성과는 AI에서 가장 어려운 문제 중 하나를 해결하기 위해 분산형 접근 방식을 사용하는 검증 메커니즘 PoSP(Proof of Sampling, Sampling Proof)의 개발이라고 생각합니다. 필드 - 지정된 모델의 출력 여부를 확인하여 추론 프로세스를 비용 효과적으로 분산시킬 수 있습니다.
PoSP 원칙을 기반으로 Hyperbolic 팀은 AI 애플리케이션을 위한 spML 메커니즘(샘플링 기계 학습)을 개발하여 네트워크에서 트랜잭션을 무작위로 샘플링하고 정직한 사람에게 보상하고 부정직한 사람을 처벌하여 가벼운 검증 효과를 달성하고 계산 부담을 줄였습니다. 네트워크의 부담으로 인해 거의 모든 AI 스타트업이 분산 검증 패러다임에서 AI 서비스를 분산시킬 수 있습니다 .
구체적인 구현 과정은 다음과 같습니다.
1) 노드는 함수를 계산하고 그 결과를 암호화된 방식으로 오케스트레이터에 제출합니다.
2) 이 결과를 신뢰할지 여부를 결정하는 것은 오케스트레이터의 몫이며, 신뢰할 경우 노드는 계산에 대한 보상을 받습니다.
3) 신뢰가 없으면 오케스트레이터는 네트워크에서 검증자를 무작위로 선택하고 노드에 도전하고 동일한 기능을 계산합니다. 마찬가지로 검증자는 결과를 암호화된 방식으로 조정자에게 제출합니다.
4) 마지막으로 오케스트레이터는 모든 결과가 일치하는지 확인하고, 일치하면 노드와 검증자 모두 보상을 받고, 일치하지 않으면 각 결과의 계산 과정을 추적하기 위한 중재 절차가 시작됩니다. 정직한 사람은 정확성에 대해 보상을 받고, 부정직한 사람은 시스템을 속인 경우 처벌을 받습니다.
노드는 자신이 제출한 결과가 이의를 제기할지 여부를 알 수 없으며, 검증의 공정성을 보장하기 위해 오케스트레이터가 이의를 제기하기 위해 어떤 검증자를 선택할지 알 수 없습니다. 부정행위로 인한 비용은 잠재적인 이익보다 훨씬 큽니다.
향후 spML이 테스트된다면 AI 애플리케이션의 게임 규칙을 바꾸고 무신뢰 추론 검증을 현실화하기에 충분할 것입니다. 또한 Hyperbolic은 모델 추론에 BF16 알고리즘을 적용할 수 있는 업계 고유의 능력을 보유하고 있으며(경쟁업체는 여전히 FP8에 머물고 있음) 추론의 정확성을 효과적으로 향상시켜 Hyperbolic의 분산 추론 서비스를 매우 비용 효율적으로 만듭니다.
또한 Hyperbolic의 혁신은 AI 클라우드 컴퓨팅 전원 공급 장치와 AI 애플리케이션의 통합에도 반영됩니다. 분산형 컴퓨팅 파워 시장 자체에 대한 수요는 상대적으로 적습니다. Hyperbolic은 검증 가능한 AI 인프라를 구축하여 개발자가 AI 애플리케이션을 구축하도록 유도합니다. 컴퓨팅 파워는 특정 규모로 확장된 후 AI 애플리케이션에 직접적이고 원활하게 통합될 수 있습니다. 자급자족할 수 있고 수요와 공급의 균형을 이룰 수 있습니다.
개발자는 컴퓨팅 성능, Web2 및 Web3 on Hyperbolic을 중심으로 다음과 같은 혁신적인 AI 애플리케이션을 구축할 수 있습니다.
GPU 네트워크(오케스트레이션 레이어)에 구축된 GPU 거래 플랫폼인 GPU Exchange는 무료 거래를 위해 "GPU 리소스"를 상용화하여 컴퓨팅 성능을 더욱 비용 효율적으로 만듭니다.
IAO, 즉 AI 에이전트를 토큰화하면 기여자가 토큰을 얻을 수 있으며, AI 에이전트의 수익은 토큰 보유자에게 분배됩니다.
AI 기반 DAO는 인공지능을 통해 거버넌스 의사결정과 재무관리를 돕는 DAO이다.
GPU 재스테이킹을 통해 사용자는 GPU를 Hyperbolic에 연결한 다음 이를 AI 애플리케이션에 스테이킹할 수 있습니다.
전반적으로 Hyperbolic은 누구나 쉽게 AI를 사용할 수 있는 개방형 AI 생태계를 구축했습니다. Hyperbolic은 기술 혁신을 통해 AI의 대중성과 접근성을 높이고 상호 운용성과 호환성이 가득한 AI의 미래를 만들고 협력적 혁신을 장려하고 있습니다.
데이터가 사용자에게 반환되고 우리는 AI 물결에 동참합니다
오늘날 데이터는 금광이며 개인 데이터는 거대 기술 기업에 의해 무료로 압수되어 상업화되고 있습니다.
데이터는 AI의 음식이다. 고품질 데이터가 없으면 아무리 발전된 알고리즘이라도 제 역할을 할 수 없습니다. 데이터의 양, 질, 다양성은 AI 모델의 성능에 직접적인 영향을 미칩니다.
앞서 언급했듯이 업계에서는 GPT-5의 출시를 기대하고 있습니다. 하지만 아직 데이터의 양이 부족해서인지 오랫동안 공개되지 않고 있습니다. 종이 출판 단계에서 GPT-3만으로도 2조 토큰의 데이터가 필요합니다. GPT-5는 200조 토큰의 데이터 양에 도달할 것으로 예상됩니다. 기존 텍스트 데이터 외에도 정리 후 학습에 사용할 수 있는 다중 모달 데이터가 더 많이 필요합니다.
오늘날의 공개 인터넷 데이터에는 고품질의 데이터 샘플이 상대적으로 적습니다. 실제 상황은 대형 모델이 어떤 분야의 질문과 답변 생성에서는 매우 잘 수행되지만 전문 분야에서는 문제에 직면하면 성능이 저하되고 심지어 실패하기도 합니다. 모델이 "진지하게 말도 안되는 소리를 하고 있다"는 착각이 있다.
데이터의 "신선함"을 보장하기 위해 AI 거대 기업은 종종 대규모 데이터 소스 소유자와 거래를 체결합니다. 예를 들어 OpenAI는 Reddit과 6천만 달러 규모의 계약을 체결했습니다.
최근 일부 소셜 소프트웨어에서는 사용자에게 계약서 서명을 요구하기 시작하여 사용자가 제3자 AI 모델 교육에 사용할 콘텐츠를 승인하는 데 동의해야 했습니다. 그러나 사용자는 이에 대해 어떠한 보상도 받지 못했습니다. 이러한 약탈적 행위는 데이터 사용 권리에 대한 대중의 의심을 불러일으켰습니다.
분명히, 블록체인의 분산되고 추적 가능한 잠재력은 데이터와 리소스를 얻는 딜레마를 개선하는 동시에 사용자 데이터에 대한 더 많은 제어와 투명성을 제공하는 데 자연스럽게 적합하며 AI 모델의 훈련 및 최적화에 참여함으로써 이점을 얻을 수도 있습니다. 데이터 가치를 창출하는 이 새로운 방법은 사용자 참여를 크게 늘리고 생태계의 전반적인 번영을 촉진할 것입니다.
Web3에는 이미 다음과 같은 AI 데이터를 목표로 하는 일부 회사가 있습니다.
데이터 수집: Ocean Protocol, Vana, PIN AI, Sahara 등
데이터 처리: Public AI, Lightworks 등
그 중 가장 흥미로운 것 중에는 Vana, PIN AI, Saraha 등이 있는데, 이들 모두 최근에 대규모 자금을 조달하고 호화로운 투자자 라인업을 보유하고 있습니다. 두 프로젝트 모두 하위 분야에서 벗어나 데이터 수집과 AI 개발을 결합하여 AI 애플리케이션 구현을 촉진합니다.
Vana: 사용자 제어 데이터, DAO 및 기여 메커니즘이 AI 데이터 경제를 재구성합니다.
Vana는 2022년 12월에 1,800만 달러의 자금 조달 라운드를 완료했으며 올해 9월에는 전략적 자금 조달에서 500만 달러를 완료했습니다. Paradigm, Polychain, Coinbase 등 유명 VC의 투자.
Vana의 핵심 개념은 "사용자 소유 데이터, 사용자 소유 AI 구현"입니다 . 데이터가 왕인 이 시대에 Vana는 대기업의 데이터 독점을 깨고 사용자가 자신의 데이터를 제어하고 자신의 데이터로부터 이익을 얻을 수 있도록 하고자 합니다.
Vana는 개인 데이터 보호에 중점을 둔 분산형 데이터 네트워크로, 사용자의 데이터를 금융 자산처럼 유연하게 사용할 수 있습니다. Vana는 데이터 경제의 지형을 재편하고 사용자를 수동적인 데이터 제공자에서 적극적으로 참여하고 상호 이익이 되는 생태계 구축자로 전환하려고 시도합니다.
이 비전을 실현하기 위해 Vana는 사용자가 데이터 DAO를 통해 데이터를 집계 및 업로드한 다음 기여 증명 메커니즘을 통해 개인 정보를 보호하면서 데이터의 가치를 확인할 수 있도록 합니다. 이 데이터는 AI 훈련에 사용될 수 있으며, 사용자는 업로드한 데이터의 품질에 따라 인센티브를 받습니다.
구현 측면에서 Vana의 기술 아키텍처에는 데이터 이동성 계층, 데이터 이동성 계층, 범용 연결 그룹, 관리되지 않는 데이터 스토리지 및 분산형 애플리케이션 계층이라는 5가지 주요 구성 요소가 포함됩니다.
데이터 유동성 레이어(Data Liquidity Layer ) : 데이터 유동성 풀(DLP)을 통해 귀중한 데이터를 인센티브화, 집계 및 검증하는 Vana 네트워크의 핵심입니다. DLP는 "유동성 풀"의 데이터 버전과 같습니다. 각 DLP는 Reddit, Twitter 및 기타 소셜 미디어 데이터와 같은 특정 유형의 데이터 자산을 집계하도록 설계된 스마트 계약입니다.
데이터 이식성 레이어(Data Portability Layer ): 이 구성 요소는 사용자 데이터에 이식성을 제공하여 사용자가 다양한 애플리케이션과 AI 모델 간에 데이터를 쉽게 전송하고 사용할 수 있도록 보장합니다.
데이터 생태 지도(Data Ecology Map) : 전체 생태계에 걸쳐 실시간 데이터 흐름을 추적하여 투명성을 보장하는 지도입니다.
관리되지 않는 데이터 스토리지 : Vana의 혁신은 사용자가 항상 데이터에 대한 완전한 제어권을 유지할 수 있도록 하는 고유한 데이터 관리 접근 방식에 있습니다. 사용자의 원본 데이터는 체인에 업로드되지 않지만 저장 위치는 클라우드 서버 또는 개인 서버 등 사용자가 선택합니다.
분산형 애플리케이션 레이어 : Vana는 데이터를 기반으로 개방형 애플리케이션 생태계를 구축했으며, 개발자는 DLP가 축적한 데이터를 사용하여 AI 애플리케이션을 포함한 다양한 혁신적인 애플리케이션을 구축할 수 있으며, 데이터 기여자는 이러한 애플리케이션으로부터 혜택을 얻을 수 있습니다.
현재 Vana는 ChatGPT, Reddit, LinkedIn, Twitter와 같은 소셜 미디어 플랫폼과 AI 및 검색 데이터에 초점을 맞춘 DLP를 기반으로 구축되었습니다. 더 많은 DLP가 참여하고 더 혁신적인 애플리케이션이 플랫폼에 구축됨에 따라 Vana는 다음과 같은 잠재력을 가지고 있습니다. 차세대 분산형 AI 및 데이터 경제 인프라가 됩니다.
이는 최근 뉴스 기사를 생각나게 합니다. LLM의 다양성을 높이기 위해 Meta는 Facebook 및 Instagram의 영국 사용자로부터 데이터를 수집하고 있지만 사용자가 "동의" 대신 "거부"를 선택할 수 있도록 허용했다는 비판을 받았습니다. . 아마도 Meta가 Vana에 각각 Facebook과 Instagram용 DLP를 구축하는 것이 더 나은 선택일 것입니다. 이는 데이터 프라이버시를 보장할 뿐만 아니라 더 많은 사용자가 데이터에 적극적으로 기여하도록 장려합니다.
PIN AI: 분산형 AI 비서, 모바일 AI가 데이터와 일상을 연결
PIN AI는 올해 9월 1,000만 달러 규모의 사전 시드 자금 조달을 완료했습니다. a16z CSX, Hack VC, Blockchain Builders Fund(Stanford Blockchain Accelerator) 등 다수의 유명 VC 및 엔젤 투자자가 이번 투자에 참여했습니다.
PIN AI는 DePIN 아키텍처의 분산 데이터 저장 네트워크가 지원하는 개방형 AI 네트워크입니다. 사용자는 자신의 장치를 네트워크에 연결하고 개인 데이터/사용자 기본 설정을 제공하고 토큰 인센티브를 얻을 수 있습니다. 이러한 움직임을 통해 사용자는 데이터에 대한 통제권을 되찾고 수익을 창출할 수 있습니다. 개발자는 데이터를 사용하여 유용한 AI 에이전트를 구축할 수 있습니다.
그 비전은 사용자 그룹에게 일상 생활에 유용한 응용 프로그램을 제공하고 온라인 상품 구매, 여행 계획, 투자 행동 계획과 같은 사용자의 의도를 실현하는 데 전념하는 Apple Intelligence의 분산형 대안이 되는 것입니다 .
PIN AI는 개인 AI 비서와 외부 AI 서비스 두 가지 AI로 구성된다.
개인 AI 비서는 사용자 데이터에 액세스하고 사용자 요구 사항을 수집하며 필요할 때 외부 서비스 AI에 적절한 데이터를 제공할 수 있습니다. PIN AI의 하단 레이어는 DePIN 분산 데이터 저장 네트워크로 구성되어 사용자의 개인 정보에 접근하지 않고도 외부 AI 서비스를 추론할 수 있는 풍부한 사용자 데이터를 제공합니다.
PIN AI를 사용하면 사용자는 더 이상 다양한 작업을 완료하기 위해 수천 개의 모바일 앱을 열 필요가 없습니다. 사용자가 개인 AI 비서에게 “새 옷을 사고 싶다”, “어떤 종류의 테이크아웃을 주문해야 하는가”, “내 기사에서 최적의 투자 기회를 찾아달라” 등의 의사를 표현하면 AI는 사용자의 선호도를 이해할 뿐만 아니라 이러한 모든 작업도 효율적으로 수행할 수 있습니다. 가장 관련성이 높은 애플리케이션과 서비스 제공업체는 경쟁 입찰 프로세스의 형태로 사용자 의도를 구현하는 데 도움이 됩니다.
가장 중요한 것은 사용자가 서비스를 얻기 위해 중앙화된 서비스 제공자와 직접 상호 작용하는 데 익숙해져 있는 현재의 딜레마에서 PIN AI가 더 많은 가치를 제공할 수 있는 분산형 서비스 도입의 필요성을 인식하고 있다는 것입니다. 개인 AI 비서는 사용자가 Web2 애플리케이션과 상호작용할 때 생성되는 고부가가치 데이터를 사용자의 이름으로 합법적으로 획득하고, 이를 탈중앙화 방식으로 저장하고 호출함으로써 동일한 데이터가 더 큰 가치를 발휘할 수 있도록 하여 데이터 소유자가 발신자에게도 혜택이 있습니다.
PIN AI 메인넷은 아직 공식적으로 출시되지 않았지만 팀은 비전에 대한 인식을 돕기 위해 Telegram을 통해 사용자에게 제품 프로토타입을 소규모로 시연했습니다.
Hi PIN Bot은 Play, Data Connectors, AI Agent의 세 가지 섹션으로 구성됩니다.
Play는 PIN AI-1.5b, Gemma, Llama와 같은 대형 모델을 기반으로 하는 AI 가상 동반자입니다. 이는 PIN AI의 개인 AI 비서 와 동일합니다.
데이터 커넥터에서 사용자는 Google, Facebook, X 및 Telegram 계정을 연결하여 포인트를 획득하고 가상 동반자를 업그레이드할 수 있습니다. 앞으로는 사용자가 Amazon, Ebay, Uber 및 기타 계정을 연결할 수도 있도록 지원할 것입니다. 이는 PIN AI의 DePIN 데이터 네트워크 와 동일합니다.
자신의 데이터를 자신의 용도로 사용하세요. 데이터를 연결한 후 사용자는 가상 동반자(출시 예정)에게 요구 사항을 전달할 수 있으며, 가상 동반자는 작업 요구 사항을 충족하는 AI 에이전트에 사용자의 데이터를 제공합니다. 처리.
해당 관계자는 아직 테스트 단계에 있는 일부 AI 에이전트 프로토타입을 개발했으며 이는 PIN AI의 외부 AI 서비스 와 동일합니다. 예를 들어 X Insight에 트위터 계정을 입력하면 해당 계정의 운영을 분석할 수 있습니다. 데이터 커넥터가 전자상거래, 테이크아웃 및 기타 플랫폼 계정을 지원하는 경우 쇼핑 및 음식 주문과 같은 AI 에이전트도 사용자의 주문을 자율적으로 처리하는 역할을 할 수 있습니다.
일반적으로 PIN AI는 DePIN+AI 형태를 통해 개방형 AI 네트워크를 구축하여 개발자가 진정으로 유용한 AI 애플리케이션을 구축할 수 있도록 하고 사용자의 삶을 더욱 편리하고 스마트하게 만듭니다. 더 많은 개발자가 참여함에 따라 PIN AI는 더욱 혁신적인 애플리케이션을 제공하고 AI를 일상 생활에 진정으로 통합할 것입니다.
Sahara: 다층 아키텍처가 AI 데이터 소유권, 개인 정보 보호 및 공정한 거래를 주도합니다.
Sahara는 Binance Labs, Pantera Capital 및 Polychain과 같은 유명 VC의 투자를 받아 올해 8월 시리즈 A 자금 조달에서 4,300만 달러를 완료했습니다.
Sahara AI는 데이터에 가치를 부여하고 사용자에게 이익을 배분할 수 있는 AI 시대에 더욱 공정하고 투명한 AI 개발 모델을 구축하는 데 중점을 두고 있는 다층 아키텍처 AI 블록체인 애플리케이션 플랫폼으로, 기존의 개인 정보 보호 및 보안 문제를 해결합니다. AI 시스템, 데이터 수집 및 투명성.
일반인의 관점에서 Sahara AI는 사용자가 자신의 데이터를 제어하고 기여한 데이터의 품질에 따라 보상을 받을 수 있는 분산형 AI 네트워크를 구축하고자 합니다. 이를 통해 사용자는 더 이상 수동적인 데이터 제공자가 아닌 참여하고 혜택을 공유할 수 있는 생태계 구축자가 됩니다.
사용자는 분산형 데이터 시장 에 데이터를 업로드한 다음 특별한 메커니즘을 사용하여 데이터의 소유권을 증명할 수 있습니다("확인"). 이 데이터는 AI 훈련에 사용될 수 있으며, 사용자는 데이터 품질에 따라 보상을 받습니다.
Sahara AI에는 애플리케이션, 트랜잭션, 데이터 및 실행의 4계층 아키텍처가 포함되어 있어 AI 생태계 개발을 위한 강력한 기반을 제공합니다.
애플리케이션 계층: 보안 저장소, 분산형 AI 데이터 시장, 코드 없는 툴킷, Sahara ID와 같은 도구를 제공합니다. 이러한 도구는 데이터 개인정보 보호를 보장하고 사용자에 대한 공정한 보상을 촉진하여 AI 애플리케이션 생성 및 배포 프로세스를 더욱 단순화합니다.
간단히 말해서, 볼트는 고급 암호화 기술을 사용하여 AI 데이터의 보안을 보장합니다. 분산형 AI 데이터 시장은 데이터 수집, 주석 및 변환에 사용될 수 있으며, 코드 없는 툴킷을 통해 AI 애플리케이션 개발이 가능합니다. 더욱 간단해진 Sahara ID는 사용자 평판을 관리하고 신뢰를 보장합니다.
트랜잭션 계층: Sahara 블록체인은 지분 증명(PoS) 합의 메커니즘을 사용하여 네트워크의 효율성과 안정성을 보장하므로 악의적인 노드가 있는 경우에도 합의에 도달할 수 있습니다. 또한 Sahara의 기본 사전 컴파일 기능은 AI 처리를 최적화하도록 특별히 설계되었으며 블록체인 환경에서 직접 효율적인 계산을 수행하여 시스템 성능을 향상시킬 수 있습니다.
데이터 계층: 체인 안팎의 데이터를 관리합니다. 온체인 데이터는 추적 불가능한 작업과 속성 기록을 처리하여 신뢰성과 투명성을 보장합니다. 오프체인 데이터는 대규모 데이터 세트를 처리하고 Merkle Tree 및 영지식 증명 기술을 사용하여 데이터 복제 및 변조를 방지하기 위해 데이터 무결성과 보안을 보장합니다.
실행 레이어: 볼트, AI 모델, AI 애플리케이션의 운영을 추상화하고 다양한 AI 훈련, 추론, 서비스 패러다임을 지원합니다.
전체 4계층 아키텍처는 시스템의 보안과 확장성을 보장할 뿐만 아니라 AI 기술의 애플리케이션 모델을 완전히 바꾸고 보다 혁신적이고 사용자에게 공정한 솔루션을 제공합니다.
결론
AI 기술의 지속적인 발전과 암호화폐 시장의 성장으로 우리는 새로운 시대의 문턱에 서 있습니다.
대규모 AI 모델과 애플리케이션이 계속 등장함에 따라 컴퓨팅 성능에 대한 수요도 기하급수적으로 증가하고 있습니다. 그러나 컴퓨팅 성능의 부족과 비용 상승은 많은 중소기업에게 큰 과제입니다. 다행스럽게도 분산형 솔루션, 특히 Hyperbolic, Aethir 및 IO.NET은 AI 스타트업에게 컴퓨팅 성능을 확보하고 비용을 절감하며 효율성을 향상시킬 수 있는 새로운 방법을 제공합니다.
동시에 우리는 AI 개발에 있어 데이터의 중요성도 확인했습니다. 데이터는 AI의 양식일 뿐만 아니라 AI 애플리케이션 구현을 촉진하는 핵심이기도 합니다. PIN AI 및 Sahara와 같은 프로젝트는 네트워크에 동기를 부여하고 사용자가 데이터 수집 및 공유에 참여하도록 장려함으로써 AI 개발을 위한 강력한 데이터 지원을 제공합니다.
컴퓨팅 성능과 데이터는 단순한 교육 링크가 아닙니다. AI 애플리케이션의 경우 데이터 수집부터 생산 추론까지 각 링크에는 대규모 데이터를 처리하기 위해 다양한 도구를 사용해야 하며 이는 지속적으로 반복되는 프로세스입니다.
AI와 암호화폐가 얽혀 있는 이 세계에서 우리는 미래에 더욱 혁신적인 AI 프로젝트가 구현되는 것을 목격할 것이라고 믿을 이유가 있습니다. 이러한 프로젝트는 우리의 업무와 라이프스타일을 변화시킬 뿐만 아니라 사회 전체가 더욱 지능화되도록 촉진할 것입니다. 그리고 분산화된 개발 방향. 기술이 계속 발전하고 시장이 계속 성숙해짐에 따라 우리는 더욱 개방적이고 공정하며 효율적인 AI 시대의 도래를 기대합니다.