목차 | 브루스
편집 및 포맷팅 | 환환
디자인 | 데이지
AI 진화의 역사에서 "USB-C 모멘트". 2024년 11월, Anthropic이 출시한 MCP 프로토콜이 실리콘 밸리에서 지진을 일으키고 있습니다. "AI 세계의 USB-C"로 불리는 이 개방형 표준은 대규모 모델과 물리적 세계 간의 연결을 재구성할 뿐만 아니라, AI 독점 딜레마를 깨고 디지털 문명의 생산 관계를 재구성하는 코드도 담고 있습니다. 우리가 아직도 GPT-5의 매개변수 규모에 대해 논쟁하고 있는 동안, MCP는 조용히 AGI 시대의 분산화를 위한 길을 열었습니다...
브루스: 저는 현재 모델 컨텍스트 프로토콜(MCP)에 대해 연구하고 있습니다. 이것은 ChatGPT 다음으로 AI 분야에서 저를 흥분시키는 두 번째 것입니다. 왜냐하면 그것은 제가 수년간 생각해 온 세 가지 문제를 해결할 잠재력을 가지고 있기 때문입니다.
- 일반인, 비과학자와 천재가 어떻게 AI 산업에 참여하고 수입을 올릴 수 있을까?
- AI와 이더리움의 윈윈 조합은 무엇일까?
- AI d/acc를 어떻게 구현하나요? 중앙집권적인 대기업에 의한 독점과 검열을 피하면서, AGI는 인류를 파괴할 것인가?
01. MCP란 무엇인가요?
MCP는 LLM과 외부 데이터 소스 및 도구의 통합을 단순화하는 개방형 표준 프레임워크입니다. LLM을 Windows 운영 체제에 비교하고, 커서와 같은 애플리케이션은 키보드와 하드웨어에 해당하며, MCP는 사용자가 읽고 사용할 수 있는 외부 데이터와 도구를 유연하게 삽입할 수 있는 USB 인터페이스입니다.
MCP는 LLM을 확장하기 위한 세 가지 기능을 제공합니다.
- 리소스(지식 확장)
- 도구(함수 실행, 외부 시스템 호출)
- 프롬프트(사전 작성된 프롬프트 템플릿)
MCP는 누구나 개발하고 호스팅할 수 있으며 서버 형태로 제공되며, 언제든지 오프라인으로 전환하여 중지할 수 있습니다.
02. MCP가 필요한 이유는 무엇입니까?
현재 LLM은 가능한 한 많은 데이터를 사용하여 대량의 계산을 수행하고, 많은 매개변수를 생성하고, 지식을 모델에 통합하여 해당 지식의 대화 출력을 달성합니다. 하지만 몇 가지 큰 문제가 있습니다.
- 방대한 양의 데이터와 계산에는 많은 시간과 하드웨어가 필요하며, 학습에 사용되는 지식은 종종 오래된 것입니다.
- 매개변수의 수가 많은 모델은 로컬 장치에 배포하고 사용하기 어렵지만, 실제로 대부분의 시나리오에서 사용자는 자신의 요구 사항을 충족하는 데 필요한 모든 정보가 필요하지 않을 수도 있습니다.
- 일부 모델은 적시성을 확보하기 위해 계산에 필요한 외부 정보를 읽어 크롤러를 사용하지만, 크롤러의 한계와 외부 데이터의 품질로 인해 더 많은 오해의 소지가 있는 콘텐츠를 생성할 수 있습니다.
- AI가 창작자에게 좋은 혜택을 가져다주지 못하면서 많은 웹사이트와 콘텐츠에서 AI 방지 대책을 시행하기 시작했고, 이로 인해 대량의 스팸이 생성되었고, 이로 인해 LLM의 품질이 점차 저하될 것입니다.
- LLM은 외부 함수와 작업의 모든 측면으로 확장하기 어렵습니다. 예를 들어, GitHub 인터페이스를 정확하게 호출하여 일부 작업을 구현할 수 있습니다. 오래되었을 수 있는 문서에 따라 코드를 생성하지만 정확한 실행을 보장할 수는 없습니다.
03. fat LLM과 thin LLM + MCP의 아키텍처 진화
우리는 현재의 초대규모 모델을 뚱뚱한 LLM으로 간주할 수 있으며, 그 아키텍처는 다음과 같은 간단한 다이어그램으로 표현될 수 있습니다.
사용자가 정보를 입력한 후, 입력 내용은 인식 및 추론 계층을 통해 분해되고 추론되며, 이후 많은 수의 매개변수가 호출되어 결과를 생성합니다.
MCP를 기반으로 LLM은 언어 분석 자체에 집중하여 지식과 기능을 제거하여 얇은 LLM이 될 수 있습니다.
LLM 아키텍처의 씬(thin) 버전에서는 지각 및 추론 계층이 음성, 톤, 냄새, 이미지, 텍스트, 중력, 온도 등을 포함하되 이에 국한되지 않는 인간의 물리적 환경 정보의 모든 측면을 토큰으로 구문 분석하는 방법에 초점을 맞추고, 그 후 MCP 코디네이터를 통해 최대 수백 개의 MCP 서버를 조율하고 조정하여 작업을 완료합니다. LLM의 훈련 비용과 속도는 급격히 증가할 것이며, 배포 장비에 대한 요구 사항은 매우 낮아질 것입니다.
04. MCP는 3가지 주요 문제를 어떻게 해결합니까?
일반인이 AI 산업에 어떻게 참여할 수 있을까?
독특한 재능이 있는 사람이라면 누구나 자신만의 MCP 서버를 만들어 LLM에 서비스를 제공할 수 있습니다. 예를 들어, 새를 사랑하는 사람은 수년간 수집한 새 노트를 MCP를 통해 외부 세계에 서비스로 제공할 수 있습니다. 누군가가 LLM을 사용하여 새와 관련된 정보를 검색하면 현재의 새 정보 MCP 서비스가 호출됩니다. 창작자 역시 수익의 일부를 받습니다.
이는 보다 정확하고 자동화된 크리에이터 경제 사이클입니다. 서비스 내용은 보다 표준화되었으며, 호출 수와 출력 토큰을 정확하게 계산할 수 있습니다. LLM 제공자는 여러 Bird Notes MCP 서버를 동시에 호출하여 사용자들이 누가 더 나은 품질을 가지고 더 높은 매칭 가중치를 받는지 선택하고 평가하도록 할 수도 있습니다.
AI와 이더리움의 윈윈 조합
a. 우리는 Ethereum을 기반으로 OpenMCP.Network 생성자 인센티브 네트워크를 구축할 수 있습니다. MCP 서버는 안정적인 서비스를 호스팅하고 제공해야 합니다. 사용자는 LLM 제공자에게 비용을 지불하고, LLM 제공자는 네트워크를 통해 호출된 MCP 서버에 실제 인센티브를 분배하여 전체 네트워크의 지속 가능성과 안정성을 유지하고 MCP 제작자가 고품질 콘텐츠를 계속 만들고 제공하도록 영감을 줍니다. 이 네트워크에서는 스마트 계약을 사용하여 인센티브를 자동화하고, 투명하고, 신뢰할 수 있고, 검열이 불가능하도록 해야 합니다. 운영 중 서명, 권한 검증, 개인 정보 보호는 모두 이더리움 지갑과 ZK와 같은 기술을 사용하여 달성할 수 있습니다.
b. AA 지갑 호출 서비스와 같은 Ethereum 체인 운영과 관련된 MCP 서버를 개발합니다. 사용자는 LLM에 관련 개인 키와 권한을 노출하지 않고도 LLM의 언어를 통해 지갑 지불을 구현할 수 있습니다.
c. 또한 이더리움 스마트 계약 개발 및 코드 생성을 더욱 단순화하는 다양한 개발자 도구가 있습니다.
AI 분산화
a. MCP 서버는 AI 지식과 역량을 분산시킵니다. 누구나 MCP 서버를 만들고 호스팅하고, OpenMCP.Network와 같은 플랫폼에 등록하고, 호출에 따라 인센티브를 받을 수 있습니다. 어떤 단일 회사도 모든 MCP 서버를 제어할 수 없습니다. LLM 제공자가 MCP 서버에 불공정한 인센티브를 제공할 경우, 창작자들은 해당 회사를 차단하는 것을 지지할 것이고, 양질의 결과를 얻지 못하는 사용자들은 공정한 경쟁을 위해 다른 LLM 제공자로 전환할 것입니다.
b. 제작자는 개인 정보와 저작권을 보호하기 위해 자체 MCP 서버에서 세분화된 권한 제어를 구현할 수 있습니다. LLM 제공자는 합리적인 인센티브를 제공하여 제작자가 고품질 MCP 서버에 기여하도록 장려해야 합니다.
c. 얇은 LLM 인간 언어에는 상한이 있고 매우 느리게 진화하기 때문에 능력 격차는 점차적으로 사라질 것입니다. LLM 제공자는 엘릭서를 만드는 데 더 많은 그래픽 카드를 재사용하는 것보다는 고품질 MCP 서버에 주의와 자금을 집중해야 할 것입니다.
d. AGI의 기능은 분산되고 다운그레이드됩니다. LLM은 언어 처리 및 사용자 상호 작용에만 사용되고 특정 기능은 다양한 MCP 서버에 분산됩니다. MCP 서버를 종료한 후에는 기본적인 언어 대화만 가능하기 때문에 AGI는 인간에게 위협이 되지 않습니다.
05. 전체 리뷰
- LLM + MCP 서버의 구조적 발전은 본질적으로 AI 기능을 분산시키고 AGI가 인간을 파괴할 위험을 줄입니다.
- LLM을 활용하면 MCP 서버의 호출 횟수, 입출력 횟수를 토큰 수준에서 계산하고 자동화할 수 있어 AI 크리에이터 경제 시스템 구축의 기반이 마련됩니다.
- 좋은 경제 시스템은 창작자들이 고품질 MCP 서버 제작에 적극적으로 기여하도록 이끌고, 이를 통해 인류 전체의 발전을 촉진하고 긍정적인 추진력을 얻을 수 있습니다. 창작자들은 더 이상 AI에 저항하지 않을 것이고, AI는 더 많은 일자리와 소득을 제공하고, OpenAI와 같은 독점 상업 기업의 이익을 합리적으로 분배할 것입니다.
- 이 경제 시스템은 그 특성과 창작자의 요구 사항을 결합하여 이더리움 기반 구현에 매우 적합합니다.
06. 미래 전망: 스크립트 진화의 다음 단계
- MCP 또는 MCP와 유사한 프로토콜이 끊임없이 등장하고, 몇몇 대기업이 표준 정의를 위해 경쟁을 시작할 것입니다.
- MCP 기반 LLM이 등장할 것입니다. 이는 인간 언어를 구문 분석하고 처리하는 데 초점을 맞춘 소규모 모델이며, MCP 네트워크에 액세스하기 위해 MCP 코디네이터가 연결됩니다. LLM은 복잡한 수동 구성 없이 MCP 서버의 자동 검색 및 스케줄링을 지원합니다.
- MCP 네트워크 서비스 제공자는 각자 고유한 경제적 인센티브 시스템을 갖추고 등장할 것이고, MCP 제작자는 자신의 서버를 등록하고 호스팅하여 수입을 얻을 수 있습니다.
- MCP 네트워크의 경제적 인센티브 시스템을 이더리움과 스마트 계약을 기반으로 구축한다면, 이더리움 네트워크의 거래는 보수적으로 약 150배 증가할 것입니다(매우 보수적으로 하루 MCP 서버에 대한 1억 건의 호출과, 현재 블록당 12개, 100건의 거래 포함).