어제 Mira Network의 공개 테스트넷이 출시되는 것을 보았습니다. 이는 AI에 대한 신뢰 계층을 구축하려는 시도입니다. 그렇다면 AI를 신뢰해야 하는 이유는 무엇일까? 미라는 이 문제를 어떻게 해결하나요?

사람들이 AI에 대해 논의할 때, 그들은 AI 기능의 강력한 측면에 더 집중합니다. 하지만 흥미로운 점은 AI에는 '환상' 혹은 편견이 있다는 것입니다. 사람들은 이 문제에 별로 관심을 기울이지 않습니다. AI의 "환각"이란 무엇인가? 간단히 말해서, AI는 때때로 "이야기를 만들어내고" 진지하게 말도 안 되는 소리를 한다. 예를 들어, AI에게 왜 달이 분홍색인지 물어보세요. 그것은 당신에게 심각한 방식으로 겉보기에 타당한 설명을 많이 할 수도 있습니다.

AI에 "환상" 또는 편향이 존재하는 것은 일부 현재 AI 기술 경로와 관련이 있습니다. 예를 들어, 생성 AI는 일관성과 합리성을 달성할 "가능성이 가장 높은" 것을 예측하여 콘텐츠를 출력하지만 때로는 진위성을 검증할 수 없습니다. 또한, 훈련 데이터 자체에는 오류, 편향, 심지어 허구의 콘텐츠가 포함되어 있어 AI의 출력에도 영향을 미칩니다. 즉, AI는 사실 그 자체가 아니라 인간의 언어 패턴을 학습합니다.

간단히 말해, 현재의 확률 생성 메커니즘 + 데이터 기반 모델은 거의 필연적으로 AI 환각의 가능성을 가져온다.

이런 종류의 편향적이거나 허황된 내용이 그저 평범한 지식이나 오락이라면 당장은 직접적인 결과가 없을 것입니다. 그러나 의학, 법률, 항공, 금융 등과 같이 매우 엄격한 분야에서 발생한다면 직접적으로 중대한 결과를 초래할 것입니다. 따라서 AI의 환각과 편견을 어떻게 해소할 것인가는 AI 발전의 핵심 이슈 중 하나다. 일부는 검색 향상 생성 기술(검증된 사실의 출력을 우선순위 지정하기 위해 실시간 데이터베이스와 결합)을 사용하는 반면, 다른 일부는 수동 레이블 지정과 인간의 감독을 통해 모델 오류를 수정하기 위한 인간의 피드백을 도입합니다.

Mira 프로젝트는 또한 AI 편향과 환각의 문제를 해결하려고 노력하고 있습니다. 즉, Mira는 AI에 대한 신뢰 계층을 구축하고, AI 편향과 환각을 줄이고, AI의 신뢰성을 개선하려고 노력하고 있습니다. 그렇다면 전반적인 프레임워크에서 Mira는 어떻게 AI의 편견과 환상을 줄이고 궁극적으로 신뢰할 수 있는 AI를 구현할 수 있을까요?

Mira 구현의 핵심은 여러 AI 모델 합의를 통해 AI 출력을 검증하는 것입니다. 즉, 미라 자체가 AI 출력의 신뢰성을 검증하는 검증 네트워크이며, 여러 AI 모델의 합의를 활용합니다. 또한, 매우 중요한 점 중 하나는 검증을 위해 분산형 합의를 사용하는 것입니다.

따라서 미라 네트워크의 핵심은 분산형 합의 검증입니다. 분산형 합의 검증은 암호화 분야가 탁월한 분야이며, 또한 여러 모델의 시너지 효과를 활용하여 집단 검증 모드를 통해 편향과 환상을 줄입니다.

검증 아키텍처 측면에서는 독립적으로 검증 가능한 진술이 필요하며, Mira 프로토콜은 복잡한 내용을 독립적으로 검증 가능한 진술로 변환하는 것을 지원합니다. 이러한 진술은 노드 운영자가 검증에 참여하도록 요구합니다. 노드 운영자의 정직성을 보장하기 위해, 다양한 AI 모델 + 분산 노드 운영자를 구현하기 위해 암호 경제적 인센티브/페널티가 여기에서 사용되어 검증 결과의 신뢰성을 보장합니다.

미라의 네트워크 아키텍처에는 검증의 신뢰성을 달성하기 위한 콘텐츠 변환, 분산 검증, 합의 메커니즘이 포함되어 있습니다. 이 아키텍처에서는 콘텐츠 변환이 중요한 부분입니다. Mira 네트워크는 먼저 후보 콘텐츠(일반적으로 고객이 제출)를 여러 검증 가능한 진술로 분해합니다(모델이 동일한 맥락에서 이해될 수 있도록 하기 위함). 이러한 진술은 시스템에서 노드에 배포하여 진술의 유효성을 확인하고 결과를 집계하여 합의에 도달하기 위한 검증을 실시합니다. 이러한 결과와 합의는 고객에게 반환됩니다. 또한, 고객의 개인정보를 보호하기 위해 후보자 콘텐츠 변환 내용을 진술문 쌍으로 분해하여 무작위로 샤딩하고 다른 노드에 제공하여 검증 과정에서 정보 유출을 방지합니다.

노드 운영자는 검증자 모델을 실행하고, 클레임을 처리하고, 검증 결과를 제출하는 일을 담당합니다. 노드 운영자가 클레임 검증에 참여하려고 하는 이유는 무엇입니까? 수익을 낼 수 있기 때문이죠. 이익은 어디에서 나오나요? 고객을 위해 창출된 가치로부터. Mira 네트워크의 목적은 AI의 오류율(환상과 편견)을 줄이는 것입니다. 이 목표를 달성하면 가치를 창출할 수 있습니다. 예를 들어, 의학, 법률, 항공, 금융 등의 분야에서 오류율을 줄이면 엄청난 가치가 창출됩니다. 그러므로 고객들은 기꺼이 비용을 지불합니다. 물론, 결제의 지속 가능성과 규모는 Mira 네트워크가 고객에게 지속적으로 가치를 제공할 수 있는지(AI 오류율을 줄이는지)에 달려 있습니다. 또한, 무작위로 대응하는 노드의 기회주의적 행동을 방지하기 위해, 지속적으로 합의에서 벗어나는 노드의 지분 토큰은 슬래싱됩니다. 간단히 말해, 노드 운영자들이 검증에 정직하게 참여하도록 하는 것은 경제적 메커니즘의 게임을 통해 보장됩니다.

전반적으로 Mira는 AI의 신뢰성을 달성하기 위한 새로운 솔루션을 제공합니다. 즉, 여러 AI 모델을 기반으로 하는 분산형 합의 검증 네트워크를 구축하고, 고객 AI 서비스의 신뢰성을 높이고, AI 편향과 환상을 줄이며, 더 높은 정확도와 정밀도에 대한 고객 요구를 충족하는 것입니다. 고객에게 가치를 제공함으로써 Mira 네트워크 참여자에게 혜택을 가져다줍니다. 한 문장으로 요약하자면, 미라는 AI에 대한 신뢰 계층을 구축하려고 노력하고 있습니다. 이는 AI의 심층적 적용을 강화하는 데 중요한 역할을 할 것입니다.

Mira가 현재 협력하고 있는 AI 에이전트 프레임워크로는 ai16z, ARC 등이 있습니다. Mira 네트워크의 퍼블릭 테스트넷이 어제 출시되었습니다. 사용자는 Mira 기반 LLM 채팅 애플리케이션인 Klok을 사용하여 Mira 퍼블릭 테스트넷에 참여할 수 있습니다. Klok 애플리케이션을 사용하면 검증된 AI 출력을 경험하고(검증되지 않은 AI 출력과 비교할 수 있음) Mira 포인트를 획득할 수 있습니다. 포인트의 향후 사용 방법은 아직 공개되지 않았습니다.