Tiger Research Reports
타이거리서치
그라디언트(Gradient): 오픈 인텔리전스로 여는 새로운 AI 시대
0:00
-16:34

그라디언트(Gradient): 오픈 인텔리전스로 여는 새로운 AI 시대

AI 기술이 우리 삶의 모든 영역에 스며들었다. 의존도가 높아질수록 우리는 통제권을 잃어가고 있다. 소버린(Sovereign) AI는 더 이상 선택이 아닌 필수가 되었다. 과연 미래에 진정한 AI 독립을 이룰 수 있을지, 그라디언트(Gradient)의 도전을 통해 그 답을 찾아본다.


Key Takeaways

  • 그라디언트는 전 세계 유휴 컴퓨팅 자원을 연결한 분산 네트워크로 소수 빅테크 중심의 AI 산업 구조에 대안을 제시한다.

  • 오픈 인텔리전스 스택을 통해 자체 인프라 없이 누구나 LLM을 훈련하고 실행할 수 있는 환경을 제공한다.

  • 그라디언트는 UC 버클리, 홍콩과기대, ETH 취리히 출신 연구진으로 구성되어 있으며, 구글 딥마인드, 메타 등과의 협력도 이어가고 있어 지속적인 발전이 기대된다.


1. 편리함 이면에 숨겨진 위험: 의존성 함정

우리는 이제 원하는 것은 무엇이든 할 수 있는 마법같은 시대에 살고 있다. 프로그래밍 경험이 없어도 LLM과 대화하듯 프로토타입을 개발할 수 있고, 디자인 툴을 다뤄본 적 없어도 이미지를 쉽게 제작할 수 있다.

하지만 이 마법같은 능력은 언제든지 쉽게 사라질 수 있다. 우리가 이 능력을 완전히 소유하고 통제할 수 없기 때문이다. 지금 우리가 사용하는 대부분의 서비스는 오픈(OpenAI), 앤트로픽(Anthropic) 등 소수 거대 기업이 제공하는 기반 인프라 위에서 작동하고, 우리는 그 구조에 종속되어 있다.

만일, 이들이 제공하는 LLM을 사용할 수 없다고 가정해보자. 갑작스런 서버 장애로 중단될 수도 있고, 어떠한 이유로 특정 지역이나 사용자의 접근을 차단할 수 있다. 혹은 가격을 대폭 인상해 개인이나 소규모 기업이 사용하지 못하게 만들 수도 있다.

Source: Tiger Research

이런 상황이 현실이 된다면, 우리가 지금까지 ‘무엇이든 할 수 있다’고 믿었던 능력은 순식간에 ‘아무것도 할 수 없는’ 무력함으로 바뀔 수 있다. 이들에 대한 의존이 커지면 커질수록 이런 위험은 더 커진다.

이 위험은 이미 현실이 되고 있다. 2025년, 앤트로픽은 AI 코딩 스타트업 윈드서프(Windsurf)의 경쟁사 인수 소식 이후 사전안내 없이 클로드(Claude) API의 접근을 차단한 바 있다. 일부 사용자의 모델 접근이 제한되고 서비스 인프라를 긴급 재편해야 하는 상황에 놓였다. 한 기업의 결정이 다른 기업의 서비스 운영에 즉각적인 영향을 미친 사례다.

지금은 윈드서프와 같이 일부에게만 국한된 위험으로 보이지만, 의존도가 높아질수록 우리 모두가 마주할 문제다.


20,000명 이상의 웹3 시장 리더들이 읽고있는 아시아 웹3 시장의 인사이트를 가장 먼저 확인해보세요.


2. 그라디언트(Gradient): 새로운 미래를 여는 오픈 인텔리전스

Source: Gradient

그라디언트(Gradient)는 이 문제에 대한 해결책을 제시한다. 해법은 간단하다. 누구나 제한없이 탈중앙화된 방식으로 LLM을 개발하고 실행할 수 있는 환경을 제공해, 오픈AI나 앤트로픽 같은 소수 기업의 통제에서 벗어나게 하는 것이다.

그라디언트는 이를 어떻게 가능하게 만드는가? 이를 이해하기 위해서는 우선 LLM이 어떻게 만들어지고 작동하는지 살펴볼 필요가 있다. LLM은 훈련(Training)을 통해 만들어지고, 추론(Inference)을 통해 작동한다.

  • 훈련: AI 모델을 만드는 단계. 방대한 데이터를 분석하며 패턴과 규칙을 익힌다. 예를 들어 특정 단어 다음에 어떤 단어가 올 확률이 높은지, 질문에는 어떤 답변이 적합한지 등을 학습한다.

  • 추론: 학습된 모델을 사용하는 단계. 사용자의 질문을 받아 학습한 패턴을 바탕으로 가장 가능성이 높은 응답을 생성한다. 챗지피티(ChatGPT)나 클로드와 대화하는 순간이 바로 추론 과정이다.

문제는 이 두 단계 모두 막대한 비용과 컴퓨팅 자원을 요구한다는 점이다.

챗지피티의 GPT-4를 훈련시키는 데만 약 4,000만 달러 이상이 소요되었을 것으로 추산된다. 수만 개의 GPU를 수개월간 가동해야 하기 때문이다. 추론 역시 마찬가지다. 사용자 요청에 따라 응답을 생성할 때마다 고성능 GPU가 필요하다. 결국 이러한 높은 비용 장벽 때문에 AI 산업은 자본을 가진 빅테크 중심으로 재편될 수밖에 없었다.

그라디언트는 이 문제를 다른 방식으로 해결한다. 빅테크 기업들이 수만 개의 고성능 GPU로 거대한 데이터센터를 구축하는 것과 달리, 그라디언트는 전 세계에 흩어진 유휴 컴퓨팅 자원을 하나의 분산형 네트워크로 연결한다. 가령, 집에 있는 유휴 PC, 사무실의 유휴 서버, 연구실의 유휴 GPU 등이 하나의 거대한 클러스터처럼 작동하는 것이다.

이를 통해 개인이나 소규모 기업도 자체 인프라 없이 LLM을 훈련하고 실행할 수 있다. 결과적으로, 그라디언트는 AI가 소수의 전유물이 아닌 모두에게 열린 기술, ‘오픈 인텔리전스(Open Intelligence)’를 실현하고자 한다.

3. 오픈 인텔리전스를 가능하게 하는 세 가지 핵심 기술

그라디언트가 제시하는 ‘오픈 인텔리전스’는 매력적이지만, 구현은 쉽지 않다. 전 세계에 흩어진 컴퓨팅 자원들은 성능과 사양이 제각각이며, 이들을 안정적으로 연결하고 조율해야 하기 때문이다.

Source: Gradient

그라디언트는 세 가지 핵심 기술로 이를 풀어낸다. 우선 라티카(Lattica)는 분산 환경에서 기반 통신망을 구축하고, 패럴랙스(Parallax)는 그 속에서 추론을 담당한다. 마지막으로 에코(Echo)는 강화학습으로 모델을 훈련시킨다. 세 기술은 유기적으로 연결되어 ‘오픈 인텔리전스 스택(Open Intelligence Stack)’을 이룬다.

3.1. 라티카(Lattica): P2P 데이터 통신 프로토콜

일반적인 인터넷 서비스는 중앙 서버를 통해 연결된다. 우리가 메신저로 소통한다 해도 실제로는 중앙에 있는 서버가 중계해주는 것이다. 하지만 분산 네트워크는 중앙 서버 없이 각 컴퓨터가 직접 연결되어 통신해야 한다.

문제는 대부분의 컴퓨터가 직접 연결을 허용하지 않으며 외부에서 접근하기 어렵다는 것이다. 일반적으로 가정에서는 공유기를 거쳐 인터넷에 연결되기 때문에, 외부에서 개별 컴퓨터를 직접 찾아가기 어렵다. 아파트 주소만으로 특정 호수를 찾아가기 어려운 것과 비슷하다.

Source: Gradient

라티카는 이 문제를 효과적으로 해결한다. 핵심은 홀 펀칭(Hole Punching)이라는 기술이다. 이는 방화벽이나 NAT(Network Address Translation)에 일시적인 ‘통로’를 만들어 컴퓨터 간 직접 연결을 가능하게 하는 방식이다. 이를 통해 제한적이고 예측 불가능한 환경 속에서도 전 세계 컴퓨터들이 서로 직접 연결되는 P2P 네트워크를 구축할 수 있다. 연결이 성립되면 암호화 프로토콜을 적용하여 보안을 강화하고 안전하게 통신한다.

또한 분산 환경에서 LLM을 실행하고 결과를 전달하려면, 여러 노드 간에 데이터를 동시에 주고받으며 빠르게 동기화해야 한다. 이 과정에서 라티카는 토렌트와 유사한 비트스왑(BitSwap) 프로토콜을 활용해 모델 파일과 중간 처리 결과를 효율적으로 전송한다.

Source: Gradient

이를 통해 분산 환경에서도 안정적이고 효율적으로 데이터를 주고받을 수 있다. 마치 분산 AI를 위한 고속도로망을 깔아주는 것과 같다. 라티카는 AI 학습이나 추론뿐만 아니라 분산형 비디오 스트리밍 등 다양한 응용 분야에서도 활용될 수 있다. 라티카의 데모를 통해 어떻게 작동하는지 직접 확인할 수 있다.

3.2. 패럴랙스(Parallax): 분산 추론 엔진

라티카가 전 세계 컴퓨터들을 연결하는 문제를 해결했다면, 이제 남은 과제는 실제로 LLM을 실행하는 것이다. 오픈소스 모델이 점점 더 발전하고 있지만, 일반 사용자들이 직접 실행하기는 여전히 어렵다. LLM을 실행하기 위해서는 막대한 컴퓨팅 자원이 필요한데, 딥시크 60B 모델만 하더라도 고성능 GPU가 필수적이기 때문이다.

패럴랙스는 이 문제를 해결한다. 핵심 아이디어는 하나의 거대한 모델을 레이어 단위로 나눠 여러 대의 디바이스에 분산시키는 것이다. 각 디바이스는 자신이 맡은 레이어만 처리하고 결과는 다음 디바이스로 전달한다. 마치 자동차 공장의 조립 라인처럼, 각 단계에서 하나씩 처리하며 최종 결과를 완성해 나가는 것이다.

Gradient Chat, Source: Gradient

하지만 단순히 나누기만 해서는 효율적이지 않다. 참여하는 디바이스의 성능이 제각각이기 때문이다. 고성능 GPU가 빠르게 처리해도 다음 디바이스에서 늦게 처리하면 병목이 된다. 패럴랙스는 각 디바이스의 성능과 속도를 실시간으로 분석해 최적의 조합을 찾아낸다. 이를 통해 병목 현상을 최소화하고 모든 디바이스를 효율적으로 활용한다.

Source: Qwen

또한 패럴랙스는 필요에 따라 유연하게 옵션을 선택할 수 있다. 현재 큐웬(Qwen), 키미(Kimi) 등 40개 이상의 오픈소스 모델을 지원해 원하는 모델을 직접 선택해 사용할 수 있다. 뿐만 아니라, 모델의 규모에 따라 실행 방식을 조정할 수 있다. 예를 들어, 로컬호스트에서 개인 PC로 소형 모델을 실행하거나(Ollama와 같이), 코호스트(Co-Host)로 가족이나 팀 내 여러 기기를 연결하거나, 글로벌 호스트(Global Host)로 전 세계 네트워크에 참여할 수 있다.

3.3. 에코(Echo): 분산 강화 학습 프레임워크

패럴랙스가 누구나 모델을 실행할 수 있게 만들었다면, 에코는 모델을 학습시키는 문제를 다룬다. 사전 훈련된 LLM만으로는 실제 활용에 한계가 있다. AI가 특정 작업에서 진정으로 유용해지려면, 해당 작업에 맞춰 추가 학습이 필요하다. 여기서 강화학습(Reinforcement Learning, RL)이 등장한다.

강화학습은 시행착오를 통해 더 나은 행동을 찾아가는 학습 방식이다. 예를 들어 AI에게 수학 문제를 반복해서 풀게 하면서, 올바른 답에는 보상을, 잘못된 답에는 패널티를 부여한다. 이런 과정을 거치며 AI는 점차 정확한 답을 내는 법을 익힌다. 챗GPT가 인간의 선호에 맞춰 자연스럽게 답변하는 것도 바로 이 강화학습 덕분이다.

하지만 LLM 강화학습에는 막대한 컴퓨팅 자원이 필요하다는 근본적인 문제가 있다. 에코는 이를 해결하기 위해 강화학습 과정을 두 단계로 나누고, 각 단계에 최적화된 하드웨어를 배치하는 전략을 택했다.

첫 번째는 추론 단계다. AI가 수학 문제를 1만 번 풀어보며 어떤 답이 맞고 틀렸는지 데이터를 수집한다. 이 단계에서는 복잡한 연산보다 많은 시도를 동시다발적으로 진행하는 것이 핵심이다.

두 번째는 훈련 단계다. 수집된 데이터를 분석해 “어떤 접근이 좋은 결과를 냈는지” 파악하고, AI가 다음번에 그 방식을 따르도록 모델을 조정한다. 여기서는 복잡한 수학 연산을 빠르게 처리하는 능력이 관건이다.

Source: Gradient

에코는 이 두 단계를 각자 적합한 하드웨어로 분리 배치했다. 추론 스웜(Inference Swarm)는 패럴랙스를 활용해 전 세계에 흩어진 일반 PC에서 작동한다. RTX 5090이나 맥북 M4 Pro 같은 일반 디바이스 여러 대가 동시에 학습 샘플을 생성한다. 반면 훈련 스웜(Training Swarm)는 A100 같은 고성능 GPU를 사용해 모델을 빠르게 개선한다.

Source: Gradient

성과도 분명하다. 기존 강화학습 프레임워크인 VERL과 비교해도 동등한 성능을 달성했다. 이는 개인이나 소규모 기업도 분산 환경에서 자신의 목적에 맞게 LLM을 학습시킬 수 있다는 의미다. 에코는 강화학습의 진입장벽을 크게 낮춘 셈이다.

4. 소버린(Sovereign) AI: 오픈 인텔리전스가 만드는 새로운 가능성

AI가 선택이 아닌 필수가 된 시대, 소버린 AI의 중요성이 커지고 있다. 소버린 AI란 개인, 기업, 국가가 외부 의존 없이 독립적으로 AI를 소유하고 통제하는 것을 의미한다.

Source: Tiger Research

윈드서프 사례가 이를 명확히 보여준다. 앤트로픽이 이들의 클로드 API 접근을 차단하자, 기업은 순식간에 서비스 마비 위기에 직면했다. 핵심 인프라 제공자가 접근을 차단하면 기업 운영이 즉각적으로 타격을 받는다는 것이다. 데이터 유출 위험도 간과할 수 없는 문제다.

국가 차원에서도 마찬가지다. AI 기술이 미국과 중국을 중심으로 빠르게 발전하면서 다른 국가들은 점점 더 의존적인 위치에 놓이고 있다. 더욱이 현재 대부분의 LLM이 사전 학습에 사용한 언어의 90%가 영어다. 언어 불균형은 비영어권 국가들이 기술적으로 소외될 위험을 내포한다.

현재 진행중인 그라디언트의 다양한 연구

  • 벨리앤벨(Veil & Veri): AI를 위한 개인정보 보호 및 검증 레이어(추론 검증, 훈련 검증)

  • 미라지(Mirage): 물리적 세계 AI를 위한 분산 시뮬레이션 엔진 및 로봇 학습 플랫폼

  • 헬릭스(Helix): 소프트웨어 에이전트(SRE)를 위한 자가 진화 학습 프레임워크

  • 심포니(Symphony) — 군집 지능을 위한 다중 에이전트 자가 개선 조정 프레임워크

그라디언트의 오픈 인텔리전스 스택은 이 문제에 대한 대안을 제시한다. 다만 아직 완벽한 것은 아니다. 분산 네트워크에서 계산 결과를 어떻게 검증할 것인가? 누구나 참여할 수 있는 개방형 구조에서 품질과 신뢰성을 어떻게 보장할 것인가? 그라디언트는 이러한 도전 과제를 해결하기 위해 지속적인 연구개발을 진행하고 있다.

UC 버클리, 홍콩과기대(HKUST), ETH 취리히 등 세계적인 대학 출신 연구진들이 분산 AI 시스템 분야에서 꾸준히 성과를 내고 있으며, 구글 딥마인드, 메타 등과의 협력으로 기술 발전을 가속화하고 있다. 이러한 노력은 이미 투자 시장에서도 인정받아, 판테라 캐피털과 멀티코인 캐피털이 공동 주도하고 세쿼이아 차이나(현 HSG)가 참여한 1,000만 달러 규모의 시드 투자를 유치했다.

AI 기술의 중요성은 앞으로 더욱 커질 것이다. 누가 이를 소유하고 통제하는가는 핵심 문제가 된다. 그라디언트는 소수의 독점이 아닌, 모두가 접근 가능한 오픈 인텔리전스를 향해 나아가고 있다. 이들이 그리는 미래가 현실이 될 수 있을지 귀추가 주목된다.


20,000명 이상의 웹3 시장 리더들이 읽고있는 아시아 웹3 시장의 인사이트를 가장 먼저 확인해보세요.


🐯 More from Tiger Research

이번 리서치와 관련된 더 많은 자료를 읽어보세요.

Disclaimer

이 보고서는 그라디언트(Gradient)로부터 일부 원고료 지원을 받았으나, 신뢰할 수 있는 자료를 바탕으로 독립적인 조사를 통해 작성되었습니다. 하지만 이 보고서의 결론과 권고사항, 예상, 추정, 전망, 목표, 의견 및 관점은 작성 당시의 정보를 바탕으로 하며 예고 없이 변경될 수 있습니다. 이에 당사는 본 보고서나 그 내용을 이용함에 따른 모든 손실에 대해 책임을 지지 않으며 정보의 정확성, 완전성, 그리고 적합성을 명시적으로나 암시적으로 보증하지 않습니다. 또한 타인 및 타조직의 의견과 일치하지 않거나 반대될 수 있습니다. 이 보고서는 정보 제공의 목적으로 작성되었으며, 법률, 사업, 투자, 또는 세금에 관한 조언으로 간주되어서는 안 됩니다. 또한 증권이나 디지털 자산에 대한 언급은 설명을 위한 것일 뿐, 투자 권고나 투자 자문 서비스 제공을 제안하는 것이 아닙니다. 이 자료는 투자자나 잠재적 투자자를 대상으로 하지 않았습니다.

Terms of Usage

타이거리서치는 리포트의 공정 사용을 지지합니다. 이는 공익적 목적으로 콘텐츠를 인용하되 상업적 가치에 영향을 주지 않는 범위에서의 넓은 사용을 허용하는 원칙입니다. 공정 사용 규칙에 따라, 리포트를 사전 허가 없이 사용할 수 있으나, 타이거리서치 리포트를 인용 시에는 1) 출처로 ‘타이거리서치’를 분명히 밝히고, 2) 타이거리서치의 브랜드 가이드라인에 맞는 로고(Black/White)를 포함시켜야 합니다. 자료를 재구성하여 출판할 경우에는 별도의 협의가 요구됩니다. 사전 허가 없는 사용은 법적 조치를 초래할 수 있습니다.