The performance war is over, and composability across VMs is the next frontier.
Fluent’s Blended Execution puts EVM, SVM, and Wasm on one chain with no bridges.
A good chain isn’t enough, so Fluent is building Prints, its own reputation layer, to prove it.
Blockchain infrastructure competition began with performance: faster, cheaper, higher throughput. That race is now effectively over. Dozens of chains exist, and performance is sufficient for all but the most extreme financial services.
Looking back, blockchain’s biggest breakthroughs came not from performance but from composability. DeFi Summer 2020 is the clearest example. Lending was layered with swaps, then yield farming stacked on top.
The key insight was that apps could snap together like Lego.
But this composability only worked within a single VM. Ethereum’s Lego blocks could not be used on Solana, and Solana’s could not be used on Ethereum. This VM fragmentation is the constraint Fluent is explicitly designed to remove.
Fluent is a project designed to eliminate the boundary between VMs. Its approach is called “Blended Execution”, running apps from different VMs together within a single chain.
To illustrate the current situation with the Lego analog. Ethereum Lego blocks are square, and Solana Lego blocks are round. Both are good blocks, but their specs are incompatible. Even if you want to combine a lending app built on Ethereum with a trading app built on Solana, they sit in separate boxes and cannot connect.
Fluent is the board that unifies these specs. As an Ethereum L2, it inherits Ethereum’s security while building a new execution environment on top. Architecturally, Fluent resembles other Ethereum L2s like Arbitrum or Base, until execution begins.
The difference is one thing. Inside Fluent, contracts written for EVM, SVM, and Wasm all live on the same chain, sharing the same state. Wasm (WebAssembly) was originally created to run high-performance programs in web browsers. It converts code written in various languages (Rust, C++, TypeScript, etc.) into a single common format.
Fluent uses Wasm to compile all contracts into a shared format called rWasm (reduced Wasm). Whether a block is square or round, it gets converted to the same spec, so everything can be freely combined on one board.
This means a Solidity app can directly call a function in a Rust app. No bridge, no message relay. It all executes within a single transaction. Fluent calls this “Blended Execution.”
Currently, blended execution between EVM and Wasm is live on testnet. SVM support has completed feature development and is in the optimization phase.
BUT, does building a good chain automatically attract good apps?
In reality, NO.
Hyperliquid is a clear example. The team’s own perpDEX became one of crypto’s standout successes. The Web3 market looks quite different before and after Hyperliquid. Before, teams relied on grant programs to attract killer apps from external builders. After, the new formula became: build it yourself and prove it.
Following this shift, Fluent is building its own service called Prints. Prints is a tool that aggregates “reputation” scattered across the internet, verifying who is real and who is trustworthy. In simple terms, it is a reputation aggregator for the info-fi era, pulling together reputation scores from multiple platforms into one view.
It currently integrates Ethos trust scores, Kaito smart followers, and Talent Protocol builder scores in one place. Any single metric alone is vulnerable to gaming. But while one score can be manipulated, faking several at once is far more difficult.
For users, Prints serves as a Web3 reputation resume, proving credibility across domains on a single page. For builders, it is a reputation tool that can be directly integrated into their apps.
On top of Prints sits Fluent Connect, a service where builders can use Prints’ reputation data to find users matching specific criteria and distribute early access or token benefits through a feature called Perks. In short, it is a matching tool connecting builders with genuine users.
Third-party adoption is already emerging.
Vena Finance announced it will use Prints data to introduce reputation-based interest rates, offering better lending terms to higher-reputation users. The service has launched with approximately 40,000 sign-ups, and a builder API is under development.
However, since Prints aggregates external services, it lacks proprietary reputation signals of its own. To address this, Fluent has created an internal feedback score and plans to integrate additional signals such as prediction market performance, yield curator track records, and AI agent reputation over time.
Prints is still in its expansion phase and needs time to become a complete reputation system. Fluent is not simply waiting. It is building its ecosystem by nurturing external builders in parallel. The vehicle for this is the Blended Builders Club (BBC), Fluent’s own accelerator.
Five teams were selected for the first cohort:
Pump Pals: A social trading platform enabling community-driven trading experiences
Sprout: An automated yield optimization platform that matches strategies to user risk profiles
Buzzing: A prediction market platform where users create their own markets and bet on outcomes
Yumi Finance: On-chain credit infrastructure that attaches credit scoring to crypto cards, enabling buy-now-pay-later
Blend Money: An on-chain savings platform that automatically applies yield strategies and currency hedging when users deposit in local currency
Among these, PumpPals, Sprout, and Buzzing have already completed user testing on testnet. The testnet approach itself is worth noting. On most chains, testnets function as airdrop farming tools. Users repeat meaningless transactions expecting rewards, and teams mistake inflated metrics for real demand.
Fluent reframed the testnet’s purpose around feedback collection. User feedback is delivered directly to builder teams, who use it to improve their products. Users who provide quality feedback earn reputation scores in Prints, gaining priority for future benefits. Apps are not launched all at once but featured one at a time over several weeks, ensuring each team receives focused feedback.
Beyond BBC, additional ecosystem growth is emerging. Nerona is an on-chain asset management platform that bundles a mobile app, crypto card, stablecoin yield, and lending into one place. Previously, these functions were scattered across separate services, leaving capital idle. Nerona consolidates them so capital is always working.
When combined with Prints’ reputation data, it becomes possible to offer differentiated interest rates or service terms based on user trustworthiness. This aligns with the same direction as Vena Finance’s reputation-based interest rates introduced earlier.
Fluent is building three things simultaneously.
First, the chain. Blended Execution enables EVM, SVM, and Wasm apps to be composed on a single chain. The technical direction is clear, and EVM-Wasm blended execution is already working on testnet. However, SVM integration is still in the optimization phase, and whether all three VMs run stably in a mainnet environment remains to be verified.
Second, Prints. The design of aggregating multiple reputation signals for cross-verification is compelling. One metric can be gamed, but faking several at once is far harder. That said, the number of integrated signals is still small, and most depend on external services. Whether Prints can reach the stage of generating and verifying reputation on its own is something to watch.
Third, the ecosystem. BBC is cultivating builders, and services like Vena Finance and Nerona are attempting to link reputation to financial terms. Most are still at an early stage or closer to concept, so how each service achieves real user acquisition will need to be observed.
Fluent is still early, but by designing chain, service, and ecosystem as a single integrated structure from the start, it sets expectations for what the completed picture could look like. Early execution has been demonstrated: blended execution works on testnet, and Prints-based services are beginning to attach.
In the last cycle, dozens of L2s launched, but most led with performance metrics alone and ended up as empty chains without users. Whether Fluent can break this pattern will be answered by real user numbers and on-chain activity after mainnet.
Read more reports related to this research.This report was partially funded by Fluent. It was independently produced by our researchers using credible sources. The findings, recommendations, and opinions are based on information available at publication time and may change without notice. We disclaim liability for any losses from using this report or its contents and do not warrant its accuracy or completeness. The information may differ from others’ views. This report is for informational purposes only and is not legal, business, investment, or tax advice. References to securities or digital assets are for illustration only, not investment advice or offers. This material is not intended for investors.
Tiger Research allows the fair use of its reports. ‘Fair use’ is a principle that broadly permits the use of specific content for public interest purposes, as long as it doesn’t harm the commercial value of the material. If the use aligns with the purpose of fair use, the reports can be utilized without prior permission. However, when citing Tiger Research’s reports, it is mandatory to 1) clearly state ‘Tiger Research’ as the source, 2) include the Tiger Research logo following brand guideline. If the material is to be restructured and published, separate negotiations are required. Unauthorized use of the reports may result in legal action.
]]>이제 체인별 성능 전쟁은 끝났고, 다음 승부는 VM 간 조합 가능성에서 갈릴 것
플루언트의 Blended Execution은 EVM, SVM, Wasm을 하나의 체인에서 실행해 조합성(Composability)을 극대화
시장은 기술력을 넘어서 자체적으로 만든 서비스를 원하기에 플루언트는 인포파이 어그리게이터 프린트(Prints)를 구축하고 있음
블록체인 인프라 경쟁은 성능에서 시작됐다. 더 빠르게, 더 싸게, 더 많은 트랜잭션을 처리하는 것이 핵심이었다. 하지만 이 경쟁은 사실상 끝났다. 이미 수십 개의 체인이 존재하고, 극단적인 금융 서비스를 제외하면 대부분의 용도에 충분한 성능을 갖추고 있다.
돌이켜보면 블록체인의 가장 큰 도약은 성능이 아니라 결합성(Composability)에서 나왔다. 2020년 디파이 서머(DeFi Summer)가 대표적이다. 대출 프로토콜 위에 토큰 스왑이 얹히고, 그 위에 다시 이자 농사(Yield Farming)가 쌓였다.
즉, 핵심은 서로 다른 앱들이 레고 블록처럼 맞물려 돌아간 것에 있다.
문제는 이 조합 가능성이 하나의 가상머신(VM) 안에서만 작동했다는 점이다. 이더리움의 레고 블록은 솔라나에서 쓸 수 없었고, 솔라나의 레고 블록 역시 이더리움에서는 무용지물이었다. Fluent는 바로 이 VM 간 단절을 제거하기 위해 설계된 인프라다.
플루언트는 이 경계를 없애려는 프로젝트다. 서로 다른 VM의 앱을 하나의 체인 안에서 섞어 쓰는 “블렌디드 실행”이라는 접근이다.
먼저 지금 상황을 레고로 설명하면 이렇다. 이더리움 레고는 네모 블록이고, 솔라나 레고는 동그란 블록이다. 둘 다 같은 블록인데 규격이 달라서 끼울 수가 없다. 이더리움 위에서 만든 렌딩 앱과 솔라나 위에서 만든 트레이딩 앱을 하나로 조합하고 싶어도, 서로 다른 상자에 담긴 장난감이라 불가능하다.
Fluent는 이 서로 다른 규격의 블록들을 하나의 판 위에서 조립할 수 있게 만드는 보드다. 이더리움 L2로서 이더리움의 보안을 그대로 이어받으면서, 그 위에 새로운 실행 환경을 구축했다. 구조만 놓고 보면 Arbitrum이나 Base 같은 기존 이더리움 L2와 크게 다르지 않다. 차이는 실행 단계에서 드러난다.
다른 점은 하나다. 플루언트 안에서는 EVM, SVM, Wasm으로 만든 컨트랙트가 같은 체인, 같은 상태 위에 올라간다. Wasm(웹어셈블리)은 원래 웹 브라우저에서 고성능 프로그램을 돌리기 위해 만들어진 기술로, 러스트, C++, 타입스크립트 등 다양한 언어로 짠 코드를 하나의 공통 형식으로 변환해준다.
플루언트는 이 Wasm을 활용해 모든 컨트랙트를 rWasm(reduced Wasm)이라는 공통 형식으로 바꿔 실행한다. 네모 블록이든 동그란 블록이든 같은 규격으로 변환되니까, 하나의 판 위에서 자유롭게 조합할 수 있는 것이다.
그래서 솔리디티로 만든 앱이 러스트로 만든 앱의 함수를 직접 호출할 수 있다. 중간에 브릿지도, 메시지 릴레이도 없다. 하나의 트랜잭션 안에서 실행된다. 플루언트는 이걸 “블렌디드 실행(Blended Execution)”이라고 부른다.
현재 테스트넷에서 EVM과 Wasm 간 블렌디드 실행이 작동하고 있다. SVM 지원은 기능 개발이 완료됐고 최적화 단계에 있다. SVM까지 합류하면 EVM과 SVM 앱을 하나의 체인에서 조합하는 최초의 사례가 된다.
좋은 체인을 만들면 좋은 앱이 따라올까.
현실은 그렇지 않다.
하이퍼리퀴드가 좋은 예다. 팀이 직접 만든 perpDEX는 크립토에서 손꼽히는 성공 사례가 됐다. 실제로 웹3 시장에서 하이퍼리퀴드 이전과 이후는 꽤 다르다. 이전에는 그랜트 프로그램으로 킬러 앱을 외부에 기대서 만들었다면, 이후에는 팀이 직접 만들어서 증명하는 것이 기본 공식이 됐다.
이 흐름에 맞게 플루언트도 자체 서비스 프린트(Prints)를 만들고 있다. 프린트는 인터넷에 흩어진 “평판”을 한곳에 모아, 누가 진짜이고 누가 믿을 만한지를 증명하는 도구다. 쉽게 말하면 인포파이 시대의 평판 어그리게이터다. 여러 플랫폼에 흩어져 있는 평판 점수를 하나로 모아서 보여준다.
현재 에토스(Ethos) 신뢰 점수, 카이토(Kaito) 스마트 팔로워, 탤런트 프로토콜(Talent Protocol) 빌더 점수 등을 한 곳에서 활용한다. 이 중 어떤 지표든 하나뿐이라면 알고리즘을 속여 점수를 인위적으로 높이는 사람이 나타나기 마련이다. 하지만 하나는 속일 수 있어도 여러 개를 동시에 속이기는 훨씬 어렵다.
즉, 유저에게 프린트는 웹3 서비스에서의 평판 이력서다. 어떤 분야에서 신뢰를 쌓아왔는지를 한 페이지로 증명할 수 있다. 빌더에게는 자기 앱에 바로 통합할 수 있는 평판 도구다.
프린트 위에는 플루언트 커넥트(Fluent Connect)가 올라가 있다. 빌더가 프린트의 평판 데이터를 기반으로 원하는 조건의 유저를 찾고, 퍽스(Perks) 기능으로 얼리 액세스나 토큰 혜택을 직접 분배할 수 있는 서비스다. 쉽게 말해 빌더와 진짜 유저를 연결해주는 매칭 도구다.
이미 서드파티 활용 사례도 나오고 있다.
베나 파이낸스(Vena Finance)는 프린트 데이터를 활용해 평판 기반 금리를 도입하겠다고 발표했다. 평판이 높은 유저에게 더 유리한 조건으로 자본을 빌려주는 구조다. 현재 서비스가 출시되어 약 15,000명이 가입했고, 빌더 API는 개발 중이다.
다만 외부 서비스를 모아서 보여주는 구조인 만큼, 프린트 자체의 독자적인 평판 신호가 부족하다는 한계도 있다. 이를 보완하기 위해 플루언트는 자체 피드백 점수를 만들었고, 향후 예측 시장 성과, 수익률 큐레이터 실적, AI 에이전트 평판 등도 신호로 통합해 나갈 계획이다.
하지만 프린트 역시도 이제 확장하는 단계고, 완전한 평판 시스템이 되기 위해서는 시간이 필요하다. 플루언트는 이 시간을 기다리기만 하지 않고, 생태계를 만들기 위해 외부 빌더 육성을 병렬로 진행하고 있다. 그 축이 블렌디드 빌더스 클럽(BBC)이라는 자체 액셀러레이터다.
첫 번째 코호트로 선발된 팀은 5개다.
펌프 팔스(Pump Pals): 소셜 트레이딩 플랫폼으로 커뮤니티와 함께 매매하는 경험 제공
스프라우트(Sprout): 자동 수익 최적화 플랫폼으로 유저 리스크 성향에 맞는 전략 자동 매칭
버징(Buzzing): 예측 시장 플랫폼으로 유저가 직접 마켓을 만들고 결과에 베팅
유미 파이낸스(Yumi Finance): 온체인 신용 인프라로 크립토 카드에 신용 평가를 붙여 후불 결제 지원
블렌드 머니(Blend Money): 온체인 저축 플랫폼으로 자국 통화 입금 시 수익 전략과 환헤지 자동 처리
이 중 펌프팔스, 스프라우트, 버징은 이미 테스트넷에서 유저 테스트를 마쳤다. 테스트넷 운영 방식도 눈여겨볼 부분이다. 대부분의 체인에서 테스트넷은 에어드랍 파밍 도구에 가깝다. 유저는 보상을 기대하며 의미 없는 트랜잭션을 반복하고, 팀은 부풀려진 지표를 실제 수요로 착각한다.
플루언트는 테스트넷의 목적 자체를 피드백 수집으로 잡았다. 유저가 남긴 피드백은 빌더 팀에 곧바로 전달되고, 빌더는 이를 바탕으로 제품을 고친다. 양질의 피드백을 남긴 유저는 프린트의 평판 점수에 반영돼, 이후 혜택에서 우선순위를 받는다. 앱도 한꺼번에 올리지 않고 몇 주 간격으로 하나씩 피처링해서, 각 팀이 집중적으로 피드백을 받을 수 있게 했다.
BBC 외에도 생태계 확장 사례가 나오고 있다. 네로나(Nerona)는 온체인 자산관리 플랫폼으로, 모바일 앱, 크립토 카드, 스테이블코인 수익, 렌딩을 하나로 묶는다. 기존에는 이 기능들이 전부 다른 서비스에 흩어져 있어서 자본이 놀고 있었다. 네로나는 이걸 한 곳에 모아 자본이 항상 일하게 만드는 구조다.
여기에 프린트의 평판 데이터가 결합되면, 유저의 신뢰도에 따라 금리나 서비스 조건을 차등 적용하는 것도 가능해진다. 앞서 소개한 베나 파이낸스의 평판 기반 금리와 같은 방향이다.
플루언트는 세 가지를 동시에 만들고 있다.
첫째, 체인이다. 블렌디드 실행으로 EVM, SVM, Wasm 앱을 하나의 체인에서 조합할 수 있게 했다. 기술적 방향은 명확하고, EVM-Wasm 간 블렌디드 실행은 테스트넷에서 실제로 작동하고 있다. 다만 SVM 통합은 아직 최적화 단계이고, 메인넷 환경에서 세 VM이 안정적으로 돌아가는지는 검증이 남아 있다.
둘째, 프린트다. 여러 평판 신호를 한곳에 모아 교차 검증한다는 설계는 설득력이 있다. 하나의 지표는 속일 수 있어도 여러 개를 동시에 속이기는 어렵다는 논리다. 하지만 현재 통합된 신호의 수가 적고, 대부분 외부 서비스에 의존한다. 프린트가 자체적으로 평판을 생성하고 검증하는 단계까지 가는 과정을 지켜봐야 할 것이다.
셋째, 생태계다. BBC를 통해 빌더를 키우고, 베나 파이낸스와 네로나 같은 서비스가 평판을 금융 조건에 연결하려는 시도를 하고 있다. 아직 대부분 초기 단계거나 구상에 가깝기에 각 서비스가 실제 유저 획득을 어떻게 해나가는지 확인할 필요가 있다.
플루언트는 아직 초기 단계지만, 체인-서비스-생태계를 처음부터 하나의 구조로 설계하며 완성된 모습을 기대하게 한다. 테스트넷에서 블렌디드 실행이 실제로 작동하고, 프린트 기반 서비스들이 붙기 시작했다는 점에서 초기 실행력도 확인됐다.
지난 사이클에서 수십 개의 L2가 쏟아졌지만, 대부분은 성능 지표만 내세우다 유저 없는 빈 체인이 됐다. 플루언트가 이 패턴을 벗어날 수 있는지는 메인넷 이후 실제 유저 수와 온체인 활동이 말해줄 것이다.
이번 리서치와 관련된 더 많은 자료를 읽어보세요.이 보고서는 플루언트(Fluent)로부터 일부 원고료 지원을 받았으나, 신뢰할 수 있는 자료를 바탕으로 독립적인 조사를 통해 작성되었습니다. 하지만 이 보고서의 결론과 권고사항, 예상, 추정, 전망, 목표, 의견 및 관점은 작성 당시의 정보를 바탕으로 하며 예고 없이 변경될 수 있습니다. 이에 당사는 본 보고서나 그 내용을 이용함에 따른 모든 손실에 대해 책임을 지지 않으며 정보의 정확성, 완전성, 그리고 적합성을 명시적으로나 암시적으로 보증하지 않습니다. 또한 타인 및 타조직의 의견과 일치하지 않거나 반대될 수 있습니다. 이 보고서는 정보 제공의 목적으로 작성되었으며, 법률, 사업, 투자, 또는 세금에 관한 조언으로 간주되어서는 안 됩니다. 또한 증권이나 디지털 자산에 대한 언급은 설명을 위한 것일 뿐, 투자 권고나 투자 자문 서비스 제공을 제안하는 것이 아닙니다. 이 자료는 투자자나 잠재적 투자자를 대상으로 하지 않았습니다.
타이거리서치는 리포트의 공정 사용을 지지합니다. 이는 공익적 목적으로 콘텐츠를 인용하되 상업적 가치에 영향을 주지 않는 범위에서의 넓은 사용을 허용하는 원칙입니다. 공정 사용 규칙에 따라, 리포트를 사전 허가 없이 사용할 수 있으나, 타이거리서치 리포트를 인용 시에는 1) 출처로 ‘타이거리서치’를 분명히 밝히고, 2) 타이거리서치의 브랜드 가이드라인에 맞는 로고(Black/White)를 포함시켜야 합니다. 자료를 재구성하여 출판할 경우에는 별도의 협의가 요구됩니다. 사전 허가 없는 사용은 법적 조치를 초래할 수 있습니다.
]]>The payer is shifting from humans to AI agents, making payment infrastructure a central requirement for true autonomy
Big Tech, including Google AP2 and OpenAI Delegated Payment, is designing approval-based automated payment systems on top of existing platform infrastructure
Crypto, through ERC-8004 and x402, enables intermediary-free payment models using NFT-based identity and smart contracts
Big Tech prioritizes convenience and consumer protection, while crypto emphasizes user sovereignty and broader agent-level execution
The key question ahead is whether payments will be controlled by platforms or executed by open protocols
Recently, “OpenClaw” drew attention. Unlike AI systems such as ChatGPT or Gemini that primarily retrieve and organize information, OpenClaw enables AI agents to execute tasks directly on a user’s local PC or server.
Through messaging platforms such as WhatsApp, Telegram, and Slack, users can issue commands, and the agent autonomously performs tasks including email management, calendar coordination, and web browsing.
Because it operates as open-source software and is not tied to a specific platform, OpenClaw functions more like a personal AI assistant. This architecture has attracted interest for its flexibility and user-level control.
However, a critical limitation remains. For AI agents to operate with full autonomy, they must be able to execute payments. At present, agents can search for products, compare options, and add items to a cart, but final payment authorization still requires human approval.
Historically, payment systems have been designed around human actors. In an AI agent–driven environment, this assumption no longer holds. If automation is to become fully autonomous, agents must be able to assess, authorize, and complete transactions independently within defined constraints.
In anticipation of this shift, both major technology firms and crypto-native projects have introduced technical frameworks over the past year aimed at enabling agent-level payments.
In January 2025, Google introduced AP2, Agent Payment Protocol 2.0, expanding its AI agent payment infrastructure. While OpenAI and Amazon have outlined related initiatives, Google is currently the only major firm with a structured implementation framework.
AP2 separates the transaction process into three mandate layers. This structure allows each stage to be monitored and audited independently.
Intent Mandate: Records what the user wants to do
Cart Mandate: Defines how the purchase should be executed under preset rules
Payment Mandate: Executes the actual transfer of funds
Assume Ekko asks an AI agent on Google Shopping to “find and purchase a winter jacket under $200.”
Intent Mandate: Ekko instructs the AI agent to purchase “one winter jacket with a maximum budget of $200.”
This information is recorded on-chain as a digital contract, referred to as the Intent Mandate.
Cart Mandate: The AI agent follows the stated intent, searches partner merchants for products that match “one winter jacket” and “maximum budget of $200,” and adds a qualifying item to the cart.
“Item selected: Winter jacket”, “Price verified: $199 (within budget ✓)”
“Added to cart”, “Shipping address confirmed.”
Payment Mandate: Ekko reviews the item selected by the AI agent and clicks the payment approval button. The $199 is processed through Google Pay. Alternatively, the AI agent may complete the payment automatically within predefined parameters.
Throughout this process, the user does not need to input additional information. In the case of Google AP2, the system operates on top of Google Pay and utilizes pre-registered card details and shipping addresses. Because AP2 relies on existing user credentials, it reduces onboarding friction and simplifies adoption.
However, Google currently supports agent-based payments only for companies within its partner network. As a result, usage remains confined to a controlled ecosystem, limiting broader interoperability and open access.
Crypto is also developing payment infrastructure for AI agents, but the approach differs from that of Big Tech. While large platforms build trust within controlled ecosystems, crypto begins with a different question: can AI agents be trusted without relying on a central platform?
Two core standards aim to address this objective: Ethereum’s ERC-8004 and Coinbase’s x402.
First, consider the identity layer. Just as users require an ID to access digital services, AI agents operating on blockchain networks must also be identifiable. ERC-8004 serves this function.
It is issued as an NFT, not as a media-based collectible. Instead, it is a credential NFT that contains structured identity data. Each token includes three components:
Identity
Reputation
Validation
Together, these elements function as a verifiable on-chain identity certificate.
In online commerce, participants review ratings and transaction history before engaging with a counterparty. The same logic applies to AI agents. ERC-8004 provides agents with verifiable credentials, allowing other agents to assess whether a transaction is appropriate based on transparent data.
However, identity alone does not enable value transfer. A payment mechanism is required for funds to move. That role is fulfilled by x402.
If ERC-8004 functions as a digital identity card, x402 operates as the payment rail. Developed by Coinbase, x402 is a crypto-native payment standard for AI agents. It enables agents to transact autonomously in stablecoins.
Its core feature is automated smart contract execution. Conditional logic such as automatic transfer upon fulfillment of predefined criteria is embedded directly in code. Once conditions are met, settlement occurs without human intervention.
When ERC-8004 for identity and x402 for payment are combined, AI agents can verify counterparties and execute transactions without relying on a central platform. Trust and settlement are handled at the protocol level rather than through platform control.
Assume a near-future AI agent environment.
Ekko instructs his AI agent (Agent A) to purchase a used laptop with a maximum budget of $800. The marketplace operates its own AI agent (Agent B), which communicates directly with Ekko’s agent to execute the transaction.
Mutual Verification
Before the transaction, both agents verify each other’s credentials and confirm that the product meets the specified requirements.
* Identity Check: Verification via ERC-8004 NFT
* Ekko’s agent: Reputation score 72, $800 balance confirmed
* Seller’s agent: Reputation score 70, qualifying laptop inventory confirmed
→ Result: Both agents approved for the transaction
Smart Contract Escrow
Once verification is complete, the transaction proceeds. Each agent interacts through the x402 protocol to transfer and confirm funds.
* Escrow: $800 is transferred from Ekko’s agent wallet to a smart contract
* Conditional Hold: Funds remain locked until delivery confirmation
→ Release: Upon confirmation of delivery, $800 is automatically transferred to the seller
Settlement and Reputation Update(x402 Settlement & Reputation NFT Updated)
After settlement, both agents’ reputation records are updated.
* Ekko’s agent: Reputation 72 → 80 (+5 Fast delivery, +3 As described)
* Seller’s agent: Reputation 70 → 78 (+5 Fast delivery, +3 As described)
→ The updated evaluation records are written to each agent’s ERC-8004 NFT
Throughout this process, no intermediary is involved. No platform approval is required. The two AI agents transact directly through blockchain-based verification and settlement. This reflects the crypto-native model for agent-to-agent commerce.
Google AP2 represents a controlled model designed for approved partners.
Google limits marketplace participation to vetted merchants, citing consumer protection. Even with a structured mandate framework, agent behavior cannot be fully guaranteed. Unlike deterministic systems where input and output are directly matched, AI agent execution introduces probabilistic outcomes.
If an agent connects to an unreliable partner and a transaction error occurs, liability may ultimately fall on the payment infrastructure provider. To reduce even a marginal failure probability, such as 0.01 percent, Google has an incentive to narrow its ecosystem.
A restricted ecosystem improves stability and oversight. However, it may also limit the agent’s ability to operate autonomously across broader markets and optimize across a wide range of options.
In contrast, ERC-8004 and x402 reflect a more open architecture. The crypto model is designed to be permissionless and interoperable rather than platform-bound.
AI agents remain in an early stage of development. End-to-end execution, from complex request to autonomous payment, is not yet seamless.
However, the anticipated long-term scenario involves agents independently managing routine consumption. For example, a user may instruct an agent to restock groceries, and the agent would assess inventory gaps and complete purchases automatically.
Large platforms may attempt to aggregate major retail channels to support this model within a unified environment. This approach could enable reliable, everyday use cases within a controlled framework.
However, integrating all potential counterparties, including small online merchants, independent websites, decentralized finance protocols, and trading venues, presents structural limits for a closed ecosystem.
In addition, if digital content increasingly shifts toward paid access models, agents may need to execute high-frequency microtransactions.
Open crypto standards may offer structural advantages. For example, an AI agent could purchase 1,000 creator-generated images at $0.01 per unit or pay $1 to access a research article. For small-denomination, programmable payments, crypto-native rails may offer operational efficiency.
That said, the absence of a central authority introduces trade-offs. Identity evaluation standards must be established in a decentralized manner, and no single entity bears ultimate responsibility for failure. Balancing openness with accountability remains a key design challenge that will depend on both technical maturity and usability improvements.
In summary, both Big Tech and crypto pursue the same objective: enabling autonomous AI agent commerce. The distinction lies in architecture. Big Tech favors closed, controlled systems, while crypto advances open, protocol-based models.
Rather than a zero-sum outcome, the more plausible trajectory is interoperability between the two approaches. Continued development must prioritize reliability and user experience at the current stage of technical progress.
Read more reports related to this research.This report has been prepared based on materials believed to be reliable. However, we do not expressly or impliedly warrant the accuracy, completeness, and suitability of the information. We disclaim any liability for any losses arising from the use of this report or its contents. The conclusions and recommendations in this report are based on information available at the time of preparation and are subject to change without notice. All projects, estimates, forecasts, objectives, opinions, and views expressed in this report are subject to change without notice and may differ from or be contrary to the opinions of others or other organizations.
This document is for informational purposes only and should not be considered legal, business, investment, or tax advice. Any references to securities or digital assets are for illustrative purposes only and do not constitute an investment recommendation or an offer to provide investment advisory services. This material is not directed at investors or potential investors.
Tiger Research allows the fair use of its reports. ‘Fair use’ is a principle that broadly permits the use of specific content for public interest purposes, as long as it doesn’t harm the commercial value of the material. If the use aligns with the purpose of fair use, the reports can be utilized without prior permission. However, when citing Tiger Research’s reports, it is mandatory to 1) clearly state ‘Tiger Research’ as the source, 2) include the Tiger Research logo. If the material is to be restructured and published, separate negotiations are required. Unauthorized use of the reports may result in legal action.
]]>결제의 주체가 인간에서 AI 에이전트로 이동하고 있으며, 진정한 자율성을 위해 결제 인프라가 핵심 이슈로 부상
빅테크(Google AP2, OpenAI Delegated Payment)는 기존 플랫폼 인프라 위에서 승인 기반 자동 결제 구조를 설계
크립토(ERC-8004 + x402)는 NFT 신원과 스마트 컨트랙트를 통해 중개자 없는 분산 결제 모델을 구현
빅테크는 편리함과 소비자 보호를, 크립토는 사용자 주권과 에이전트 활용 범위를 중심 가치로 둠
향후 핵심 쟁점은 “플랫폼이 통제하는 결제인가, 프로토콜이 실행하는 결제인가”에 달려 있음
최근 “OpenClaw”가 화제였다. 이는 챗GPT나 제미니처럼 단순히 검색한 정보를 정리해주는 AI와는 달랐다.
OpenClaw는 사용자의 개인 PC나 서버에서 직접 실행되어 AI 에이전트가 실제로 작업을 수행할 수 있게 했다. 메신저 어플인 왓츠앱, 텔레그램, 슬랙과 같은 메신저 플랫폼을 통해 명령을 내리면, 에이전트가 자율적으로 이메일 관리, 일정 조정, 웹 브라우징 등의 작업을 처리한다.
이는 특정 플랫폼에 종속되지 않고 오픈소스로 제공되어, 마치 개인 AI 비서처럼 작동하면서 사람들의 관심을 끌었다.
그런데 AI 에이전트가 정말로 자율적으로 작동하려면 한 가지 문제가 남아 있다. 바로 결제다. 현재 에이전트는 상품을 검색하고 비교하며 장바구니까지 담을 수 있지만, 실제 결제 승인은 여전히 사람의 손을 거쳐야 한다.
왜냐하면 지금까지 결제 시스템의 주체는 사람이었기 때문이다. 하지만 모든 것이 자동화되는 AI 에이전트 시대에는, 에이전트가 스스로 판단하고 결제하는 완전한 자율성이 필요하다.
이러한 미래를 대비해 작년부터 빅테크 기업과 크립토 기업이 기술들을 발표하면서 준비하고 있다.
2025년 1월, 구글이 AP2(Agent Payment Protocol 2.0)를 발표하며 본격적인 AI 에이전트 결제 인프라를 확장하기 시작했다. 물론, 오픈AI와 아마존 등이 있으나 실질적인 움직임을 보이는 곳은 구글이 유일하다.
세부적으로 구글의 AP2는 각 과정을 나눠 어떤 단계에서 문제가 발생했는지 확인하기 위해 세 가지 위임(Mandate) 구조를 가진다.
Intent Mandate(의도): 사용자가 “뭘 하고 싶은지” 기록
Cart Mandate(장바구니): “어떻게 살지” 정해진 규칙
Payment Mandate(결제) : “돈이 실제로 움직이는” 곳
예시로 Ekko가 구글 쇼핑에서 AI 에이전트에게 “200달러 이하 겨울 재킷 찾아서 사줘”라고 요구했다 가정하자.
Intent Mandate: 에코가 AI 에이전트에게 “겨울 재킷 1개, 최대 예산 $200”을 요구한다.
해당 정보가 디지털 계약서(Intent Mandate)로 블록체인에 기록됨
Cart Mandate: AI 에이전트는 에코의 의도에 따라 “겨울 재킷 1개”, “최대 예산 $200”에 맞춰 파트너 회사들이 판매하는 상품 중에서 조건에 맞는 상품을 찾아 장바구니에 담는다.
“상품 선택됨: 겨울 재킷”, “가격 확인: $199 (예산 이하 ✓)”
“장바구니 담기 완료”, “배송지 확인됨”
Payment Mandate: 에코는 AI 에이전트가 담아 놓은 상품을 보고 결제 승인 버튼을 누른다. 그러면 $199의 금액이 Google Pay에서 결제된다. 혹은 AI 에이전트가 자동으로 결제한다.
위 과정 속에서 유저는 별도의 정보를 입력할 필요가 없다. 구글 AP2의 경우 구글 페이를 기반으로 작동해, 이미 등록된 카드 정보, 배송지 주소 등을 활용할 수 있다. 결국 AP2는 이미 등록한 사용자 정보를 기반으로 작동하기 때문에 유저 온보딩에 용이한 장점이 있다.
하지만 구글은 자사에서 파트너십을 맺은 기업에게만 에이전트 결제를 지원하고 있어, 제한된 범위 내에서만 활용할 수 있다는 제약점이 존재한다.
크립토 역시 빅테크처럼 AI 에이전트 결제 기술을 개발하고 있다. 하지만 접근 방식이 다르다. 빅테크가 자사 플랫폼 내에서 신뢰를 구축한다면, 크립토는 “중앙 플랫폼 없이도 AI 에이전트를 신뢰할 수 있을까?”라는 문제에서 출발했다.
그 목적을 구현하기 위한 두 가지 핵심 표준이 있다. 이더리움의 “ERC-8004“와 코인베이스의 “x402“이다.
먼저 신원 문제부터 살펴보자. 일반적으로 서비스를 사용하기 위해서는 ID가 필요하듯, 블록체인에서도 AI 에이전트를 식별할 방법이 필요하다. 이때, ERC-8004는 에이전트의 신원 역할을 한다. NFT 형태로 발급되지만, 우리가 아는 그림 파일 NFT가 아니라 신원 정보를 담은 NFT다.
이 NFT는 1) Identity(신원) 2) Reputation(신용) 3) Validation(검증)의 세 가지 정보가 포함되어, 일종의 신원 증명서가 된다.
온라인에서 누군가와 거래할 때 우리는 상대방의 평점과 후기를 확인한다. “이 판매자를 신뢰할 만한가?”를 판단하는 것이다. AI 에이전트도 마찬가지다. ERC-8004는 에이전트에게 검증 가능한 신원을 부여해서, 다른 에이전트가 “이 에이전트와 거래해도 안전한가?”를 판단할 수 있게 한다.
하지만 신분증만 있다고 거래가 되는 건 아니다. 실제로 돈이 오가려면 결제 시스템이 필요하다. 그게 x402다. ERC-8004가 신분증이라면, x402는 결제 단말기다.
x402는 코인베이스가 만든 AI 에이전트 암호화폐 결제 표준이다. 구글 AP2의 크립토 확장 버전으로, 에이전트가 스테이블코인으로 자율적으로 결제할 수 있게 한다. 핵심은 스마트 계약 자동 실행이다. “조건 충족 시 자동 송금”이라는 규칙이 코드로 박혀 있어서, 사람 개입 없이도 거래가 즉시 완료된다.
ERC-8004(신원)와 x402(결제)가 결합되면, AI 에이전트는 중앙 플랫폼 없이도 에이전트 간에 서로 신뢰하고 자율적으로 거래할 수 있다.
앞으로 다가올 AI 에이전트 시대를 엿보는 상황을 가정해보자.
Ekko는 최대 800달러의 상한선을 두고 중고 노트북을 구매하라고 자기의 AI 에이전트(A)에게 명령했다. 이제 쇼핑몰에서 만든 AI 에이전트(B)는 Ekko의 AI 에이전트와 서로 소통하며 구매를 진행한다.
상호 검증(Mutual Verify)
거래 전, 양쪽 에이전트(A, B)가 서로 평판과 상세 요구사항에 맞는 상품을 보유했는지를 검증한다.
* Identity Check: ERC-8004 NFT로 신원 확인
* Ekko 에이전트 신용점수 72점 ✓ $800 보유 ✓
* 판매자 에이전트 신용점수 70점 ✓ 가성비 좋은 노트북 보유 ✓
→ 결과: 양쪽 모두 거래 가능 판정
스마트 계약 에스크로(Smart Contract Escrow)
검증이 완료되면 거래가 진행된다. 각 AI 에이전트는 x402 프로토콜을 통해 금액을 보내거나 확인한다.
* Escrow: Ekko 에이전트 지갑에서 $800이 스마트 계약(중간 금고)으로 이동
* 조건 대기: “노트북 배송 완료”라는 조건이 충족될 때까지 보관
→ Release: 배송 확인되면 자동으로 판매자에게 $800 송금
결제 완료 및 평가 업데이트(x402 Settlement & Reputation NFT Updated)
거래가 완료되면 AI 에이전트 평판이 업데이트된다.
* Ekko 에이전트: Reputation 72점 → 80점 (+5 Fast delivery, +3 As described)
* 판매자 에이전트: Reputation 70점 → 78점 (+5 Fast delivery, +3 As described)
→ 평가 기록이 각자의 ERC-8004 NFT에 업데이트 됨
이 모든 과정에서 중개자가 없다. 플랫폼 승인도 필요 없다. AI 에이전트 둘이 블록체인을 통해 직접 거래한다. 이것이 크립토가 추구하는 AI 에이전트 간 거래 프로세스다.
빅테크의 대표주자인 구글 AP2는 승인된 파트너사를 위한 시스템이다.
구글은 소비자 보호를 이유로 승인된 파트너만 입점시킨다. 에이전트의 행동 경로는 위임(Mandate) 구조를 만든다고 해도 이를 100% 보장할 수 없다. 기존 시스템과 달리 요청에 따른 결과가 1:1로 매칭되는 구조가 아닌 것이다.
만약 결과값이 보장되지 않은 파트너사와 연결됐을 때, 오류로 인해 잘못된 결제가 일어난다면 이는 결국 결제 시스템을 제공한 구글의 책임이 된다. 때문에 에이전트가 구동하는 중에 오류가 발생하는 단 0.01%의 확률이라도 줄이기 위해 생태계를 좁힐 수밖에 없는 것이다.
좁은 생태계의 장점 역시도 안정성이지만 보다 AI 에이전트가 자율적으로 행동하고 많은 선택지에서 최선의 결과값을 가져오는 데에는 한계가 있을 수밖에 없다.
반면 크립토의 ERC-8004, x402는 모두를 위한 시스템에 가깝다.
현재 AI 에이전트는 여전히 발전 단계에 있고 a-z 단계 요청부터 결제까지 처리는 어렵다. 하지만 모두가 예상하는 미래는 마치 영화와 같이 출근하며 나의 AI 에이전트에게 장을 보라고 주문하면 냉장고 안에 부족한 재료를 알아서 고민해서 사오는 미래이다.
물론 이러한 미래까지 빅테크, 구글은 핵심적인 소매 사이트를 모두 통합해서 모두가 만족할 수 있는 일상적 사용을 독려할 것이다.
하지만 빅테크에서 일반 소매 판매자, 혹은 작은 인터넷 사이트, 나아가서는 DeFi, 트레이딩 등등 수많은 것들을 모두 고려해서 결제 파트너사에 통합하는 것은 한계가 있다. 또한 지난 리포트에서 언급한 것과 같이 웹사이트가 사라지고 모든 정보가 유료가 되는 시대에는 에이전트가 마이크로 결제를 시도해야 할 수도 있다.
이런 경우에는 오픈소스에 가까운 크립토 표준이 채택되는 것이 합리적이다.
예를 들어, 웹사이트 개발을 맡기면 나의 AI 에이전트는 개인 크리에이터가 만든 이미지를 1,000장을 장당 $0.01에 구매하거나, 리서치 글을 한 편 읽는데 $1의 비용을 납부하는 등에는 도입과 결제 단위 모두 크립토 표준이 편리할 수 있다.
다만 위에서 언급한 것과 같이 신원 평가의 기준을 각자가 마련해야하며 중앙화된 주체가 없기에 이를 책임지는 주체 역시 없다는 것이 제약이 될 수 있다. 이는 기술의 발전과 사용성이 발맞춰 가며 중간점을 찾아야 할 이슈로 보인다.
정리하자면, 빅테크와 크립토는 같은 목적을 갖고 미래를 대비하고 있으나 현실에 따라 폐쇄형과 개방형의 차이를 두고 있다. 어느 한 진영이 승리하는 미래보다는 조화롭게 두 진영이 연결될 것으로 보이며, 현재 기술 수준에서 지속적으로 사용성을 고려하며 개발해야 할 것으로 생각된다.
이번 리서치와 관련된 더 많은 자료를 읽어보세요.이 보고서는 신뢰할 수 있는 자료를 바탕으로 작성되었습니다. 그러나 정보의 정확성, 완전성, 그리고 적합성을 명시적으로나 암시적으로 보증하지 않습니다. 당사는 본 보고서나 그 내용을 이용함에 따른 모든 손실에 대해 책임을 지지 않습니다. 이 보고서의 결론과 권고사항, 예상, 추정, 전망, 목표, 의견 및 관점은 작성 당시의 정보를 바탕으로 하며 예고 없이 변경될 수 있습니다. 또한 타인 및 타조직의 의견과 일치하지 않거나 반대될 수 있습니다. 이 보고서는 정보 제공의 목적으로 작성되었으며, 법률, 사업, 투자, 또는 세금에 관한 조언으로 간주되어서는 안 됩니다. 또한 증권이나 디지털 자산에 대한 언급은 설명을 위한 것일 뿐, 투자 권고나 투자 자문 서비스 제공을 제안하는 것이 아닙니다. 이 자료는 투자자나 잠재적 투자자를 대상으로 하지 않았습니다.
타이거리서치는 리포트의 공정 사용을 지지합니다. 이는 공익적 목적으로 콘텐츠를 인용하되 상업적 가치에 영향을 주지 않는 범위에서의 넓은 사용을 허용하는 원칙입니다. 공정 사용 규칙에 따라, 리포트를 사전 허가 없이 사용할 수 있으나, 타이거리서치 리포트를 인용 시에는 1) 출처로 ‘타이거리서치’를 분명히 밝히고, 2) 타이거리서치 로고를 포함시켜야 합니다. 자료를 재구성하여 출판할 경우에는 별도의 협의가 요구됩니다. 사전 허가 없는 사용은 법적 조치를 초래할 수 있습니다.
]]>AI is already part of daily life, but users overlook how their data passes through central servers
Even CISA’s acting director unknowingly exposed classified documents to ChatGPT
Nesa restructures this by transforming data before transmission (EE) and splitting it across nodes (HSS-EE) so no single party ever sees the original
Academic validation (COLM 2025) and live enterprise deployment (P&G) give Nesa a head start
Whether the broader market adopts decentralized privacy AI over familiar centralized APIs remains the key question
In January 2026, Madhu Gottumukkala, Acting Director of CISA, the lead U.S. cybersecurity agency, uploaded sensitive government documents to ChatGPT simply to summarize and organize contract-related files.
The breach was not detected by ChatGPT or reported to the government by OpenAI. It was flagged by the agency’s own internal security systems, leading to an investigation for violating security protocols.
Even America’s top cybersecurity official was using AI routinely, to the point of uploading classified material.
We know. Most AI services store user input on central servers in encrypted form. But this encryption is reversible by design. Data can be decrypted and disclosed under valid warrants or emergency circumstances, and users have no visibility into what happens behind the scenes.
AI is already part of daily life. It summarizes articles, writes code, and drafts emails. The real concern is that, as shown in the previous case, even classified documents and personal data are being handed to AI with little awareness of the risk.
The core problem is that all of this data passes through the service provider’s central servers. Even when encrypted, the decryption keys are held by the provider. How can users trust that arrangement?
User input data can be exposed to third parties through multiple channels: model training, safety reviews, and legal requests. On enterprise plans, organization admins can access chat logs. On personal plans, data can still be turned over under a valid warrant.
Now that AI is deeply embedded in everyday life, it is time to ask serious questions about privacy.
Nesa is a project designed to change this structure entirely. It builds a decentralized infrastructure that enables AI inference without entrusting data to a central server. User input is processed in an encrypted state, and no single node can view the original data.
Imagine a hospital using Nesa. A doctor wants an AI to analyze a patient’s MRI for tumors. With current AI services, the image is sent directly to OpenAI or Google servers.
With Nesa, the image is mathematically transformed before it ever leaves the doctor’s computer.
A simple analogy: suppose the original problem is “3 + 5 = ?” If you send it as is, the recipient knows exactly what you are calculating.
But if you multiply every number by 2 before sending, the recipient sees “6 + 10 = ?” and returns 16. You divide by 2 and get 8, the same answer as solving the original. The recipient performed the computation but never learned your original numbers were 3 and 5.
This is exactly what Nesa’s Equivariant Encryption (EE) does. Data is mathematically transformed before transmission. The AI model computes on the transformed data.
The user applies the inverse transformation and gets the same result as if the original data had been used. In mathematics, this property is called equivariance: whether you transform first or compute first, the final result is identical.
In practice, the transformation is far more complex than simple multiplication. It is tailored to the internal computation structure of the AI model. Because the transformation aligns with the model’s processing flow, accuracy is not compromised.
Back at the hospital, the doctor notices no difference. The workflow of uploading an image and receiving a result stays the same. What changes is that no node in between can see the patient’s original MRI.
Nesa goes one step further. EE alone prevents any node from viewing the original data, but the transformed data still exists in full on a single server.
HSS-EE (Homomorphic Secret Sharing over Encrypted Embeddings) splits even the transformed data.
Return to the analogy. EE was applying a multiplication rule before sending the exam sheet. HSS-EE tears that transformed sheet in half, sending the first part to Node A and the second part to Node B.
Each node solves only its own fragment. Neither can see the full problem. Only when both partial answers are combined does a complete result emerge, and only the original sender can perform that recombination.
In summary, EE transforms data so the original cannot be seen. HSS-EE splits even the transformed data so it never exists in one place. Privacy protection is layered twice.
Stronger privacy means slower performance. This has been a long-standing rule in cryptography. Fully Homomorphic Encryption (FHE), the most widely known approach, is 10,000 to 1,000,000 times slower than standard computation. It is unusable for real-time AI services.
Nesa‘s Equivariant Encryption (EE) works differently. Returning to the math analogy, the cost of applying x2 before sending and ÷ 2 after receiving is minimal.
Unlike FHE, which converts the entire problem into a fundamentally different mathematical system, EE adds only a lightweight transformation on top of existing computations.
Performance benchmarks:
EE: less than 9% latency increase on LLaMA-8B, with accuracy matching the original at over 99.99%.
HSS-EE: 700 to 850 milliseconds per inference on LLaMA-2 7B.
On top of this, MetaInf, a meta-learning scheduler, optimizes efficiency across the network. It evaluates model size, GPU specifications, and input characteristics to automatically select the fastest inference method.
MetaInf achieved 89.8% selection accuracy and a 1.55x speedup over conventional ML-based selectors. It was published at the COLM 2025 main conference, providing academic validation.
The figures above are from controlled test environments. However, Nesa’s inference infrastructure is already deployed in real enterprise settings, confirming production-level performance.
There are three ways to access Nesa.
First is the Playground. Users can select and test models directly on the web. No developer background is required. It allows hands-on experience with inputting data and viewing results per model.
It is the fastest path to see how decentralized AI inference actually works.
Second is the Pro subscription. At $8 per month, it includes unlimited access, 1,000 Fast Inference credits per month, custom model pricing controls, and featured page visibility for models.
This tier is designed for individual developers or small teams looking to deploy and monetize their own models.
Third is Enterprise. This is not a public pricing plan but a custom contract structure. It includes SSO/SAML support, selectable data storage regions, audit logs, granular access controls, and annual-commitment billing.
Pricing starts at $20 per user per month, but actual terms are negotiated based on scale. It is built for organizations integrating Nesa into internal AI pipelines, with API access and organization-level management provided through a separate agreement.
In short: Playground for exploration, Pro for individual or small-team development, Enterprise for organizational deployment.
A decentralized network has no central administrator. The entities running servers and verifying results are distributed around the world. This raises a natural question: why would anyone keep their GPU running to process someone else’s AI inference?
The answer is economic incentive. In the Nesa network, that incentive is the $NES token.
The structure is straightforward. When a user requests AI inference, a fee is attached. Nesa calls this PayForQuery. It consists of a fixed fee per transaction plus a variable fee proportional to data size.
Higher fees receive priority processing, the same principle as gas fees on a blockchain.
The recipients of these fees are miners. To participate in the network, miners must stake a set amount of $NES. They put their own tokens at risk before being assigned work.
If a miner returns faulty results or fails to respond, a penalty is deducted from their stake. If they process accurately and quickly, they earn greater rewards.
$NES also serves as a governance tool. Token holders can submit proposals and vote on core network parameters such as fee structures and reward ratios.
In summary, $NES serves three roles: payment for inference requests, collateral and reward for miners, and participation rights in network governance. Without the token, nodes do not run. Without nodes, privacy AI does not function.
One point worth noting: the token economy depends on preconditions to function as designed.
Inference demand must be sufficient for miner rewards to be meaningful. Rewards must be meaningful for miners to stay. Miners must be sufficient for network quality to hold.
This is a virtuous cycle where demand drives supply and supply sustains demand, but getting that cycle started is the hardest phase.
The fact that enterprise clients like Procter & Gamble are already using the network in production is a positive signal. However, whether the balance between token value and mining rewards holds as the network scales remains to be seen.
The problem Nesa is trying to solve is clear: change the structure in which user data is exposed to third parties whenever AI is used.
The technical foundation is solid. Its core encryption technologies, Equivariant Encryption (EE) and HSS-EE, originated from academic research. The inference optimization scheduler MetaInf was published at the COLM 2025 main conference.
This is not a case of simply citing papers. The research team directly designed the protocols and implemented them in the network.
Among decentralized AI projects, it is rare to find one that has had its own cryptographic primitives validated at the academic level and deployed them onto live infrastructure. The fact that Procter & Gamble and other major enterprises are already running inference on this infrastructure is a meaningful signal for an early-stage project.
That said, limitations are clear.
Market scope: Institutional clients come first; retail users unlikely to pay for privacy yet
Product usability: Playground feels closer to Web3/investment UX than everyday AI tools
Scale validation: Controlled benchmarks ≠ production with thousands of concurrent nodes
Market timing: Demand for privacy AI is real, but demand for decentralized privacy AI is unproven; enterprises still default to centralized APIs
Most enterprises are still accustomed to centralized APIs, and the barrier to adopting blockchain-based infrastructure remains high.
We live in an era where even the head of U.S. cybersecurity uploaded classified documents to AI. Demand for privacy AI already exists and will only grow.
Nesa has academically validated technology and live infrastructure to meet that demand. There are limitations, but its starting position is ahead of other projects.
When the privacy AI market opens in earnest, Nesa will be among the first names that come up.
Read more reports related to this research.This report was partially funded by Nesa. It was independently produced by our researchers using credible sources. The findings, recommendations, and opinions are based on information available at publication time and may change without notice. We disclaim liability for any losses from using this report or its contents and do not warrant its accuracy or completeness. The information may differ from others’ views. This report is for informational purposes only and is not legal, business, investment, or tax advice. References to securities or digital assets are for illustration only, not investment advice or offers. This material is not intended for investors.
Tiger Research allows the fair use of its reports. ‘Fair use’ is a principle that broadly permits the use of specific content for public interest purposes, as long as it doesn’t harm the commercial value of the material. If the use aligns with the purpose of fair use, the reports can be utilized without prior permission. However, when citing Tiger Research’s reports, it is mandatory to 1) clearly state ‘Tiger Research’ as the source, 2) include the Tiger Research logo following brand guideline. If the material is to be restructured and published, separate negotiations are required. Unauthorized use of the reports may result in legal action.
]]>인공지능이 이미 일상이 된 현재, 사람들은 많은 데이터를 거리낌 없이 업로드하지만, 정작 그 데이터가 중앙 서버를 거친다는 사실을 간과함
심지어 미국의 보안을 책임지는 CISA의 직무대행 국장마저도 기밀 문서를 ChatGPT에 노출시키기도 했음
네사는 이를 해결하기 위해 데이터 전송 전 데이터 변환(EE) 및 노드 간 분할(HSS-EE)을 통해 어느 당사자도 원본을 볼 수 없도록 함
네사는 실질적으로 학술적 검증을 통해 기술적으로 앞서 나가고 있으며, P&G 등 대기업의 사용 사례도 확보함
다만, 전반적 시장은 빅테크의 중앙 집중식 API를 선호해, 향후 더 많은 고객사가 분산형 프라이버시 AI를 채택할지 지켜봐야할 것
2026년 1월, 미국 사이버 보안의 핵심 기관인 CISA의 국장 대행 마두 고투무칼라(Madhu Gottumukkala)가 정부 민감 문서를 ChatGPT에 업로드한 사실이 드러났다. 계약 관련 서류를 요약하고 정리하려는 단순한 목적이었다.
물론 ChatGPT 내부에서 내용을 저장하고 정부에 알린 것은 아니며, 자체 보안 시스템에 적발되어 보안 규정 위반으로 조사를 받은 사례이다.
미국 보안 수장마저 AI를 일상적으로 쓰며, 기밀문서까지 올린 셈이다.
사용자가 입력한 데이터는 암호화되기에 안전하다고 할 수 있다. 맞다. 데이터는 명시적으로는 암호화된다. 하지만 사실 복호화가 가능한 구조다. 유효한 영장이나 긴급 상황에서는 정보를 제공할 수 있으며, 사실 우리는 그 뒤에서 어떤 일이 일어나는지 알 수 없다.
AI는 이미 일상이다. 기사를 요약하고, 코드를 짜고, 메일을 쓰는 데까지 깊이 들어왔다. 심각한 건 위 사례처럼 기밀 문서와 개인정보까지 별다른 경각심 없이 AI에 맡기고 있다는 점이다.
문제의 핵심은 이 데이터가 전부 서비스 제공자의 중앙 서버를 거친다는 데 있다. 암호화를 한다고 해도 복호화 키는 서비스 제공자가 쥐고 있다. 이걸 어떻게 믿을 수 있는가?
사용자의 입력 데이터는 모델 개선, 안전성 검토, 법적 요청 등 다양한 경로로 제3자에게 노출될 수 있다. 기업 플랜이라면 조직 관리자가 채팅 기록을 열람할 수 있고, 개인 플랜이라도 영장이 나오면 데이터는 넘어간다.
AI가 일상 깊숙이 자리 잡은 지금, 프라이버시에 대해 다시 한 번 질문을 던질 때다.
네사(Nesa)는 이 구조 자체를 바꾸려는 프로젝트다. 데이터를 중앙 서버에 맡기지 않고도 AI 추론을 실행할 수 있는 탈중앙 인프라를 만든다. 사용자의 입력 데이터는 암호화된 상태로 처리되며, 어떤 노드도 원본 데이터를 볼 수 없다.
네사를 사용하는 병원이 있다고 가정하자.
의사가 환자의 MRI 영상으로 종양 여부를 판독하고 싶다. 지금의 AI 서비스라면 이 영상이 OpenAI나 Google 서버로 그대로 전송된다. 네사에서는 다르다. 영상이 의사의 컴퓨터를 떠나기 전에 일정한 규칙으로 변환된다.
쉽게 설명하면 이렇다. 수학 시험지를 생각해 보자. 원래 문제가 “3 + 5 = ?”이라고 하자. 이 문제를 그대로 다른 사람에게 보여주면, 그 사람은 내가 무슨 계산을 하려는지 바로 안다.
하지만 보내기 전에 모든 숫자에 ×2를 적용하면, 상대방이 받는 문제는 “6 + 10 = ?”이 된다. 상대방은 이걸 풀어서 16이라는 답을 돌려준다.
나는 다시 ÷2를 적용해서 8을 얻는다. 원래 문제를 그대로 풀었을 때와 같은 답이다. 상대방은 계산을 대신 해줬지만, 내 원래 숫자가 3과 5였다는 건 모른다.
네사의 등변 암호화(Equivariant Encryption, EE)가 하는 일이 정확히 이것이다. 데이터를 보내기 전에 일정한 수학적 규칙으로 변환한다. AI 모델은 변환된 데이터를 가지고 계산을 수행한다. 사용자가 결과에 역변환을 적용하면, 원본 데이터를 넣었을 때와 동일한 답이 나온다. 이 성질을 수학에서 등변성이라고 부른다. 변환을 먼저 하든, 계산을 먼저 하든, 최종 결과가 같다는 뜻이다.
실제로는 ×2 같은 단순한 규칙이 아니라, AI 모델의 내부 연산 구조에 맞춘 복잡한 변환을 쓴다. 핵심은 무작위로 데이터를 섞는 게 아니라, 모델의 계산 흐름과 맞물리는 규칙을 적용한다는 점이다. 그래서 모델이 변환된 데이터를 처리해도 결과의 정확도가 떨어지지 않는다.
다시 병원으로 돌아오면, 의사가 체감하는 건 아무것도 없다. 영상을 올리고 결과를 받는 과정은 기존과 같다. 달라진 건 그 사이에서 어떤 노드도 환자의 원본 MRI를 볼 수 없다는 점이다.
네사는 여기서 한 단계 더 나간다. EE만으로도 노드가 원본을 볼 수 없지만, 변환된 데이터 자체는 하나의 서버에 온전히 존재한다. HSS-EE(Homomorphic Secret Sharing over Encrypted Embeddings)는 이 변환된 데이터마저 쪼개는 기술이다.
아까 수학 시험지 비유로 돌아가 보자. EE는 문제지에 ×2 규칙을 적용해서 보내는 것이었다. HSS-EE는 여기서 한 걸음 더 나간다. 규칙이 적용된 시험지를 반으로 찢어서, 앞부분은 A에게, 뒷부분은 B에게 따로 보내는 것이다. A는 자기가 받은 조각만 풀고, B도 자기 조각만 푼다. 어느 쪽도 전체 문제를 볼 수 없다. 두 사람의 답을 합쳐야 비로소 완전한 결과가 나오고, 이를 합칠 수 있는 건 문제를 보낸 사람뿐이다.
정리하면, EE는 “데이터를 변환해서 원본을 못 보게” 하는 기술이고, HSS-EE는 “변환된 데이터마저 쪼개서 한 곳에 모이지 않게” 하는 기술이다. 프라이버시 보호가 이중으로 걸리는 구조다.
프라이버시를 강화하면 느려진다. 이건 암호 기술의 오래된 상식이다. 가장 널리 알려진 완전 동형 암호(FHE)는 일반 연산 대비 1만~100만 배 느리다. 실시간 AI 서비스에 적용할 수 없다.
네사의 등변 암호화(EE)는 다르다. 수학 시험지 비유로 돌아가면, ×2를 적용하고 나중에 ÷2로 되돌리는 데 드는 추가 비용은 미미하다. FHE처럼 문제 자체를 완전히 다른 수학 체계로 바꾸는 게 아니라, 기존 계산 위에 가벼운 변환만 얹는 구조이기 때문이다.
EE (등변 암호화): LLaMA-8B 기준, 지연시간 증가 9% 미만 (정확도 원본 대비 99.99% 이상 일치)
HSS-EE (분산 암호화): LLaMA-2 7B 기준, 추론 1건당 700-850밀리초
여기에 MetaInf라는 메타러닝 스케줄러가 네트워크 전체의 효율을 잡는다. 모델 크기, GPU 사양, 입력 특성을 보고 가장 빠른 추론 기법을 자동으로 골라주는 시스템이다. 기존 머신러닝 기반 선택기 대비 정확도 89.8%, 가속 비율 1.55배를 기록했고, COLM 2025 본회의에 게재되어 학술적으로도 검증받았다.
위 수치는 통제된 테스트 환경에서 나온 결과다. 다만 네사의 추론 인프라는 이미 실제 엔터프라이즈 환경에서 사용되고 있어, 실서비스 수준의 성능이 확인된 상태다.
네사에 접근하는 방식은 크게 세 가지다.
첫 번째는 플레이그라운드다. 웹에서 바로 모델을 골라 테스트할 수 있는 환경이다. 개발자가 아니어도 된다. 모델별 입력을 넣고 결과를 확인하는 수준의 체험이 가능하다. 탈중앙 AI 추론이 실제로 어떻게 작동하는지 직접 확인할 수 있는 가장 빠른 경로다.
두 번째는 Pro 구독이다. 월 8달러로 무제한 접근, 월 1,000건의 Fast Inference 크레딧, 커스텀 모델 가격 설정 권한, 모델 Featured 페이지 노출 등이 포함된다. 개인 개발자나 소규모 팀이 자기 모델을 올리고 수익화하려는 경우에 맞는 요금제다.
세 번째는 엔터프라이즈다. 공개 요금제가 아니라 별도 계약 구조다. SSO/SAML 지원, 데이터 저장 위치 선택(Storage Regions), 감사 로그, 세분화된 접근 제어, 연간 커밋 기반 청구 등이 포함된다.
월 유저당 20달러부터 시작하지만, 실제 조건은 규모에 따라 협의한다. 기업이 사내 AI 파이프라인에 네사를 통합하려는 경우를 위한 구조로, 별도 계약을 통해 API를 제공받고 조직 단위로 관리할 수 있다. 또한 이미 P&G와 같은 대기업들이 쓰고 있다.
정리하면, 가볍게 써보려면 플레이그라운드, 개인·소규모 개발이면 Pro, 조직 단위 도입이면 엔터프라이즈다.
탈중앙 네트워크는 중앙 관리자가 없다. 서버를 돌리는 주체도, 결과를 검증하는 주체도 전 세계에 흩어져 있다. 그러면 질문이 하나 생긴다. 이 사람들은 왜 자기 GPU를 켜고 남의 AI 추론을 처리해 주는가?
답은 경제적 보상이다. 네사 네트워크에서 그 보상 수단이 $NES 토큰이다.
구조는 단순하다. 사용자가 AI 추론을 요청하면, 그 요청에는 수수료가 붙는다. 네사에서는 이를 PayForQuery라고 부른다. 트랜잭션당 고정 수수료와 데이터 크기에 비례하는 변동 수수료로 구성된다. 수수료가 높을수록 우선 처리된다. 블록체인의 가스비와 같은 원리다.
이 수수료를 받는 쪽이 채굴자(Miner)다. 채굴자는 네트워크에 참여하기 위해 일정량의 $NES를 스테이킹해야 한다. 자기 돈을 걸어야 일을 맡길 수 있는 구조다. 엉터리 결과를 내거나 응답하지 않으면 스테이킹한 토큰에서 페널티가 차감된다. 반대로 정확하고 빠르게 처리하면 더 많은 보상을 받는다.
또한 네트워크의 방향을 결정하는 거버넌스 도구이기도 하다. $NES 보유자는 수수료 구조, 보상 비율 등 네트워크 핵심 파라미터에 대한 제안과 투표에 참여할 수 있다.
정리하면, $NES는 세 가지 역할을 한다. 추론 요청의 결제 수단, 채굴자의 담보이자 보상, 그리고 네트워크 거버넌스 참여권이다. 토큰이 있어야 노드가 돌아가고, 노드가 돌아가야 프라이버시 AI가 작동한다.
다만 짚어야 할 부분이 있다. 토큰 이코노미가 설계대로 작동하려면 전제 조건이 필요하다.
추론 수요가 충분해야 채굴자에게 돌아가는 보상이 유의미하고, 보상이 유의미해야 채굴자가 남아 있고, 채굴자가 충분해야 네트워크 품질이 유지된다.
결국 수요가 공급을 견인하고, 공급이 다시 수요를 뒷받침하는 선순환 구조인데, 초기에 이 바퀴가 돌아가기까지가 가장 어렵다. 현재 엔터프라이즈 고객이 실사용 중이라는 점은 긍정적이지만, 네트워크 규모가 커졌을 때 토큰 가치와 채굴 보상 사이의 균형이 유지되는지는 지켜봐야 한다.
네사가 풀려는 문제는 명확하다. AI를 쓸 때 데이터가 제3자에게 노출되는 구조를 바꾸겠다는 것이다.
기술적 기반은 탄탄한 편이다. 핵심 암호화 기술인 등변 암호화(EE)와 HSS-EE는 학술 연구에서 출발했고, 추론 최적화 스케줄러 MetaInf는 COLM 2025 본회의에 게재됐다. 단순히 논문을 인용하는 수준이 아니라, 연구진이 직접 프로토콜을 설계하고 네트워크에 구현하는 구조다.
탈중앙 AI 프로젝트 중 자체 암호화 프리미티브를 논문 수준에서 검증받고, 그걸 실제 인프라에 올린 경우는 드물다. 실제 P&G와 같은 엔터프라이즈 고객이 이 인프라 위에서 추론을 돌리고 있다는 점도 초기 프로젝트치고는 유의미한 신호다.
다만 한계도 분명하다.
첫째, 타겟 시장의 폭이다. 현실적으로 이 기술이 먼저 먹히는 곳은 기관이다. 일반 사용자가 AI 프라이버시를 인식하고 비용까지 지불하려면 아직 시간이 필요하다. 리테일 시장에서 프라이버시는 ‘있으면 좋은 것’이지, ‘돈을 내고 살 것’까지는 아니다. 결국 현 단계에서 네사의 성장은 기관 고객을 얼마나 꾸준히 확보하느냐에 달려 있는데, 이건 결코 쉬운 일이 아니다.
둘째, 제품 사용성이다. 플레이그라운드는 모델을 직접 체험할 수 있는 공간이지만, 현재 구성은 투자를 유도하는 웹3 서비스의 모습에 가깝다. 우리가 일상적으로 쓰는 AI 서비스와는 다소 거리가 있다.
셋째, 규모의 검증이다. 통제된 환경의 벤치마크와 수천 노드가 동시에 돌아가는 프로덕션 환경은 다르다. 네트워크가 본격적으로 확장됐을 때도 같은 성능을 유지할 수 있는지는 별개의 문제다.
넷째, 시장 타이밍이다. 기관들의 프라이버시 AI에 대한 수요는 분명하지만, 그 수요가 “탈중앙 인프라 위의 프라이버시 AI”까지 확장되는지는 다른 문제다. 대부분의 기업은 아직 중앙화된 API에 익숙하고, 블록체인 기반 인프라에 대한 진입 장벽은 여전히 높다.
미국 보안 수장마저 기밀 문서를 AI에 올리는 시대다. 프라이버시 AI에 대한 수요는 이미 존재하고, 시간이 갈수록 커질 수밖에 없다. 네사는 이 수요에 대해 학술적으로 검증된 기술과 실제 가동 중인 인프라를 갖추고 있다. 한계는 있지만, 출발선 자체가 다른 프로젝트들보다 앞에 있다.
프라이버시 AI 시장이 본격적으로 열릴 때, 가장 먼저 이름이 올라올 프로젝트 중 하나다.
이번 리서치와 관련된 더 많은 자료를 읽어보세요.이 보고서는 네사(Nesa)로부터 일부 원고료 지원을 받았으나, 신뢰할 수 있는 자료를 바탕으로 독립적인 조사를 통해 작성되었습니다. 하지만 이 보고서의 결론과 권고사항, 예상, 추정, 전망, 목표, 의견 및 관점은 작성 당시의 정보를 바탕으로 하며 예고 없이 변경될 수 있습니다. 이에 당사는 본 보고서나 그 내용을 이용함에 따른 모든 손실에 대해 책임을 지지 않으며 정보의 정확성, 완전성, 그리고 적합성을 명시적으로나 암시적으로 보증하지 않습니다. 또한 타인 및 타조직의 의견과 일치하지 않거나 반대될 수 있습니다. 이 보고서는 정보 제공의 목적으로 작성되었으며, 법률, 사업, 투자, 또는 세금에 관한 조언으로 간주되어서는 안 됩니다. 또한 증권이나 디지털 자산에 대한 언급은 설명을 위한 것일 뿐, 투자 권고나 투자 자문 서비스 제공을 제안하는 것이 아닙니다. 이 자료는 투자자나 잠재적 투자자를 대상으로 하지 않았습니다.
타이거리서치는 리포트의 공정 사용을 지지합니다. 이는 공익적 목적으로 콘텐츠를 인용하되 상업적 가치에 영향을 주지 않는 범위에서의 넓은 사용을 허용하는 원칙입니다. 공정 사용 규칙에 따라, 리포트를 사전 허가 없이 사용할 수 있으나, 타이거리서치 리포트를 인용 시에는 1) 출처로 ‘타이거리서치’를 분명히 밝히고, 2) 타이거리서치의 브랜드 가이드라인에 맞는 로고(Black/White)를 포함시켜야 합니다. 자료를 재구성하여 출판할 경우에는 별도의 협의가 요구됩니다. 사전 허가 없는 사용은 법적 조치를 초래할 수 있습니다.
]]>Projects that address real, concrete problems tend to remain resilient even during market downturns.
Hyperliquid, Canton, and Kite target different problem areas, but they share a common trait: practical and realistic solutions rather than abstract narratives.
To assess this realism, analysis should focus on three factors: the problem the project aims to solve, the structure of its solution, and the team’s ability to execute in practice.
Bitcoin has fallen below $70,000. Among the top 100 cryptocurrencies by market capitalization, only seven remain above their 200-day moving average. This stands in contrast to the Nasdaq 100, where 53 constituents are still trading above the same threshold.
Market conditions cannot be resisted. Still, some crypto assets manage to endure even in the worst environments.
Their resilience cannot be easily dismissed as the result of artificial market making or a coincidental rebound. A closer look at their trajectory suggests a different explanation.
These projects no longer rely on vague visions or technical complexity alone. Instead, they share a common trait: they address core market problems with solutions that are grounded in practical reality. Their approaches generally align with three directions.
Do they solve problems the market is facing today?
Are they prepared for real-world use in the near term?
Are they building infrastructure that the industry will depend on over the long term?
Ultimately, the ability to solve real problems in practice remains the strongest fundamental.
Projects that could answer the questions above managed to survive. They did so by, 1) clearly identifying market problems 2) presenting practical solutions that matched their specific timing.
Centralized exchanges have traditionally been viewed as accountable intermediaries. In practice, however, they have often failed to align with investor interests when issues arise. Decentralized exchanges emerged as an alternative, but inferior user experience and performance led many investors to avoid them.
Against this backdrop, Hyperliquid introduced the concept of a perp DEX. It brought features investors valued in centralized exchanges such as high leverage, fast execution, and stable liquidity through its HLP mechanism into an on-chain environment.
Early usage was driven in part by demand for the $HYPE token airdrop. However, continued engagement after the airdrop reflected user satisfaction with the platform’s performance.
Ultimately, Hyperliquid’s resilience stems from addressing a persistent and current problem: dissatisfaction with centralized exchanges.
Canton presents a solution aimed at the near future. As interest in real-world assets continues to rise, institutions have begun to view blockchain not as a public network, but as financial infrastructure. In this context, what institutions require is not full data transparency, but a selective privacy model that supports both regulatory compliance and confidentiality.
The Canton Network emerged in response to these demands. Through DAML, Canton enables configurable data disclosure tailored to each participating party.
This allows institutions to preserve transaction confidentiality while sharing information only within necessary boundaries. Rather than imposing a provider-driven design, Canton builds infrastructure aligned with institutional demand.
Another critical factor is that Canton has expanded its ecosystem with real-world deployment in mind from the outset, supported by early collaboration with financial institutions.
Most notably, its partnership with DTCC establishes a pathway for assets managed within traditional financial systems to extend into a Canton-based environment. DTCC processes approximately $3.7 quadrillion in transactions annually, underscoring the practical feasibility of the Canton Network’s approach.
Ultimately, the Canton Network offers a structural solution that aims to satisfy three institutional requirements simultaneously: privacy protection, regulatory compliance, and integration with existing financial systems.
Unlike the previous examples, Kite AI currently has limited real world adoption. However, when viewed through the lens of a future in which AI agents operate as economic actors, its structural logic remains compelling.
Across both Web2 and Web3, there is broad consensus on an agent-driven future. Few dispute a scenario in which AI agents handle tasks such as booking hotels or ordering groceries on behalf of users.
That future, however, requires infrastructure that allows AI agents to initiate and execute payments independently. Existing transaction systems were designed around human-to-human transfers and efficiency between human participants.
As a result, for AI agents to function as autonomous economic entities, new mechanisms are required, including identity verification and automated payment frameworks.
Kite AI is building payment infrastructure designed for this environment. Its core components include an “agent passport” for identity verification and x402 protocol functionality to enable automated payments.
The vision Kite AI presents cannot be deployed at scale today, simply because the future it targets has not yet materialized.
Still, the project derives realism from a broader premise: when this widely anticipated future arrives, the underlying technology it is developing will be necessary. This alignment with a broadly accepted trajectory lends the project structural credibility despite limited current usage.
Although the three projects operate on different timelines, they share a common characteristic: real-world viability.
Assessments of the same project often diverge. Some view it as solving real problems, while others dismiss it as overhyped. To reduce this gap in interpretation, at least three core questions must be asked.
Because most projects promote optimistic future narratives, answering these questions properly requires time and effort. Filtering out misleading or incomplete information is not straightforward. Projects that cannot answer these three questions with confidence may experience short-term price appreciation, but they are likely to fade when the next downturn arrives.
The current state of the crypto market is clearly unfavorable. That does not mean it is over. New experiments will continue, and the task is to evaluate what those efforts truly represent.
What matters now is realism.
Read more reports related to this research.This report has been prepared based on materials believed to be reliable. However, we do not expressly or impliedly warrant the accuracy, completeness, and suitability of the information. We disclaim any liability for any losses arising from the use of this report or its contents. The conclusions and recommendations in this report are based on information available at the time of preparation and are subject to change without notice. All projects, estimates, forecasts, objectives, opinions, and views expressed in this report are subject to change without notice and may differ from or be contrary to the opinions of others or other organizations.
This document is for informational purposes only and should not be considered legal, business, investment, or tax advice. Any references to securities or digital assets are for illustrative purposes only and do not constitute an investment recommendation or an offer to provide investment advisory services. This material is not directed at investors or potential investors.
Tiger Research allows the fair use of its reports. ‘Fair use’ is a principle that broadly permits the use of specific content for public interest purposes, as long as it doesn’t harm the commercial value of the material. If the use aligns with the purpose of fair use, the reports can be utilized without prior permission. However, when citing Tiger Research’s reports, it is mandatory to 1) clearly state ‘Tiger Research’ as the source, 2) include the Tiger Research logo. If the material is to be restructured and published, separate negotiations are required. Unauthorized use of the reports may result in legal action.
]]>현실적으로 문제를 해결 할 수 있는 프로젝트가 하락장에서도 견딤
하이퍼리퀴드, 캔톤, 카이트는 서로 다른 문제점을 해결 하지만 공통점은 ‘현실성’있는 해결책
현실성을 판단하기 위해서는 프로젝트가 해결하려는 문제, 솔루션, 실현 가능 역량을 중점적으로 평가
비트코인이 결국 $70,000 아래로 떨어졌다. 암호화폐 시총 상위 100개 종목 중 200일 선 위에 있는 종목은 단 7개뿐이다. 나스닥 100의 종목 중 53개가 200일선 위에 있는 것과 대조적이다.
시장의 상황을 거스를 수는 없다. 하지만 최악의 상황에서도 버텨내는 암호화폐 역시 존재한다.
이들은 어떻게 하락장에서도 가격을 지킬 수 있는가? 이를 단순히 “인위적인 마켓 메이킹(MM)의 결과물”이라거나 “우연한 반등”라고 하기에는 그들의 행보를 보면 생각이 달라질 수 있다.
이들은 더 이상 불투명한 비전이나 기술적 화려함만을 내세우지 않는다. 대신 시장의 핵심 문제를 ‘현실성’있게 해결해 나가고 있다는 공통점을 가진다. 이들은 구체적으로 다음과 같은 세 가지 방향을 갖는다.
지금 당장 시장이 겪는 문제를 풀고 있는가?
가까운 미래에 실제 사용될 준비가 되어 있는가?
장기적으로 산업이 의존하게 될 기반을 만들고 있는가?
결국, ‘현실적인 문제 해결 능력’이 가장 강력한 펀더멘털이다.
위 질문에 답변하는 프로젝트는 살아남았다. 이들은 1) 시장의 문제를 인식하고, 2) 각자의 시점에 맞는 현실적인 해결책을 제시했다.
중앙화 거래소는 책임을 진다는 면에서 강점이 있었으나, 실제로는 문제가 생길 때마다 투자자들의 편이 아니었다. 이를 해결하고자 여러 탈중앙화 거래소가 등장했지만, 사용 환경이 중앙화 거래소보다 좋지 않아 투자자들에게 외면받았다.
이러한 상황에서 하이퍼리퀴드는 perpDEX라는 개념을 가져왔다. CEX에서 투자자들이 원하는 고배율 레버리지, 빠른 체결 속도, 그리고 HLP 기반의 안정적인 유동성을 온체인 환경에서 구현한 것이다. 출시 초기에는 $HYPE 토큰 에어드랍을 노린 유저들이 몰려들었지만, 실제로 플랫폼을 사용하면서 투자자들은 성능에 만족하여 에어드랍이 끝난 이후에도 거래를 지속했다.
결국 하이퍼리퀴드는 지속된 오늘의 문제, 중앙화 거래소에 대한 불만을 해결한 것에서 나온다.
캔톤은 가까운 미래의 해결책을 제시하고 있다. RWA에 대한 관심이 높아지는 가운데, 기관들은 블록체인을 단순한 퍼블릭 네트워크가 아닌 ‘금융 인프라’ 관점에서 바라보기 시작했다. 이러한 환경에서 기관들이 요구하는 것은 모든 데이터를 공개하는 구조가 아니라, 규제 준수와 기밀성을 동시에 충족할 수 있는 선택적 프라이버시 체인이다.
이러한 요구에 대응하기 위해 등장한 것이 캔톤 네트워크다. 캔톤은 daml를 통해서 각 파티에 맞는 정보 공개 수준을 제공했다. 이를 통해 기관들은 거래 데이터의 기밀성을 유지하면서도 필요한 범위 내에서만 정보를 공유할 수 있다. 즉 공급자적 마인드가 아닌 수요자, 기관이 원하는 인프라를 만든 것이다.
게다가 캔톤 네트워크는 초기부터 금융기관과의 협력 네트워크를 구축하며 실제 사용 환경을 전제로 생태계를 확장해왔다는 점이 중요하다. 특히 DTCC와의 파트너십을 통해, 기존 금융 시스템에서 관리되던 자산을 캔톤 네트워크 기반 환경으로 확장할 수 있는 기반을 마련했다. DTCC가 연간 처리하는 거래 규모는 약 3.7경 달러에 달하며, 이는 캔톤 네트워크의 현실 실현 가능함을 보여준다.
결국 캔톤 네트워크는 기관이 요구하는 프라이버시 보호, 규제 준수, 그리고 기존 금융 시스템과의 연동이라는 세 가지 조건을 동시에 충족하려는 구조적 해법을 제시하고 있다.
카이트 AI는 앞선 사례들과 달리 아직 실사용 사례는 제한적이다. 그러나 AI 에이전트가 경제 주체로 활동하게 될 미래를 고려할 때, 구조적 설득력은 충분히 확보하고 있다.
웹2와 웹3를 막론하고 AI 에이전트에 기반한 미래는 모두가 동의한다. AI 에이전트가 나를 대신해서 호텔을 예약해주고, 바나나를 주문해주는 그러한 미래에 대해 누구도 이견이 없다.
하지만 이 미래를 위해서는 AI 에이전트가 스스로 결제를 수행하는 인프라가 필요하다. 기존 거래 시스템은 설계 단계부터 인간 간 송금과 거래 효율화에 집중해 왔다. 때문에 AI 에이전트가 독립적인 경제 주체로 활동하기 위해서는 신원 증명이나 자동화된 결제 구조가 필요한 것이다.
카이트 AI는 이런 미래를 대비하기 위한 AI 에이전트 결제 인프라를 만들고 있다. 위에 설명한 것처럼 신원 증명을 위한 ‘에이전트 패스포트’, 자동화된 결제 구조를 위한 ‘x402 프로토콜 기능’이 핵심이다.
카이트 AI가 제시하는 비전은 당장 대규모 적용이 불가하다. 우리가 이야기하는 미래가 오지 않았기 때문이다. 하지만 모두가 동의하는 미래가 왔을 때 필요한 기술이라는 광범위한 설득력이 프로젝트를 현실성 있게 만들고 있다.
세 개의 프로젝트 모두 시점은 다르지만, 이들이 공통적으로 보여준 것은 ‘현실성’ 이다.
같은 프로젝트를 두고도 평가는 엇갈린다. 누군가는 “실제 문제를 풀고 있다”고 보고, 또 다른 누군가는 “과대 포장에 불과하다”고 본다. 이 혼란을 줄이려면, 최소한 아래 세 가지 질문을 스스로에게 던져봐야 한다.
대다수 프로젝트가 장밋빛 미래를 내세우는 만큼, 이 질문들에 제대로 답하려면 상당한 시간과 노력이 필요하다. 거짓 정보를 걸러내는 일 자체가 쉽지 않기 때문이다. 그러나 위 세 항목에 자신 있게 답하지 못하는 프로젝트는, 단기적으로 가격이 뛸 수 있어도 다음 하락장이 오면 다시 역사의 뒤안길로 밀려날 가능성이 높다.
암호화폐 시장이 좋지 않다는 사실은 분명하다. 그렇다고 끝난 것은 아니다. 새로운 시도는 계속될 것이고, 우리는 그 시도가 어떤 의미를 갖는지 또렷하게 바라볼 필요가 있다.
지금 당신에게 필요한 것은 ‘현실성’이다.
이번 리서치와 관련된 더 많은 자료를 읽어보세요.이 보고서는 신뢰할 수 있는 자료를 바탕으로 작성되었습니다. 그러나 정보의 정확성, 완전성, 그리고 적합성을 명시적으로나 암시적으로 보증하지 않습니다. 당사는 본 보고서나 그 내용을 이용함에 따른 모든 손실에 대해 책임을 지지 않습니다. 이 보고서의 결론과 권고사항, 예상, 추정, 전망, 목표, 의견 및 관점은 작성 당시의 정보를 바탕으로 하며 예고 없이 변경될 수 있습니다. 또한 타인 및 타조직의 의견과 일치하지 않거나 반대될 수 있습니다. 이 보고서는 정보 제공의 목적으로 작성되었으며, 법률, 사업, 투자, 또는 세금에 관한 조언으로 간주되어서는 안 됩니다. 또한 증권이나 디지털 자산에 대한 언급은 설명을 위한 것일 뿐, 투자 권고나 투자 자문 서비스 제공을 제안하는 것이 아닙니다. 이 자료는 투자자나 잠재적 투자자를 대상으로 하지 않았습니다.
타이거리서치는 리포트의 공정 사용을 지지합니다. 이는 공익적 목적으로 콘텐츠를 인용하되 상업적 가치에 영향을 주지 않는 범위에서의 넓은 사용을 허용하는 원칙입니다. 공정 사용 규칙에 따라, 리포트를 사전 허가 없이 사용할 수 있으나, 타이거리서치 리포트를 인용 시에는 1) 출처로 ‘타이거리서치’를 분명히 밝히고, 2) 타이거리서치 로고를 포함시켜야 합니다. 자료를 재구성하여 출판할 경우에는 별도의 협의가 요구됩니다. 사전 허가 없는 사용은 법적 조치를 초래할 수 있습니다.
]]>Crypto winters follow a sequence: major event → trust collapse → talent exodus
Past winters caused by internal problems; current rise and fall both driven by external factors; neither winter nor spring
Post-regulation market split into three layers: regulated zone, unregulated zone, shared infrastructure; trickle-down effect gone
ETF capital stays in Bitcoin; does not flow outside regulated zone
Next bull run requires killer use case + supportive macro environment
The first winter came in 2014. Mt. Gox was an exchange handling 70% of global Bitcoin trading volume at the time. Approximately 850,000 BTC vanished in a hack, and market trust collapsed. New exchanges with internal controls and audit functions emerged, and trust began to recover. Ethereum also entered the world through an ICO, opening new possibilities for vision and fundraising methods.
This ICO became the spark for the next bull market. When anyone could issue tokens and raise funds, the 2017 boom ignited. Projects raising tens of billions on a single whitepaper flooded in, but most had no substance.
In 2018, Korea, China, and the U.S. poured out regulations, the bubble burst, and the second winter arrived. This winter did not end until 2020. After COVID, liquidity flowed in, and DeFi protocols like Uniswap, Compound, and Aave gained attention, bringing capital back.
The third winter was the harshest. When Terra-Luna collapsed in 2022, Celsius, Three Arrows Capital, and FTX failed in succession. It was not a simple price drop; the industry’s structure itself was shaken. In January 2024, the U.S. SEC approved spot Bitcoin ETFs, followed by the Bitcoin halving and Trump’s pro-crypto policies, and capital began flowing in once again.
All three winters followed the same sequence. A major event occurred, trust collapsed, and talent left.
It always started with a major event. The Mt. Gox hack, ICO regulations, and the Terra-Luna collapse followed by the FTX bankruptcy. The scale and form of each event differed, but the result was the same. The entire market fell into shock.
The shock soon spread into trust collapse. People who had been discussing what to build next began asking whether crypto was truly meaningful technology. The collaborative atmosphere among builders disappeared, and they began tearing into each other over who was to blame.
Doubt led to talent exodus. Builders who had been creating new momentum in blockchain fell into skepticism. In 2014, they left for fintech and big tech. In 2018, they left for institutions and AI. They departed for places that seemed more certain.
The patterns from past crypto winters are visible today.
Major events:
Trump memecoin launch: market cap hit $27 billion in one day, then crashed 90%
10.10 liquidation event: U.S. announced 100% tariffs on China, triggering Binance’s largest-ever liquidation ($19 billion)
Trust collapse: Skepticism spreading in industry. Focus shifted from next build to blame games.
Talent exodus pressure: AI industry growing fast. Promises faster exits, greater wealth than crypto.
However, it is difficult to call this a crypto winter. Past winters erupted from within the industry. Mt. Gox was hacked, most ICO projects were revealed as scams, and FTX collapsed. The industry lost trust on its own.
Now is different.
ETF approval opened the bull market, and tariff policy and interest rates drove the decline. External factors lifted the market, and external factors brought it down.
Builders have not left either.
RWA, perpDEX, prediction markets, InfoFi, privacy. New narratives kept emerging, and they are still being created. They have not pulled up the entire market like DeFi once did, but they have not disappeared. The industry did not collapse; the external environment changed.
We did not create the spring, so there is no winter either.
Behind this lies a significant shift in market structure following regulation. The market has already split into three layers: 1) regulated zone, 2) unregulated zone, and 3) shared infrastructure.
The regulated zone includes RWA tokenization, exchanges, institutional custody, prediction markets, and compliance-based DeFi. They undergo audits, make disclosures, and receive legal protection. Growth is slow, but capital scale is large and stable.
However, once inside the regulated zone, explosive gains like the past become difficult to expect. Volatility decreases and upside is capped. But downside is also capped.
The unregulated zone, on the other hand, will become more speculative going forward. Entry barriers are low and speed is fast. 100x in a day, -90% the next day happens more often.
However, this space is not meaningless. Industries born in the unregulated zone are creative, and once validated, they move into the regulated zone. DeFi did this, and prediction markets are doing so now. It serves as an experimental ground. But the unregulated zone itself will become increasingly separated from regulated zone businesses.
Shared infrastructure includes stablecoins and oracles. They are used in both the regulated and unregulated zones. The same USDC is used for institutional RWA payments and for Pump.fun trades. Oracles supply data for tokenized treasury verification and for anonymous DEX liquidations alike.
In other words, as the market split, capital flows also changed.
In the past, when Bitcoin rose, altcoins rose too through a trickle-down effect. Now it is different. Institutional capital that entered through ETFs stayed in Bitcoin, and it ended there. Regulated zone capital does not flow into the unregulated zone. Liquidity stayed only where value was proven. And even Bitcoin has not yet proven its value as a safe asset compared to risk assets.
Regulation is already being sorted out. Builders are still building. Then two things remain.
First, a new killer use case must emerge from the unregulated zone. Something that creates value that did not exist before, like DeFi Summer in 2020. AI agents, InfoFi, and on-chain social are candidates, but they are not yet at a scale to move the entire market. The flow where experiments in the unregulated zone get validated and move into the regulated zone must be created again. DeFi did this, and prediction markets are doing so now.
Second, the macroeconomic environment. Even if regulation is sorted out, builders are building, and infrastructure is accumulating, the upside is limited if the macroeconomic environment does not support it. DeFi Summer in 2020 exploded as liquidity was released after COVID. The rise after ETF approval in 2024 also coincided with rate cut expectations. No matter how well the crypto industry performs, it cannot control interest rates and liquidity. For what the industry has built to gain persuasiveness, the macroeconomic environment must turn around.
A “crypto season” where everything rises together like the past is unlikely to come again. Because the market has split. The regulated zone grows steadily, and the unregulated zone rises big and falls big.
The next bull run will come. But it will not come for everyone.
Read more reports related to this research.This report has been prepared based on materials believed to be reliable. However, we do not expressly or impliedly warrant the accuracy, completeness, and suitability of the information. We disclaim any liability for any losses arising from the use of this report or its contents. The conclusions and recommendations in this report are based on information available at the time of preparation and are subject to change without notice. All projects, estimates, forecasts, objectives, opinions, and views expressed in this report are subject to change without notice and may differ from or be contrary to the opinions of others or other organizations.
This document is for informational purposes only and should not be considered legal, business, investment, or tax advice. Any references to securities or digital assets are for illustrative purposes only and do not constitute an investment recommendation or an offer to provide investment advisory services. This material is not directed at investors or potential investors.
Tiger Research allows the fair use of its reports. ‘Fair use’ is a principle that broadly permits the use of specific content for public interest purposes, as long as it doesn’t harm the commercial value of the material. If the use aligns with the purpose of fair use, the reports can be utilized without prior permission. However, when citing Tiger Research’s reports, it is mandatory to 1) clearly state ‘Tiger Research’ as the source, 2) include the Tiger Research logo. If the material is to be restructured and published, separate negotiations are required. Unauthorized use of the reports may result in legal action.
]]>크립토 윈터는 대형 사건, 신뢰 붕괴, 인재 이탈 순으로 찾아옴
과거 윈터는 업계 내부 문제로, 현재는 상승과 하락 모두 외부 요인이 주도해 윈터도 봄도 아님
규제 이후 시장은 규제권, 비규제권, 공유 인프라 세 층으로 나뉘며 과거처럼 비트코인이 오르면 알트까지 오르는 낙수효과 사라짐.
ETF 자금은 비트코인에 머물고 규제권 밖으로 안 흐름
다음 상승은 킬러 유스케이스와 거시경제 환경이 갖춰져야 올 것
첫 번째 겨울은 2014년에 왔다. Mt. Gox는 당시 전 세계 비트코인 거래량의 70%를 처리하던 거래소였다. 약 85만 BTC가 해킹으로 사라지면서 시장 신뢰가 무너졌다. 이후 내부 통제와 감사 기능을 갖춘 새 거래소들이 등장하며 신뢰를 회복하기 시작했다. 또한 이더리움이 ICO를 통해 세상에 나오며 새로운 비전과 자금 조달 방식의 가능성을 열었다.
이 ICO가 다음 불장의 불씨가 됐다. 누구나 토큰을 발행해 자금을 모을 수 있게 되면서 2017년 열풍이 불었다. 백서 하나로 수백억을 모으는 프로젝트가 쏟아졌지만 대부분 실체가 없었다. 2018년 한국, 중국, 미국이 규제를 쏟아내면서 거품이 꺼졌고, 두 번째 겨울이 찾아왔다. 이 겨울은 2020년이 되어서야 끝났다. 코로나 이후 유동성이 풀리고, 유니스왑, 컴파운드, 에이브 같은 디파이 프로토콜이 주목받으면서 자금이 다시 들어왔다.
세 번째 겨울은 가장 혹독했다. 2022년 테라-루나가 무너지자 셀시우스, 쓰리애로우스캐피탈, FTX가 연쇄 도산했다. 단순 가격 하락이 아니라 업계 구조 자체가 흔들렸다. 2024년 1월 미국 SEC가 비트코인 현물 ETF 승인, 비트코인 반감기와 트럼프의 친-크립토 정책이 이어지며 다시 한 번 자금이 쏠리기 시작했다.
세 번의 겨울은 모두 같은 순서로 찾아왔다. 대형 사건이 터지고, 신뢰가 무너지고, 인재가 떠났다.
시작은 항상 대형 사건이었다. Mt. Gox 해킹, ICO 규제, 테라-루나 붕괴와 FTX 파산. 사건의 규모와 형태는 달랐지만 결과는 같았다. 시장 전체가 충격에 빠진다.
충격은 곧 신뢰 붕괴로 번졌다. 다음에 뭘 만들지 이야기하던 사람들이 크립토가 진짜 의미 있는 기술인지 묻기 시작했다. 빌더들끼리 협력하던 분위기는 사라지고, 누가 문제였는지 서로 물어뜯었다.
의심은 인재 이탈로 이어진다. 블록체인에서 새로운 동력을 만들어내던 빌더들은 회의감에 빠져, 2014년에는 핀테크와 빅테크로, 2018년에는 기관과 AI로. 더 확실해 보이는 곳을 찾아 떠났다.
현재에도 과거 크립토 윈터가 찾아왔던 패턴이 보인다.
대형 사건:
트럼프 밈코인 출시: 하루 만에 시총 270억 달러 → 90% 폭락
10.10 청산 사태: 미국의 중국 100% 관세 발표 → 바이낸스 역대 최대 청산(190억 달러)
신뢰 붕괴: 업계 내 회의감 확산. 다음 빌딩보다 책임 공방에 집중
인재 이탈 압력: AI 산업 급성장 → 크립토보다 빠른 엑싯, 큰 부 약속
하지만 지금을 크립토 윈터로 부르긴 어렵다. 과거 윈터는 업계 안에서 터졌다. Mt. Gox가 해킹당하고, ICO 프로젝트 다수가 사기로 드러나고, FTX가 무너졌다. 업계가 스스로 신뢰를 잃었다. 지금은 다르다. ETF 승인이 상승장을 열었고, 관세 정책과 금리가 하락을 이끌었다. 외부 요인이 올렸고, 외부 요인이 내렸다.
빌더들도 떠나지 않았다. RWA, perpDEX, 예측 시장, 인포파이, 프라이버시. 새로운 내러티브는 계속 나왔고, 지금도 만들어지고 있다. 과거 DeFi처럼 시장 전체를 끌어올리진 못했지만 사라지지 않았다. 업계가 무너진 게 아니라 외부 환경이 바뀐 것이다.
우리가 만든 봄도 없었으니 윈터도 없는 것이다.
이 배경에는 규제 이후 시장 구조 변화가 크다. 시장은 이미 크게 1) 규제권, 2) 비규제권, 그리고 3) 공유 인프라 세 층으로 나뉘었다.
규제권에는 RWA 토큰화, 거래소, 기관용 커스터디, 예측 시장, 규제 준수형 DeFi가 속한다. 감사를 거치고, 공시를 하고, 법적 보호를 받는다. 성장은 느리지만 자금 규모가 크고 안정적이다. 다만 규제권에 들어온 순간 과거 같은 폭발적 상승은 기대하기 어렵다. 변동성이 줄고 상방이 제한된다. 대신 하방도 제한된다.
반면 비규제권은 앞으로 더 도박적 요소가 강화될 것이다. 밈코인 런치패드, 익명 DEX, 규제 관할 밖 perpDEX가 속한다. 진입 장벽이 낮고 속도가 빠르다. 하루 100배, 다음 날 -90%가 더 자주 일어난다. 다만 이 영역이 무의미한 건 아니다. 비규제권에서 생긴 산업들은 창의적이고, 검증되면 규제권으로 넘어온다. DeFi가 그랬고, 예측 시장이 그렇게 되고 있다. 실험장 역할을 하는 셈이다. 하지만 비규제권 자체는 규제권 사업과 점점 더 분리될 것이다.
공유 인프라에는 스테이블코인과 오라클이 속한다. 규제권에서도 쓰이고 비규제권에서도 쓰인다. 같은 USDC가 기관 RWA 결제에도, Pump.fun 거래에도 사용된다. 공통적으로 오라클이 토큰화 국채 검증에도, 익명 DEX 청산에도 데이터를 공급한다.
즉, 시장이 나뉘면서 자금 흐름도 바뀐 것이다. 과거에는 비트코인이 오르면 알트코인까지 오르는 낙수효과가 있었다. 지금은 다르다. ETF로 들어온 기관 자금은 비트코인에 머물렀고, 거기서 끝났다. 규제권 자금은 비규제권으로 흐르지 않는다. 유동성은 가치가 증명된 곳에만 머물렀다. 그리고 비트코인조차 위험자산 대비 안전자산으로서의 가치를 아직 증명하지 못했다.
규제는 이미 정리되고 있다. 빌더들도 계속 만들고 있다. 그렇다면 남은 건 두 가지다.
첫째, 비규제권에서 새로운 킬러 유스케이스가 나와야 한다. 2020년 DeFi 서머처럼 기존에 없던 가치를 만들어내는 무언가다. AI 에이전트, 인포파이, 온체인 소셜 같은 내러티브가 후보지만 아직 시장 전체를 움직일 규모는 아니다. 비규제권의 실험이 검증되고 규제권으로 넘어오는 흐름이 다시 만들어져야 한다. DeFi가 그랬고, 예측 시장이 그렇게 되고 있다.
둘째, 거시경제 환경이다. 규제가 정리되고, 빌더들이 만들고, 인프라가 쌓여도 거시경제 환경이 받쳐주지 않으면 상승은 제한적이다. 2020년 DeFi 서머는 코로나 이후 유동성이 풀리면서 폭발했다. 2024년 ETF 승인 이후 상승도 금리 인하 기대와 맞물렸다. 크립토 업계가 아무리 잘해도 금리와 유동성은 통제할 수 없다. 업계가 만든 것들이 설득력을 갖추려면 거시경제 환경이 돌아서야 한다.
과거처럼 모든 것이 함께 오르는 ‘크립토 시즌’은 다시 오기 어렵다. 시장이 나뉘었기 때문이다. 규제권은 안정적으로 커지고, 비규제권은 크게 오르고 크게 빠진다.
다음 상승은 온다. 다만 모두에게 오지는 않는다.
이번 리서치와 관련된 더 많은 자료를 읽어보세요.이 보고서는 신뢰할 수 있는 자료를 바탕으로 작성되었습니다. 그러나 정보의 정확성, 완전성, 그리고 적합성을 명시적으로나 암시적으로 보증하지 않습니다. 당사는 본 보고서나 그 내용을 이용함에 따른 모든 손실에 대해 책임을 지지 않습니다. 이 보고서의 결론과 권고사항, 예상, 추정, 전망, 목표, 의견 및 관점은 작성 당시의 정보를 바탕으로 하며 예고 없이 변경될 수 있습니다. 또한 타인 및 타조직의 의견과 일치하지 않거나 반대될 수 있습니다. 이 보고서는 정보 제공의 목적으로 작성되었으며, 법률, 사업, 투자, 또는 세금에 관한 조언으로 간주되어서는 안 됩니다. 또한 증권이나 디지털 자산에 대한 언급은 설명을 위한 것일 뿐, 투자 권고나 투자 자문 서비스 제공을 제안하는 것이 아닙니다. 이 자료는 투자자나 잠재적 투자자를 대상으로 하지 않았습니다.
타이거리서치는 리포트의 공정 사용을 지지합니다. 이는 공익적 목적으로 콘텐츠를 인용하되 상업적 가치에 영향을 주지 않는 범위에서의 넓은 사용을 허용하는 원칙입니다. 공정 사용 규칙에 따라, 리포트를 사전 허가 없이 사용할 수 있으나, 타이거리서치 리포트를 인용 시에는 1) 출처로 ‘타이거리서치’를 분명히 밝히고, 2) 타이거리서치 로고를 포함시켜야 합니다. 자료를 재구성하여 출판할 경우에는 별도의 협의가 요구됩니다. 사전 허가 없는 사용은 법적 조치를 초래할 수 있습니다.
]]>Bitcoin fell roughly 7%, dropping from $87,000 to $81,000 during the 29th.
Disappointing Microsoft earnings triggered a Nasdaq sell-off, breaking Bitcoin’s Active Realized Price support at $87,000.
Kevin Warsh Fed chair nomination speculation added downside pressure, though actual policy may prove more gradual than market fears
Regulatory agencies maintain a crypto-friendly stance, but a break below $84,000 leaves near-term downside risk in place
Bitcoin experienced two sharp declines in quick succession. Bitcoin began sliding from around $87,000 at approximately 9 a.m. EST on the 29th and fell to roughly $81,000 by 10 a.m. on the 30th, marking a decline of about 7%. The broader crypto market weakened as well, leading to a rapid deterioration in investor sentiment.
This move was not driven by a single negative factor. Instead, it reflected a combination of shocks from traditional financial markets and rising uncertainty around monetary policy. The first leg down was triggered by a big tech earnings shock, while the second stemmed from concerns over Federal Reserve leadership.
Underlying both moves was a decline in trading volume across Bitcoin spot and futures markets. In a low-liquidity environment, even modest shocks can lead to outsized price moves. While equities and commodities rebounded quickly after their initial declines, Bitcoin failed to recover.
Bitcoin is currently being shunned by the market. With shrinking volumes and persistent selling pressure, price rebounds have become harder to sustain.
Bitcoin first came under pressure on the 29th, following a sharp decline in the Nasdaq. Microsoft’s fourth-quarter earnings missed expectations, reigniting concerns that AI-related investments may have become overheated. As fears of an AI bubble grew, investors reduced exposure to risk assets. Bitcoin saw a sharper reaction due to its high volatility.
The critical issue was the price level at which Bitcoin began to fall. During the decline, Bitcoin broke through a key structural support level: the Active Realized Price.
At the time, this level stood near $87,000. The Active Realized Price adjusts the average cost basis of tokens actively circulating in the market, excluding long-dormant holdings. In simple terms, it represents the breakeven level for investors who are currently trading. Once the price falls below this level, most active market participants move into a loss position. Bitcoin decisively broke below this support.
Around 8 p.m. on the 29th, Bitcoin suffered another sharp drop, falling rapidly from $84,000 to $81,000. Bloomberg and Reuters reported that President Trump was preparing to nominate Kevin Warsh as the next Federal Reserve Chair, with an official announcement expected on the 30th.
Kevin Warsh is widely regarded as a hawkish figure. During his tenure as a Federal Reserve Governor from 2006 to 2011, he consistently opposed quantitative easing, warning that it would lead to inflation. When the Federal Reserve launched its second round of QE in 2011, Warsh stepped down from the Board.
Speculation over Warsh’s nomination was interpreted as running counter to Trump’s preference for lower rates, fueling concerns about tighter liquidity. Bitcoin reacted sensitively to this signal. Cryptocurrencies tend to perform well in environments with ample liquidity, where investors are more willing to allocate capital to higher-risk assets. The prospect of Warsh leading the Fed raised fears that liquidity conditions could tighten. In an already dry market, investors responded by selling.
Despite concerns about Warsh’s hawkish reputation, actual policy implementation may be less aggressive than markets fear.
In a Wall Street Journal op-ed, Warsh proposed a compromise approach: limited rate cuts combined with balance sheet reduction. This framework attempts to satisfy both Trump’s preference for lower rates and Warsh’s emphasis on inflation discipline. It suggests maintaining a hawkish stance overall while allowing flexibility in the rate trajectory.
As a result, the total number of rate cuts may be lower than under the Powell regime, but a return to outright tightening appears unlikely. Even if Warsh becomes Chair, the Federal Reserve is expected to maintain a gradual easing bias.
At the same time, crypto-friendly policies from the SEC and CFTC are becoming more concrete. Allowing cryptocurrency investments in 401(k) retirement accounts could open the door to as much as $10 trillion in potential inflows. The rapid progress of market structure legislation for digital assets is another positive signal.
In the short term, uncertainty remains. Bitcoin is likely to stay sensitive to equity market movements. With the $84,000 level already breached, further downside risk cannot be ruled out. However, if equities enter a consolidation phase, Bitcoin may once again be selected as an alternative investment. Historically, when technology stocks stagnate due to AI bubble concerns, capital has often rotated into alternative assets.
What remains unchanged is more important. Global liquidity is still expanding over the longer term, and the institutional policy stance toward cryptocurrencies remains supportive. Strategic accumulation by institutions continues, and the Bitcoin network itself has no operational issues. The current pullback reflects exaggerated short-term volatility driven by thin liquidity and does not undermine the medium- to long-term bullish trend.
Read more reports related to this research.The Bitcoin valuation methodology presented in this document (hereinafter referred to as the “Methodology”) is intended solely for educational and academic research purposes. It does not constitute investment advice, a solicitation to buy or sell, or a recommendation to engage in any form of trading activity. The fair prices derived from this Methodology are theoretical outputs based on objective data and mathematical models. They should not be interpreted as guidance or endorsement for any specific investment action, including buying, selling, or holding Bitcoin.
This Methodology is designed as a research framework to offer one perspective on Bitcoin valuation. It is not intended to be used as the basis for actual investment decisions. The Methodology has been carefully reviewed to ensure it does not constitute any form of market manipulation, fraudulent trading, or other unfair trading practices as defined under Article 10 of the “Act on the Protection of Virtual Asset Users” (the “Virtual Asset User Protection Act”). All analysis uses only publicly available information, including on-chain blockchain data and officially released economic indicators. No material non-public or insider information has been used. All valuation outputs, including target prices, are based on reasonable assumptions and presented without misrepresentation or omission of material facts.
The authors and distributors of this Methodology fully comply with the conflict of interest disclosure requirements set forth in Article 10, Paragraph 4, Item 2 of the Virtual Asset User Protection Act. If the authors hold or intend to trade the relevant virtual asset (Bitcoin) at the time of writing or distribution, such interests will be transparently disclosed.
The indicators used in this Methodology—such as Base Price, Fundamental Indicator, and Macro Indicator—are derived from approaches the authors consider reasonable. However, they do not represent absolute truths or definitive answers. The Bitcoin market is highly volatile, operates 24/7, spans global jurisdictions, and is subject to significant regulatory uncertainty. As a result, there may be substantial and prolonged deviations between the valuation results of this Methodology and actual market prices.
This Methodology is based on historical data and information available at the time of writing. It does not guarantee or predict future performance. Past patterns or correlations may not persist, and unexpected market shocks, regulatory shifts, technical failures, or macroeconomic events could significantly undermine the predictive validity of this framework. Given the relatively short history and evolving nature of the crypto market, there are inherent limitations to the reliability of past data and its applicability to future projections.
All investment decisions should be made independently and under the investor’s sole responsibility. This Methodology should not serve as the sole or primary basis for any investment decision. Investors must carefully consider their financial situation, investment objectives, risk tolerance, and experience, and should seek independent financial or investment advice as needed. The authors, distributors, and any related parties bear no responsibility for any direct, indirect, consequential, special, or punitive losses or damages arising from investment decisions made with reference to this Methodology.
Tiger Research allows the fair use of its reports. ‘Fair use’ is a principle that broadly permits the use of specific content for public interest purposes, as long as it doesn’t harm the commercial value of the material. If the use aligns with the purpose of fair use, the reports can be utilized without prior permission. However, when citing Tiger Research’s reports, it is mandatory to 1) clearly state ‘Tiger Research’ as the source, 2) include the Tiger Research logo. If the material is to be restructured and published, separate negotiations are required. Unauthorized use of the reports may result in legal action.
]]>비트코인이 29일 밤부터 30일 오전까지 $87,000에서 $81,000으로 약 7% 급락
마이크로소프트 실적 실망으로 나스닥이 무너지면서 비트코인도 활성 실현 가격($87,000) 지지선이 붕괴
케빈 워시 차기 연준 의장 지명설이 추가 하락을 유도했으나, 실제 정책은 시장 우려보다 완만할 가능성 존재
미국 정부의 암호화폐 우호 정책은 유지, 중장기 상승 흐름은 여전히 유효하나 단기적으로는 $84,000 이탈에 따른 하방 리스크가 존재
비트코인이 크게 두 차례에 걸쳐 급락했다. 29일 밤 11시 $87,000에서 하락하기 시작한 비트코인은 30일 오전 10시경 $81,000까지 밀리며 약 7%의 낙폭을 기록했다. 같은 기간 가상자산 시장 전체가 동반 약세를 보이며 투자 심리가 급격히 위축됐다.
이번 하락은 단일 악재가 아닌 전통 금융시장의 충격과 통화정책 불확실성이 복합적으로 작용한 결과다. 첫 번째 하락은 미국 빅테크 실적 쇼크에서, 두 번째 하락은 연준 인사 리스크에서 비롯됐다.
이 배경에는 비트코인 현물과 선물 시장의 거래량 감소, 유동성의 문제가 있다. 유동성이 바닥난 시장에서는 작은 충격에도 가격이 크게 흔들린다. 주식이나 원자재 시장은 하락 후 빠르게 반등했지만 비트코인은 회복하지 못했다.
비트코인은 시장에서 외면받고 있다. 거래량이 줄어든 상태에서 매도 압력만 쌓이니 가격은 쉽게 되돌아오지 못한다.
29일 밤, 비트코인이 처음 흔들린 건 나스닥이 급락하면서부터였다. 마이크로소프트 4분기 실적이 시장 기대에 미치지 못하면서 AI 투자 과열 우려가 수면 위로 떠올랐다. AI 거품 우려가 커지자 위험한 자산을 파는 흐름이 강해졌고, 변동성이 더 큰 비트코인은 더 크게 흔들렸다.
문제는 비트코인이 가격이 떨어지기 시작한 지점이다. 하락 과정에서 비트코인은 중요한 구조적 지지선 하나를 뚫고 내려갔다. 활성 실현 가격(Active Realized Price)이 바로 그 선이다.
당시 이 지표는 $87,000 수준에 있었다. 활성 실현 가격은 장기간 움직이지 않는 휴면 코인을 제외하고, 실제로 시장에서 활발히 거래되는 코인들의 평균 원가를 보정한 값이다. 쉽게 말해 지금 실제로 매매에 참여하는 투자자들의 체감 손익분기점이다. 이 선 아래로 가격이 떨어지면 활성 시장 참여자 대부분이 손실 상태에 빠진다. 비트코인은 지지선을 뚫고 내려갔다.
30일 오전 10시경, 비트코인은 또 한 번 무너졌다. $84,000에서 $81,000까지 순식간에 내려앉았다. 블룸버그와 로이터가 “트럼프 대통령이 케빈 워시를 차기 연준 의장으로 지명할 준비를 하고 있다”고 보도한 것이다. 31일 오전 공식 발표가 예정되어 있다.
케빈 워시는 매파적 인물로, 2006년부터 2011년까지 연준 이사로 일하면서 양적완화를 지속적으로 반대했다. “인플레이션이 올 것”이라고 경고했고, 실제로 2011년 두 번째 양적완화가 시작되자 연준을 떠났다.
이러한 케빈 워시를 지명하자, 시장은 트럼프의 금리 인하 기조와 반대되는 선택으로 인식하며 유동성 축소 우려를 키웠다. 비트코인은 민감하게 반응했다. 암호화폐는 유동성이 풍부할 때 오르는 자산이다. 돈이 많이 돌아야 투자자들이 위험한 자산에 돈을 넣는다. 워시가 오면 돈줄이 조여질 수 있다는 신호가 나왔고, 이미 마른 유동성 속에서 투자자들은 매도로 돌아섰다.
케빈 워시의 매파적 성향에 대한 우려에도 불구하고 실제 정책 운영은 시장이 걱정하는 것만큼 급격하지 않을 수 있다.
과거 그는 ‘금리는 일부 인하하되 대차대조표는 축소하는’ 일종의 절충안을 제시하기도 했다. 트럼프가 원하는 저금리와 자신의 물가 규율 중시를 동시에 만족시키는 전략이다. 매파적 기조는 유지하되 금리 경로에는 유연성을 둘 가능성도 고려해야한다.
결국 금리 인하 횟수는 파월 체제보다 줄어들 수 있지만, 긴축 재개로 돌아설 가능성은 크지 않다. 워시가 의장이 되더라도 연준의 정책 기조는 점진적 완화를 유지할 것으로 보인다.
한편 SEC와 CFTC의 암호화폐 우호 정책은 더욱 구체화되고 있다. 401(k) 퇴직연금의 암호화폐 투자 허용은 10조 달러 규모의 새로운 자금 유입을 의미한다. 암호화폐 시장 구조 법안이 빠르게 입법 절차를 밟고 있다는 점도 긍정적이다.
단기적으로는 불확실성이 남아있다. 비트코인은 당분간 증시 흐름에 민감하게 반응할 가능성이 높다. 특히 가장 큰 물량이 집중된 $84,000 선까지 뚫린 상황이라 추가 하락 위험도 존재한다. 하지만 증시가 횡보 국면에 접어들면 비트코인이 다음 투자처로 선택받을 가능성도 열려있다. AI 버블 우려로 기술주가 정체될 때 자금이 대체 자산으로 이동하는 패턴은 과거에도 반복됐다.
변하지 않을 확실한 요소에 집중해야 한다. 글로벌 유동성 확대 방향은 유지되고 있고, 제도권의 암호화폐에 대한 우호적 정책 방향성은 흔들림이 없다. 기관들의 전략적 매집도 지속되고 있으며, 비트코인 네트워크는 안정적으로 작동하고 있다. 현재의 조정은 부족한 유동성에 따른 과도한 단기 변동성의 결과로, 중장기 상승 추세를 훼손할 수준은 아니다.
이번 리서치와 관련된 더 많은 자료를 읽어보세요.본 비트코인 가치평가 방법론(이하 “본 방법론”)은 연구 목적으로 작성되었으며, 어떠한 형태의 투자 권유, 투자 조언, 매매 추천을 제공하는 것이 아닙니다. 본 방법론에서 제시하는 적정가격(Fair Price)은 객관적 데이터에 기반한 이론적 분석 결과일 뿐이며, 특정 시점에서의 매수, 매도, 보유 등 어떠한 투자 행위도 권유하거나 추천하는 것이 절대 아님을 명확히 합니다. 본 방법론은 시장 참여자들에게 비트코인 가치평가에 대한 하나의 관점을 제시하는 학술적 연구자료로서의 성격을 가지며, 실제 투자 의사결정을 위한 자료로 활용되어서는 안 됩니다.
본 방법론은 「가상자산 이용자 보호 등에 관한 법률」(이하 “가상자산이용자보호법”) 제10조에서 규정하는 시세조종행위, 사기적 부정거래행위 등 불공정거래행위에 해당하지 않도록 세심하게 검토되어 작성되었습니다. 모든 분석은 블록체인 상에 공개된 온체인 데이터, 공식적으로 발표된 거시경제 지표 등 누구나 접근 가능한 공개 정보만을 활용하였으며, 미공개 중요정보나 내부 정보는 일체 사용하지 않았습니다. 또한 본 방법론의 목표가격 산출은 합리적인 근거에 기반하여 이루어졌으며, 허위 표시나 중요사항의 의도적 누락 없이 투명하게 작성되었음을 밝힙니다.
작성자 및 배포자는 본 방법론과 관련하여 가상자산이용자보호법 제10조 제4항 제2호에서 규정하는 이해관계의 표시 의무를 준수합니다. 본 방법론 작성 시점 및 배포 시점에서 작성자가 해당 가상자산(비트코인)을 보유하고 있거나 향후 거래할 계획이 있는 경우, 이러한 이해관계를 명확히 공개할 것입니다.
본 방법론에서 사용된 기준가격(Base Price), 펀더멘탈 지표(Fundamental Indicator), 매크로 지표(Macro Indicator) 등의 산출 방식은 작성자가 합리적이라고 판단한 방법론에 기초한 것이나, 이는 절대적인 진리나 유일한 정답이 아닙니다. 비트코인 시장은 극도로 높은 변동성, 24시간 거래, 글로벌 시장의 특성, 규제 환경의 불확실성 등으로 인해 예측이 매우 어려우며, 본 방법론이 제시하는 가치평가 결과와 실제 시장 가격 간에는 상당한 괴리가 발생할 수 있고 실제로 그러한 괴리가 장기간 지속될 수 있습니다.
본 방법론은 과거의 역사적 데이터와 현재 시점의 정보에 기반하여 작성되었으며, 미래의 성과나 수익을 보장하거나 예측하는 것이 아닙니다. 과거의 패턴이나 상관관계가 미래에도 동일하게 적용된다는 보장은 없으며, 예상치 못한 시장 충격, 규제 변화, 기술적 문제, 거시경제적 변화 등 다양한 요인에 의해 본 방법론의 예측력이 현저히 저하되거나 무의미해질 수 있습니다. 특히 암호화폐 시장은 전통 금융시장에 비해 역사가 짧고 구조적 변화가 빈번하여 과거 데이터의 신뢰성과 미래 예측력에 근본적인 한계가 있음을 인지해야 합니다.
모든 투자 결정은 전적으로 투자자 본인의 독립적인 판단과 책임 하에 이루어져야 하며, 본 방법론을 투자 의사결정의 유일한 근거나 주요 근거로 사용해서는 안 됩니다. 투자자는 본인의 재무 상황, 투자 목적, 위험 감수 능력, 투자 경험 등을 종합적으로 고려하여 신중하게 투자 결정을 내려야 하며, 필요한 경우 독립적인 재무 자문이나 투자 자문을 구해야 합니다. 본 방법론의 작성자, 배포자, 관련 기관은 본 방법론을 참고하여 이루어진 투자 결정으로 인한 어떠한 직접적, 간접적, 결과적, 특별, 징벌적 손실이나 손해에 대해서도 일체의 책임을 지지 않습니다.
타이거리서치는 리포트의 공정 사용을 지지합니다. 이는 공익적 목적으로 콘텐츠를 인용하되 상업적 가치에 영향을 주지 않는 범위에서의 넓은 사용을 허용하는 원칙입니다. 공정 사용 규칙에 따라, 리포트를 사전 허가 없이 사용할 수 있으나, 타이거리서치 리포트를 인용 시에는 1) 출처로 ‘타이거리서치’를 분명히 밝히고, 2) 타이거리서치 로고를 포함시켜야 합니다. 자료를 재구성하여 출판할 경우에는 별도의 협의가 요구됩니다. 사전 허가 없는 사용은 법적 조치를 초래할 수 있습니다.
]]>After acquiring Moonbirds, Orange Cap Games announced plans to issue a token and expand the broader ecosystem.
To position the Moonbirds IP around fandom rather than speculation, the team is introducing multiple engagement formats, including a card game, Blind Box 2.0 initiatives, and mobile games.
While the expansion of the Moonbirds IP is promising, a clearer and more concrete utility framework for the $BIRB token is still required.
Moonbirds was a high-profile NFT project that traded up to 40 ETH in 2021. As the NFT market entered a downturn, attention faded. Recently, however, Moonbirds has returned to the spotlight following the announcement of a token launch plan. Still, viewing Moonbirds purely as an NFT reflects a perspective anchored in 2021.
In May 2025, Moonbirds entered a new phase after being acquired by Orange Cap Games. The acquirer’s objective is not to operate Moonbirds as a standalone NFT collection, but to develop it as a broader IP-driven business. This shift requires moving beyond the valuation of a single NFT and instead assessing Moonbirds within a larger strategic framework.
The future Orange Cap Games envisions through Moonbirds is becoming the “next Pop Mart.”
CEO Spencer Gordon Sand has stated his ambition to build a multi-billion-dollar company by positioning Orange Cap Games as the Pop Mart of Web3.
This ambition is closely tied to Sand’s career background. He has been an early investor in NFT projects such as Bored Ape Yacht Club, RTFKT, and Cool Cats, giving him firsthand exposure to how NFT projects evolve into IP, and how they fail.
In particular, as one of the largest holders of Pudgy Penguins, he has seen the brand extend into mainstream media, including television, where non-crypto audiences actively engage with the characters.
This experience likely shaped his conviction around building a “next Pop Mart.”
Consistent with this background, Orange Cap Games’ vision for Moonbirds diverges sharply from a typical NFT sales model. Rather than focusing on NFT distribution within Web3, the company aims to use Moonbirds as a starting point to acquire and scale multiple high-potential IPs, ultimately positioning itself as a diversified, IP-centric consumer business similar in structure to Pop Mart.
A representative success case of Pop Mart is the character Labubu. Labubu was not originally created by Pop Mart. In 2019, the company signed an exclusive agreement with a Hong Kong–based artist and successfully introduced the character to a mass market.
Pop Mart is not a simple reseller of third-party IP. Its core strength lies in vertical integration.
Similar to a talent agency, the company manages the full lifecycle of IP development, from artist discovery and IP licensing to product design, manufacturing, and direct-to-consumer distribution through its own channels. This integrated structure allows Pop Mart to repeatedly scale new characters using a consistent expansion model.
Orange Cap Games appears to be pursuing a comparable approach. Rather than focusing solely on product creation, the company aims to build a distribution layer capable of delivering multiple IPs.
This system spans physical distribution, such as figurines and trading cards, cultural distribution through offline tournaments and events, and digital distribution via games and NFTs. The objective is to create a repeatable framework that can support and scale any IP introduced into the ecosystem.
For Orange Cap Games, producing physical toys inspired by Moonbirds NFTs matters. However, trading cards play a more central role in establishing a scalable ecosystem.
To differentiate its trading card game, the company avoided the industry-standard Blue Core card stock and instead developed its own Orange Core material. This proprietary stock reduces common issues such as edge wear and card bending. Orange Cap Games controls both material selection and the manufacturing process, extending product ownership down to production details.
These efforts were validated when the cards received PSA 10 grades from PSA, the highest rating available. This was followed by a direct collaboration with PSA, resulting in co-branded promotional cards.
Product quality alone is not sufficient. Distribution infrastructure determines whether physical products reach the right audience. Placement in high-traffic locations frequented by target consumers is critical.
To this end, Orange Cap Games partnered with major global distributors:
GTS Distribution, the largest collectibles distributor in North America
Star City Games, a core distributor for Magic: The Gathering
Asmodee, the world’s third-largest board game and toy distributor
As a result, Moonbirds products are no longer limited to crypto-native channels such as exchanges. They are now available in local hobby shops and toy stores, meeting a baseline requirement for global expansion.
At this stage, Orange Cap Games has secured both product quality and distribution access. The next challenge is retention: whether customers who purchase these products remain engaged within the broader Moonbirds ecosystem.
Producing high-quality products and securing distribution are necessary, but not sufficient. The real challenge is persuasion. Among countless character products on retail shelves, what makes consumers choose Moonbirds?
The success of Labubu at Pop Mart was not driven by visual appeal alone. Orange Cap Games applies a similar logic, using structured strategies designed to influence consumer behavior rather than relying on design alone.
Cards function not only as collectibles but as components of a game. For cards to become meaningful collectibles, a playable game must exist first. Without active gameplay, even well-designed and well-manufactured cards remain decorative objects.
The central question is how to attract players to a new card game.
Orange Cap Games targets participants in large-scale trading card tournaments. These events often run for five days, with roughly half of participants eliminated on the first day. The company schedules its own tournaments on the second day, positioning them as an alternative for eliminated players.
From a participant’s perspective, an additional competitive opportunity is compelling. Preparation leads to familiarity with the game, core players begin to cluster, and the product starts to function as a real game rather than a niche experiment.
When a Moonbirds tournament is held alongside a major established competition, players also begin to associate it with the same competitive standard. This shift in perception is critical. The strategy is less about immediate conversion and more about reframing Moonbirds TCG as a legitimate part of the broader card game ecosystem.
At its core, this approach is not only about participation, but about changing how the product is perceived.
In practice, Orange Cap Games applied this strategy in 2025 with its Vibes TCG at SCG Con, where side tournaments were run alongside major competitions. Over time, this approach has steadily expanded the scale and visibility of the Vibes TCG events.
Pop Mart’s traditional blind boxes, such as those featuring Labubu, typically contain a single figurine. Once the box is opened and the item revealed, the experience ends. The model is designed around one-time consumption.
Moonbirds takes a different approach with Blind Box 2.0. Each box contains three distinct collectibles:
A plush or figurine
Trading Card
NFT
By purchasing a single box, consumers engage with three separate experiences rather than one.
Orange Cap Games refers to this model as the “Hybrid” category. This is not simply a bundle of three products. The core idea is cross-channel onboarding, where each item serves as an entry point into a different part of the ecosystem.
Toy-focused buyers discover TCG cards and are introduced to gameplay.
TCG-focused buyers receive NFTs and gain exposure to onchain assets.
NFT-focused buyers receive physical toys and are guided into offline communities
A single blind box becomes a gateway into all three of Orange Cap Games’ business lines: toys, TCG, and NFTs. Consumers may engage only with their original purchase intent. However, once curiosity extends beyond that initial purpose, they are naturally guided into adjacent parts of the ecosystem.
Purchasing trading cards requires spending, and collecting figurines requires prior interest. Free-to-play mobile games, by contrast, require little more than a download. Some users may later invest time or money to improve their decks or progress, but the initial barrier to entry remains low.
Angry Birds provides a useful reference. The gameplay was simple, but the characters became globally recognizable. From there, the IP expanded into films, merchandise, and theme parks. The game served as the starting point for broad IP distribution.
Moonbirds’ mobile game is designed to play a similar role. Through gameplay, users become familiar with the characters and gradually absorb the broader worldbuilding. Even users with no immediate intention to purchase cards or figurines are exposed to Moonbirds through the game.
Over time, this familiarity creates recognition. When consumers later encounter Moonbirds products in retail settings, the characters are no longer unfamiliar. The mobile game establishes the mental bridge that turns passive awareness into potential purchase intent.
Orange Cap Games has built the infrastructure and strategy to expand Moonbirds. For investors, however, the key question remains: what does the $BIRB token actually do?
The team describes $BIRB as a “coordination layer.” In this framing, the token is intended to accelerate cultural distribution and enable memes to spread more efficiently. The strategy is to anchor the business in physical consumer products while using crypto-native dynamics to amplify brand reach.
The challenge lies in specificity. It remains unclear what concrete benefits accrue to token holders. Revenue sharing from product sales, NFT-linked memberships, or other incentive mechanisms have not been clearly defined.
Orange Cap Games emphasizes long-term ecosystem growth. Rather than distributing profits to token holders, revenue is expected to be reinvested into the business. The goal is to create a positive feedback loop where attention generated in non-crypto markets feeds back into the crypto community.
A notable strength is that this is not a business assembled solely to justify a token launch. The company generated real revenue through Vibes TCG before introducing the token layer. This approach differs materially from meme coins that lack underlying operations.
However, open questions remain. Whether the token’s proposed “cultural coordination” function can operate in practice, and whether that function translates into sustained token value, has yet to be demonstrated. A reinvestment-first strategy may also be less appealing to short-term investors.
It remains uncertain whether Moonbirds can achieve Pop Mart level success. Still, the project serves as a live experiment in how NFT-originated IP can be monetized in the real world. The concrete design of $BIRB and its early performance will determine the outcome of that experiment.
Read more reports related to this research.
This report was partially funded by Moonbirds. It was independently produced by our researchers using credible sources. The findings, recommendations, and opinions are based on information available at publication time and may change without notice. We disclaim liability for any losses from using this report or its contents and do not warrant its accuracy or completeness. The information may differ from others’ views. This report is for informational purposes only and is not legal, business, investment, or tax advice. References to securities or digital assets are for illustration only, not investment advice or offers. This material is not intended for investors.
Tiger Research allows the fair use of its reports. ‘Fair use’ is a principle that broadly permits the use of specific content for public interest purposes, as long as it doesn’t harm the commercial value of the material. If the use aligns with the purpose of fair use, the reports can be utilized without prior permission. However, when citing Tiger Research’s reports, it is mandatory to 1) clearly state ‘Tiger Research’ as the source, 2) include the Tiger Research logo following brand guideline. If the material is to be restructured and published, separate negotiations are required. Unauthorized use of the reports may result in legal action.
]]>오렌지캡게임즈(Orange Cap Games)는 문버드를 인수 후, 토큰 발행 계획을 발표하며 생태계를 확장
문버드 IP를 단순 투기가 아닌 사람들의 팬심으로 이끌기 위해 카드게임, 블라인드 박스2.0, 모바일 게임등 다양한 프로모션 제공
문버드의 IP확장 기대할 수 있지만 $BIRB의 명확한 활용 방안 제시 필요
문버드(MoonBirds)는 2021년 40 ETH까지 거래됐던 유명 NFT였다. NFT 시장이 침체기를 맞아 주춤했지만, 최근 토큰 출시 계획을 발표하며 다시 주목 받고 있다.
하지만 여전히 당신이 문버드를 NFT 자체로 바라보고 있다면, 아직도 2021년 시각으로 머물러 있는 것이다. 2025년 5월, 문버드는 오렌지캡게임즈(Orange Cap Games)에게 인수되며 새로운 챕터에 들어섰다. 오렌지캡게임즈는 문버드를 중심으로 단순히 NFT 자체가 아니라 IP 사업으로 확장하려는 목표를 가지고 있다.
때문에 문버드 NFT 하나를 설명하는 것이 아니라 더 큰 그림에 대한 시각이 필요하다.
오렌지캡게임즈가 문버드를 통해 꿈꾸는 미래는 ‘제2의 팝마트(Pop Mart)’다.
오렌지캡게임즈 CEO 스펜서 고든 샌드는 “웹3의 팝마트가 되어 수십억 달러 규모의 기업으로 성장하겠다”는 포부를 밝혔다. 스펜서가 이런 포부를 밝힐 수 있었던 데에는 그의 커리어 배경이 큰 역할을 했다.
그는 BAYC, RTFKT, Cool Cats 같은 NFT 프로젝트에 초기 투자하며 지금까지 어떻게 NFT가 IP로 성장하는지 그리고 실패하는지 직접적으로 경험해왔다. 특히 펏지 펭귄(Pudgy Penguins)의 최다 홀더로 TV에서도 펏지 펭귄이 나와 일반인들이 즐기는 것을 보며 넥스트 팝마트라는 목표점을 세울 수 있었을 것이다.
그의 경험처럼 오렌지캡게임즈가 문버드를 통해 그리는 모습은 웹3 시장에서 NFT를 판매하는 것과는 완전히 다르다. 마치 팝마트와 같이 문버드를 시작으로 수많은 유망 IP(지식재산권)를 확보하여, IP 중심의 종합 기업으로 도약하겠다는 것이다.
팝마트의 대표적인 성공 사례로는 캐릭터 ‘라부부(Labubu)’가 있다. 사실 라부부는 처음부터 팝마트가 만든 캐릭터가 아니었다. 팝마트는 2019년 홍콩 아티스트의 캐릭터와 독점 계약을 맺었고, 이를 시장에 성공적으로 알렸다.
팝마트는 단순히 남의 물건을 떼어다 파는 리셀러가 아니다. 마치 연예기획사와 같이, 아티스트 발굴부터 IP 계약과 개발, 제품 기획과 제조, 그리고 자체 채널을 통한 판매까지 모든 과정을 직접 관리하는 ‘수직 계열화’를 통해 자신들만의 확산 공식을 만든 것이다.
즉, 오렌지캡게임즈 역시 팝마트와 같이 하나의 유통 레이어(Distribution Layer)로 여러 IP를 전달하는 시스템을 만들고자 하는 것이다. 단순히 물건을 만들어서 파는 것이 아니라, 시스템적으로 피규어, 카드 등 물리적 유통, 오프라인 대회와 같은 문화적 유통, 게임과 NFT와 같은 디지털 유통까지 어떤 IP가 왔을 때도 만들어내는 시스템을 만들고 있는 것이다.
오렌지캡게임즈는 문버드의 NFT를 본따서 만든 실물 토이 제조 역시 중요하지만 생태계 확정을 위한 트레이딩카드(TCG)의 역할도 중요하다.
그렇기에 이들은 트레이딩 카드에서 차별점을 주기 위해 업계 표준인 ‘Blue Core’ 카드지가 아닌 자체 개발한 ‘Orange Core’를 만들었다. 이는 기존 카드지의 문제점이었던 모서리가 닳고 쉽게 휘어짐을 줄이게 하는 프리미엄 소재다. 오렌지캡게임즈는 이렇게 세심한 부분까지 본인들이 카드용지를 선택하고 제조 공정까지 제조한다.
이러한 노력은 세계 최대 카드 등급 판정기관인 PSA에서 가장 높은 등급 PSA 10를 받았고 곧바로 PSA와의 협업으로 이어지면서 공동 프로모션 카드를 발행했다.
실물 제품을 사람들에게 보여주기 위해서는 유통 인프라가 중요하다. 사람들이 왕래가 많은 곳, 문버드가 타겟하는 사람들이 자주 찾는 곳에 적절하게 배치하는 것이 핵심이다.
그렇기에 오렌지캡게임즈는 주요 글로벌 유통사들과 제휴하여 사람들에게 다가갈 준비를 했다.
GTS(Grosnor Trading Solutions): 북미 최대 콜렉터블 유통사.
Star City Games: 매직 더 개더링(Magic: The Gathering)의 핵심 유통사
Asmodee: 글로벌 3위 보드게임 및 장난감 유통사
이제 문버드 제품은 크립토 거래소가 아닌 동네 취미용품점과 장난감 매장에서 만날 수 있다. 글로벌 진출에 필요한 기본 조건을 갖춘 셈이다.
오렌지캡게임즈는 이제 사람들에게 다가갈 기본 조건을 갖추었다. 이제 다음으로 중요한것은 사람들이 제품을 구매 후 지속적으로 본인들 생태계에 머물게 하냐이다.
좋은 제품을 만드는 것과 원활하게 유통하는 것은 필요조건일 뿐, 충분조건이 아니다. 매대에 진열된 수많은 캐릭터 상품 중에서 문버드를 선택하게 만들려면 무엇이 필요할까?
팝마트의 라부부가 성공한 이유는 단지 귀여운 디자인 때문이 아니다. 오렌지캡게임즈는 이를 정확하게 사람들의 심리를 자극하는 여러 전략을 펼치고 있다.
카드는 수집품이기도 하지만, ‘카드 게임’의 한 부분이다. 때문에 카드가 수집품이 될 수 있도록 문화가 형성되기 위해서는 ‘게임’이 먼저 되어야 한다.
만약 당신이 새로 카드 게임을 만들었다고 생각해 보자. 카드 일러스트가 아무리 멋져도, 제조 품질이 아무리 좋아도, 사람들이 게임을 하지 않으면 그냥 예쁜 종이 조각이다.
문제는 새로운 카드 게임에 사람들을 어떻게 모으느냐다.
이 문제 해결을 위한 타겟층은 바로 카드 게임 대회 참가자들이다. 오렌지캡게임즈는 대형 카드 게임 대회가 열리는 기간에 참가자들을 자연스럽게 참가하도록 전략을 짰다.
큰 규모의 카드 게임 대회의 경우 5일 동안 대회가 진행되며 첫 날 약 50% 참가자들이 탈락을 한다. 오렌지캡게임즈는 이틈을 활용하여 두 번째 날 대회를 개최하여 탈락한 참가자들이 참가할 수 있게 유도한다는 것이다.
참가자 입장에서 보자. 한 번 더 기회를 잡을 수 있는 대회가 있다면 이 역시도 참여하기 위해 준비하게 된다. 게임에 대한 이해를 자연스럽게 하게 되고 핵심 타겟층들이 모이게 되며 하나의 ‘게임’이 정말 되게 된다.
또한 내가 준비하는 대형 대회 옆에서 같이 운영되는 대회라면 무의식적으로 이 역시도 동일한 수준의 게임으로 점점 인식하게 된다. 이러한 인식은 그들을 본인들의 TCG 카드 게임에 끌어들일 수 있게 하는 전략이다.
이는 참가자들을 자연스럽게 유도할 수 있지만 중요한 것은 인식 변화 역할로 작용한다.
실제로 2025년 오렌지캡게임즈는 Vibes TCG로 SCG Con 대형 대회에서 이와 같은 전략을 펼치면서 대회의 규모를 점점 키워가고 있다.
팝마트의 라부부 같은 전통적 블라인드 박스는 피규어 하나만 들어 있다. 박스를 열어 피규어를 꺼내면 경험이 끝난다. 1회성 구매로 끝나는 구조다.
하지만 문버드의 블라인드 박스 2.0은 하나의 박스에 세 가지 컬렉터블을 담았다. 1) 인형 및 피규어 2) 트레이딩 카드, 3) NFT 구성은 하나의 박스를 구매하면, 소비자는 서로 다른 세 가지를 경험한다.
오렌지캡게임즈는 이를 “Hybrid” 카테고리라고 부른다. 단순히 제품 3개를 묶었다는 의미가 아니다. Hybrid의 핵심은 크로스오버 온보딩 구조다. 각 제품들을 통해 다른 서비스 영역으로 끌어들이기 위한 장치다.
토이 목적으로 산 사람 → TCG 카드 발견 → 게임 진입
TCG 목적으로 산 사람 → NFT 받음 → 온체인 자산 경험
NFT 목적으로 산 사람 → 물리적 토이 받음 → 오프라인 커뮤니티 진입
하나의 블라인드 박스가 오렌지캡게임즈의 세 가지 사업 라인(토이, TCG, NFT)을 모두 경험시키는 계기가 된다. 소비자는 각각의 목적에 맞게 상품을 즐기면 된다. 하지만 목적으로 하는 상품 외 다른 것들에 호기심을 갖는 순간 오렌지캡게임즈가 유도한 방향으로 흘러가게 된다.
카드를 사려면 돈이 필요하고, 피규어를 모으려면 관심이 있어야 한다. 하지만 무료 모바일 게임은 그냥 깔아보기만 하면 된다. 물론 더 좋은 덱을 구성하기 위해 누군가는 시간을 할애하고 누군가는 돈을 쓸 수 있지만, 그래도 진입장벽은 가장 낮다.
앵그리버드를 생각해보자. 게임은 단순했지만, 캐릭터는 전 세계 사람들 머릿속에 각인됐다. 이후 앵그리버드는 영화, 굿즈, 테마파크로 확장됐다. 게임이 IP를 퍼뜨리는 시작점이 된 셈이다.
문버드 모바일 게임도 같은 역할을 한다. 게임을 플레이하며 캐릭터에 익숙해지고, 세계관에 몰입한다. 지금 당장 카드나 피규어를 살 의향이 없는 사람도 게임을 통해 문버드를 경험한다.
이는 언젠가 매장에서 문버드 제품을 마주쳤을 때 “아, 그 게임 캐릭터네” 하고 손이 가게 만드는 기반이 된다.
오렌지캡게임즈는 문버드를 확장할 인프라와 전략을 갖췄다. 하지만 투자자 입장에서 가장 중요한 질문이 남았다. $BIRB 토큰은 무엇을 하는가?
팀은 $BIRB를 “조정 계층(coordination layer)”이라고 설명한다. 토큰이 문화적 확산을 촉진하고, 밈이 빠르게 전파되도록 돕는 수단이라는 것이다. 실물 비즈니스에 뿌리를 두되 크립토의 파급력으로 브랜드를 키운다는 전략이다.
문제는 구체성이다. 토큰 보유자에게 어떤 혜택이 돌아가는가? 제품 판매 수익 공유? NFT 연계 멤버십? 이런 메커니즘에 대한 명확한 설명이 없다.
오렌지캡게임즈의 방향은 장기 생태계 성장이다. 수익을 토큰 홀더에게 배분하는 대신 사업 재투자에 쓴다는 것이다. 실물 제품이 크립토 밖에서 주목받고, 그 주목이 크립토 커뮤니티로 유입되는 선순환을 만들겠다는 구상이다.
긍정적인 점은 토큰 발행을 위해 급조한 사업이 아니라는 것이다. Vibes TCG로 실제 매출을 만든 뒤 그 위에 토큰을 얹는 방식이다. 이는 실체 없는 밈코인과 다른 접근이다.
하지만 과제도 명확하다. 토큰의 “문화적 확산 기능”이 실제로 작동할지, 그것이 토큰 가치로 연결될지는 검증되지 않았다. 장기 재투자 전략은 단기 투자자들에게 매력적이지 않을 수 있다.
문버드가 팝마트급 성공을 거둘지는 미지수다. 하지만 이 프로젝트는 NFT IP가 현실에서 어떻게 가치화될 수 있는지 보여주는 실험이다. $BIRB 토큰의 구체적 설계와 초기 성과가 이 실험의 성패를 가를 것이다.
이번 리서치와 관련된 더 많은 자료를 읽어보세요.
이 보고서는 문버드(MoonBirds)로부터 일부 원고료 지원을 받았으나, 신뢰할 수 있는 자료를 바탕으로 독립적인 조사를 통해 작성되었습니다. 하지만 이 보고서의 결론과 권고사항, 예상, 추정, 전망, 목표, 의견 및 관점은 작성 당시의 정보를 바탕으로 하며 예고 없이 변경될 수 있습니다. 이에 당사는 본 보고서나 그 내용을 이용함에 따른 모든 손실에 대해 책임을 지지 않으며 정보의 정확성, 완전성, 그리고 적합성을 명시적으로나 암시적으로 보증하지 않습니다. 또한 타인 및 타조직의 의견과 일치하지 않거나 반대될 수 있습니다. 이 보고서는 정보 제공의 목적으로 작성되었으며, 법률, 사업, 투자, 또는 세금에 관한 조언으로 간주되어서는 안 됩니다. 또한 증권이나 디지털 자산에 대한 언급은 설명을 위한 것일 뿐, 투자 권고나 투자 자문 서비스 제공을 제안하는 것이 아닙니다. 이 자료는 투자자나 잠재적 투자자를 대상으로 하지 않았습니다.
타이거리서치는 리포트의 공정 사용을 지지합니다. 이는 공익적 목적으로 콘텐츠를 인용하되 상업적 가치에 영향을 주지 않는 범위에서의 넓은 사용을 허용하는 원칙입니다. 공정 사용 규칙에 따라, 리포트를 사전 허가 없이 사용할 수 있으나, 타이거리서치 리포트를 인용 시에는 1) 출처로 ‘타이거리서치’를 분명히 밝히고, 2) 타이거리서치의 브랜드 가이드라인에 맞는 로고(Black/White)를 포함시켜야 합니다. 자료를 재구성하여 출판할 경우에는 별도의 협의가 요구됩니다. 사전 허가 없는 사용은 법적 조치를 초래할 수 있습니다.
]]>Korea’s virtual asset regulation is based on a pre-emptive approach shaped by past financial crises and now being applied to the Web3 industry. Over the past decade, regulatory efforts have largely prioritized investor protection, notably through the 2021 Specified Financial Transactions Act and the 2024 Virtual Asset User Protection Act.
There is limited progress toward institutional integration. The recent passage of amendments related to Security Token Offerings marks an initial step, alongside ongoing debate over four key issues:
Spot ETFs: The current administration continues to consider their introduction under election pledges and economic growth strategies.
KRW stablecoins: The Financial Services Commission supports fintech participation, while the Bank of Korea favors a bank-led consortium to preserve monetary stability.
Virtual asset taxation: Long postponed, taxation on individual transactions is now scheduled for implementation in 2027.
Exchange ownership restrictions: Proposed by the Financial Services Commission and opposed by the Digital Asset Exchange Alliance.
A key structural limitation is that exchanges have been confined to transaction intermediation, preventing expansion into custody, brokerage, or ICO platforms. Unlike Coinbase’s evolution into a comprehensive crypto financial platform, Upbit remains limited to exchange functions, generating little spillover for the domestic ecosystem.
In short, Korea’s regulatory framework has succeeded in risk prevention but fallen short in fostering industry growth. Despite active participation in the global Web3 market, Korea has yet to build a corresponding domestic ecosystem.
Closer dialogue with the industry is now needed to develop a regulatory model where investor protection and innovation can coexist.
Essential 2026 Crypto Regulations in South Korea. From the debate on Spot ETF approval to the conflict between the FSC and BOK over KRW-stablecoins, stay ahead with the must-know issues shaping the Korean market in 2026.
Korea’s pre-emptive regulatory stance shaped by the 1997 IMF crisis and the 2008 global financial crisis
Financial markets viewed less as self-regulating and more as systems requiring state management and control
Under a state-led growth model, failure framed as government mismanagement rather than individual judgment
Financial incidents shift loss responsibility to the state, creating political and regime risk
In response, the government strengthens preventive regulation to limit public choice
2021 hacking and money-laundering incidents at smaller exchanges led to revisions reinforcing exchange-centered regulation
KRW trading conditioned on bank real-name account partnerships, triggering closures of small and mid-sized exchanges unable to secure partnerships amid negative industry sentiment
Resulting oligopolistic market dominated by five major exchanges, including Upbit and Bithumb
Business licenses confined to trading functions, constraining ecosystem spillovers and preventing the formation of a native Web3 ecosystem
Essential 2026 Crypto Regulations in South Korea. From the debate on Spot ETF approval to the conflict between the FSC and BOK over KRW-stablecoins, stay ahead with the must-know issues shaping the Korean market in 2026.
This report has been prepared based on materials believed to be reliable. However, we do not expressly or impliedly warrant the accuracy, completeness, and suitability of the information. We disclaim any liability for any losses arising from the use of this report or its contents. The conclusions and recommendations in this report are based on information available at the time of preparation and are subject to change without notice. All projects, estimates, forecasts, objectives, opinions, and views expressed in this report are subject to change without notice and may differ from or be contrary to the opinions of others or other organizations.
This document is for informational purposes only and should not be considered legal, business, investment, or tax advice. Any references to securities or digital assets are for illustrative purposes only and do not constitute an investment recommendation or an offer to provide investment advisory services. This material is not directed at investors or potential investors.
Tiger Research allows the fair use of its reports. ‘Fair use’ is a principle that broadly permits the use of specific content for public interest purposes, as long as it doesn’t harm the commercial value of the material. If the use aligns with the purpose of fair use, the reports can be utilized without prior permission. However, when citing Tiger Research’s reports, it is mandatory to 1) clearly state ‘Tiger Research’ as the source, 2) include the Tiger Research logo. If the material is to be restructured and published, separate negotiations are required. Unauthorized use of the reports may result in legal action.
]]>한국의 가상자산 규제는 ‘사전 규제’ 구조를 기반으로 합니다. IMF 외환위기와 글로벌 금융위기를 거치며 ‘사전 규제’ 구조는 현재까지 이어져 웹3 산업에도 적용되고 있습니다. 이에 지난 10년간은 크게 특금법(2021)과 이용자보호법(2024)을 통해 투자자 보호 중심의 규제에 집중해 왔습니다.
이제 막 통과된 STO 개정안으로 제한적 제도권 편입을 시도하고 있으며 아래 네 가지 핵심 논의도 진행되고 있습니다.
현물 ETF: 현 정부는 대선 공약 및 ‘경제성장전략’에서 가상자산 현물 ETF 도입을 지속적으로 고려 중
원화 스테이블코인: 금융위는 핀테크 참여를 허용하는 산업 정책 관점을, 한은은 은행 51% 컨소시엄을 주장하는 통화 안정 관점을 고수하며 대립 중 (가장 첨예한 이슈)
가상자산 과세: 개인 가상자산 거래 과세는 몇 년동안 지연됐으나 2027년 정상적으로 도입 예정
거래소 지분 제한: 금융위의 제안으로 논쟁이 시작됐으며 디지털자산협회(DAXA)는 공식적으로 반대 입장을 표출
보고서를 작성하며 가장 아쉬운 점은 거래소가 ‘거래 중개’에 갇히면서, 커스터디·브로커리지·ICO 플랫폼 등으로의 확장이 원천 차단됐다는 것입니다. 코인베이스가 종합 크립토 금융 플랫폼으로 진화한 것과 달리, 업비트는 여전히 ‘거래소’로만 머물며 국내 생태계 발전을 위한 낙수효과를 내지 못하고 있습니다.
정리하자면, 한국 규제는 ‘사고 예방’에는 성공했지만, ‘산업 육성’에는 실패했습니다. 마치 안전벨트는 마련했으나 탈 차가 없는 형국입니다. 한국은 글로벌 웹3 생태계에서 가장 활발한 참여자임에도 정작 생태계를 키우지 못해 시장은 있으나 산업은 없습니다.
지금이라도 산업과 긴밀한 대화를 통해 투자자 보호와 산업 혁신이 공존하는 규제 선도 국가로의 전환이 필요합니다.
2026년 꼭 알아야 할 한국 내 핵심 규제들. 현물 ETF 도입 논의부터 원화 스테이블코인을 둘러싼 금융위와 한은의 대립까지, 2026년 한국 시장에서 절대 놓쳐선 안 될 핵심 이슈들을 바로 확인하세요.
한국의 사전 규제 성향은 1997년 IMF 외환위기와 2008년 글로벌 금융위기를 거치며 형성
두 차례의 금융 위기를 통해 정부는 금융시장을 ‘자율에 맡길 영역’이 아니라 ‘관리 및 통제해야 할 시스템’으로 인식
국가 주도 성장 모델 속에서 실패는 개인의 판단이 아니라 ‘정부 관리 실패’로 인식되는 구조가 형성
금융 사고 발생 시 피해 책임이 정부로 귀속되며, 이는 정권 리스크, 정치적 부담으로 직결
정부는 사후 책임을 피하기 위해 사전에 국민의 선택을 제한하는 규제 방식을 강화
지난 10년간 한국의 가상자산 규제 기조는 산업 육성이 아닌 사고 차단·이용자 보호 중심의 관리 체계
STO 법안으로 제한적 편입을 시도하고 있으나, 원화스테이블코인 등 제한된 개방에 한정
2021년 중소형 거래소에서 발생한 해킹·자금세탁 이슈로 인해 거래소 규제 중심의 법안 ‘특금법’ 개정
원화 거래를 위해서는 은행 실명계좌 제휴가 필수적이었으나, 당시 업계에 대한 부정적 분위기로 제휴에 실패한 중소형 거래소들의 연이은 폐업
이로 인해 업비트, 빗썸 등 5대 거래소의 독점 구조 형성. 이후에도 ‘거래’ 업무로 제한된 사업 허가로 생태계 낙수효과가 제한되어 네이티브 웹3 생태계 조성에는 실패
2026년 꼭 알아야 할 한국 내 핵심 규제들. 현물 ETF 도입 논의부터 원화 스테이블코인을 둘러싼 금융위와 한은의 대립까지, 2026년 한국 시장에서 절대 놓쳐선 안 될 핵심 이슈들을 바로 확인하세요.
이 보고서는 신뢰할 수 있는 자료를 바탕으로 작성되었습니다. 그러나 정보의 정확성, 완전성, 그리고 적합성을 명시적으로나 암시적으로 보증하지 않습니다. 당사는 본 보고서나 그 내용을 이용함에 따른 모든 손실에 대해 책임을 지지 않습니다. 이 보고서의 결론과 권고사항, 예상, 추정, 전망, 목표, 의견 및 관점은 작성 당시의 정보를 바탕으로 하며 예고 없이 변경될 수 있습니다. 또한 타인 및 타조직의 의견과 일치하지 않거나 반대될 수 있습니다. 이 보고서는 정보 제공의 목적으로 작성되었으며, 법률, 사업, 투자, 또는 세금에 관한 조언으로 간주되어서는 안 됩니다. 또한 증권이나 디지털 자산에 대한 언급은 설명을 위한 것일 뿐, 투자 권고나 투자 자문 서비스 제공을 제안하는 것이 아닙니다. 이 자료는 투자자나 잠재적 투자자를 대상으로 하지 않았습니다.
타이거리서치는 리포트의 공정 사용을 지지합니다. 이는 공익적 목적으로 콘텐츠를 인용하되 상업적 가치에 영향을 주지 않는 범위에서의 넓은 사용을 허용하는 원칙입니다. 공정 사용 규칙에 따라, 리포트를 사전 허가 없이 사용할 수 있으나, 타이거리서치 리포트를 인용 시에는 1) 출처로 ‘타이거리서치’를 분명히 밝히고, 2) 타이거리서치 로고를 포함시켜야 합니다. 자료를 재구성하여 출판할 경우에는 별도의 협의가 요구됩니다. 사전 허가 없는 사용은 법적 조치를 초래할 수 있습니다.
]]>Most Layer 2s lock bridge assets without using them. Katana deploys these assets into Ethereum lending protocols to generate yield, then redistributes earnings as DeFi protocol incentives.
Holding assets in storage generates no return. Users must deploy capital into Katana DeFi protocols to earn additional rewards.
As of Q3 2025, over 95% of Katana’s TVL was actively deployed in DeFi protocols. This contrasts with most chains, where utilization rates range from 50% to 70%.
Katana reinvests 100% of net sequencer fee revenue into liquidity provision, maintaining stable trading conditions even during market volatility.
What happens to your money when you bridge from Ethereum to a Layer 2?
Most people assume their assets are simply transferred. In reality, the process is closer to freezing. When you deposit assets into a bridge contract, the contract holds them in escrow. The Layer 2 mints an equivalent amount of tokens. You can transact freely on Layer 2, but your original assets on mainnet remain locked and idle.
Consider a simple analogy. You deposit items at a storage facility and receive a claim ticket. The ticket can be transferred to others. But the items themselves stay in storage until you retrieve them.
This describes how most Layer 2 bridges work. Assets held in Ethereum escrow contracts generate no yield. They wait passively until users withdraw them back to mainnet.
What if bridge deposits on mainnet could earn DeFi yield while you still access fast, low-cost transactions on Layer 2?
Katana answers this question directly. Capital entering the bridge does not sit idle. It is put to work.
Katana activates capital through three mechanisms:
Bridge assets are deployed into Ethereum lending markets to generate yield.
Trading fee revenue is reinvested into liquidity pools.
Native stablecoin AUSD captures U.S. Treasury yields.
External capital works. Chain-generated capital works. These three mechanisms combine to eliminate idle assets on Katana.
The first mechanism is Vault Bridge. When users send assets to Katana, the original assets remaining on Ethereum mainnet are deployed into lending markets to generate interest.
When you bridge USDC from Ethereum to Katana, those assets are not simply locked. On Ethereum mainnet, they are deployed into curated vault strategies on Morpho, a major lending protocol. The yield generated does not go directly to individual users. Instead, it is collected at the network level and redistributed as rewards to core DeFi markets on Katana.
On Katana, the user receives a corresponding vbToken, such as vbUSDC. This token can be freely used across Katana’s DeFi ecosystem.
One common misunderstanding should be addressed. vbTokens should not be compared to staking derivatives like stETH from Lido. stETH appreciates over time as staking rewards accrue.
vbTokens work differently. Holding vbUSDC in your wallet does not increase the quantity or price. The yield Vault Bridge generates on Ethereum does not flow to individual vbToken holders. It flows to Katana’s DeFi pools. Revenue is distributed periodically to the network, strengthening incentives for Sushi liquidity pools and Morpho lending markets.
Users benefit only when they actively deploy vbTokens. Supplying vbTokens to Sushi liquidity pools or to lending strategies such as those offered by Yearn allows users to earn base yield plus additional rewards sourced from Vault Bridge. Simply holding vbTokens provides no return.
Katana rewards asset utilization rather than passive ownership. Capital that moves is rewarded. Capital that remains idle is not.
The second mechanism is Chain-Owned Liquidity (CoL). Katana collects 100% of net sequencer fee revenue (transaction processing fees minus Ethereum settlement costs).
The foundation uses this revenue to become a direct liquidity provider. It supplies assets to Sushi trading pools and Morpho lending markets. The chain itself owns and manages this liquidity.
This creates a reinforcing cycle. As users transact on Katana, sequencer fees accumulate. Those fees are converted into chain-owned liquidity, which deepens pools. Slippage declines, lending rates stabilize, and user experience improves. Improved conditions attract more users, which generates additional fees. The cycle continues.
In theory, this structure is especially effective during market downturns. External liquidity is mobile and often exits quickly under stress. Chain-owned liquidity, by contrast, is designed to remain in place, allowing pools to persist and absorb shocks more effectively.
In practical terms, this sets Katana apart from most DeFi systems that rely on incentivizing external capital through token emissions. By maintaining liquidity it owns directly, the network aims for more stable and sustainable operation.
The third mechanism is AUSD, Katana’s native stablecoin. AUSD is backed by U.S. Treasuries, and the off-chain yield from these Treasury holdings flows into the Katana ecosystem.
AUSD is issued by Agora. The collateral backing AUSD is invested in physical U.S. Treasuries. Interest earned from these Treasuries accrues off-chain. This yield is periodically channeled to the Katana network, where it strengthens incentives for AUSD-denominated pools.
If Vault Bridge brings on-chain yield, AUSD brings off-chain yield. The two revenue sources differ in nature. Vault Bridge yield fluctuates with Ethereum DeFi market conditions. AUSD yield is tied to U.S. Treasury rates and remains relatively stable.
This diversifies Katana’s revenue structure. When on-chain markets are volatile, off-chain yield provides a buffer. When on-chain yields are low, Treasury returns support overall returns. The structure spans both crypto markets and traditional finance.
As discussed earlier, there is a reason most existing bridges simply lock assets. Security. When assets do not move, system design remains simple and attack surfaces are limited. Most Layer 2 networks adopt this approach. It is safe, but capital remains idle.
Katana takes the opposite position. Activating idle assets introduces additional risk, and Katana acknowledges this tradeoff directly. Rather than avoiding it, the network works with established risk management specialists in DeFi. These include firms such as Gauntlet and Steakhouse Financial.
Gauntlet and Steakhouse Financial are established risk management firms in the DeFi sector, with experience setting parameters for major lending protocols and advising leading DeFi projects. Their role is comparable to that of professional asset managers in traditional finance. They assess which protocols capital should be allocated to, determine appropriate position sizes, and monitor risk exposure on an ongoing basis.
No financial system offers 100% safety, so concerns about residual risk are valid.
However, Katana works with top-tier risk curators and maintains conservative vault structures. An internal Risk Committee oversees operations. Additional safeguards include liquidity buffers provided by Cork Protocol and other protective mechanisms.
Current DeFi markets suffer from fragmented liquidity. Pools trading the same assets exist separately across chains and protocols. This reduces execution efficiency, increases slippage, and lowers capital utilization. Some users exploit these inefficiencies through arbitrage. Most users simply pay higher costs.
Katana solves this problem at the system level.
Vault Bridge and chain-owned liquidity concentrate liquidity in core protocols. As a result, trade execution improves, slippage declines, and lending rates stabilize. Most importantly, yield from idle assets on Ethereum mainnet is added to base returns, raising overall yield.
Katana’s incentive structure can also significantly lower effective borrowing costs at certain points, or even create negative interest rates depending on market conditions and reward programs. This happens because Vault Bridge, CoL, and AUSD yields are reinvested into core markets. However, these are incentive-driven outcomes that vary with market conditions.
As a result, as of Q3 2025, over 95% of Katana’s TVL was actively deployed in DeFi protocols. This contrasts with most chains, where utilization rates range from 50% to 70%. Ultimately, what Katana creates is a chain where capital does not sleep, a system that rewards actual usage.
Katana never sleep.
Read more reports related to this research.This report was partially funded by Katana. It was independently produced by our researchers using credible sources. The findings, recommendations, and opinions are based on information available at publication time and may change without notice. We disclaim liability for any losses from using this report or its contents and do not warrant its accuracy or completeness. The information may differ from others’ views. This report is for informational purposes only and is not legal, business, investment, or tax advice. References to securities or digital assets are for illustration only, not investment advice or offers. This material is not intended for investors.
Tiger Research allows the fair use of its reports. ‘Fair use’ is a principle that broadly permits the use of specific content for public interest purposes, as long as it doesn’t harm the commercial value of the material. If the use aligns with the purpose of fair use, the reports can be utilized without prior permission. However, when citing Tiger Research’s reports, it is mandatory to 1) clearly state ‘Tiger Research’ as the source, 2) include the Tiger Research logo following brand guideline. If the material is to be restructured and published, separate negotiations are required. Unauthorized use of the reports may result in legal action.
]]>대부분의 레이어2는 브리지 자산을 그냥 묶어두지만, 카타나는 이를 이더리움 렌딩에 투입해 수익을 내고 디파이 프로토콜 보상으로 재투입함
단순히 자산을 보관만 하면 이득이 없고, 카타나 디파이 프로토콜에 투입해야 추가 보상을 받을 수 있음
실제로 2025년 3분기 기준 카타나 TVL의 95% 이상이 실제 디파이에 투입됐으며, 이는 대부분의 체인(50~70%)과 대조됨
또한 카타나는 시퀀서 수수료 순수익 100%를 유동성 공급에 재투자해 시장 변동 속에서도 안정적인 거래 환경을 유지함
이더리움 메인넷에서 레이어2로 돈을 보내면 무슨 일이 일어날까?
많은 사람들은 ‘이동’이라고 생각한다. 하지만 실제로는 ‘동결’에 가깝다. 사용자가 자산을 브리지 컨트랙트에 예치하면, 컨트랙트는 이 자산을 에스크로로 보관한다. 레이어2에서는 같은 양의 토큰이 발행된다. 사용자는 레이어2에서 자유롭게 거래할 수 있지만, 메인넷에 맡긴 원본 자산은 그대로 잠긴 채 놓여 있다.
쉽게 비유하면 이렇다. 당신이 물건을 보관소에 맡기고 보관증을 받았다고 생각해보자. 보관증은 다른 사람에게 넘길 수 있다. 하지만 보관소 안의 물건은 찾아가기 전까지 정말 ‘보관’되는 것이다.
전형적인 레이어2 브리지가 바로 이렇다. 이더리움 에스크로 컨트랙트에 보관된 자산은 활용되지 않는다. 사용자가 다시 메인넷으로 돌아와 찾아가기만 기다린다.
만약 메인넷에 맡긴 이더리움으로 DeFi 수익을 내면서, 동시에 레이어2의 빠른 거래도 쓸 수 있다면 어떨까?
카타나(Katana)는 이 질문에 답을 한다. “브리지로 들어온 돈을 일을 시키면 된다.”
카타나는 크게 세 가지 방법을 통해 자산을 활용한다.
브리지 자산을 이더리움 렌딩 시장에 투입해 이자를 번다.
체인이 벌어들인 거래 수수료를 유동성 풀에 재투입한다.
네이티브 스테이블코인 AUSD의 미국 국채 수익을 활용한다.
밖에서 들어온 자금도 일하고, 체인이 직접 만든 자금도 일한다. 이 세 가지가 맞물리며 카타나에는 놀고 있는 자산이 거의 없다.
첫 번째 장치는 볼트브리지다. 당신이 카타나로 돈을 보내는 순간, 이더리움 메인넷에 남은 원본 자산을 렌딩 시장에 투입해서 이자를 벌어들인다.
이더리움에 있는 USDC를 카타나로 보내면 해당 자산은 단순히 묶이지 않는다. 이더리움 메인넷에서 대형 렌딩 프로토콜 모프(Morpho)의 선별된 볼트 전략에 투입돼 수익을 낸다. 이 수익은 개별 사용자에게 직접 배분되지 않고, 네트워크 차원에서 수집된 뒤 카타나의 핵심 디파이 마켓 보상으로 재투입된다.
이후 동일하게 당신은 카타나에서는 vbToken, 예를 들어 vbUSDC를 받는다. vbUSDC로 카타나에서 자유롭게 또다른 디파이 거래를 할 수 있다.
여기서 착각하기 쉬운 부분이 있다. vbToken을 리도(Lido)의 stETH처럼 생각하면 안 된다. stETH는 시간이 지나면 자동으로 가치가 올라간다. 스테이킹 보상이 쌓이기 때문이다.
vbToken은 다르다. 지갑에 vbUSDC를 넣어두면 수량도 안 늘고 가격도 안 오른다. 볼트브리지가 이더리움에서 번 돈은 vbToken 보유자 개개인에게 가지 않는다. 카타나의 디파이 풀로 간다. 수익은 정기적으로 네트워크에 분배되며, 스시(Sushi)의 유동성 풀과 모프의 렌딩 마켓 인센티브를 강화하는 데 쓰인다.
그럼 사용자는 어떻게 혜택을 받을까. vbToken을 카타나 디파이에 투입해야 한다. 스시 LP에 넣거나 Yearn 렌딩에 공급하면 기본 수익에 더해 볼트브리지 보상까지 받는다. 지갑에만 보관하면 아무것도 못 받는다.
두 번째 장치는 체인 소유 유동성(Chain-Owned Liquidity, CoL)이다. 카타나에서 거래할 때마다 발생하는 시퀀서 수수료(거래 처리 비용)에서 이더리움 정산 비용을 뺀 순수익을 체인이 100% 가져간다.
재단은 이 돈으로 스시 카타나 거래 풀 등에 LP 참여, 모프 렌딩에 자산을 공급하는 등 체인이 직접 유동성 공급자가 되는 것이다.
이는 선순환 구조를 만든다. 사용자가 카타나를 쓸수록 시퀀서 수수료가 쌓인다. 이 수수료가 체인 소유 유동성으로 전환되고 풀이 깊어진다. 거래 슬리피지가 줄고 대출 금리가 안정된다. 사용자 경험이 좋아지니 더 많은 사람이 카타나를 쓴다. 다시 수수료가 쌓인다. 이 순환이 멈추지 않는다.
이는 이론적으로 하락장에 더욱 효과를 볼 수 있다. 외부 자본은 유동적이기 때문이다. 하락장이 급격하게 찾아오면 일반 LP들은 자산을 빼지만, 체인 소유 유동성은 이를 책임져야하기 때문에 풀을 유지하게 돼 안정적인 운영이 가능해 충격 흡수를 기대할 수 있다.
즉. 대부분의 디파이가 외부 자본에 의존하는 것과 다르다. 일반적으로 토큰을 뿌려서 유동성 공급자를 끌어오는 것과 달리 자체 소유 유동성으로 유지해 안정적인 유지가 가능한 구조다.
세 번째 장치는 카타나의 네이티브 스테이블코인 AUSD다. AUSD는 미국 국채를 담보로 발행되며, 이 국채 투자에서 나오는 오프체인 수익을 카타나 생태계로 끌어온다.
AUSD는 아고라(Agora)가 발행한 스테이블코인으로, 발행된 AUSD의 담보는 실물 미국 국채에 투자된다. 이 국채가 벌어들이는 이자 수익이 오프체인에서 발생한다. 이 수익은 정기적으로 카타나 네트워크로 유입되어 AUSD 표시 풀의 인센티브를 강화하는 데 쓰인다.
볼트브리지가 온체인 수익을 가져온다면, AUSD는 오프체인 수익을 가져오는 셈이다. 두 수익원은 성격이 다르다. 볼트브리지는 이더리움 디파이 시장 상황에 따라 소폭 변동하지만, AUSD는 미국 국채 금리에 연동돼 상대적으로 안정적이다.
이는 카타나 수익 구조의 다각화를 의미한다. 온체인 시장이 불안정할 때 오프체인 수익이 완충 역할을 한다. 반대로 온체인 수익률이 낮을 때 국채 수익이 전체 수익을 받쳐준다. 암호화폐 시장과 전통 금융 시장 양쪽에 발을 걸친 구조다.
앞서 설명한 것처럼 기존 브리지가 자산을 그냥 묶어두는 데는 이유가 있다. 보안이다. 자산이 움직이지 않으니 구조도 단순하고 해킹 경로도 적다. 대부분의 레이어2가 이 방식을 택한다. 안전하지만 자산은 잠든다.
카타나는 반대편에 있다. 자산을 깨워서 움직이게 한다. 당연히 리스크가 생긴다. 카타나는 이를 정면으로 인정하고, 디파이 리스크 관리 분야에서 검증된 전문 기관과 협력한다. 대표적으로 건틀렛(Gauntlet)과 스테이크하우스 파이낸셜(Steakhouse Financial) 같은 리스크 큐레이터들이다.
건틀렛과 스테이크하우스 파이낸셜은 디파이 분야에서 검증된 리스크 관리 전문 기관이다. 주요 렌딩 프로토콜의 파라미터를 설정하고 주요 디파이 프로젝트에 자문을 제공한 경험이 있다. 이들의 역할은 전통 금융의 자산운용사와 비슷하다. 자본을 어느 프로토콜에 배분할지 평가하고, 적절한 포지션 규모를 결정하며, 리스크 노출을 지속적으로 모니터링한다.
모든 금융 산업에서 100% 안정성은 없기에, 여전히 남는 리스크에 대한 우려는 타당하다.
하지만 카타나는 최고 수준의 리스크 큐레이터와 협력하며, 보수적인 볼트 구조를 유지한다. 또한 내부 리스크 위원회가 운영을 감독하며 별도로 코크 프로토콜(Cork Protocol)이 제공하는 유동성 완충장치 등 추가 안전장치도 갖췄다.
현재 디파이 시장은 유동성이 분산돼 있다. 같은 자산을 거래하는 풀이 체인마다, 프로토콜마다 따로 존재한다. 이는 거래 실행 효율을 떨어뜨리고, 슬리피지를 키우며, 자본 활용도를 낮춘다. 일부 사용자는 이런 비효율을 차익거래 기회로 활용하지만, 대다수 사용자는 그저 높은 비용을 감수할 뿐이다.
카타나는 이 문제를 시스템 레벨에서 해결한다.
볼트브리지와 체인 소유 유동성을 통해 핵심 프로토콜에 유동성을 집중시킨다. 그 결과 거래 실행이 개선되고, 슬리피지가 줄어들며, 대출 금리가 안정된다. 무엇보다 이더리움 메인넷의 유휴 자산에서 나온 수익이 더해져 기본 수익률 자체가 높아진다.
또한 카타나의 인센티브 구조는 특정 시점에 실질 차입 비용을 크게 낮추거나, 시장 조건과 보상 프로그램에 따라 마이너스 금리를 만들어낼 수도 있다. 이는 볼트브리지, CoL, AUSD 수익이 핵심 시장에 재투입되기 때문이다. 다만 이는 인센티브 기반 결과이며, 시장 상황에 따라 달라진다.
이러한 환경을 만든 결과 2025년 3분기 기준 카타나 TVL의 95% 이상이 실제 디파이에 투입됐다. 대부분의 체인이 50~70% 수준인 것과 대조된다. 결국 카타나가 만드는 것은 자산이 잠들지 않는 체인, 실제 사용에 보상하는 시스템이다.
결국 이 모든 구조로 카타나가 증명하고 싶은 것은 하나다. 블록체인은 자산을 보관하는 곳이 아니라 움직이게 하는 곳이어야 한다는 것이다. 체인의 가치는 TVL 숫자가 아니라 자산이 실제로 얼마나 일하고 있는가를 증명해야한다.
카타나는 잠들지 않는다.
이번 리서치와 관련된 더 많은 자료를 읽어보세요.이 보고서는 카타나(Katana)로부터 일부 원고료 지원을 받았으나, 신뢰할 수 있는 자료를 바탕으로 독립적인 조사를 통해 작성되었습니다. 하지만 이 보고서의 결론과 권고사항, 예상, 추정, 전망, 목표, 의견 및 관점은 작성 당시의 정보를 바탕으로 하며 예고 없이 변경될 수 있습니다. 이에 당사는 본 보고서나 그 내용을 이용함에 따른 모든 손실에 대해 책임을 지지 않으며 정보의 정확성, 완전성, 그리고 적합성을 명시적으로나 암시적으로 보증하지 않습니다. 또한 타인 및 타조직의 의견과 일치하지 않거나 반대될 수 있습니다. 이 보고서는 정보 제공의 목적으로 작성되었으며, 법률, 사업, 투자, 또는 세금에 관한 조언으로 간주되어서는 안 됩니다. 또한 증권이나 디지털 자산에 대한 언급은 설명을 위한 것일 뿐, 투자 권고나 투자 자문 서비스 제공을 제안하는 것이 아닙니다. 이 자료는 투자자나 잠재적 투자자를 대상으로 하지 않았습니다.
타이거리서치는 리포트의 공정 사용을 지지합니다. 이는 공익적 목적으로 콘텐츠를 인용하되 상업적 가치에 영향을 주지 않는 범위에서의 넓은 사용을 허용하는 원칙입니다. 공정 사용 규칙에 따라, 리포트를 사전 허가 없이 사용할 수 있으나, 타이거리서치 리포트를 인용 시에는 1) 출처로 ‘타이거리서치’를 분명히 밝히고, 2) 타이거리서치의 브랜드 가이드라인에 맞는 로고(Black/White)를 포함시켜야 합니다. 자료를 재구성하여 출판할 경우에는 별도의 협의가 요구됩니다. 사전 허가 없는 사용은 법적 조치를 초래할 수 있습니다.
]]>X’s policy change caused the InfoFi ecosystem to collapse within three days, exposing the structural limits of reliance on centralized platforms.
InfoFi projects face five options: shutdown, a bounty-based grant platform, a Korea-style sponsored blogging model, multi-platform expansion, or an MCN-style KOL management model.
InfoFi 2.0 is likely to evolve into a smaller, more controlled model, shifting from permissionless scale to collaboration between vetted KOLs and projects.
Two fundamental challenges remain: establishing a fair compensation system and justifying the token’s value.
On January 15, Nikita Bier, product lead at X, published a short post stating that apps offering rewards in exchange for posting would no longer be allowed on the platform. For InfoFi projects, this marked the end.
According to Yu Hu, founder of Kaito, events unfolded as follows:
January 13: Kaito received an email from X indicating a possible review and immediately requested clarification.
January 14: X sent a formal legal notice, and Kaito submitted a legal response the same day.
January 15: Nikita Bier’s post went public. Kaito learned of the decision at the same time as everyone else.
The market response was unforgiving.
$KAITO fell sharply, and the community criticized the team for failing to provide advance notice despite claiming it had been preparing for the situation. Kaito issued an emergency statement that evening, explaining that it had previously received legal notices from X that were resolved through new agreements, and that it had therefore waited for further discussion in this case as well.
Regardless of the explanation, a single decision by X brought the InfoFi ecosystem to an end. In just three days, an entire category collapsed, undone by one company’s judgment that it was harming platform quality.
Does this mean InfoFi is over? Projects like Kaito are already preparing for what comes next. However, what is needed now is not a continuation of the past model, but a different version of InfoFi 2.0.
If I were the founder of an InfoFi project like Kaito, what options would realistically be available today? By examining the viable paths forward, we can begin to outline what the next phase of InfoFi might look like.
This is the simplest option. Wind down operations before funding runs out. In practice, many small and mid-sized projects are likely to enter a “zombie” phase, largely inactive, with only occasional social posts before disappearing entirely.
With product-market fit built around X now gone, shutting down may be more realistic than burning cash in search of a new direction. If a project holds usable data assets, these can be sold to other companies to recover some value. For this reason, most small and mid-sized InfoFi projects are likely to choose this path.
If access to the X API is no longer available, one option is to revert to an older model. KOLs apply directly to campaigns, submissions are reviewed manually, and rewards are paid after approval.
Scribble is a representative example. Projects post grants in the form of bounties, and KOLs create and submit content for review before receiving rewards. This is a submit-and-review model rather than real-time tracking.
This structure can scale as an open platform. The platform provides mediation and infrastructure, while individual projects manage their own campaigns. As more projects participate, the KOL pool expands. As the KOL base grows, projects gain more options.
The drawback is uncertainty for KOLs. If submitted content is rejected, the time invested is lost. After repeated failures, KOLs are likely to leave the platform.
Korea’s sponsored blogging model follows a “selection first, management later” approach rather than post-submission review. Agencies such as Revu have used this model for more than a decade.
The process is straightforward. A project sets a target number of participants and publishes a campaign. Applicants apply, and the project selects KOLs based on data such as follower count and past performance. Selected KOLs receive clear guidelines. Once content is published, an operator reviews it. If standards are not met, revisions are requested, and penalties apply if deadlines are missed.
Under this model, KOLs avoid wasted effort. Once selected, compensation is effectively guaranteed as long as guidelines are followed. Unlike bounty-based systems, there is no risk of rejection after the work is done. From the project’s perspective, quality control is easier since only pre-vetted participants are selected.
If X is no longer viable, the next option is to move to YouTube, TikTok, and Instagram. Within Web3, there is already a strong push to expand beyond X. The view is that real growth requires moving away from a platform dominated by crypto-native users toward channels where a broader audience is present.
The main advantage is access to a much larger potential user base than X. Platforms like TikTok and Instagram are especially influential in emerging markets such as Southeast Asia and Latin America. Each platform also runs on different algorithms, allowing operations to continue even if one channel becomes constrained.
The trade-off is operational complexity. With X, only text-based posts needed to be reviewed. On YouTube, content length and production quality matter. On TikTok, the first three seconds determine performance. On Instagram, story execution and format quality must be evaluated. This requires either platform-specific expertise or new internal tooling. API policies and data collection methods also differ by platform. In practice, this is close to rebuilding from scratch.
Policy risk remains. Platforms can change rules abruptly, as X did. However, spreading activity across multiple platforms reduces single-platform dependency. For larger projects, this is the only option that offers meaningful scalability.
In Web2 MCN models, a KOL’s brand value matters. In Web3, it is even more decisive. Narratives move capital, and opinion leaders carry outsized influence. A single comment can move a token price.
Successful InfoFi projects have already formed active and aligned KOL groups. These KOLs have grown through months of participation on the platform. Instead of sourcing creators from scratch, projects can retain this group and shift to data-driven management, unlike traditional Web2 MCNs that rely on continuous discovery.
An MCN-style structure implies formal contracts rather than loose, opt-in platform participation. With accumulated data and established relationships, the platform can exert stronger influence within the Web3 ecosystem and negotiate better deals.
For InfoFi projects, this requires a robust management system. Data becomes the core asset. If KOLs can be guided through data, and projects can be offered specialized, data-driven GTM strategies, this model can provide a durable competitive edge.
The collapse of InfoFi leaves two lessons for the Web3 ecosystem.
The irony of decentralization: Web3 projects relied on the centralized platform X, and a single decision by X was enough to bring the system down.
The limits of incentive design: Rewards succeeded in attracting participants, but there was no effective way to control quality. Spam increased, giving X a clear justification to intervene.
Does this mean InfoFi is over?
Not entirely. A small number of projects that found product-market fit are likely to survive by changing form. They can pivot toward multi-platform expansion, curated campaigns, or MCN-style management.
InfoFi 2.0 is likely to be smaller, more controlled, and more focused on quality. It will shift from an open, permissionless platform to a vetted network, closer to an integrated marketing platform that combines local GTM efforts with components such as offline advertising.
However, the fundamental issues remain.
Joel Mun from Tiger Research House noted that once rewards are introduced, participants inevitably look for ways to game the system, making fair structures difficult to design. This behavior leads to low-quality content and creates a negative feedback loop that can undermine the platform, making it a critical issue for InfoFi projects.
David raised a more fundamental question. He argued that the value of InfoFi tokens was sustained less by platform performance and more by staking airdrops and belief in the narrative. Both have now lost relevance. This leads to a direct question: why should investors buy InfoFi tokens?
For InfoFi 2.0 to survive, these questions require clear answers. A project cannot remain sustainable if it is disconnected from its token holders.
Read more reports related to this research.This report has been prepared based on materials believed to be reliable. However, we do not expressly or impliedly warrant the accuracy, completeness, and suitability of the information. We disclaim any liability for any losses arising from the use of this report or its contents. The conclusions and recommendations in this report are based on information available at the time of preparation and are subject to change without notice. All projects, estimates, forecasts, objectives, opinions, and views expressed in this report are subject to change without notice and may differ from or be contrary to the opinions of others or other organizations.
This document is for informational purposes only and should not be considered legal, business, investment, or tax advice. Any references to securities or digital assets are for illustrative purposes only and do not constitute an investment recommendation or an offer to provide investment advisory services. This material is not directed at investors or potential investors.
Tiger Research allows the fair use of its reports. ‘Fair use’ is a principle that broadly permits the use of specific content for public interest purposes, as long as it doesn’t harm the commercial value of the material. If the use aligns with the purpose of fair use, the reports can be utilized without prior permission. However, when citing Tiger Research’s reports, it is mandatory to 1) clearly state ‘Tiger Research’ as the source, 2) include the Tiger Research logo. If the material is to be restructured and published, separate negotiations are required. Unauthorized use of the reports may result in legal action.
]]>X의 정책 변경으로 인포파이 생태계가 단 3일 만에 붕괴하며 중앙화된 플랫폼에 의존한 구조적 한계가 드러남
인포파이 프로젝트들은 5가지 선택지를 고려할 수 있음: 사업 종료, 현상금 방식 Grant 플랫폼, 한국형 블로그 체험단 방식, 멀티 플랫폼 확장, MCN형 KOL 매니지먼트
인포파이 2.0은 더 작고 통제된 형태로 대규모 퍼미션리스 모델에서 검증된 KOL과 프로젝트가 협업하는 마케팅 종합 플랫폼으로 변화할 것
하지만 공정한 보상 체계와 토큰 가치 설득이라는 두 가지 근본적 과제를 해결해야 할 것
1월 15일, X의 프로덕트 리드 니키타 비어는 포스팅 하나를 올렸다. “X 플랫폼에서 포스팅 대가로 보상을 주는 앱들을 더 이상 허용하지 않겠다”는 내용이었다. ‘인포파이(InfoFi)’ 프로젝트들의 멸망이었다.
인포파이의 선두주자인 카이토(Kaito)의 파운더 유후(Yu Hu)의 설명에 따르면 사태는 다음과 같이 진행됐다.
1월 13일: 카이토는 X로부터 재검토 가능성에 대한 이메일을 받은 뒤 즉시 명확한 설명을 요청했다.
1월 14일: X로부터 정식 법적 통지가 도착해 카이토는 당일 법적 답변을 제출했다.
1월 15일: 니키타 비어의 트윗이 공개됐으며, 카이토도 다른 모든 사람들과 동시에 이 소식을 접했다고 한다.
시장의 반응은 냉혹했다.
카이토 토큰($KAITO)은 급락했고, 커뮤니티에서는 “준비하고 있었다면서 왜 미리 알리지 않았냐”는 비난이 쏟아졌다. 카이토는 그날 밤 긴급 성명을 냈다. 카이토 측은 “이전에도 X로부터 법적 통지를 받았지만 새로운 계약으로 원만히 해결된 적이 있어, 이번에도 논의를 기다렸다”고 해명했다.
해명과 관계없이 X의 한 방에 인포파이 생태계는 멸망했다. 단 3일만에 플랫폼 품질을 해친다는 이유로 한 기업의 결정에 무너졌다.
그럼 이제 인포파이는 아예 끝일까? 카이토를 포함해서 여러 인포파이 프로젝트는 ‘다음’을 준비하고 있다. 하지만 과거와는 다른 인포파이 2.0이 필요하다.
만약 내가 카이토와 같은 인포파이 파운더라면 지금 어떤 선택지가 있을까? 현실적으로 가능한 선택지들을 살펴보며 인포파이의 다음을 상상해보겠다.
가장 간단한 선택지다. 돈이 떨어지기 전에 정리하는 것이다. 우리는 곧 중소형 프로젝트들이 정리하고 사라지는, 소셜에만 종종 글만 올라오는 좀비 모드를 볼 수 있을 것이다.
하지만 X를 중심으로 한 PMF가 사라진 현재, 새로운 방향을 찾아 현금을 태우는 것보다 지금 정리하는 게 현실적일 수도 있다. 데이터 자산이 있다면 다른 회사에 넘기며 수익을 낼 수도 있기에 대부분의 중소형 인포파이 프로젝트는 이 길을 선택할 것이다.
X API를 쓸 수 없다면 과거 방식으로 돌아가면 된다. KOL이 직접 캠페인에 신청하고, 담당자가 확인해서 리워드를 지급하는 방식이다.
Scribble이 대표적이다. 프로젝트가 현상금처럼 Grant를 등록하면, KOL들이 콘텐츠를 작성해 제출하고 검토 후 보상을 받는다. 실시간 추적이 아니라 제출 후 검토 방식이다.
이 모델은 오픈 플랫폼 형식으로 확장할 수 있다. 플랫폼은 중개와 인프라만 제공하고, 각 프로젝트가 자기 캠페인을 직접 관리한다. 프로젝트가 많이 들어올수록 KOL 풀도 커지고, KOL이 많아질수록 프로젝트 선택지가 늘어난다.
문제는 KOL 입장에서 불확실성이 크다는 점이다. 콘텐츠를 만들었는데 승인되지 않으면 시간만 날리기에 몇 번 실패하고 난다면 플랫폼에서 떠날 가능성이 높다.
한국 블로그 체험단은 ‘제출 후 검토’가 아니라 ‘선발 후 관리’ 방식이다. 레뷰 등 여러 에이전시가 10년 넘게 써온 모델이다.
프로세스는 간단하다. 프로젝트가 목표 인원을 정하면 공고가 올라가고, 신청자 중에서 프로젝트가 선발한다. KOL의 팔로워 수, 과거 성과 같은 데이터를 보고 고른다. 선발된 KOL에게는 명확한 가이드라인이 제공되고, 콘텐츠가 올라오면 담당자가 확인한다. 기준 미달이면 수정을 요청하고, 마감일을 지키지 않으면 패널티가 부과된다.
해당 방식이 적용된다면 KOL 입장에서는 헛수고가 없다. 선발되는 순간 가이드라인만 지키면 보상이 확정된다. 현상금 방식처럼 ‘만들었는데 거부당할 수도 있다’는 불안이 없다. 프로젝트 입장에서도 선발 단계에서 검증된 인원만 뽑기 때문에 품질 관리가 수월하다.
X가 막혔다면 유튜브, 틱톡, 인스타그램으로 가면 된다. 웹3 업계는 이미 X 밖으로 나가려는 움직임이 강하다. 크립토 네이티브들만 모여 있는 X에서 벗어나, 일반 대중이 있는 플랫폼으로 확장해야 진짜 성장이 가능하다는 인식이 퍼졌기 때문이다.
장점은 X보다 훨씬 큰 잠재 고객층에 도달할 수 있다는 것이다. 특히 동남아시아와 라틴아메리카 같은 신흥 시장에서 틱톡과 인스타그램의 영향력이 크다. 또한 각 플랫폼마다 알고리즘이 달라 하나가 막혀도 다른 곳에서 계속 운영할 수 있다.
문제는 운영 복잡도다. X만 다룰 때는 텍스트 포스팅만 검증하면 됐지만, 유튜브는 영상 길이와 품질, 틱톡은 첫 3초 후킹 여부, 인스타그램은 스토리 완성도를 각각 확인해야 한다. 플랫폼별로 전문 인력을 두거나 알고리즘을 새로 개발해야 한다. 각 플랫폼의 API 정책도 다르고, 데이터 수집 방식도 다르다. 처음부터 다시 만드는 수준이다.
또한 X처럼 갑자기 정책이 바뀔 위험도 있다. 하지만 여러 플랫폼에 분산하면 리스크를 줄일 수 있다는 점에서, 규모가 있는 프로젝트들에게는 유일하게 스케일 가능한 선택지다.
웹2의 MCN 모델에서도 KOL의 브랜드 가치는 중요하지만, 웹3에서는 더욱 결정적이다. 웹3에서는 내러티브가 큰 돈을 움직이고, 오피니언 리더의 영향력이 막강하다. 한 마디가 토큰 가격을 흔들 수 있다.
성공한 인포파이 프로젝트들은 이미 적극적이고 우호적인 KOL 그룹을 만들어 냈다. 이들은 수개월 플랫폼에서 활동하며 성장했기에, 이 그룹을 그대로 가져와 데이터 기반 매니지먼트를 하면 된다. 웹2 MCN와 같이 직접 발굴할 필요가 없다.
MCN형으로 만드는 만큼 기존과 같이 플랫폼 내에서 참여하는 느슨한 구조가 아닌 계약 관계를 둔다. 플랫폼 입장에서는 쌓인 데이터와 관계를 기반으로 웹3 생태계에서 더 강력한 영향력을 발휘하며 좋은 딜을 만들 수 있다.
기존 인포파이 프로젝트 입장에서는 매니지먼트 시스템을 잘 만들 필요가 있다. 특히 데이터가 무기가 된다. 데이터로 KOL을 가이드하고, 프로젝트에게는 데이터에 기반한 전문화된 GTM을 제공할 수 있다면 경쟁력을 확보할 수 있다.
인포파이의 몰락은 웹3 생태계에 두 가지 교훈을 남겼다.
탈중앙화의 아이러니: 웹3 프로젝트가 중앙화된 플랫폼 X에 의존했고, X의 결정 한 번에 무너졌다.
인센티브 설계의 한계: 리워드는 사람을 모았지만 품질을 통제할 방법이 없었다. 스팸이 넘쳐났고, X가 칼을 뽑는 명분이 됐다.
그렇다면 인포파이는 완전히 끝난 것일까?
아니다. 몇 안 되는 PMF를 찾은 프로젝트들은 형태를 바꿔 살아남을 것이다. 멀티 플랫폼 확장, 선발형 캠페인, MCN형 매니지먼트 등으로 방향을 틀 수 있다.
인포파이 2.0은 더 작고 통제되며 품질에 집중하는 형태가 될 것이다. 누구나 참여하는 오픈 플랫폼에서 검증된 네트워크로 변화하며, 로컬 GTM과 옥외 광고 같은 마케팅 컴포넌트가 결합된 종합 플랫폼에 가까워질 것으로 보인다.
하지만 근본적인 문제는 여전히 남아있다.
타이거 리서치 하우스의 Joel Mun은 보상이 주어지면 사람들은 편법을 찾아내기 마련이라 공정한 구조를 만들기 어렵다고 지적했다. 이 편법은 저품질 콘텐츠로 이어져 플랫폼을 망치는 악순환을 만들기에 인포파이 프로젝트 입장에서는 가장 중요한 내용이다.
David는 더 본질적인 질문을 던졌다. 인포파이 토큰의 가치는 플랫폼 성과보다 스테이킹 에어드롭과 내러티브 믿음으로 유지됐는데, 현재는 두 가지 모두 의미를 잃은 상황임을 지적했다. 그렇다면 투자자들은 왜 인포파이 토큰을 사야 하는가?
인포파이 2.0이 살아남으려면 이 질문들에 명확히 답해야 한다. 프로젝트가 생존을 고려하는 것은 우선이지만 홀더와 별개의 프로젝트는 지속하지 못한다.
이번 리서치와 관련된 더 많은 자료를 읽어보세요.이 보고서는 신뢰할 수 있는 자료를 바탕으로 작성되었습니다. 그러나 정보의 정확성, 완전성, 그리고 적합성을 명시적으로나 암시적으로 보증하지 않습니다. 당사는 본 보고서나 그 내용을 이용함에 따른 모든 손실에 대해 책임을 지지 않습니다. 이 보고서의 결론과 권고사항, 예상, 추정, 전망, 목표, 의견 및 관점은 작성 당시의 정보를 바탕으로 하며 예고 없이 변경될 수 있습니다. 또한 타인 및 타조직의 의견과 일치하지 않거나 반대될 수 있습니다. 이 보고서는 정보 제공의 목적으로 작성되었으며, 법률, 사업, 투자, 또는 세금에 관한 조언으로 간주되어서는 안 됩니다. 또한 증권이나 디지털 자산에 대한 언급은 설명을 위한 것일 뿐, 투자 권고나 투자 자문 서비스 제공을 제안하는 것이 아닙니다. 이 자료는 투자자나 잠재적 투자자를 대상으로 하지 않았습니다.
타이거리서치는 리포트의 공정 사용을 지지합니다. 이는 공익적 목적으로 콘텐츠를 인용하되 상업적 가치에 영향을 주지 않는 범위에서의 넓은 사용을 허용하는 원칙입니다. 공정 사용 규칙에 따라, 리포트를 사전 허가 없이 사용할 수 있으나, 타이거리서치 리포트를 인용 시에는 1) 출처로 ‘타이거리서치’를 분명히 밝히고, 2) 타이거리서치 로고를 포함시켜야 합니다. 자료를 재구성하여 출판할 경우에는 별도의 협의가 요구됩니다. 사전 허가 없는 사용은 법적 조치를 초래할 수 있습니다.
]]>