LM Arena가 a16z가 주도한 6억 달러 가치의 시드 라운드에서 1억 달러를 유치

 LM Arena는 주요 AI 연구소들이 자사의 AI 모델을 테스트하고 마케팅하는 데 의존하는 크라우드소싱 벤치마킹 프로젝트로, Andreessen Horowitz와 UC Investments가 주도한 시드 펀딩에서 1억 달러를 유치했으며, 이로 인해 조직의 가치는 6억 달러로 평가받았습니다. 이는 2025년 4월 UC 버클리의 "Chatbot Arena" 연구 프로젝트에서 최근에 분사한 회사로서는 주목할 만한 성과입니다.


LM Arena의 6억 달러 가치 평가는 2025년 4월 UC 버클리 연구 프로젝트에서 최근에 분사한 회사로서는 놀라운 성과를 나타냅니다. 이 인상적인 수치는 사용자가 대형 언어 모델을 직접 비교할 수 있도록 하는 중립적인 벤치마킹 서비스로서, 플랫폼의 AI 산업 내에서의 중요성이 점점 커지고 있음을 반영합니다. 투자자들은 LM Arena의 명확한 가치 제안과 생성형 AI 도입이 계속 확대됨에 따라 제3자 벤치마킹에 대한 수요 증가에 특히 매력을 느꼈습니다.

플랫폼의 성공은 AI 모델 평가에서의 투명성과 중립성에서 비롯되었으며, 대형 언어 모델을 개발하는 거의 모든 주요 기업과 연구소의 참여를 이끌어냈습니다. 제3자 시스템에 직접 통합할 필요 없이 상세한 성능 비교를 생성할 수 있는 능력 덕분에, LM Arena는 빠르게 성장하는 분야에서 매우 확장성 높은 솔루션으로 자리매김했습니다. 이 플랫폼은 AI 평가의 표준으로 빠르게 자리잡았으며, 100개 이상의 언어로 모델을 테스트하는 월간 약 100만 명의 사용자를 확보하며 성장하고 있습니다.

https://x.com/lmarena_ai?lang=en
https://siliconangle.com/2025/05/21/lmarena-raises-100m-600m-valuation-expand-ai-benchmarking-platform/
https://topmostads.com/lm-arena-seed-funding/
https://x.com/lmarena_ai/status/1925241333310189804
https://au.finance.yahoo.com/news/study-accuses-lm-arena-helping-000835215.html
https://news.berkeley.edu/2025/05/06/as-companies-pour-billions-into-ai-a-ranking-system-by-uc-berkeley-students-has-all-eyes-on-it/
https://arxiv.org/pdf/2403.04132.pdf
https://techcrunch.com/2025/04/22/vibe-coding-helps-supabase-nab-200m-at-2b-valuation-just-seven-months-after-its-last-raise/
https://www.phoenix.gov/content/dam/phoenix/budgetsite/budget-books/2023-24_summary_budget_book.pdf


Andreessen Horowitz(a16z)는 UC Investments와 함께 LM Arena의 1억 달러 시드 펀딩 라운드를 공동 주도하며, 벤처 캐피털 회사가 AI 평가 플랫폼에 강한 의지를 보이고 있음을 입증했습니다. a16z의 제너럴 파트너인 Anjney Midha는 LM Arena의 미션이 "대규모 AI 신뢰성 문제 해결"임을 강조하며, 이를 "인류가 해결해야 할 가장 시급하고, 어렵고, 가치 있는 문제 중 하나"라고 설명했습니다. 이번 투자는 a16z가 최대 100만 달러를 유망 스타트업에 제공하는 파일럿 프로그램과 유사하게, 변혁적 잠재력을 지닌 초기 단계 기업을 지원하는 전략과 일치합니다.

회사의 지원은 LM Arena가 학술 프로젝트에서 상업적 기업으로 전환하는 과정에서 상당한 자본뿐만 아니라 업계 신뢰도도 제공합니다. 이번 라운드에 a16z와 함께 참여한 다른 주요 투자자로는 Lightspeed Venture Partners, Felicis Ventures, Kleiner Perkins 등이 있으며, 이들은 AI 벤치마킹 플랫폼을 뒷받침하는 강력한 벤처 캐피털 컨소시엄을 형성하고 있습니다.

https://techcrunch.com/2025/05/21/lm-arena-the-organization-behind-popular-ai-leaderboards-lands-100m/
https://topmostads.com/lm-arena-seed-funding/
https://siliconangle.com/2025/05/21/lmarena-raises-100m-600m-valuation-expand-ai-benchmarking-platform/
https://x.com/lmarena_ai?lang=en
https://tugatech.com.pt/t66990-lm-arena-crucial-plataforma-de-testes-de-ia-angaria-100-milhoes-de-dolares
https://www.it-boltwise.de/lm-arena-neue-massstaebe-in-der-ki-bewertung-mit-100-millionen-dollar-finanzierung.html
https://www.pymnts.com/news/artificial-intelligence/2025/chatbot-arena-raises-100-million-dollars-platform-compares-ai-models/
https://techcrunch.com/2022/04/18/andreessen-horowitz-a16z-start-seed/


UC 버클리의 Chatbot Arena 프로젝트가 선도적인 AI 벤치마킹 플랫폼으로 성장한 과정은 다음과 같습니다.

1. 실질적 필요에서 출발
2023년, UC 버클리 Sky Computing Lab에서 연구원들이 자체 개발한 오픈소스 언어 모델(Vicuña)의 성능을 평가하고, 대형 AI 모델들과의 비교가 필요해지면서 Chatbot Arena가 탄생했습니다. 초기에는 매우 간단한 웹사이트 형태(크레이그리스트와 비슷한 구조)로 시작했지만, 사용자가 직접 프롬프트를 입력하고, 익명화된 AI 모델 두 개가 생성한 답변을 비교 투표하는 방식이 독특했습니다.

2. 크라우드소싱 기반의 평가 방식
플랫폼은 누구나 참여할 수 있는 공개 평가 방식을 도입했습니다. 실제 사용자가 다양한 언어와 상황에서 AI 모델의 응답을 비교·투표함으로써, 기존의 정적 벤치마크로는 포착하기 어려운 실제 성능 차이를 드러낼 수 있었습니다. 1년 만에 170만 건 이상의 투표 데이터가 쌓였고, 이 데이터는 AI 모델의 실질적 경쟁력 평가에 활용되었습니다.

3. 중립성과 투명성 확보
Chatbot Arena는 외부 이해관계에 휘둘리지 않는 중립적 평가 환경을 강조했습니다. 주요 AI 연구소(OpenAI, Google, Anthropic 등)와 협력하면서도, 플랫폼 자체는 독립적으로 운영되어 신뢰를 얻었습니다. 이는 AI 업계 전반이 벤치마킹 결과를 인정하고 참고하게 만든 핵심 요인이었습니다.

4. 빠른 성장과 산업 표준화
플랫폼은 2025년 기준 월간 100만 명 이상의 사용자를 확보하며, AI 업계에서 사실상의 표준 벤치마킹 도구로 자리잡았습니다. 주요 AI 기업들이 자사 모델을 Chatbot Arena에서 평가받기를 원했고, 그 결과 플랫폼의 영향력과 신뢰도가 더욱 높아졌습니다.

5. 기업화 및 대규모 투자 유치
이러한 성공을 바탕으로 Chatbot Arena는 2025년 Arena Intelligence Inc.(현 LM Arena)라는 독립 법인으로 분사했습니다. 이후 안드리센 호로위츠(a16z), UC Investments 등으로부터 1억 달러의 시드 투자를 유치하며, 6억 달러의 기업가치를 인정받았습니다. 이는 플랫폼의 산업적 중요성과 성장 가능성을 보여주는 상징적인 사건입니다.

요약
UC 버클리의 Chatbot Arena는 연구 현장의 실질적 필요, 크라우드소싱 기반의 혁신적 평가 방식, 중립성과 투명성, 그리고 빠른 커뮤니티 확산을 바탕으로 AI 업계의 표준 벤치마킹 플랫폼으로 자리매김했습니다. 이후 기업화와 대규모 투자 유치를 통해, AI 생태계에서 독립적이고 신뢰받는 평가 기관으로 확고히 자리잡았습니다.

https://news.berkeley.edu/2025/05/06/as-companies-pour-billions-into-ai-a-ranking-system-by-uc-berkeley-students-has-all-eyes-on-it/
https://techcrunch.com/2025/05/21/lm-arena-the-organization-behind-popular-ai-leaderboards-lands-100m/
https://techcrunch.com/2025/04/17/ai-benchmarking-platform-chatbot-arena-forms-a-new-company/
https://theaiinsider.tech/2025/04/21/chatbot-arena-spins-out-as-arena-intelligence-to-advance-independent-ai-benchmarking/
https://www.bloomberg.com/news/articles/2025-05-21/lmarena-goes-from-academic-project-to-600-million-startup
https://www.youtube.com/watch?v=XFZslgRbdv0
https://www.aibase.com/news/www.aibase.com/news/17306
https://www.livescience.com/technology/artificial-intelligence/ai-benchmarking-platform-is-helping-top-companies-rig-their-model-performances-study-claims
https://campustechnology.com/articles/2025/01/15/uc-berkeley-announces-sky-t1-32b-open-source-ai-model.aspx
https://techcrunch.com/2025/04/30/study-accuses-lm-arena-of-helping-top-ai-labs-game-its-benchmark/


댓글