DeepSeek 앱스토어 1위, 중국 AI가 미국 기술계에 지진을 일으킨 일주일
저자: APPSO
지난 일주일 동안, 중국의 DeepSeek R1 모델이 해외 AI 업계를 뒤흔들었습니다.
한편으로는, 낮은 훈련 비용으로 OpenAI o1 성능에 필적하는 효과를 달성하며, 중국의 엔지니어링 능력과 규모 혁신의 우위를 설명했습니다; 다른 한편으로는, 오픈 소스 정신을 고수하며 기술 세부 사항을 공유하는 데 열정을 보였습니다.
최근, 캘리포니아 버클리 대학교의 박사 과정 학생인 Jiayi Pan의 연구팀은 30달러 이하의 극히 낮은 비용으로 DeepSeek R1-Zero의 핵심 기술인 "Aha Moment"를 성공적으로 재현했습니다.
그래서 Meta CEO 마크 저커버그, 튜링상 수상자 얀 르쿤, Deepmind CEO 데미스 하사비스 등 여러 인사들이 DeepSeek에 대해 높은 평가를 한 것은 놀라운 일이 아닙니다.
DeepSeek R1의 인기가 계속 상승함에 따라, 오늘 오후 DeepSeek 앱은 사용자 방문량 급증으로 인해 잠시 서버가 바쁘게 되는 상황이 발생했으며, 심지어 "다운"되기도 했습니다.
OpenAI CEO 샘 올트먼은 방금 o3-mini 사용 한도를 스포일러하려고 시도하여 국제 미디어의 헤드라인을 되찾으려 했습니다------ChatGPT Plus 회원은 매일 100번 조회할 수 있습니다.
그러나 잘 알려지지 않은 사실은, DeepSeek의 모회사인 환방량화가 사실 국내 양적 사모펀드 분야의 선두 기업 중 하나라는 것입니다.
DeepSeek 모델, 실리콘밸리를 놀라게 하다, 가치가 계속 상승 중
2024년 12월 26일, DeepSeek는 공식적으로 DeepSeek-V3 대모델을 발표했습니다.
이 모델은 여러 기준 테스트에서 우수한 성능을 보이며, 업계 주류 최상위 모델을 초월했습니다. 특히 지식 질문 응답, 긴 텍스트 처리, 코드 생성 및 수학 능력 등에서 두드러진 성과를 보였습니다. 예를 들어, MMLU, GPQA 등의 지식 관련 작업에서 DeepSeek-V3의 성능은 국제 최상위 모델인 Claude-3.5-Sonnet에 가까운 수준입니다.
수학 능력 측면에서도 AIME 2024 및 CNMO 2024 등의 테스트에서 새로운 기록을 세우며, 모든 알려진 오픈 소스 및 폐쇄형 모델을 초월했습니다. 동시에, 생성 속도는 이전 세대보다 200% 향상되어 60 TPS에 도달하며 사용자 경험을 크게 개선했습니다.
독립 평가 사이트인 Artificial Analysis의 분석에 따르면, DeepSeek-V3는 여러 주요 지표에서 다른 오픈 소스 모델을 초월했으며, 성능 면에서는 세계 최상위 폐쇄형 모델인 GPT-4o 및 Claude-3.5-Sonnet과 대등한 수준입니다.
DeepSeek-V3의 핵심 기술적 장점은 다음과 같습니다:
혼합 전문가(MoE) 아키텍처: DeepSeek-V3는 6710억 개의 매개변수를 가지고 있지만, 실제 실행 시 각 입력마다 370억 개의 매개변수만 활성화됩니다. 이러한 선택적 활성화 방식은 계산 비용을 크게 줄이면서도 높은 성능을 유지합니다.
다중 헤드 잠재적 주의(MLA): 이 아키텍처는 DeepSeek-V2에서 이미 검증되었으며, 효율적인 훈련과 추론을 가능하게 합니다.
보조 손실 없는 부하 균형 전략: 이 전략은 부하 균형이 모델 성능에 미치는 부정적 영향을 최소화하는 것을 목표로 합니다.
다중 토큰 예측 훈련 목표: 이 전략은 모델의 전반적인 성능을 향상시킵니다.
효율적인 훈련 프레임워크: HAI-LLM 프레임워크를 사용하여 16-way Pipeline Parallelism(PP), 64-way Expert Parallelism(EP) 및 ZeRO-1 Data Parallelism(DP)을 지원하며, 다양한 최적화 수단을 통해 훈련 비용을 낮추었습니다.
더 중요한 것은, DeepSeek-V3의 훈련 비용이 단 558만 달러로, 훈련 비용이 7800만 달러에 달하는 GPT-4보다 훨씬 낮다는 것입니다. 또한, API 서비스 가격도 과거의 친근한 가격 정책을 유지하고 있습니다.
입력 토큰은 백만 개당 0.5위안(캐시 히트) 또는 2위안(캐시 미스), 출력 토큰은 백만 개당 8위안입니다.
《금융时报》는 이를 "국제 기술계를 놀라게 한 다크 호스"로 묘사하며, 그 성능이 자금이 풍부한 OpenAI와 같은 미국 경쟁자 모델과 견줄 수 있다고 평가했습니다. Maginative의 창립자 크리스 맥케이는 DeepSeek-V3의 성공이 AI 모델 개발의 기존 방법을 재정의할 수 있다고 강조했습니다.
다시 말해, DeepSeek-V3의 성공은 미국의 컴퓨팅 파워 수출 제한에 대한 직접적인 대응으로 간주되며, 이러한 외부 압력이 오히려 중국의 혁신을 자극했습니다.
DeepSeek 창립자 리앙원펑, 저조한 저자극의 절대 천재
DeepSeek의 부상은 실리콘밸리를 불안하게 만들었으며, 이 글로벌 AI 산업 모델을 뒤흔든 창립자 리앙원펑은 중국 전통적인 의미의 천재 성장 궤적을 완벽하게 설명합니다------소년의 성공, 시간이 지나도 변하지 않음.
좋은 AI 회사의 리더는 기술과 비즈니스를 모두 이해해야 하며, 미래를 내다보는 비전과 실용성을 겸비해야 하고, 혁신적인 용기와 엔지니어링 규율을 모두 갖추어야 합니다. 이러한 복합형 인재는 본래 희소한 자원입니다.
17세에 저장대학교 정보 및 전자 공학 전공에 입학하고, 30세에 환방량화를 창립하여 팀을 이끌고 전자동 양적 거래를 탐색하기 시작했습니다. 리앙원펑의 이야기는 천재가 항상 올바른 시간에 올바른 일을 한다는 것을 증명합니다.
2010년: 상하이와 심천 300 주식 지수 선물 출시와 함께 양적 투자가 발전 기회를 맞이하였고, 환방 팀은 이를 활용하여 자산이 빠르게 증가했습니다.
2015년: 리앙원펑은 동문들과 함께 환방량화를 공동 설립하고, 다음 해 첫 번째 AI 모델을 출시하여 딥러닝으로 생성된 거래 포지션을 온라인에 올렸습니다.
2017년: 환방량화는 투자 전략의 전면 AI화를 선언했습니다.
2018년: AI를 회사의 주요 발전 방향으로 확립했습니다.
2019년: 자산 관리 규모가 100억 위안을 돌파하며 국내 양적 사모펀드 "4대 거두" 중 하나가 되었습니다.
2021년: 환방량화는 국내 최초로 1000억 규모를 돌파한 양적 사모펀드 대기업이 되었습니다.
당신은 성공할 때만 이 회사가 지난 몇 년 동안 차가운 의자에 앉아 있었던 날들을 기억할 수 없습니다. 그러나 양적 거래 회사가 AI로 전환하는 것은 겉보기에는 우연처럼 보이지만, 사실은 순리입니다 ------ 왜냐하면 두 산업 모두 데이터 기반의 기술 집약적 산업이기 때문입니다.
황仁勋은 게임 그래픽 카드를 팔고, 우리 같은 게임하는 사람들에게서 작은 돈을 벌고 싶었지만, 전 세계 최대의 AI 무기고가 되었다는 것을 예상하지 못했습니다. 환방이 AI 분야에 진입한 것도 마찬가지입니다. 이러한 진화는 현재 많은 산업이 AI 대모델을 억지로 도입하는 것보다 훨씬 더 생명력이 있습니다.
환방량화는 양적 투자 과정에서 대량의 데이터 처리 및 알고리즘 최적화 경험을 축적했으며, 많은 A100 칩을 보유하여 AI 모델 훈련에 강력한 하드웨어 지원을 제공합니다. 2017년부터 환방량화는 AI 컴퓨팅 파워를 대규모로 배치하고 "반딧불이 1호", "반딧불이 2호" 등의 고성능 컴퓨팅 클러스터를 구축하여 AI 모델 훈련에 강력한 컴퓨팅 지원을 제공합니다.
2023년, 환방량화는 공식적으로 DeepSeek를 설립하여 AI 대모델 연구 개발에 집중했습니다. DeepSeek는 환방량화의 기술, 인재 및 자원 축적을 계승하여 AI 분야에서 빠르게 두각을 나타냈습니다.
《暗涌》과의 심층 인터뷰에서 DeepSeek 창립자 리앙원펑은 독특한 전략적 비전을 보여주었습니다.
대부분의 중국 회사들이 Llama 아키텍처를 복제하는 것을 선택하는 것과 달리, DeepSeek는 모델 구조에서 직접 시작하여 AGI의 거대한 목표를 겨냥했습니다.
리앙원펑은 현재 중국 AI가 국제 최상위 수준과 상당한 격차가 있으며, 모델 구조, 훈련 역학 및 데이터 효율성에서의 종합적인 격차로 인해 동일한 효과를 얻기 위해 4배의 컴퓨팅 파워가 필요하다고 솔직하게 인정했습니다.
▲사진 출처: CCTV 뉴스 스크린샷
이러한 도전에 정면으로 맞서는 태도는 리앙원펑이 환방에서 쌓은 수년간의 경험에서 비롯됩니다.
그는 오픈 소스는 단순한 기술 공유가 아니라 문화적 표현이라고 강조하며, 진정한 방어선은 팀의 지속적인 혁신 능력에 있다고 말했습니다. DeepSeek의 독특한 조직 문화는 아래에서 위로의 혁신을 장려하고, 계층을 희석하며, 인재의 열정과 창의성을 중시합니다.
팀은 주로 최고의 대학의 젊은 인재들로 구성되어 있으며, 자연 분업 모델을 채택하여 직원들이 자율적으로 탐색하고 협력할 수 있도록 합니다. 채용 시 직원의 열정과 호기심을 더 중요하게 여기며, 전통적인 의미의 경험과 배경보다는 더 중요하게 평가합니다.
산업 전망에 대해 리앙원펑은 AI가 기술 혁신의 폭발기에 있으며, 응용 폭발기가 아니라고 생각합니다. 그는 중국이 더 많은 원천 기술 혁신이 필요하며, 항상 모방 단계에 머물러서는 안 되며, 누군가는 기술 최전선에 서야 한다고 강조했습니다.
비록 OpenAI와 같은 회사가 현재 선두에 있지만, 혁신의 기회는 여전히 존재합니다.
실리콘밸리를 뒤흔들다, DeepSeek는 해외 AI 업계를 불안하게 만들다
업계에서 DeepSeek에 대한 평가는 다양하지만, 우리는 업계 인사들의 평가를 수집했습니다.
엔비디아 GEAR Lab 프로젝트 책임자 Jim Fan은 DeepSeek-R1에 대해 높은 평가를 했습니다.
그는 이것이 비미국 회사들이 OpenAI의 초기 개방 사명을 실천하고 있으며, 원시 알고리즘과 학습 곡선을 공개함으로써 영향력을 실현하고 있다고 지적했습니다. 이는 OpenAI에 대한 간접적인 비판을 포함하고 있습니다.
DeepSeek-R1은 일련의 모델을 오픈 소스화했을 뿐만 아니라 모든 훈련 비밀도 공개했습니다. 그들은 RL 피드백 루프의 중대하고 지속적인 성장을 보여주는 최초의 오픈 소스 프로젝트일 수 있습니다.
영향력은 'ASI 내부 구현' 또는 '딸기 계획'과 같은 전설적인 프로젝트를 통해 실현될 수 있으며, 원시 알고리즘과 matplotlib 학습 곡선을 공개함으로써 간단하게 달성될 수 있습니다.
월스트리트 최고의 벤처 캐피탈 A16Z의 창립자 마크 안드리센은 DeepSeek R1이 그가 본 것 중 가장 놀랍고 인상 깊은 돌파구 중 하나라고 생각하며, 오픈 소스로서 세계에 의미 있는 선물이라고 평가했습니다.
텐센트 전 고급 연구원, 베이징 대학교 인공지능 박사 후 연구원 루징은 기술 축적의 관점에서 분석했습니다. 그는 DeepSeek가 갑자기 인기를 끈 것이 아니며, 이전 모델 버전에서 많은 혁신을 이어받았고, 관련 모델 아키텍처와 알고리즘 혁신이 반복 검증을 거쳐 산업을 흔드는 것은 필연적이라고 지적했습니다.
튜링상 수상자이자 Meta의 수석 AI 과학자 얀 르쿤은 새로운 관점을 제시했습니다:
"DeepSeek의 성과를 보고 '중국이 AI에서 미국을 초월하고 있다'고 생각하는 사람들은 잘못 해석하고 있습니다. 올바른 해석은 '오픈 소스 모델이 독점 모델을 초월하고 있다'는 것입니다."
Deepmind CEO 데미스 하사비스의 평가는 약간의 우려를 드러냅니다:
"DeepSeek이 이룬 성과는 인상적이며, 우리는 서방의 최전선 모델의 우위를 유지하는 방법을 고려해야 한다고 생각합니다. 서방이 여전히 앞서 있다고 생각하지만, 중국은 매우 강력한 엔지니어링 및 규모화 능력을 가지고 있다는 것은 확실합니다."
마이크로소프트 CEO 사티아 나델라는 스위스 다보스 세계 경제 포럼에서 DeepSeek가 실질적으로 오픈 소스 모델을 개발했으며, 추론 계산에서 뛰어난 성능을 보이고 있으며, 슈퍼 컴퓨팅 효율성이 매우 높다고 밝혔습니다.
그는 마이크로소프트가 중국의 이러한 돌파구에 대해 최대한의 주의를 기울여야 한다고 강조했습니다.
Meta CEO 마크 저커버그는 DeepSeek가 보여준 기술력과 성능이 인상적이라고 평가하며, 중미 간의 AI 격차가 거의 없어졌으며, 중국의 전력 질주는 이 경쟁을 더욱 치열하게 만들고 있다고 지적했습니다.
경쟁자의 반응은 아마도 DeepSeek에 대한 최고의 인정일 것입니다. Meta 직원이 익명 직장 커뮤니티 TeamBlind에 폭로한 바에 따르면, DeepSeek-V3와 R1의 출현은 Meta의 생성형 AI 팀을 공포에 빠뜨렸습니다.
Meta의 엔지니어들은 DeepSeek의 기술을 분석하기 위해 시간과의 싸움을 벌이고 있으며, 가능한 모든 기술을 복제하려고 시도하고 있습니다.
그 이유는 DeepSeek-V3의 훈련 비용이 단 558만 달러로, 이 숫자는 Meta의 일부 고위 임원의 연봉보다도 낮기 때문입니다. 이렇게 극단적인 투자 대비 수익 비율은 Meta 경영진이 막대한 AI 연구 개발 예산을 설명하는 데 큰 압박을 주고 있습니다.
국제 주류 미디어는 DeepSeek의 부상에 대해 높은 관심을 보였습니다.
《금융时报》는 DeepSeek의 성공이 "AI 연구 개발은 거대한 투자를 필요로 한다"는 전통적인 인식을 뒤엎었으며, 정밀한 기술 경로 또한 뛰어난 연구 성과를 달성할 수 있음을 증명했다고 지적했습니다. 더 중요한 것은, DeepSeek 팀의 기술 혁신에 대한 이타적인 공유가 이 연구 가치를 중시하는 회사를 매우 강력한 경쟁자로 만들었다는 것입니다.
《이코노미스트》는 중국 AI 기술이 비용 효율성 측면에서 빠른 돌파구를 마련하고 있으며, 이는 미국의 기술 우위를 흔들기 시작했다고 평가했습니다. 이는 미국의 향후 10년 생산성 향상과 경제 성장 잠재력에 영향을 미칠 수 있습니다.
《뉴욕타임스》는 다른 각도에서 접근하여, DeepSeek-V3가 성능 면에서 미국 회사의 고급 채팅 로봇과 동등하지만, 비용은 크게 낮아졌다고 보도했습니다.
이는 칩 수출 규제 상황에서도 중국 회사들이 혁신과 자원 효율적 활용을 통해 경쟁할 수 있음을 보여줍니다. 또한, 미국 정부의 칩 제한 정책은 역효과를 낳아 중국의 오픈 소스 AI 기술 분야에서의 혁신 돌파구를 촉진할 수 있습니다.
DeepSeek "잘못된 문을 두드리다", 스스로를 GPT-4라고 주장하다
찬사 속에서 DeepSeek는 일부 논란에도 직면하고 있습니다.
많은 외부 인사들은 DeepSeek가 훈련 과정에서 ChatGPT와 같은 모델의 출력 데이터를 훈련 자료로 사용했을 가능성이 있다고 생각하고 있으며, 모델 증류 기술을 통해 이러한 데이터의 "지식"이 DeepSeek의 모델로 이전되었다고 주장합니다.
이러한 접근은 AI 분야에서 드물지 않지만, 의문을 제기하는 사람들은 DeepSeek가 OpenAI 모델의 출력 데이터를 충분히 공개하지 않은 상태에서 사용했는지에 대해 우려하고 있습니다. 이는 DeepSeek-V3의 자아 인식에서도 나타나는 것 같습니다.
이전에 사용자가 모델의 정체성을 물었을 때, 모델이 자신을 GPT-4로 잘못 인식하는 경우가 발견되었습니다.
고품질 데이터는 AI 발전의 중요한 요소이며, OpenAI조차 데이터 수집 논란을 피할 수 없었습니다. 그들은 인터넷에서 대규모로 데이터를 수집하는 방식으로 많은 저작권 소송에 휘말렸으며, 현재 OpenAI와 뉴욕타임스 간의 1심 판결은 아직 결론이 나지 않았고, 새로운 사건이 추가되었습니다.
따라서 DeepSeek는 샘 올트먼과 존 슐만의 공개적인 비판을 받기도 했습니다.
"당신이 알고 있는 것을 복제하는 것은 (상대적으로) 쉽습니다. 당신이 그것이 효과가 있는지 모를 때, 새로운 것, 위험한 것, 어려운 일을 하는 것은 매우 어렵습니다."
그러나 DeepSeek 팀은 R1의 기술 보고서에서 OpenAI 모델의 출력 데이터를 사용하지 않았다고 명확히 밝혔으며, 강화 학습과 독특한 훈련 전략을 통해 높은 성능을 달성했다고 주장했습니다.
예를 들어, 기본 모델 훈련, 강화 학습(RL) 훈련, 미세 조정 등을 포함한 다단계 훈련 방식을 채택하여, 이러한 다단계 순환 훈련 방식은 모델이 다양한 단계에서 서로 다른 지식과 능력을 흡수하는 데 도움이 됩니다.
비용 절감도 기술이다, DeepSeek의 기술적 접근법
DeepSeek-R1 기술 보고서에서는 R1 제로 훈련 과정에서 나타난 "Aha Moment(깨달음의 순간)"이라는 주목할 만한 발견을 언급했습니다. 모델의 중간 훈련 단계에서 DeepSeek-R1-Zero는 초기 문제 해결 접근 방식을 재평가하고, 전략 최적화를 위해 더 많은 시간을 할당하기 시작했습니다(예: 여러 번 다른 해결 방법 시도).
다시 말해, RL 프레임워크를 통해 AI는 자발적으로 인간과 유사한 추론 능력을 형성할 수 있으며, 심지어 사전 설정된 규칙의 한계를 초월할 수 있습니다. 이는 복잡한 결정(의료 진단, 알고리즘 설계)에서 전략을 동적으로 조정하는 등 더 자율적이고 적응 가능한 AI 모델 개발에 방향성을 제공할 수 있습니다.
동시에 많은 업계 인사들이 DeepSeek의 기술 보고서를 깊이 분석하려고 시도하고 있습니다. OpenAI의 전 공동 창립자인 안드레이 카르파티는 DeepSeek V3 발표 후 다음과 같이 언급했습니다:
DeepSeek(이 중국 AI 회사)는 오늘날 매우 편안하게 느껴지며, 최첨단 언어 모델(LLM)을 공개적으로 발표하고, 극히 낮은 예산으로 훈련을 완료했습니다(2048개의 GPU, 2개월 지속, 600만 달러 소요).
참고로, 이러한 능력은 일반적으로 16K 개의 GPU 클러스터를 지원해야 하며, 현재 이러한 고급 시스템은 대개 약 100K 개의 GPU를 사용합니다. 예를 들어, Llama 3(405B 매개변수)는 3080만 개의 GPU 시간을 사용했지만, DeepSeek-V3는 280만 개의 GPU 시간만 사용하여(약 Llama 3의 1/11 계산량) 더 강력한 모델로 보입니다.
이 모델이 실제 테스트에서도 뛰어난 성능을 보인다면(예: LLM 아레나 순위가 진행 중이며, 내 빠른 테스트 성능이 좋음), 이는 자원이 제한된 상황에서 연구 및 엔지니어링 능력을 보여주는 매우 인상적인 결과가 될 것입니다.
그렇다면, 이는 우리가 더 이상 최첨단 LLM을 훈련하기 위해 대규모 GPU 클러스터가 필요하지 않다는 것을 의미합니까? 그렇지 않습니다. 그러나 이는 당신이 사용하는 자원을 낭비하지 않도록 해야 한다는 것을 보여줍니다. 이 사례는 데이터와 알고리즘 최적화가 여전히 큰 발전을 가져올 수 있음을 보여줍니다. 또한 이 기술 보고서는 매우 훌륭하고 상세하여 읽어볼 가치가 있습니다.
DeepSeek V3가 ChatGPT 데이터를 사용했다는 논란에 직면했을 때, 카르파티는 다음과 같이 말했습니다: 대형 언어 모델은 본질적으로 인간과 같은 자아 인식을 갖고 있지 않으며, 모델이 자신의 정체성을 올바르게 대답할 수 있는지는 개발 팀이 자아 인식 훈련 세트를 특별히 구축했는지에 달려 있습니다. 만약 특별히 훈련하지 않았다면, 모델은 훈련 데이터에서 가장 가까운 정보를 바탕으로 대답할 것입니다.
또한, 모델이 자신을 ChatGPT로 인식하는 것은 문제가 아닙니다. ChatGPT 관련 데이터가 인터넷에서 널리 퍼져 있기 때문에, 이러한 대답은 실제로 자연스러운 "인접 지식 출현" 현상을 반영합니다.
Jim Fan은 DeepSeek-R1의 기술 보고서를 읽은 후 다음과 같이 지적했습니다:
이 논문의 가장 중요한 관점은: 완전히 강화 학습에 의해 구동되며, 어떤 감독 학습(SFT)의 참여도 없다는 것입니다. 이 방법은 AlphaZero와 유사합니다------"콜드 스타트(Cold Start)"를 통해 제로에서 바둑, 장기 및 체스를 마스터하는 것이며, 인간 기사의 수법을 모방할 필요가 없습니다.
-- 하드코딩된 규칙 기반의 실제 보상을 사용하며, 강화 학습이 "해킹"하기 쉬운 학습형 보상 모델은 사용하지 않습니다.
-- 모델의 사고 시간은 훈련 과정이 진행됨에 따라 꾸준히 증가하며, 이는 사전 프로그래밍된 것이 아니라 자발적인 특성입니다.
-- 자기 반성과 탐색 행동의 현상이 나타났습니다.
-- PPO 대신 GRPO를 사용합니다: GRPO는 PPO의 코멘터 네트워크를 제거하고 여러 샘플의 평균 보상을 사용합니다. 이는 메모리 사용을 줄이는 간단한 방법입니다. 주목할 점은 GRPO가 DeepSeek 팀에 의해 2024년 2월에 발명되었으며, 정말로 강력한 팀이라는 것입니다.
같은 날 Kimi도 유사한 연구 결과를 발표했을 때, Jim Fan은 두 회사의 연구가 서로 다른 길을 가고 있음을 발견했습니다:
두 회사 모두 MCTS와 같은 복잡한 트리 검색 방법을 포기하고 더 간단한 선형화된 사고 경로로 전환하여 전통적인 자기 회귀 예측 방식을 채택했습니다.
두 회사 모두 추가 모델 복사가 필요한 가치 함수를 사용하지 않고, 계산 자원 요구를 줄이며 훈련 효율성을 높였습니다.
두 회사 모두 밀집된 보상 모델링을 배제하고 가능한 한 실제 결과를 지침으로 사용하여 훈련의 안정성을 보장했습니다.
그러나 두 회사는 상당한 차이점도 존재합니다:
DeepSeek는 AlphaZero식의 순수 RL 콜드 스타트 방법을 채택하고, Kimi k1.5는 AlphaGo-Master식의 예열 전략을 선택하여 경량화된 SFT를 사용합니다.
DeepSeek는 MIT 라이센스를 통해 오픈 소스화하여 사용자에게 최대한의 사용 자유를 부여하며, 모델 증류를 지원하여 추론 능력을 더 작은 모델로 증류할 수 있도록 합니다. 예를 들어, 32B 및 70B 모델은 여러 능력에서 o1-mini와 대등한 성과를 달성하며, 오픈 소스 강도는 이전에 비판받았던 Meta를 초월합니다.
DeepSeek R1의 출현은 국내 사용자들이 처음으로 무료로 o1 수준의 모델을 사용할 수 있게 하여, 오랜 정보 장벽을 허물었습니다. 그로 인해 샤오홍슈와 같은 소셜 플랫폼에서 일어난 논의 열풍은 GPT-4 출시 초기와 견줄 만합니다.
바다를 넘어, 내적 경쟁을 피하다
DeepSeek의 발전 궤적을 돌아보면, 그 성공의 비밀번호는 명확하게 보입니다. 실력은 기본이지만, 브랜드 인식이 방어선입니다.
《晚点》과의 대화에서 MiniMax CEO 옌쥔제는 AI 산업에 대한 그의 생각과 회사 전략의 변화를 깊이 공유했습니다. 그는 두 가지 주요 전환점을 강조했습니다: 첫째, 기술 브랜드의 중요성을 인식하는 것, 둘째, 오픈 소스 전략의 가치를 이해하는 것입니다.
옌쥔제는 AI 분야에서 기술 진화 속도가 현재의 성과보다 더 중요하며, 오픈 소스는 커뮤니티 피드백을 통해 이 과정을 가속화할 수 있다고 생각합니다. 둘째, 강력한 기술 브랜드는 인재 유치와 자원 확보에 필수적입니다.
OpenAI를 예로 들면, 비록 후에 경영진의 동요를 겪었지만, 초기 혁신 이미지와 오픈 소스 정신이 첫 번째 좋은 인상을 쌓는 데 기여했습니다. 비록 Claude가 이후 기술적으로 동등해지고 OpenAI의 B단 사용자들을 점차 잠식하고 있지만, 사용자 경로 의존성 덕분에 OpenAI는 여전히 C단 사용자에서 우위를 점하고 있습니다.
AI 분야에서 진정한 경쟁 무대는 항상 글로벌에 있으며, 바다를 넘어 내적 경쟁을 피하고 홍보하는 것도 확실히 좋은 길입니다.
이 출해 물결은 이미 업계에서 파장을 일으켰으며, 이전의 Qwen, 면벽 지능, 그리고 최근의 DeepSeek R1, kimi v1.5, 두부 v1.5 Pro는 모두 해외에서 적지 않은 소란을 일으켰습니다.
2025년은 지능체 원년, AI 안경 원년 등 여러 태그가 붙지만, 올해는 중국 AI 기업들이 글로벌 시장을 포용하는 중요한 원년이 될 것이며, 나아가는 것이 피할 수 없는 키워드가 될 것입니다.
또한, 오픈 소스 전략은 좋은 수로, 많은 기술 블로거와 개발자들이 자발적으로 DeepSeek의 "자연수"가 되도록 끌어들였습니다. 기술의 선은 단순한 구호가 되어서는 안 되며, "AI for All"의 구호에서 진정한 기술 보편성으로 나아가는 DeepSeek는 OpenAI보다 더 순수한 길을 걸어왔습니다.
OpenAI가 AI의 힘을 보여주었다면, DeepSeek는 우리에게 이 힘이 결국 모든 사람에게 혜택을 줄 것이라고 믿게 합니다.