4월 24일, DeepSeek가 다시 한번 세상을 놀라게 했다. V4 프로와 V4 플래시 두 버전을 동시에 공개하며, 오픈소스 AI 역사에서 또 하나의 이정표를 세운 것이다. 공개와 동시에 Hugging Face에 모델 가중치가 업로드됐고, API도 바로 열렸다. 놀라운 것은 같은 날 OpenAI가 GPT-5.5를 출시했다는 점이다. DeepSeek는 의도적으로 충격적인 타이밍을 선택했다. 대체 이 모델은 어떤 혁신을 가져왔고, 우리 개발자들에게 어떤 변화를 가져올지 지금부터 자세히 살펴보겠다.
두 가지 모델, 전혀 다른 포지셔닝
DeepSeek V4는 두 가지 변형으로 등장했다. 이 두 모델은 각각의 설계 철학과 타깃 시장이 완전히 다르다.
V4 프로는 1조 6천억 개의 총 파라미터를 가지되, 실제로 활성화되는 파라미터는 490억 개에 불과하다. 이것이 바로 MoE 구조의 핵심이다. 전체 모델을 한 번에 메모리에 올릴 필요 없이, 각 토큰마다 가장 관련성 높은 전문가들만 활성화함으로써 계산 비용을 극적으로 낮춘 것이다. 이전 세대의 V3.2가 이미 인상적인 효율성을 보여줬지만, V4는 이를 한 단계 더 끌어올렸다. 학습 데이터도 32조 토큰 이상을 사용한 것으로 알려져 있으며, 혼합 정밀도 학습을 통해 계산 효율성을 극대화했다.
V4 플래시도 MoE 구조를 채택했지만, 전혀 다른 모델이다. 2840억 개의 총 파라미터에서 단 130억 개만 활성화하는 경량 버전으로, 별도로 훈련된 독립 모델이다. 이것은 단순히 프로 버전을 자른 것이 아니라, 효율성에 초점을 맞춘 새로운 설계다. 메모리와 계산 자원이 제한된 환경에서도 최고의 성능을 발휘하도록 설계되었다.
두 모델 모두 100만 토큰 컨텍스트를 기본 지원한다. 이전 세대에서 이 수준의 컨텍스트를 사용하려면 엄청난 비용이 필요했다. 대부분의 개발자들에게는 꿈같은 사양이었고, 현실적으로 불가능한 일이었다. 하지만 이제는 다르다. 이 가격대에서는 100만 토큰을 넉넉하게 사용할 수 있으며, 이는 개발자들에게 엄청난 기회다.
압도적 가격 경쟁력, 기존 모델들과의 비교
가격표를 보기만 해도 충격이다.
V4 프로는 입력 100만 토큰당 1.74달러, 출력 3.48달러다. V4 플래시는 더욱 놀라운데, 입력 0.14달러, 출력 0.28달러에 불과하다. 이 가격은 기존 최고 성능 모델들과 비교했을 때 엄청난 차이를 보인다.
현재 시장에서 주요 모델들의 출력 비용을 비교해보면, Claude Opus 4.7은 출력 100만 토큰당 75달러고, GPT-5.5는 30달러, Kimi K2.6은 5.60달러다. 반면 DeepSeek V4 프로는 단 3.48달러다. 이는 Opus 4.7 대비 21분의 1, GPT-5.5 대비 8.6분의 1에 해당하는 엄청난 차이다.
같은 예산으로 이전에는 중간 등급의 채팅 엔드포인트도 감당하기 어려웠던 것이, 이제는 Codeforces 3206 급의 추론 모델을 프로덕션 환경에서 돌릴 수 있다는 뜻이다. 비용 장벽이 완전히 사라진 것이다.
특히 V4 플래시의 출력 가격이 0.28달러라는 것은 사실상 무료에 가까운 수준이다. 소규모 프로젝트나 개인 개발자들이라도 고급 추론 모델을 손쉽게 사용할 수 있게 되었다. 비용 문제로 고급 AI를 사용하지 못했던 시절은 이제 과거가 됐다.
Codeforces 3206, 개발자라면 반드시 알아야 할 숫자
DeepSeek V4 프로의 Codeforces 레이팅은 3206이다. 이 숫자가 의미하는 바를 정확히 이해해야 한다. GPT-5.4의 레이팅이 3168이므로 V4 프로는 이를 뛰어넘은 것이다. 이것은 단순히 벤치마크 수치를 높인 것이 아니라, 실전 프로그래밍 대회 수준의 추론 능력을 갖추고 있다는 것을 의미한다.
단순히 코드를 생성하는 것을 넘어, 복잡한 알고리즘 문제를 해결하고 최적화된 솔루션을 제시할 수 있는 능력을 갖추고 있다는 뜻이다. 실제 소프트웨어 개발에서 발생할 수 있는 다양한 문제들에 대한 해결 능력을 갖추고 있다는 것이다.
LiveCodeBench에서도 93.5를 기록하며 K2.6의 89.6, Opus 4.6의 88.8, GPT-5.4의 고강도 모드인 91.7을 모두 제쳤다. 경쟁적 프로그래밍 영역에서 현재 가장 강력한 모델 중 하나가 된 것이다.
에이전트 코딩 벤치마크인 SWE-Bench에서는 K2.6의 58.6에게 3점 차이로 뒤처졌다. 하지만 이것은 긴 시간에 걸쳐 코드 기반을 분석하고 수정하는 작업에서의 차이다. 짧은 형태의 코드 생성이나 디버깅에서는 V4가 오히려 더 나은 성능을 보인다. 즉, 작업의 성격에 따라 선호하는 모델이 달라질 수 있다는 것이다.
기술적 혁신, 100만 컨텍스트의 진짜 의미
V4의 기술적 핵심은 효율성에 있다. V4는 새로운 하이브리드 어텐션 구조를 도입했는데, 이는 압축된 희소 어텐션과 대규모 압축 어텐션을 결합한 것이다. 이 구조는 KV 캐시를 V3.2 대비 10분의 1 수준으로 줄이면서도 모델의 품질을 유지할 수 있게 해준다.
동시에 다중 매니폴드 제한 초월 연결을 통해 잔차 신호 전파를 보장한다. 이것은 깊은 신경망에서 흔히 발생하는 기울기 소실 문제를 해결하고, 더 깊은 모델 학습을 가능하게 하는 핵심 기술이다.
결과적으로 100만 토큰 컨텍스트 사용 시 부동소수점 연산이 V3.2의 27%로 떨어졌다. 메모리 비용도 극적으로 줄어들었다. 이전에는 100만 토큰 하나를 처리하는데 필요한 컴퓨팅 자원이 엄청했지만, 이제는 훨씬 효율적으로 처리할 수 있다.
다만 솔직히 말하면, Opus 4.6처럼 긴 컨텍스트 검색에서는 아직 완전히 따라잡지 못하고 있다. MRCR 1M에서 V4가 83.5인데 Opus는 92.9다. CorpusQA 1M에서도 62.0 대 71.7로 뒤처진다. 이는 V4가 효율성에서는 이겼지만, 절대적 검색 품질에서는 아직 Opus의 상대가 되지 않는다는 것을 의미한다. 이 점은 앞으로 개선해야 할 부분이다.
라이선스 변화, Apache 2.0의 무게
이번 릴리스에서 조용히 넘어간 것이 있지만, 그것은 바로 라이선스다. V3까지는 MIT였지만, V4부터 Apache 2.0으로 전환했다. 이 변화는 엄청난 의미를 갖는다.
MIT 라이선스는 기업들이 좋아하는 자유로운 오픈소스 라이선스지만, 특허 보호 조항이 약하다. Apache 2.0은 이를 보강하여 상업적 배치에서 명확한 특허 보호를 제공한다. 엔터프라이즈 환경에서 이는 매우 중요한 요소다. 자사 제품에 오픈소스 모델을 넣을 때 특허 침해 걱정 없이 사용할 수 있게 된 것이다.
이 변화는 DeepSeek가 단순한 연구 프로젝트가 아니라, 지속 가능한 비즈니스 모델로 성장하고 있다는 신호이기도 하다. 오픈소스로 공개하면서도 엔터프라이즈 지원을 통해 수익을 창출하는 구조로 나아가는 것이다. 이것은 또한 엔터프라이즈 시장에서 DeepSeek의 입지가 크게 넓어질 것임을 의미한다.
API 사용법, 기존 시스템에서 마이그레이션
기존 DeepSeek API를 사용 중이라면 기본 URL을 유지한 채 모델 이름만 바꾸면 된다. 별도의 코드 변경이나 인프라 재설정이 필요 없다. 마이그레이션이 매우 간단하게 이루어진다.
코드 예시를 보자. Python에서 V4 프로를 사용하는 방법은 다음과 같다. 먼저 OpenAI 호환 클라이언트를 사용하여 연결한다. 기본 URL은 그대로 유지하고, 모델 이름만 deepseek-v4-pro 또는 deepseek-v4-flash로 바꾸면 된다. 두 모델 모두 생각하기 모드와 생각없음 모드를 지원한다. 복잡한 추론이 필요한 문제에서는 생각하기 모드를, 단순한 작업에서는 생각없음 모드를 사용하여 비용을 절감할 수 있다.
이것은 기존에 deepseek-chat이나 deepseek-reasoner를 사용하고 있던 개발자들에게 좋은 소식이다. 코드 변경을 최소화하면서 최신 모델로 업그레이드할 수 있다.
지금 바꾸어야 할 경우와 머물러야 할 경우
모든 사람에게 V4로 전환할 것을 권장하는 것은 아니다. 상황별로 다르다.
V4로 옮겨야 하는 경우는 다음과 같다. 첫째, 중국어 중심 워크로드를 실행하는 경우. V4는 Chinese SimpleQA에서 84.4를 기록하며 대부분의 최고 성능 모델들을 능가한다. 둘째, 대회 수준의 코드 생성이나 복잡한 알고리즘 문제 해결이 필요한 경우. Codeforces 3206의 성능은 이 영역에서 최고 수준의 결과를 제공한다. 셋째, 비용 최적화가 중요한 프로덕션 환경. API 가격이 엄청나게 낮아졌기 때문에, 기존에 비용 문제로 접근하지 못했던 고급 모델들을 이제 사용할 수 있다.
기존 모델을 유지해야 하는 경우도 있다. 긴 컨텍스트 검색이 중심인 작업에서는 Opus 4.6이 여전히 최고다. Terminal-Bench급 에이전트 워크로드도 GPT-5.5가 독보적이다. 또한 대규모 멀티모달 처리나 고급 추론이 필요한 특수한 상황에서는 기존 최고 성능 모델들이 더 나은 선택일 수 있다.
잊지 말아야 할 마이그레이션 기한
가장 중요한 정보를 빠뜨릴 뻔했다. 2026년 7월 24일 이후, deepseek-chat과 deepseek-reasoner는 완전히 종료된다. 현재는 V4 플래시로 라우팅되어 동작하지만, 그 날 이후에는 사용할 수 없다. 반드시 마이그레이션해야 한다. 지금이 대비할 시기이다. 새 모델로의 전환을 계획하고 점진적으로 마이그레이션하는 것을 권장한다.
정리, 왜 이 배포가 중요한가
DeepSeek V4는 단순한 모델 업데이트가 아니다. AI 산업의 구도를 바꾸는 전환점이다. 100만 토큰 컨텍스트를 기본 지원하면서, 기존에는 불가능했던 대규모 문서 처리나 복잡한 대화형 응용이 가능해졌다. 압도적 가격 경쟁력은 고급 AI의 민주화를 의미한다. 이제 소규모 팀이나 개인 개발자도 상상할 수 없던 수준의 AI 능력을 프로덕션에서 사용할 수 있다.
Apache 2.0 라이선스로 엔터프라이즈 사용성도 크게 향상되었다. 특허 보호가 명확해졌기 때문에, 기업들이 자사 제품에 이 모델을 넣는 것에 대한 부담이 크게 줄었다.
Codeforces 3206의 성능은 개발자 도구로서의 가능성을 크게 넓혔다. 단순한 코드 생성을 넘어, 실제 소프트웨어 공학 문제 해결에 기여할 수 있는 수준에 도달한 것이다.
아직 완벽하지는 않다. 긴 컨텍스트 검색에서는 Opus 4.6에게 뒤처지고, 일부 특수한 영역에서는 기존 최고 성능 모델들이 더 나은 선택이다. 하지만 이러한 한계점조차 앞으로의 개선 가능성을 보여준다. DeepSeek의 개발 속도와 방향성을 보면, 향후 업데이트에서 이러한 단점들을 보완해 나갈 것임을 기대할 수 있다.
지금 가장 중요한 것은 마이그레이션 계획을 세우는 것이다. 7월 24일이라는 기한을 염두에 두고, 기존 deepseek-chat 및 deepseek-reasoner 사용자를 새 모델로 전환하는 작업을 시작해야 한다. 새 모델로의 전환은 코드의 작은 변경만으로 가능하므로, 지금 준비하면 불필요한 위기를 막을 수 있다. 이것은 단순한 업그레이드가 아니라, 더 나은 도구로 작업 환경을 개선하는 기회다.
'Tech' 카테고리의 다른 글
| 클라우드 없이 AI가 폰 속에서 작동하는 시대가 왔다 (0) | 2026.05.05 |
|---|---|
| DJI Osmo Pocket 4 스펙 리뷰: 브이로그 카메라의 새로운 기준 (1) | 2026.05.01 |
| OpenClaw 설정 완벽 가이드: 30분 만에 AI 에이전트 시작하기 (0) | 2026.05.01 |
| OpenClaw 필수 스킬 5선: AI 에이전트를 훨씬 더 똑똑하게 만드는 방법 (0) | 2026.05.01 |
| 'The Thinking Game'이 들려주는 딥마인드 이야기 (0) | 2026.01.02 |