‘O3-미니’ 출시와 인공지능 추론 모델의 경쟁
메타ai뉴스 논설위원 이현우 교수

1. 서론: 인공지능 추론 모델 시장의 격전
오픈AI는 최근 최신 추론 모델 **‘O3-미니’**를 출시하면서 AI 시장에서 또 다른 경쟁 구도를 형성했다. 기존의 ‘O1-미니’를 대체할 이 모델은 더 낮은 비용과 빠른 응답 속도를 제공하며, 유료 사용자뿐만 아니라 무료 사용자에게도 개방되었다는 점에서 주목받고 있다.
그러나 AI 모델 시장에서 가장 강력한 경쟁자로 떠오른 딥시크(DeepSeek)의 R1 모델과 비교했을 때, 성능과 비용 측면에서 어떤 차별점을 가질 수 있을지에 대한 논의가 활발하다. 특히, 비용이 딥시크 모델에 비해 2~4배 비싸다는 점은 기업과 개발자들에게 중요한 고려 사항이 될 것이다.
이 글에서는 O3-미니의 특징, 벤치마크 성능 분석, 비용 효율성, 그리고 AI 시장에서의 전략적 의미를 다루며, AI 추론 모델의 발전 방향과 시장 경쟁 구도를 살펴본다.
2. O3-미니의 주요 특징과 변화
(1) 무료 사용자 개방: 오픈AI의 전략적 변화
기존의 AI 모델들은 대부분 유료 사용자에게 우선적으로 개방되었지만, O3-미니는 무료 사용자도 사용할 수 있도록 개방했다. 이는 AI 모델 시장에서의 시장 점유율 확대와 대중적 접근성 강화를 위한 전략으로 보인다.
이제 무료 사용자들은 메시지 작성기에서 ‘추론(Reason)’을 선택하면 O3-미니를 사용할 수 있으며, 하루 사용량도 기존 O1-미니의 50개에서 150개로 세 배 증가했다. 이는 AI를 활용하는 일반 사용자뿐만 아니라, 초기 단계에서 AI를 실험하는 연구자 및 개발자들에게도 큰 기회를 제공한다.
(2) 성능 향상: 빠른 응답 속도와 개선된 추론 능력
오픈AI는 O3-미니가 기존 O1-미니보다 빠른 응답 속도를 제공한다고 밝혔다. 특히, 과학, 수학, 코딩 분야에서 강점을 보이며, 기존 모델 대비 오류율이 39% 감소했다고 한다.
또한, 추론 강도를 ‘낮음(Low)’, ‘중간(Medium)’, ‘높음(High)’으로 조절 가능하게 만들어, 사용자가 필요에 따라 모델의 성능과 비용을 선택할 수 있도록 했다. 이러한 변화는 비용 절감과 최적화된 AI 모델 사용을 원하는 개발자들에게 유용한 기능이 될 것이다.
(3) 검색 기능 추가: 실시간 웹 소스 활용 가능
O3-미니는 단순한 언어 모델이 아니라, 검색 기능을 갖춘 AI 모델로 발전하고 있다.
사용자는 AI가 관련 웹 소스를 기반으로 최신 정보를 제공할 수 있도록 검색 기능을 활성화할 수 있다.
이는 AI의 정확성과 신뢰도를 높이는 데 도움을 줄 수 있으며, 향후 추론 모델 전체에 검색 기능을 통합하겠다는 오픈AI의 계획과 맞닿아 있다.
다만, 현재 멀티모달(이미지, 음성, 영상 등) 기능은 포함되지 않았으며, 순수한 텍스트 기반의 AI 모델로 유지되고 있다.
3. 벤치마크 성능 분석: 딥시크 R1과의 비교
오픈AI는 O3-미니를 출시하면서 자체 벤치마크 결과를 공개했지만, 딥시크 R1과의 직접 비교는 피했다. 그러나 기존 딥시크의 발표 자료와 대조해 보면, O3-미니는 높은 수준의 추론(High)에서는 딥시크 R1을 앞서지만, 낮음(Low)과 중간(Medium)에서는 딥시크 모델이 더 나은 성능을 보인다.
(1) AIME 2024 테스트
수학 경시대회 테스트(AIME 2024)에서 O3-미니는 높은 추론에서만 R1을 능가했다.
그러나 일반적인 문제 해결에서는 여전히 딥시크 R1이 강점을 보였다.
(2) SWE-벤치 프로그래밍 테스트
O3-미니는 프로그래밍 테스트인 SWE-Bench Verified에서 높은 추론을 적용했을 때만 딥시크 R1을 능가했다.
즉, 일반적인 코딩 문제 해결에서는 성능 차이가 크지 않다는 것을 의미한다.
(3) GPQA 다이아몬드 테스트
박사 수준의 전문 지식을 평가하는 GPQA 다이아몬드 테스트에서는 O3-미니가 딥시크 R1을 중간 수준에서도 앞섰다.
이는 과학 및 학술 분야에서는 O3-미니가 강점을 보일 가능성을 시사한다.
4. 비용 효율성: 딥시크 R1보다 2~4배 비싸다
O3-미니는 입력 토큰 100만 개당 0.55달러, 출력 토큰 100만 개당 4.40달러로 책정되었다.
이는 오픈AI 모델로서는 저렴한 가격이지만, 딥시크의 R1(입력 토큰 0.14달러, 출력 토큰 2.19달러)에 비하면 2~4배 비싸다.
입력 토큰 비교: O3-미니(0.55달러) vs. R1(0.14달러)
출력 토큰 비교: O3-미니(4.40달러) vs. R1(2.19달러)
즉, 기업이나 대규모 데이터를 처리하는 사용자들에게는 딥시크 R1이 훨씬 경제적이다.
그렇다면 오픈AI가 여전히 높은 비용을 유지하는 이유는 무엇일까?
(1) 오픈AI의 차별점: 안전성 강화
오픈AI는 ‘신중한 정렬(Deliberative Alignment)’ 방식을 도입하여 안전성과 AI 윤리 측면에서 딥시크보다 강점을 가진다고 강조한다.
AI가 답변을 생성하기 전에 ‘생각의 사슬(CoT, Chain of Thought)’ 방식으로 심사숙고하는 기능을 포함하여, 보다 신뢰할 수 있는 답변을 제공한다.
이는 AI의 신뢰성을 중요시하는 기업 고객들에게 어필할 요소가 될 수 있다.
5. 결론: O3-미니의 의미와 향후 전망
O3-미니는 오픈AI가 AI 시장에서 무료 사용자를 확보하고, 딥시크와의 경쟁에서 새로운 전략을 펼치는 시도로 볼 수 있다.
성능 면에서는 딥시크 R1을 능가하는 부분도 있지만, 전체적으로는 O1-미니의 업그레이드 버전에 가깝다.
비용 면에서는 아직도 딥시크보다 비싸지만, 안전성과 신뢰성을 강조하는 전략을 펼치고 있다.
향후 AI 시장에서 오픈AI가 더 강력한 O3 모델을 출시하고, 딥시크 역시 가격 대비 성능을 더욱 개선할 것으로 보인다.
결국 AI 추론 모델 경쟁은 성능, 비용, 안전성 세 가지 요소에서 치열하게 전개될 것이며, 사용자들은 각자의 필요에 따라 최적의 모델을 선택하게 될 것이다.