Claude Opus 4.6 신기능 총정리 — 에이전트 팀·128K 출력·적응형 사고
안녕하세요! 10년 차 생활 전문 블로거 Joon입니다.
"Claude가 또 업그레이드됐다는데, 이번엔 뭐가 달라진 거야?" 최근 AI 도구에 관심 있는 직장인분들이라면 한 번쯤 이런 이야기를 들으셨을 거예요. 2026년 2월 5일에 Anthropic이 공개한 Claude Opus 4.6은 에이전트 팀, 128K 출력 토큰, 적응형 사고(Adaptive Thinking) 등 정말 굵직한 신기능들을 한꺼번에 들고 나왔거든요. 저도 출시 직후부터 약 두 달간 실무에서 직접 써보면서 "이건 정리해서 공유해야겠다" 싶었습니다.
오늘은 Claude Opus 4.6의 핵심 신기능부터 요금제, 벤치마크 성능, 그리고 직장인이 바로 써먹을 수 있는 실전 활용법까지 아주 자세하게 정리해 드리려고 합니다. 꽤 긴 글이지만 끝까지 읽으시면 Opus 4.6을 200% 활용하시는 데 분명 도움이 될 거예요.
📋 목차
- • 1. Claude Opus 4.6 핵심 요약 — 30초 정리
- • 2. 에이전트 팀(Agent Teams) — AI끼리 협업하는 시대
- └ 2-1. 에이전트 팀 설정 방법 & 실전 예시
- • 3. 적응형 사고(Adaptive Thinking) & Effort 파라미터
- └ 3-1. Effort 4단계 비교와 비용 최적화 팁
- • 4. 128K 출력 토큰 · 1M 컨텍스트 · 컴팩션 API
- • 5. 요금제 & API 가격 총정리 (2026년 3월 기준)
- • 6. 벤치마크 성능 비교 — GPT-5.2·Gemini 3 Pro와 뭐가 다를까?
- • 자주 묻는 질문 (FAQ)
1. Claude Opus 4.6 핵심 요약 — 30초 정리
Claude Opus 4.6은 Anthropic의 Claude 4 모델 패밀리 중 최상위 모델로, 2026년 2월 5일에 공개되었습니다. API 모델 ID는 claude-opus-4-6이고, claude.ai 웹·모바일 앱은 물론 Amazon Bedrock, Google Cloud Vertex AI 등 주요 클라우드 플랫폼에서도 바로 사용할 수 있어요.
이번 업데이트의 핵심을 한 줄로 요약하면 "더 길게, 더 똑똑하게, 더 자율적으로"라고 할 수 있겠는데요. 컨텍스트 윈도우가 Opus 모델 최초로 100만(1M) 토큰까지 확장됐고, 출력 토큰도 기존 64K에서 128K로 두 배 늘었습니다. 거기에 Claude Code에서 여러 AI 에이전트를 팀으로 묶어 동시에 작업시키는 에이전트 팀 기능, 모델이 스스로 사고 깊이를 조절하는 적응형 사고, 대화가 길어져도 맥락을 잃지 않게 해주는 컴팩션(Compaction) API까지 추가됐거든요.
특히 코딩 쪽에서의 성능 향상이 눈에 띄는데요. 에이전트 코딩 벤치마크 Terminal-Bench 2.0에서 최고점을 기록했고, 난이도 높은 다학제 추론 시험인 Humanity's Last Exam에서도 모든 프론티어 모델 중 1위를 차지했습니다. 이전 모델인 Opus 4.5와 비교해 GDPval-AA 점수가 약 190 Elo 포인트 높아졌다고 하니, 체감 성능 차이가 꽤 크다고 보시면 돼요.
그 밖에도 Claude in Excel 성능 대폭 개선, Claude in PowerPoint 리서치 프리뷰 출시, 웹 검색·웹 페치 도구의 동적 필터링 지원, 코드 실행 도구 무료화(웹 도구 병행 시) 등 다양한 플랫폼 업데이트가 함께 이루어졌습니다. 이제 하나씩 자세히 살펴볼게요.
2. 에이전트 팀(Agent Teams) — AI끼리 협업하는 시대
이번 Opus 4.6 출시와 함께 가장 화제가 된 기능이 바로 Claude Code의 에이전트 팀(Agent Teams)입니다. 쉽게 말하면 "AI 여러 명이 팀을 짜서 동시에 일하는 것"인데요. 하나의 Claude Code 세션이 팀 리드(Team Lead) 역할을 맡고, 여러 팀메이트(Teammate) 에이전트를 동시에 생성해서 각자 맡은 작업을 병렬로 처리하는 구조예요.
기존에도 서브에이전트(Subagent)라는 기능이 있었는데, 서브에이전트는 메인 에이전트에게만 결과를 보고하는 단방향 구조였거든요. 반면 에이전트 팀의 팀메이트들은 서로 직접 메시지를 주고받고, 상대방의 의견에 반박도 하고, 공유 태스크 리스트를 통해 스스로 다음 할 일을 가져가는 자율 협업 구조라서 훨씬 복잡한 작업을 처리할 수 있습니다.
에이전트 팀이 특히 빛나는 상황은 코드 리뷰(보안·성능·테스트 각각 담당), 새 기능 모듈별 동시 개발, 버그 원인 경쟁 가설 검증, 프론트엔드·백엔드·테스트를 한꺼번에 수정해야 하는 크로스 레이어 작업 등이에요. Replit 측에서도 "Opus 4.6은 복잡한 작업을 독립 서브태스크로 분해하고, 도구와 서브에이전트를 병렬 실행하며, 블로커를 정밀하게 식별하는 에이전트 계획 능력이 크게 도약했다"고 평가했습니다.
에이전트 팀의 아키텍처를 좀 더 들여다보면, 팀 리드(메인 세션), 팀메이트(독립 Claude Code 인스턴스), 공유 태스크 리스트(할 일 목록), 메일박스(에이전트 간 메시징 시스템) 이 네 가지 요소로 구성됩니다. 태스크에는 "대기→진행 중→완료" 세 가지 상태가 있고, 태스크 간 의존 관계도 설정할 수 있어서 선행 태스크가 완료돼야 후속 태스크를 클레임할 수 있는 구조거든요.
2-1. 에이전트 팀 설정 방법 & 실전 예시
에이전트 팀은 현재 리서치 프리뷰(Research Preview) 단계이고, 기본적으로 비활성화되어 있어요. 활성화하려면 Claude Code의 settings.json 파일에 환경 변수를 추가하면 됩니다. "env" 항목 안에 "CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS"를 "1"로 설정하면 되거든요. 설정 후 Claude Code를 실행하고 자연어로 팀 구성을 요청하면 알아서 팀을 만들어 줍니다.
예를 들어 "PR #142를 리뷰할 에이전트 팀을 만들어줘. 보안 담당 1명, 성능 담당 1명, 테스트 커버리지 담당 1명으로 구성해줘"라고 입력하면, 리드 에이전트가 세 명의 팀메이트를 생성하고 각자에게 리뷰 관점을 배정합니다. 팀메이트 간 전환은 Shift+Down 키로 순환할 수 있고, tmux나 iTerm2를 쓰면 팀메이트별 분할 패널로 실시간 작업 상황을 한눈에 볼 수도 있어요.
복잡하거나 위험한 작업에서는 "플랜 승인 모드"를 활용할 수 있는데요. "인증 모듈을 리팩토링할 아키텍트 팀메이트를 생성하되, 변경 전에 플랜 승인을 받도록 해줘"라고 지시하면, 팀메이트가 읽기 전용 모드에서 계획을 세운 뒤 리드의 승인을 받아야 실제 구현에 들어갑니다. 리드가 피드백과 함께 거부하면 팀메이트가 계획을 수정해서 다시 제출하는 식이에요.
다만 주의해야 할 점도 있습니다. 팀메이트마다 독립적인 컨텍스트 윈도우를 사용하기 때문에 토큰 소비가 단일 세션의 3~5배까지 늘어날 수 있거든요. 그래서 간단한 순차 작업에는 기존 서브에이전트를, 병렬 탐색이 진짜 가치를 발하는 복잡한 작업에만 에이전트 팀을 활용하는 게 비용 면에서 현명합니다. Anthropic 공식 문서에서도 팀메이트 3~5명, 팀메이트당 태스크 5~6개를 권장 범위로 안내하고 있어요.
3. 적응형 사고(Adaptive Thinking) & Effort 파라미터
이전 모델에서는 확장 사고(Extended Thinking)를 쓸 때 budget_tokens를 직접 지정해야 했잖아요. "이 작업에 사고 토큰 몇 개를 할당해야 최적일까?"를 매번 개발자가 추측해야 했던 거죠. Opus 4.6에서는 이 방식을 완전히 바꿔서, 모델이 스스로 "이 질문은 깊이 생각해야 하는가, 아니면 바로 답할 수 있는가"를 판단하는 적응형 사고(Adaptive Thinking)를 도입했습니다.
사용법은 간단합니다. API 호출 시 thinking 파라미터를 {"type": "adaptive"}로 설정하면 끝이에요. 이렇게 하면 Claude가 요청의 복잡도를 스스로 평가해서, 복잡한 문제에는 깊은 추론을, 간단한 질문에는 즉답을 합니다. 특히 적응형 사고는 인터리브드 사고(Interleaved Thinking)를 자동으로 활성화해서, 도구 호출 사이사이에도 추론할 수 있거든요. 에이전트 워크플로우에서 특히 강력한 조합입니다.
Anthropic은 기존의 {"type": "enabled", "budget_tokens": N} 방식을 Opus 4.6과 Sonnet 4.6에서 공식 지원 중단(Deprecated) 처리했습니다. 당장 작동은 하지만 향후 모델에서 제거될 예정이니, 기존에 budget_tokens를 사용하고 계셨다면 적응형 사고로 마이그레이션하시는 게 좋겠습니다. 또한 Opus 4.6에서는 어시스턴트 메시지 프리필(Prefill)이 지원되지 않는 것도 마이그레이션 시 꼭 확인하셔야 할 포인트예요.
3-1. Effort 4단계 비교와 비용 최적화 팁
적응형 사고와 함께 Effort 파라미터가 정식(GA) 출시됐는데요. low, medium, high(기본값), max 네 단계로 사고 깊이를 조절할 수 있습니다. max는 Opus 4.6 전용이고 사고에 제한을 두지 않아서 최고 성능을 뽑아낼 때 유용해요. 반면 low로 설정하면 간단한 작업에서 사고를 아예 건너뛰기도 하기 때문에 속도와 비용 모두 크게 절약되거든요.
| Effort 단계 | 사고 동작 | 추천 용도 | 비용 영향 |
|---|---|---|---|
| max | 항상 사고, 제한 없음 | 최고 난도 문제 (Opus 4.6 전용) | 가장 높음 |
| high (기본) | 거의 항상 사고 | 복잡한 코딩·분석 작업 | 높음 |
| medium | 적당히 사고, 간단한 건 생략 | 일반 업무 (Sonnet 4.6 추천값) | 중간 |
| low | 사고 최소화, 대부분 즉답 | 빠른 응답 필요한 챗봇·분류 | 가장 낮음 |
꿀팁 하나 알려드리면, 모델이 과도하게 사고해서 응답이 느리다고 느껴질 때는 기본값(high)에서 medium으로 내려보세요. Anthropic 엔지니어들도 "Opus 4.6이 간단한 문제에서도 깊이 생각하는 경향이 있으니, 그럴 때는 effort를 medium으로 조절하라"고 공식 권장하고 있거든요. Claude Code에서는 /effort 명령어로 간편하게 변경할 수 있습니다. 제가 직접 써보니 medium으로만 바꿔도 응답 속도가 체감상 1.5~2배 빨라지더라고요.
비용 제어 측면에서는 max_tokens와 effort를 조합해서 쓰는 게 핵심입니다. max_tokens는 전체 출력(사고 토큰 + 응답 텍스트)의 하드 리밋이고, effort는 그 안에서 사고에 얼마나 할당할지의 소프트 가이드 역할이에요. high나 max effort에서는 사고가 길어져서 max_tokens를 다 소진할 수 있으니, stop_reason이 "max_tokens"로 자주 뜨면 max_tokens를 올리거나 effort를 낮추는 것을 권장합니다.
4. 128K 출력 토큰 · 1M 컨텍스트 · 컴팩션 API
Opus 4.6에서 출력 토큰 한도가 기존 64K에서 128K로 두 배 늘었습니다. 이게 실무에서 어떤 의미냐면, 긴 보고서를 한 번의 요청으로 완성할 수 있고, 사고 토큰에 더 여유로운 예산을 할당할 수 있다는 뜻이에요. 다만 128K 출력을 받을 때는 HTTP 타임아웃 방지를 위해 스트리밍 모드를 사용해야 하거든요. SDK에서 .stream()에 .get_final_message()를 체이닝하면 이벤트를 일일이 처리하지 않고도 전체 응답을 받을 수 있습니다.
컨텍스트 윈도우도 대폭 확장됐는데요. Opus 급 모델 최초로 100만(1M) 토큰 컨텍스트를 베타로 지원합니다. 이전 모델인 Opus 4.5의 컨텍스트가 200K였으니 5배나 늘어난 셈이에요. 문맥 유지 능력도 비약적으로 좋아져서, MRCR v2 벤치마크(1M 토큰 범위에서 8개 니들 검색)에서 Opus 4.6이 76%를 기록한 반면 Sonnet 4.5는 18.5%에 그쳤다고 합니다. 정보가 대화 중간 어딘가에 묻혀 있어도 놓치지 않는다는 뜻이죠.
다만 1M 컨텍스트를 사용하면 200K를 초과하는 입력에 대해 프리미엄 요금이 적용되는데요. 입력 $10/MTok, 출력 $37.50/MTok으로 표준 요금의 2배입니다. 이 비용 부담을 줄여주는 게 바로 컴팩션(Compaction) API인데요. 대화가 컨텍스트 한계에 가까워지면 서버 측에서 자동으로 이전 대화를 요약·압축해서, 사실상 무한대의 대화를 이어갈 수 있게 해줍니다. 에이전트 워크플로우처럼 수백 턴을 거치는 작업에서 특히 강력하더라고요.
컴팩션 API는 현재 베타 단계이고, 임계값(threshold)을 설정해 두면 대화가 그 지점에 도달했을 때 자동으로 압축이 시작됩니다. 개발자가 직접 컨텍스트를 잘라내거나 요약하는 코드를 짤 필요가 없어서 통합 작업이 최소화된다는 점이 가장 큰 장점이에요. Thomson Reuters에서도 "Opus 4.6은 대규모 정보 본문을 놀라운 일관성으로 처리해서, 전문가 수준의 시스템 설계에 강력한 빌딩 블록이 된다"고 평가했습니다.
💬 직접 해본 경험
제가 직접 Opus 4.6으로 사내 레거시 코드베이스(약 15만 줄)를 분석하는 에이전트를 돌려봤는데요, 이전 Opus 4.5에서는 컨텍스트 윈도우가 가득 차서 중간에 맥락을 잃어버리는 일이 잦았거든요. Opus 4.6에서 컴팩션 API를 켜고 effort를 high로 설정했더니 약 45분 동안 120턴 넘게 대화를 이어가면서도 초기에 분석한 모듈 간 의존성 정보를 끝까지 기억하더라고요. 토큰 비용은 약 $8.50 정도 나왔는데, 수동으로 코드 리뷰하는 시간 대비 최소 6시간은 아낀 것 같습니다.
5. 요금제 & API 가격 총정리 (2026년 3월 기준)
Claude Opus 4.6의 가격 구조를 한눈에 정리해 드릴게요. 먼저 API 기본 요금은 이전 Opus 모델과 동일하게 입력 $5/MTok, 출력 $25/MTok입니다. 프롬프트 캐싱을 활용하면 최대 90% 비용 절감이 가능하고, 배치 처리(Batch Processing)로는 50% 할인을 받을 수 있어요.
| 구분 | 입력 (MTok당) | 출력 (MTok당) | 비고 |
|---|---|---|---|
| 표준 (200K 이하) | $5 | $25 | Opus 4.5와 동일 |
| 1M 컨텍스트 (200K 초과) | $10 | $37.50 | 프리미엄 티어 (2배) |
| Fast Mode (베타) | $30 | $150 | 최대 2.5배 빠른 출력 |
| US-Only 추론 | $5.50 | $27.50 | 표준 대비 1.1배 |
claude.ai 구독 요금제도 간단히 정리하면, 무료 플랜에서도 Opus 4.6을 제한적으로 체험할 수 있고, Pro 플랜은 월 $20(연간 결제 시 월 $17), Max 5x 플랜은 월 $100, Max 20x 플랜은 월 $200입니다. 2026년 3월 기준 환율 약 1,470원/달러를 적용하면, Pro 플랜은 월 약 29,400원, Max 5x는 약 147,000원 정도 되겠네요.
새로 추가된 Fast Mode도 눈여겨볼 만합니다. 동일한 모델을 더 빠른 인프라에서 실행하는 건데, 출력 토큰 생성 속도가 약 2.5배 빨라지는 대신 가격이 입력 $30/MTok, 출력 $150/MTok으로 상당히 높아요. 지능이나 능력이 달라지는 건 아니고 순수하게 속도만 올라가는 거라서, 실시간 인터랙션이 핵심인 서비스에서만 선별적으로 쓰시는 게 좋겠습니다. 제가 테스트해 봤을 때 표준 모드에서 약 40초 걸리던 응답이 Fast Mode에서는 약 16초에 돌아오더라고요.
6. 벤치마크 성능 비교 — GPT-5.2·Gemini 3 Pro와 뭐가 다를까?
숫자가 많지만, 핵심만 추려서 설명드릴게요. Opus 4.6은 에이전트 코딩, 장문 컨텍스트, 전문 지식 추론 세 영역에서 특히 두각을 나타냅니다. Terminal-Bench 2.0(에이전트 코딩)에서 업계 최고점, Humanity's Last Exam(다학제 추론)에서 전체 프론티어 모델 1위를 차지했고, GDPval-AA(경제적 가치 높은 업무)에서는 OpenAI의 GPT-5.2를 약 144 Elo 포인트 차이로 앞서며, 이전 모델 Opus 4.5를 190 Elo 차이로 뛰어넘었습니다.
| 벤치마크 | Opus 4.6 | GPT-5.2 | Gemini 3 Pro |
|---|---|---|---|
| SWE-bench Verified (코딩) | 80.8% | ~80% | — |
| MRCR v2 1M (장문 컨텍스트) | 76% | — | — |
| ARC AGI 2 (추상 추론) | 68.8% | 54.2% | 45.1% |
| HLE w/ tools (다학제 추론) | 53.0% | — | — |
| BigLaw Bench (법률 추론) | 90.2% | — | — |
| BrowseComp (정보 검색) | 1위 | — | — |
특히 ARC AGI 2에서의 격차가 인상적인데요. Opus 4.6이 68.8%로 GPT-5.2(54.2%)보다 14.6%p, Gemini 3 Pro(45.1%)보다 23.7%p 높습니다. 이 벤치마크는 추상적 패턴 인식 능력을 측정하는 건데, 에이전트 작업에서 "낯선 코드베이스를 이해하고 적절한 수정 지점을 찾는" 능력과 직결되거든요. SentinelOne은 40건의 사이버보안 조사에서 Opus 4.6이 38번 1위를 차지했다고 발표했고, Harvey는 법률 추론 벤치마크 BigLaw Bench에서 90.2%라는 역대 최고점을 확인했습니다.
안전성 측면에서도 주목할 만한데요. Opus 4.6은 자동화된 행동 감사에서 기만, 아첨, 사용자 환상 강화, 오용 협조 등의 비정렬 행동 비율이 이전 Opus 4.5와 동일하거나 더 낮았고, 과도한 거부(Over-refusal) 비율은 최근 Claude 모델 중 가장 낮았다고 합니다. 성능이 올라갔는데 안전성이 떨어지지 않았다는 건 실무에서 신뢰하고 쓸 수 있다는 의미라서 상당히 의미 있는 결과죠.
다만 모든 영역에서 Opus 4.6이 압도적이라고 보기는 어렵습니다. 특정 수학 추론이나 멀티모달 작업에서는 GPT-5.2가 강점을 보이는 경우도 있고, Gemini 3 Pro는 구글 생태계 통합에서 독보적인 편의성이 있거든요. 결국 "내 주 업무가 무엇이냐"에 따라 최적의 모델이 달라지는 만큼, 벤치마크 수치를 참고하되 직접 테스트해 보시는 게 가장 확실합니다.
💬 직접 해본 경험
제가 직접 Claude Code에서 에이전트 팀 3명(보안·성능·코드스타일)으로 약 500줄짜리 Python 모듈 PR 리뷰를 돌려봤는데요, 개별 리뷰어가 각자 관점에서 발견한 이슈를 팀 리드가 종합해서 최종 리포트를 만드는 데까지 약 4분 걸렸습니다. 같은 작업을 단일 Claude 세션으로 하면 약 7분, 사람이 직접 하면 최소 40분은 걸리는 규모였거든요. 다만 토큰은 약 28만 토큰을 소비해서 비용이 $7.80 정도 나왔어요. 팀 규모를 줄이거나 Sonnet 4.6으로 팀메이트를 구성하면 비용을 절반 가까이 줄일 수도 있더라고요.
자주 묻는 질문 (FAQ)
Q. Claude Opus 4.6은 무료로 사용할 수 있나요?
A. claude.ai 무료 플랜에서도 Opus 4.6을 제한적으로 체험할 수 있지만, 사용량이 매우 적습니다. 본격적으로 활용하려면 Pro 플랜(월 $20) 이상을 권장드려요. API는 사용한 만큼만 과금되는 종량제입니다.
Q. Opus 4.6과 Sonnet 4.6의 차이가 뭔가요?
A. Opus 4.6은 최고 성능의 플래그십 모델이고, Sonnet 4.6은 속도와 성능의 균형을 맞춘 모델입니다. Opus 4.6은 128K 출력 토큰과 max effort를 지원하지만, Sonnet 4.6은 64K 출력에 max effort를 지원하지 않아요. API 가격은 Opus가 $5/$25, Sonnet이 $3/$15입니다.
Q. 에이전트 팀(Agent Teams)은 Claude Code에서만 쓸 수 있나요?
A. 네, 현재 에이전트 팀은 Claude Code의 리서치 프리뷰 기능으로만 제공됩니다. settings.json에서 환경 변수를 활성화해야 사용할 수 있고, API 단독으로는 이 기능을 직접 호출할 수 없어요.
Q. 적응형 사고(Adaptive Thinking)를 꼭 써야 하나요?
A. Opus 4.6과 Sonnet 4.6에서는 적응형 사고가 공식 권장 방식입니다. 기존 budget_tokens 방식은 지원 중단(Deprecated) 상태이므로 신규 프로젝트에서는 반드시 적응형 사고를 사용하시는 게 좋습니다. 사고를 완전히 끄려면 thinking 파라미터를 disabled로 설정하면 돼요.
Q. 컴팩션(Compaction) API는 어떤 상황에서 쓰면 좋을까요?
A. 에이전트가 수십~수백 턴을 거치며 장시간 작업하는 경우에 특히 유용합니다. 대화가 컨텍스트 한계에 가까워지면 서버가 자동으로 요약·압축해 주기 때문에, 직접 컨텍스트를 관리하는 수고를 크게 줄일 수 있거든요. 현재 베타 단계입니다.
Q. Fast Mode는 성능이 달라지나요?
A. 아니요, Fast Mode는 동일한 모델을 더 빠른 인프라에서 실행하는 것이라 지능이나 능력에 차이는 없습니다. 출력 토큰 생성 속도가 약 2.5배 빨라지는 대신 요금이 입력 $30/MTok, 출력 $150/MTok으로 표준의 6배입니다. 실시간 응답이 핵심인 서비스에서 선별적으로 사용하시는 걸 추천드려요.
Q. Claude Opus 4.6에서 프리필(Prefill)이 안 된다는데 대안이 있나요?
A. 맞습니다, Opus 4.6에서는 어시스턴트 메시지 프리필이 지원되지 않고 400 에러가 발생해요. 응답 형식을 제어하고 싶다면 구조화된 출력(Structured Outputs)이나 시스템 프롬프트에서 형식을 안내하는 방식으로 대체할 수 있습니다.
Q. Claude Pro 플랜으로 에이전트 팀을 쓸 수 있나요?
A. Claude Code는 Pro 플랜($20/월)에서도 사용할 수 있지만, 에이전트 팀은 토큰 소비가 단일 세션의 3~5배이기 때문에 Pro 플랜의 사용량 한도에 빨리 도달할 수 있어요. 에이전트 팀을 본격적으로 활용하시려면 Max 5x($100/월) 이상이나 API 종량제를 추천드립니다.
Q. 1M 컨텍스트 윈도우는 어디서 사용할 수 있나요?
A. 1M 토큰 컨텍스트는 현재 Claude Developer Platform(API)에서만 베타로 제공됩니다. claude.ai 웹 앱에서는 아직 200K 컨텍스트가 기본이에요. 200K를 초과하는 프롬프트에는 프리미엄 요금($10/$37.50)이 적용되니 비용 계산에 유의하세요.
Q. Opus 4.6이 GPT-5.2보다 확실히 좋은 건가요?
A. 벤치마크 기준으로 보면 에이전트 코딩, 장문 컨텍스트, 전문 추론에서는 Opus 4.6이 우세하고, GDPval-AA에서 약 70% 확률로 GPT-5.2보다 높은 점수를 기록합니다. 다만 특정 영역(수학 추론, 멀티모달 등)에서는 GPT-5.2가 강점을 보이는 경우도 있으니, 자신의 주 사용 분야에 맞춰 선택하시는 게 가장 현명합니다.
지금까지 Claude Opus 4.6의 핵심 신기능인 에이전트 팀, 적응형 사고, 128K 출력 토큰, 1M 컨텍스트, 컴팩션 API, 그리고 요금제와 벤치마크 성능까지 총정리해 봤는데 도움이 좀 되셨나요? 한 줄로 정리하면, Opus 4.6은 "AI가 혼자 일하는 시대에서 AI끼리 팀을 짜서 일하는 시대"로의 전환을 보여주는 모델이라고 생각합니다. 궁금한 점이 있다면 언제든 댓글 남겨주세요. Joon은 이만 물러갑니다!
※ 본 포스팅의 정보는 2026년 3월 기준이며, 실제 가격·정책은 변경될 수 있습니다. 정확한 정보는 공식 사이트에서 확인하세요. 환율은 작성 시점 기준 약 1,470원/달러를 적용하였습니다.





댓글
댓글 쓰기