개요
Clova Studio GOV는 다양한 목적에 맞는 언어 모델을 제공합니다. 각 언어 모델은 용도에 맞게 선택할 수 있습니다.언어 모델 비교표
| 언어 모델 | Model ID | 유형 | 멀티모달 | 추론(Reasoning) | 컨텍스트 길이 |
|---|---|---|---|---|---|
| HCX-GOV | HCX-GOV | 범용 | — | 기본 비활성화 | 131,072 tokens |
| LLM42 (Gemma 3) | LLM42 | 범용 | 이미지 | — | 131,072 tokens |
| LLM42-Translate | LLM42-Translate | 번역 전용 | — | — | 131,072 tokens |
| HCX-GOV-THINK | HCX-GOV-THINK | 추론형 | — | 기본 활성화 | 131,072 tokens |
| HCX-GOV-THINK-V1-32B | HCX-GOV-THINK-V1-32B | 추론형 | — | thinking: true 설정 시 | 131,072 tokens |
| openai/gpt-oss-120b | openai/gpt-oss-120b | 추론형 | — | reasoning_effort 조절 | 131,072 tokens |
| K-Exaone-236B | K-Exaone-236B | 추론형 | — | 기본 활성화 | 262,144 tokens |
| gemma-4-31B-it | LLM42-Gemma4 | 추론형 | 이미지/비디오 | enable_thinking 설정 시 | 131,072 tokens |
HCX-GOV-THINK
추론형 언어 모델
텍스트 모델로, 깊게 사고하며 대답을 하는 추론형(Reasoning) 언어 모델입니다. 기본적으로 추론이 활성화되어 있으며,
skip_reasoning으로 비활성화할 수 있습니다.- Model ID:
HCX-GOV-THINK - 컨텍스트 길이: 131,072 tokens
- 유형: 추론형 (Reasoning)
- 주요 특징: 기본 추론 활성화,
force_reasoning/skip_reasoning지원
HCX-GOV
범용 언어 모델
HCX-007 기반 모델로, 빠른 응답이 필요한 일반 대화 및 텍스트 생성 작업에 최적화되어 있습니다. 기본적으로 추론이 비활성화되어 있으며, 필요한 경우
force_reasoning으로 활성화할 수 있습니다.- Model ID:
HCX-GOV - 컨텍스트 길이: 131,072 tokens
- 유형: 범용 (General)
- 주요 특징: 빠른 응답,
force_reasoning/skip_reasoning지원
LLM42 (Gemma 3)
범용 다국어 언어 모델
멀티모달 모델이며, 140개 언어를 지원하는 범용 언어 모델입니다. 추가적인
chat_template_kwargs 없이 바로 사용할 수 있습니다.- Model ID:
LLM42 - 컨텍스트 길이: 131,072 tokens
- 유형: 범용 (General-Purpose)
- 주요 특징: 다국어 지원 (140개 언어), 이미지 입력 지원, 추가 파라미터 불필요
HCX-GOV-THINK-V1-32B
고성능 추론형 언어 모델
HyperCLOVAX SEED Think 32B 기반 텍스트 추론 모델입니다.
thinking: true 설정 시 깊이 있는 추론을 수행합니다.- Model ID:
HCX-GOV-THINK-V1-32B - 컨텍스트 길이: 131,072 tokens
- 유형: 추론형 (Reasoning)
- 주요 특징:
thinking: true파라미터로 추론 활성화
LLM42-Translate
전문 번역 언어 모델
TranslateGemma 기반 전문 번역 모델입니다. 100개 이상의 언어(ISO 639) 간 번역을 지원하며,
source_lang_code와 target_lang_code 파라미터가 필수입니다.- Model ID:
LLM42-Translate - 컨텍스트 길이: 131,072 tokens
- 유형: 번역 전용 (Translation)
- 주요 특징: 100개 이상 언어 지원,
source_lang_code/target_lang_code필수, 시스템 메시지 미지원
openai/gpt-oss-120b
대규모 범용 언어 모델
대규모 파라미터 기반 범용 고성능 모델입니다.
reasoning_effort 파라미터로 추론 강도를 low / medium / high 중 선택하여 응답 품질과 속도를 조절할 수 있습니다.- Model ID:
openai/gpt-oss-120b - 컨텍스트 길이: 131,072 tokens
- 유형: 추론형 (Reasoning)
- 주요 특징:
reasoning_effort조절 (low/medium/high), 대규모 고성능 모델
K-Exaone-236B
한국어 중심 대규모 MoE 언어 모델
K-EXAONE-236B-A23B 계열 기반 모델입니다. MoE(Mixture-of-Experts) 구조를 사용하며,
chat_template_kwargs.enable_thinking으로 추론 모드를 제어할 수 있습니다.- Model ID:
K-Exaone-236B - 컨텍스트 길이: 262,144 tokens
- 유형: 추론형 (Reasoning)
- 주요 특징: 한국어 중심 고성능 추론,
enable_thinking기반 추론 모드 제어
gemma-4-31B-it
Gemma 4 계열 범용 언어 모델
Gemma 4 31B Instruct 기반 모델입니다. 이미지/비디오 입력을 지원하며,
enable_thinking으로 선택적으로 추론을 활성화할 수 있습니다.- Model ID:
LLM42-Gemma4 - 컨텍스트 길이: 131,072 tokens
- 유형: 범용 추론형 (Reasoning)
- 주요 특징: 멀티모달 입력(이미지/비디오),
enable_thinking제어, 함수 호출 지원