개요
Clova Studio GOV는 다양한 목적과 사용 사례에 맞는 언어 모델을 제공합니다. 각 언어 모델은 특정 작업에 최적화되어 있어 용도에 맞게 선택할 수 있습니다.언어 모델 비교표
| 언어 모델 | Model ID | 유형 | 멀티모달 | 추론(Reasoning) | 컨텍스트 길이 |
|---|---|---|---|---|---|
| HCX-GOV-THINK | HCX-GOV-THINK | 추론형 | — | 기본 활성화 | 128K tokens |
| HCX-GOV | HCX-GOV | 범용 | — | 기본 비활성화 | 128K tokens |
| HCX-GOV-VLM | HCX-GOV-VLM | 멀티모달 | 이미지 | 선택 가능 | 128K tokens |
| LLM42 (Gemma 3) | LLM42 | 범용 다국어 | 이미지 | — | 128K tokens |
| HCX-GOV-THINK-V1-32B | HCX-GOV-THINK-V1-32B | 추론형 | — | thinking: true 설정 시 | 128K tokens |
| LLM42-Translate | LLM42-Translate | 번역 전용 | — | — | 2K tokens |
| openai/gpt-oss-120b | openai/gpt-oss-120b | 대규모 범용 | — | reasoning_effort 조절 | 128K tokens |
HCX-GOV-THINK
추론형 언어 모델
텍스트 모델로, 깊게 사고하며 대답을 하는 추론형(Reasoning) 언어 모델입니다. 기본적으로 추론이 활성화되어 있으며,
skip_reasoning으로 비활성화할 수 있습니다.- Model ID:
HCX-GOV-THINK - 컨텍스트 길이: 128K tokens
- 유형: 추론형 (Reasoning)
- 주요 특징: 기본 추론 활성화,
force_reasoning/skip_reasoning지원
HCX-GOV
범용 언어 모델
HCX-007 기반 모델로, 빠른 응답이 필요한 일반 대화 및 텍스트 생성 작업에 최적화되어 있습니다. 기본적으로 추론이 비활성화되어 있으며, 필요한 경우
force_reasoning으로 활성화할 수 있습니다.- Model ID:
HCX-GOV - 컨텍스트 길이: 128K tokens
- 유형: 범용 (General)
- 주요 특징: 빠른 응답,
force_reasoning/skip_reasoning지원
HCX-GOV-VLM
멀티모달 언어 모델 (Vision Language Model)
비전 모델로, 이미지를 업로드하면 그에 대한 해석을 해주는 멀티모달 언어 모델입니다.
force_reasoning으로 이미지 분석 시 더 깊은 추론을 수행할 수 있습니다.- Model ID:
HCX-GOV-VLM - 컨텍스트 길이: 128K tokens
- 유형: 멀티모달 (Vision Language Model)
- 주요 특징: 이미지 분석, 시각적 질의응답,
force_reasoning/skip_reasoning지원
LLM42 (Gemma 3)
범용 다국어 언어 모델
멀티모달 모델이며, 140개 언어를 지원하는 범용 언어 모델입니다. 추가적인
chat_template_kwargs 없이 바로 사용할 수 있습니다.- Model ID:
LLM42 - 컨텍스트 길이: 128K tokens
- 유형: 범용 (General-Purpose)
- 주요 특징: 다국어 지원 (140개 언어), 이미지 입력 지원, 추가 파라미터 불필요
HCX-GOV-THINK-V1-32B
고성능 추론형 언어 모델
HyperCLOVAX SEED Think 32B 기반 텍스트 추론 모델입니다.
thinking: true 설정 시 깊이 있는 추론을 수행합니다.- Model ID:
HCX-GOV-THINK-V1-32B - 컨텍스트 길이: 128K tokens
- 유형: 추론형 (Reasoning)
- 주요 특징:
thinking: true파라미터로 추론 활성화
LLM42-Translate
전문 번역 언어 모델
TranslateGemma 기반 전문 번역 모델입니다. 100개 이상의 언어(ISO 639) 간 번역을 지원하며,
source_lang_code와 target_lang_code 파라미터가 필수입니다.- Model ID:
LLM42-Translate - 컨텍스트 길이: 2K tokens
- 유형: 번역 전용 (Translation)
- 주요 특징: 100개 이상 언어 지원,
source_lang_code/target_lang_code필수, 시스템 메시지 미지원
openai/gpt-oss-120b
대규모 범용 언어 모델
대규모 파라미터 기반 범용 고성능 모델입니다.
reasoning_effort 파라미터로 추론 강도를 low / medium / high 중 선택하여 응답 품질과 속도를 조절할 수 있습니다.- Model ID:
openai/gpt-oss-120b - 컨텍스트 길이: 128K tokens
- 유형: 대규모 범용 (Large General-Purpose)
- 주요 특징:
reasoning_effort조절 (low/medium/high), 대규모 고성능 모델