Qwen3가 새로 나왔습니다.

요즘 또 LLM이나 자동화쪽에 관심을 가지고있는데 Qwen3가 새로 나왔네요. (좀 되긴했네요 ㅋㅋ)

은근 한국어 실력이 좋다고해서 또 테스트해보려고합니다.

 

Qwen3: Think Deeper, Act Faster QWEN CHAT GitHub Hugging Face ModelScope Kaggle DEMO DISCORD Introduction Today, we are excited to announce the release of Qwen3, the latest addition to the Qwen family of large language models. Our flagship model, Qwen3-235B-A22B, achieves competitive results in benchmark evaluations of coding, math, general capabilities, etc., when compared to other top-tier models such as DeepSeek-R1, o1, o3-mini, Grok-3, and Gemini-2.5-Pro. Additionally, the small MoE model, Qwen3-30B-A3B, outcompetes QwQ-32B with 10 times of activated parameters, and even a tiny model like Qwen3-4B can rival the performance of Qwen2. by Qwen Team from QWEN

 

🔍 주요 특징 요약

1. 모델 구성 및 성능

  • 모델 종류: Qwen3는 총 8개의 모델을 공개했습니다.
    • MoE(Mixture-of-Experts) 모델: Qwen3-235B-A22B(2350억 매개변수 중 220억 활성화), Qwen3-30B-A3B(300억 매개변수 중 30억 활성화)
    • Dense 모델: Qwen3-32B, 14B, 8B, 4B, 1.7B, 0.6B
  • 성능: 주요 벤치마크에서 DeepSeek-R1, o1, Grok-3, Gemini-2.5-Pro 등과 경쟁하며, Qwen3-4B 모델은 이전 세대인 Qwen2.5-72B-Instruct와 유사한 성능을 보입니다 .datacamp.com+6qwenlm.github.io+6reddit.com+6

2. 하이브리드 추론 모드

  • Thinking Mode: 복잡한 문제에 대해 단계별로 깊이 있는 추론을 수행합니다.
  • Non-Thinking Mode: 단순한 질문에 대해 빠르고 간결한 응답을 제공합니다.
  • Thinking Budget: 사용자가 작업의 복잡도에 따라 연산 자원을 조절하여 성능과 지연 시간 간의 균형을 맞출 수 있도록 지원합니다 .arxiv.org

3. 다국어 지원

  • 지원 언어: 119개의 언어와 방언을 지원하여 글로벌 사용자들이 다양한 언어로 모델을 활용할 수 있습니다 .arxiv.org+1en.wikipedia.org+1

4. 오픈소스 및 배포

  • 라이선스: 모든 모델은 Apache 2.0 라이선스로 공개되어 자유롭게 사용 및 수정이 가능합니다.
  • 배포 플랫폼: Hugging Face, ModelScope, Kaggle 등에서 모델을 다운로드할 수 있으며, SGLang, vLLM, Ollama, LMStudio, MLX, llama.cpp, KTransformers 등을 통해 로컬 또는 클라우드 환경에서 쉽게 배포할 수 있습니다 .arxiv.org+3qwen3.org+3en.wikipedia.org+3qwen3.org+3blog.csdn.net+3en.wikipedia.org+3

📌 요약

Qwen3는 고성능과 효율성을 동시에 추구하는 대형 언어 모델로, 다양한 규모의 모델을 통해 다양한 환경에서 활용할 수 있습니다. 하이브리드 추론 모드와 다국어 지원을 통해 복잡한 문제 해결부터 빠른 응답까지 폭넓은 작업에 대응하며, 오픈소스로 공개되어 연구 및 개발에 자유롭게 활용할 수 있습니다.github.com

자세한 내용은 공식 블로그에서 확인하실 수 있습니다: Qwen3 공식 블로그