Qwen3.6-27B 공개: 차세대 AI 코딩 에이전트, 개발 생산성을 혁신하다
2026년 2월, Qwen3.5 시리즈의 성공적인 출시에 이어, Qwen 팀이 드디어 Qwen3.6의 첫 번째 오픈 웨이트 버전을 공개했습니다. 이번 릴리스는 커뮤니티의 직접적인 피드백을 적극 반영하여 개발되었으며, 안정성과 실제 활용성을 최우선으로 하여 개발자들에게 더욱 직관적이고 반응성 높은 코딩 경험을 제공하는 데 중점을 두었습니다.
Qwen3.6은 단순히 기존 모델의 성능을 개선하는 것을 넘어, AI 에이전트의 코딩 능력과 추론 맥락 보존 능력에서 괄목할 만한 발전을 이루어냈습니다. Hugging Face Transformers, vLLM, SGLang, KTransformers 등 다양한 프레임워크와의 호환성을 자랑하며, 개발 워크플로우를 혁신할 잠재력을 지니고 있습니다. 본 포스팅에서는 Qwen3.6의 주요 기능, 기술 사양, 벤치마크 결과, 그리고 실제 활용 방법에 대해 심층적으로 알아보겠습니다.
Qwen3.6의 혁신적인 주요 기능
이번 Qwen3.6 릴리스는 특히 다음 두 가지 핵심 영역에서 상당한 업그레이드를 이루었습니다.
- 에이전트 코딩 능력 강화: 이제 Qwen3.6 모델은 프런트엔드 워크플로우 처리 및 저장소 수준의 추론에서 더욱 유창하고 정확한 성능을 보여줍니다. 복잡한 개발 작업을 AI 에이전트가 직접 처리할 수 있는 가능성을 제시합니다.
- 사고 내용 보존 기능 도입: 과거 메시지에서 추론 맥락을 유지하는 새로운 옵션이 추가되었습니다. 이는 반복적인 개발 과정을 간소화하고, 불필요한 오버헤드를 줄여 개발 생산성을 크게 향상시킵니다. 에이전트 시나리오에서 의사 결정의 일관성을 높이고 토큰 소비량을 최적화하는 데 기여합니다.
Qwen3.6 모델 개요: 핵심 기술 사양
Qwen3.6-27B는 비전 인코더를 사용하는 인과적 언어 모델(Causal Language Model)로, 훈련 전(Pre-trained) 및 훈련 후(Fine-tuned) 단계를 거쳐 개발되었습니다. 상세한 기술 사양은 다음과 같습니다.
| 구분 | 내용 | 비고 |
|---|---|---|
| 모델 유형 | 비전 인코더를 사용한 인과적 언어 모델 | 멀티모달 지원 |
| 훈련 단계 | 훈련 전 및 훈련 후 | |
| 매개변수 개수 | 27B (270억 개) | |
| 숨겨진 차원 (Hidden Dimension) | 5120 | |
| 토큰 삽입 (Token Embedding) | 248320 (패딩됨) | |
| 레이어 수 | 64 | |
| 컨텍스트 길이 | 기본 262,144 토큰 (최대 1,010,000 토큰 확장 가능) | 장문 텍스트 처리 강점 |
| MTP (Multi-Token Prediction) | 다단계 학습 지원 |
Qwen3.6의 262,144 토큰이라는 기본 컨텍스트 길이는 현존하는 대규모 언어 모델 중에서도 독보적인 수준입니다. 이는 복잡하고 긴 코드베이스나 방대한 문서 처리 시 모델의 이해도를 극대화할 수 있음을 의미합니다.
압도적인 성능: Qwen3.6 벤치마크 결과 분석
Qwen3.6은 다양한 벤치마크 테스트에서 뛰어난 성능을 입증했습니다. 특히 코딩 에이전트 및 지식 추론 영역에서 이전 모델과 경쟁 모델들을 능가하는 모습을 보였습니다. 아래 표는 주요 언어 관련 벤치마크 결과입니다.
| 벤치마크 | Qwen3.5-27B | Qwen3.5-397B-A17B | Gemma4-31B | Claude 4.5 Opus | Qwen3.6-35B-A3B | Qwen3.6-27B |
|---|---|---|---|---|---|---|
| 코딩 에이전트 | ||||||
| SWE-bench 검증 완료 | 75.0 | 76.2 | 52.0 | 80.9 | 73.4 | 77.2 |
| SWE-벤치 프로 | 51.2 | 50.9 | 35.7 | 57.1 | 49.5 | 53.5 |
| SWE-bench 다국어 | 69.3 | 69.3 | 51.7 | 77.5 | 67.2 | 71.3 |
| 터미널벤치 2.0 | 41.6 | 52.5 | 42.9 | 59.3 | 51.5 | 59.3 |
| SkillsBench 평균5 | 27.2 | 30.0 | 23.6 | 45.3 | 28.7 | 48.2 |
| QwenWebBench | 1068 | 1186 | 1197 | 1536 | 1397 | 1487 |
| NL2Repo | 27.3 | 32.2 | 15.5 | 43.2 | 29.4 | 36.2 |
| 클로 평가 평균 | 64.3 | 70.7 | 48.5 | 76.6 | 68.7 | 72.4 |
| 클로 평가 패스^3 | 46.2 | 48.1 | 25.0 | 59.6 | 50.0 | 60.6 |
| QwenClawBench | 52.2 | 51.8 | 41.7 | 52.3 | 52.6 | 53.4 |
| 지식 | ||||||
| MMLU-Pro | 86.1 | 87.8 | 85.2 | 89.5 | 85.2 | 86.2 |
| MMLU-리덕스 | 93.2 | 94.9 | 93.7 | 95.6 | 93.3 | 93.5 |
| 슈퍼GPQA | 65.6 | 70.4 | 65.7 | 70.6 | 64.7 | 66.0 |
| C-Eval | 90.5 | 93.0 | 82.6 | 92.2 | 90.0 | 91.4 |
| STEM 및 추론 | ||||||
| GPQA 다이아몬드 | 85.5 | 88.4 | 84.3 | 87.0 | 86.0 | 87.8 |
| HLE | 24.3 | 28.7 | 19.5 | 30.8 | 21.4 | 24.0 |
| LiveCodeBench v6 | 80.7 | 83.6 | 80.0 | 84.8 | 80.4 | 83.9 |
| HMMT 2월 25일 | 92.0 | 94.8 | 88.7 | 92.9 | 90.7 | 93.8 |
| HMMT 11월 25일 | 89.8 | 92.7 | 87.5 | 93.3 | 89.1 | 90.7 |
| HMMT 2월 26일 | 84.3 | 87.9 | 77.2 | 85.3 | 83.6 | 84.3 |
| IMOAnswerBench | 79.9 | 80.9 | 74.5 | 84.0 | 78.9 | 80.8 |
| AIME26 | 92.6 | 93.3 | 89.2 | 95.1 | 92.7 | 94.1 |
특히 SWE-bench 시리즈와 SkillsBench, QwenWebBench 등 코딩 에이전트 관련 벤치마크에서 Qwen3.6-27B는 뛰어난 성과를 보여, 개발자의 코딩 경험을 혁신할 잠재력을 다시 한번 입증했습니다. 이는 Qwen3.6이 단순한 언어 모델을 넘어 실제 개발 환경에서 강력한 AI 조력자가 될 수 있음을 시사합니다.
Qwen3.6의 비전 언어 모델 성능
Qwen3.6은 텍스트뿐만 아니라 이미지, 비디오와 같은 멀티모달 데이터 처리에서도 우수한 능력을 발휘합니다. 다음은 비전 언어 관련 벤치마크 결과입니다.
| 벤치마크 | Qwen3.5-27B | Qwen3.5-397B-A17B | Gemma4-31B | Claude 4.5 Opus | Qwen3.6-35B-A3B | Qwen3.6-27B |
|---|---|---|---|---|---|---|
| STEM 및 퍼즐 | ||||||
| MMMU | 82.3 | 85.0 | 80.4 | 80.7 | 81.7 | 82.9 |
| MMMU-Pro | 75.0 | 79.0 | 76.9 | 70.6 | 75.3 | 75.8 |
| 매스 비스타 미니 | 87.8 | -- | 79.3 | -- | 86.4 | 87.4 |
| 다이나매스 | 87.7 | 86.3 | 79.5 | 79.7 | 82.8 | 85.6 |
| VlmsAreBlind | 96.9 | -- | 87.2 | -- | 96.6 | 97.0 |
| 일반 VQA | ||||||
| RealWorldQA | 83.7 | 83.9 | 72.3 | 77.0 | 85.3 | 84.1 |
| MMStar | 81.0 | 83.8 | 77.3 | 73.2 | 80.7 | 81.4 |
| MMBench EN-DEV-v1.1 | 92.6 | -- | 90.9 | -- | 92.8 | 92.3 |
| 심플VQA | 56.0 | 67.1 | 52.9 | 65.7 | 58.9 | 56.1 |
| 문서 이해 | ||||||
| CharXiv RQ | 79.5 | 80.8 | 67.9 | 68.5 | 78.0 | 78.4 |
| CC-OCR | 81.0 | 82.0 | 75.7 | 76.9 | 81.9 | 81.2 |
| OCRBench | 89.4 | -- | 86.1 | -- | 90.0 | 89.4 |
| 공간 지능 | ||||||
| ERQA | 60.5 | 67.5 | 57.5 | 46.8 | 61.8 | 62.5 |
| 카운트벤치 | 97.8 | 97.2 | 96.1 | 90.6 | 96.1 | 97.8 |
| RefCOCO 평균 | 90.9 | 92.3 | -- | -- | 92.0 | 92.5 |
| 엠브스페이셜벤치 | 84.5 | -- | -- | -- | 84.3 | 84.6 |
| RefSpatialBench | 67.7 | -- | 4.7 | -- | 64.3 | 70.0 |
| 동영상 이해하기 | ||||||
| VideoMME (자막 포함) | 87.0 | 87.5 | -- | 77.7 | 86.6 | 87.7 |
| 비디오MMMU | 82.3 | 84.7 | 81.6 | 84.4 | 83.7 | 84.4 |
| MLVU | 85.9 | 86.7 | -- | 81.7 | 86.2 | 86.6 |
| MV벤치 | 74.6 | 77.6 | -- | 67.2 | 74.6 | 75.5 |
| 비주얼 에이전트 | ||||||
| 다섯* | 93.7 | 95.8 | -- | 67.0 | 90.1 | 94.7 |
| 안드로이드월드 | 64.2 | -- | -- | -- | -- | 70.3 |
Qwen3.6은 비전 언어 벤치마크에서도 강력한 모습을 보이며, MMMU, VlmsAreBlind, RealWorldQA, VideoMME 등 다양한 멀티모달 태스크에서 선두 그룹에 위치했습니다. 이는 Qwen3.6이 텍스트뿐만 아니라 이미지와 비디오를 포함한 복합적인 정보를 효과적으로 이해하고 처리할 수 있음을 의미합니다.
Qwen3.6 빠른 시작: API 통합 및 추론 프레임워크 활용
Qwen3.6을 가장 원활하게 활용하는 방법은 API를 통한 통합입니다. Hugging Face Transformers 형식의 모델 가중치 및 구성 파일이 제공되므로, vLLM, SGLang, KTransformers 등 널리 사용되는 추론 프레임워크와 호환됩니다. 최적의 성능을 위해 최신 프레임워크 버전을 사용하는 것을 권장합니다.
주요 추론 프레임워크 활용 가이드
Qwen3.6은 다양한 추론 프레임워크를 통해 OpenAI 호환 API 서버를 실행할 수 있습니다. 각 프레임워크별 설치 및 실행 예시는 다음과 같습니다.
1. SGLang을 통한 Qwen3.6 서빙
SGLang은 대규모 언어 모델 및 비전 언어 모델을 위한 고속 서비스 제공 프레임워크입니다. sglang>=0.5.10 버전 사용을 권장합니다.
아래 명령어를 사용하여 SGLang을 설치합니다.
uv pip install sglang[all]
다음은 표준 버전의 API 엔드포인트를 생성하는 명령어입니다. 8개의 GPU에서 텐서 병렬 처리를 통해 최대 262,144 토큰의 컨텍스트 길이를 지원합니다.
python -m sglang.launch_server --model-path Qwen/Qwen3.6-27B --port 8000 --tp-size 8 --mem-fraction-static 0.8 --context-length 262144 --reasoning-parser qwen3
도구 사용을 지원하려면 다음 명령어를 활용하세요.
python -m sglang.launch_server --model-path Qwen/Qwen3.6-27B --port 8000 --tp-size 8 --mem-fraction-static 0.8 --context-length 262144 --reasoning-parser qwen3 --tool-call-parser qwen3_coder
2. vLLM을 통한 Qwen3.6 서빙
vLLM은 LLM을 위한 고처리량 및 메모리 효율적인 추론 및 서빙 엔진입니다. vllm>=0.19.0 버전 사용을 권장합니다.
아래 명령어로 vLLM을 설치합니다.
uv pip install vllm --torch-backend=auto
표준 버전 API 엔드포인트 생성 예시입니다.
vllm serve Qwen/Qwen3.6-27B --port 8000 --tensor-parallel-size 8 --max-model-len 262144 --reasoning-parser qwen3
도구 호출 기능을 활성화하려면 다음 명령어를 사용합니다.
vllm serve Qwen/Qwen3.6-27B --port 8000 --tensor-parallel-size 8 --max-model-len 262144 --reasoning-parser qwen3 --enable-auto-tool-choice --tool-call-parser qwen3_coder
3. Hugging Face Transformers를 통한 Qwen3.6 서빙
Hugging Face Transformers는 빠른 테스트 및 적당한 부하 배포에 적합한 경량 서버를 제공합니다. 최신 버전 설치가 필수적입니다.
다음 명령어로 트랜스포머 라이브러리를 설치합니다.
pip install "transformers[serving]"
서버 실행 명령어입니다.
transformers serve Qwen/Qwen3.6-27B --port 8000 --continuous-batching
OpenAI 호환 채팅 자동 완성 API를 통한 Qwen3.6 사용
Qwen3.6은 OpenAI Python SDK를 통해 쉽게 접근할 수 있습니다. 먼저 openai 라이브러리를 설치하고 환경 변수를 설정합니다.
pip install -U openai
export OPENAI_BASE_URL="http://localhost:8000/v1"
export OPENAI_API_KEY="EMPTY"
샘플링 매개변수 권장 설정
작업 유형에 따라 다음과 같은 샘플링 매개변수 사용을 권장합니다.
| 모드/작업 유형 | temperature | top_p | top_k | min_p | presence_penalty | repetition_penalty |
|---|---|---|---|---|---|---|
| 일반적인 작업을 위한 사고 모드 | 1.0 | 0.95 | 20 | 0.0 | 0.0 | 1.0 |
| 정확한 코딩 작업(예: 웹 개발)을 위한 사고 모드 | 0.6 | 0.95 | 20 | 0.0 | 0.0 | 1.0 |
| 지시 모드 (비사고 모드) | 0.7 | 0.80 | 20 | 0.0 | 1.5 | 1.0 |
텍스트 전용 입력 예시
다음 파이썬 코드는 텍스트 입력을 처리하는 방법을 보여줍니다.
from openai import OpenAI
# Configured by environment variables
client = OpenAI()
messages = [
{"role": "user", "content": "Type \"I love Qwen3.6\" backwards"},
]
chat_response = client.chat.completions.create(
model="Qwen/Qwen3.6-27B",
messages=messages,
max_tokens=81920,
temperature=1.0,
top_p=0.95,
presence_penalty=0.0,
extra_body={
"top_k": 20,
},
)
print("Chat response:", chat_response)
이미지 입력 예시
Qwen3.6은 비전 인코더를 통해 이미지 입력을 처리할 수 있습니다.
from openai import OpenAI
# Configured by environment variables
client = OpenAI()
messages = [
{
"role": "user",
"content": [
{
"type": "image_url",
"image_url": {
"url": "https://qianwen-res.oss-accelerate.aliyuncs.com/Qwen3.5/demo/CI_Demo/mathv-1327.jpg"
}
},
{
"type": "text",
"text": "The centres of the four illustrated circles are in the corners of the square. The two big circles touch each other and also the two little circles. With which factor do you have to multiply the radii of the little circles to obtain the radius of the big circles?\nChoices:\n(A) $\\frac{2}{9}$\n(B) $\\sqrt{5}$\n(C) $0.8 \\cdot \\pi$\n(D) 2.5\n(E) $1+\\sqrt{2}$"
}
]
}
]
chat_response = client.chat.completions.create(
model="Qwen/Qwen3.6-27B",
messages=messages,
max_tokens=81920,
temperature=1.0,
top_p=0.95,
presence_penalty=0.0,
extra_body={
"top_k": 20,
},
)
print("Chat response:", chat_response)
비디오 입력 예시
동영상 콘텐츠에 대한 이해와 추론도 가능합니다. vLLM에서 --media-io-kwargs '{"video": {"num_frames": -1}}' 옵션으로 실행 시 fps 설정을 통해 프레임 샘플링을 조절할 수 있습니다.
from openai import OpenAI
# Configured by environment variables
client = OpenAI()
messages = [
{
"role": "user",
"content": [
{
"type": "video_url",
"video_url": {
"url": "https://qianwen-res.oss-accelerate.aliyuncs.com/Qwen3.5/demo/video/N1cdUjctpG8.mp4"
}
},
{
"type": "text",
"text": "How many porcelain jars were discovered in the niches located in the primary chamber of the tomb?"
}
]
}
]
chat_response = client.chat.completions.create(
model="Qwen/Qwen3.6-27B",
messages=messages,
max_tokens=81920,
temperature=1.0,
top_p=0.95,
presence_penalty=0.0,
extra_body={
"top_k": 20,
"mm_processor_kwargs": {"fps": 2, "do_sample_frames": True},
},
)
print("Chat response:", chat_response)
지시 모드 (비사고 모드) 및 사고 보존 기능
Qwen3.6은 기본적으로 사고 모드로 작동하여 최종 응답 전에 사고 과정을 표시합니다. 사고 과정 없이 직접 응답을 얻으려면 enable_thinking: False 옵션을 사용하고, 과거 메시지의 사고 과정을 보존하려면 preserve_thinking: True 옵션을 설정할 수 있습니다.
아래는 지시 모드 활성화 예시입니다.
from openai import OpenAI
# Configured by environment variables
client = OpenAI()
messages = [
{
"role": "user",
"content": [
{
"type": "image_url",
"image_url": {
"url": "https://qianwen-res.oss-accelerate.aliyuncs.com/Qwen3.6/demo/RealWorld/RealWorld-04.png"
}
},
{
"type": "text",
"text": "Where is this?"
}
]
}
]
chat_response = client.chat.completions.create(
model="Qwen/Qwen3.6-27B",
messages=messages,
max_tokens=32768,
temperature=0.7,
top_p=0.8,
presence_penalty=1.5,
extra_body={
"top_k": 20,
"chat_template_kwargs": {"enable_thinking": False},
},
)
print("Chat response:", chat_response)
사고 보존 기능 활성화 예시입니다. 이는 특히 에이전트 시나리오에서 의사 결정 일관성을 향상시키고 토큰 소비를 줄이는 데 유용합니다.
from openai import OpenAI
# Configured by environment variables
client = OpenAI()
messages = [...] # Your messages here
chat_response = client.chat.completions.create(
model="Qwen/Qwen3.6-27B",
messages=messages,
max_tokens=32768,
temperature=0.6,
top_p=0.95,
presence_penalty=0.0,
extra_body={
"top_k": 20,
"chat_template_kwargs": {"preserve_thinking": True},
},
)
print("Chat response:", chat_response)
Qwen3.6과 함께하는 AI 에이전트 개발
Qwen3.6은 탁월한 도구 호출 기능을 기반으로 강력한 AI 에이전트 애플리케이션 구축을 지원합니다.
Qwen-Agent 활용
Qwen-Agent는 Qwen 3.6을 사용하여 에이전트 애플리케이션을 빠르게 구축할 수 있도록 돕는 프레임워크입니다. MCP 구성 파일을 사용하거나 Qwen-Agent에 통합된 도구를 활용하여 필요한 도구를 정의할 수 있습니다.
다음은 Qwen-Agent를 사용하는 예시 코드입니다.
import os
from qwen_agent.agents import Assistant
# Define LLM
# Using OpenAI-compatible API endpoint.
llm_cfg = {
# Use your own model service compatible with OpenAI API by vLLM/SGLang:
'model': 'Qwen/Qwen3.6-27B',
'model_type': 'qwenvl_oai',
'model_server': 'http://localhost:8000/v1', # api_base
'api_key': 'EMPTY',
'generate_cfg': {
'use_raw_api': True,
# When using vLLM/SGLang OAI API, pass the parameter of whether to enable thinking mode in this way
'extra_body': {
'chat_template_kwargs': {'enable_thinking': True, 'preserve_thinking': True}
},
},
}
# Define Tools
tools = [
{'mcpServers': { # You can specify the MCP configuration file
"filesystem": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-filesystem", "/Users/xxxx/Desktop"]
}
}
}
]
# Define Agent
bot = Assistant(llm=llm_cfg, function_list=tools)
# Streaming generation
messages = [{'role': 'user', 'content': 'Help me organize my desktop.'}]
for responses in bot.run(messages=messages):
pass
print(responses)
# Streaming generation
messages = [{'role': 'user', 'content': 'Develop a dog website and save it on the desktop'}]
for responses in bot.run(messages=messages):
pass
print(responses)
초장문 텍스트 처리: YaRN을 통한 컨텍스트 확장
Qwen3.6은 기본적으로 262,144 토큰이라는 방대한 컨텍스트 길이를 지원하지만, 더욱 긴 텍스트를 효율적으로 처리해야 하는 경우 YaRN(Yet another RoPE extension)과 같은 RoPE 확장 기술을 활용할 수 있습니다. YaRN은 transformers, vllm, sglang, ktransformers 등 여러 추론 프레임워크에서 지원됩니다.
YaRN 활성화 방법
YaRN을 활성화하는 두 가지 주요 접근 방식이 있습니다.
- 모델 구성 파일 수정:
config.json파일의rope_parameters필드를 수정합니다. - 명령줄 인수 전달: 프레임워크 실행 시 명령줄 인수로 YaRN 설정을 전달합니다.
vLLM의 경우, 다음 명령어를 사용할 수 있습니다.
VLLM_ALLOW_LONG_MAX_MODEL_LEN=1 vllm serve ... --hf-overrides '{"text_config": {"rope_parameters": {"mrope_interleaved": true, "mrope_section": [11, 11, 10], "rope_type": "yarn", "rope_theta": 10000000, "partial_rotary_factor": 0.25, "factor": 4.0, "original_max_position_embeddings": 262144}}}' --max-model-len 1010000
SGLang 및 KTransformers의 경우, 다음 명령어를 사용할 수 있습니다.
SGLANG_ALLOW_OVERWRITE_LONGER_CONTEXT_LEN=1 python -m sglang.launch_server ... --json-model-override-args '{"text_config": {"rope_parameters": {"mrope_interleaved": true, "mrope_section": [11, 11, 10], "rope_type": "yarn", "rope_theta": 10000000, "partial_rotary_factor": 0.25, "factor": 4.0, "original_max_position_embeddings": 262144}}}' --context-length 1010000
factor값은 애플리케이션의 일반적인 컨텍스트 길이에 맞춰 조정하는 것이 좋습니다. 예를 들어 524,288 토큰의 컨텍스트 길이라면factor=2.0이 적절합니다.
Qwen3.6 활용을 위한 모범 사례
최적의 성능을 끌어내기 위해 다음과 같은 설정을 권장합니다.
- 샘플링 매개변수: 위에서 제시된 모드별 권장 매개변수를 활용하여 모델의 응답 스타일을 조절하세요.
presence_penalty값은 0에서 2 사이로 조정하여 반복을 줄일 수 있지만, 너무 높으면 언어 혼합이 발생할 수 있습니다. - 적절한 출력 길이: 대부분의 쿼리에는 32,768 토큰, 복잡한 문제(수학, 프로그래밍 경진대회)에는 최대 81,920 토큰의 출력 길이를 권장합니다. 이는 모델이 충분히 상세하고 포괄적인 응답을 생성할 공간을 제공합니다.
- 출력 형식 표준화: 벤치마킹 시, 프롬프트에 "단계별로 풀이 과정을 설명하고, 최종 답을 \boxed{} 안에 적어주세요." (수학) 또는 "선택한 답을 answer알파벳만 사용하여 입력란에 표시해 주세요. 예: "answer": "C"." (객관식)와 같은 문구를 추가하여 모델 출력 형식을 표준화하세요.
- 장문 동영상 이해: 몇 시간 분량의 동영상 처리를 위해
video_preprocessor_config.json파일에서longest_edge매개변수를 469,762,048로 설정하거나, 엔진 시작 시 해당 값을 재정의하여 더 높은 프레임률 샘플링을 활성화할 수 있습니다.
결론: Qwen3.6, AI 개발의 새로운 지평을 열다
Qwen3.6은 강력한 코딩 에이전트 기능, 혁신적인 사고 내용 보존, 그리고 압도적인 컨텍스트 길이 지원을 통해 2026년 AI 개발 분야에 새로운 기준을 제시하고 있습니다. 텍스트, 이미지, 비디오를 아우르는 멀티모달 능력과 다양한 추론 프레임워크와의 유연한 호환성은 개발자들이 더욱 효율적이고 창의적인 AI 애플리케이션을 구축할 수 있도록 도울 것입니다. Qwen3.6을 통해 차세대 AI 기술을 경험하고, 여러분의 개발 생산성을 한 단계 끌어올리시길 바랍니다.
댓글