정리 요약

항목 설명
아키텍처 Dual‑encoder (embedding) + Cross‑encoder (reranker)
기반 모델 Qwen3 dense / MoE 기반 LLM
개발사 Alibaba Cloud / Tongyi Lab
목표 태스크 Embedding & Reranking 전용
Qwen3와의 관계 Qwen3를 backbone으로 사용, embedding 특화 fine-tuning 적용
학습 방식 비지도→감독→모델 병합의 3단계 파이프라인

왜 Qwen3-Embedding이 지금 뜨는가?

  1. MTEB 다국어 임베딩 챔피언 (8B 모델 기준)
  2. 모델 크기 & Context 융통성
  3. Instruction-Aware & 사용자 디멘션 조정
  4. 멀티태스크 및 멀티모달 고성능
  5. 오픈소스 & 산업 채택

🔍 Qwen3-Embedding 모델 아키텍처 요약

모델 버전 파라미터 레이어 수 컨텍스트 길이 임베딩 차원 Instruction-Aware 특기사항
Qwen3-Embedding-0.6B 0.6B 28 32K 1024 Yes 경량형, 빠른 추론
Qwen3-Embedding-4B 4B 36 32K 2560 Yes 중간 규모, 강력한 베이스
Qwen3-Embedding-8B 8B 36 32K 4096 Yes 최고 성능, MTEB 챔피언

✨ 요약 정리