기간: 2026년 1월 1일 ~ 2026년 1월 18일
작성일: 2026년 1월 18일
대상 독자: ML/AI 개발자
개요
이 리포트는 추적 중인 주요 오픈소스 프로젝트들의 2026년 1월 1일부터 1월 18일까지의 릴리즈 변경사항을 기술적 관점에서 요약합니다. 총 169개의 릴리즈가 이 기간 동안 발행되었으며, 각 저장소 그룹별로 주요 업데이트와 기술적 개선사항을 정리했습니다.
주요 하이라이트:
- huggingface/transformers v5.0.0rc2: 메이저 버전 5.0의 첫 번째 릴리즈 후보
- huggingface/trl v0.27.0: 메이저 업그레이드로 VRAM 최적화 및 비동기 처리 지원
- ollama/ollama v0.14.0~v0.14.2: 이미지 생성 모델 실험적 지원 및 TranslateGemma 추가
- llama.cpp: 매우 활발한 개발 (139개 릴리즈), AMD GPU 최적화 및 Flash Attention 개선
- Chroma 1.4.1: 다중 리전 지원 및 인덱싱 상태 추적 기능 추가
- LangChain 1.2.x 시리즈: 지속적인 개선 및 타입 안정성 강화
저장소 그룹별 요약
1. LLM Frameworks
langchain-ai/langchain
- 릴리즈 수: 10개
- 주요 버전:
- langchain-core 1.2.6, 1.2.7, 0.3.82, 0.3.83
- langchain 1.2.1, 1.2.2, 1.2.3, 1.2.4, 1.2.5, 1.2.6
- 핵심 변경사항:
- LangChain 1.2.x 시리즈 지속적인 개선
- Agent 프레임워크 개선 및 타입 안정성 향상
- SummarizationMiddleware 시그니처 불일치 수정
- Agent 이름 메타데이터 추가
- 모델 ID 사용법 명확화
- UUID7 기반 run ID 사용
- 기술적 세부사항:
- UUID7 도입: run ID에 UUID7 사용으로 시간 기반 정렬 및 고유성 보장
- 타입 안정성: Mypy 규칙 강화 (warn_return_any, warn-unreachable 활성화)
- 메시지 태깅: 요약에서 생성된 메시지 자동 태깅 시스템
- 메타데이터 관리: Agent 이름 메타데이터 자동 추가 및 스트리밍 지원
- Ruff 업그레이드: 버전 0.14.11로 업그레이드
- 요약 프롬프트: 요약 프롬프트 업데이트 및 메타데이터 구성 추가
2. Models & Training
huggingface/transformers
- 릴리즈 수: 3개
- 주요 버전:
- v5.0.0rc2 (2026-01-08) - 메이저 버전 5.0 첫 릴리즈 후보
- v4.57.4, v4.57.5, v4.57.6 (패치 릴리즈)
- 핵심 변경사항:
- Transformers 5.0.0rc2: 메이저 버전 5.0의 첫 번째 릴리즈 후보
- v4 시리즈의 마지막 패치 릴리즈 (v4.57.4~v4.57.6)
- Qwen2VL 및 Qwen2.5VL 모델 타입 로딩 문제 수정
- Grouped beam search 개선
- 기술적 세부사항:
- v5.0.0rc2: 메이저 버전 업그레이드의 첫 번째 릴리즈 후보 (프로덕션 사용 전 테스트 권장)
- Qwen VL 모델 수정: config 저장 후 재로딩 시 model_type이 올바르게 유지되도록 수정
- Grouped beam search: config 파라미터에서 grouped beam search 지원
- 오프라인 모드: Mistral base 체크를 조건부로 변경하여 오프라인 로딩 개선
- vLLM 호환성: vLLM 관련 버그 수정
huggingface/peft
- 릴리즈 수: 1개
- 주요 버전: v0.18.1 (2026-01-09)
- 핵심 변경사항:
- Transformers v5 릴리즈를 위한 호환성 개선
- AMD ROCm 지원 수정
- Transformers 버전 요구사항 회귀 버그 수정
- 기술적 세부사항:
- Transformers v5와의 호환성을 위한 특수 케이스 수정
- AMD ROCm 환경에서 PEFT 실행 가능하도록 수정
- Transformers >= 4.52 요구사항 회귀 버그 수정
huggingface/trl
- 릴리즈 수: 1개 (메이저 업그레이드)
- 주요 버전: v0.27.0 (2026-01-16)
- 핵심 변경사항:
- 성능 최적화: Forward pass 중 VRAM 사용량 최대 50% 감소
- 비동기 처리: 보상 함수의 비동기 지원 및 병렬화
- vLLM 통합: vLLM 0.12.0 지원 및 vllm_group_port 인자 추가
- 새로운 알고리즘: GDPO (Group reward-Decoupled Normalization Policy Optimization) 추가
- DeepSeek 지원: DeepSeek V3.2 Off-policy 시퀀스 마스킹 지원
- 기술적 세부사항:
- VRAM 최적화:
forward_masked_logits함수로 forward pass 중 VRAM 사용량 대폭 감소 - 비동기 보상 함수: RLOO 및 일반 보상 함수에서 비동기 지원 및 병렬 호출
- BFD Packing: 잘린 토큰 보존 기능 추가
- Gradient Checkpointing: 기본값을
use_reentrant=False로 변경 (PyTorch 권장사항) - 다중 보상 최적화: GDPO를 통한 다중 보상 함수 동시 최적화
- GRPO 개선: 도구 호출 반복 횟수 제한 설정 추가
- 실험적 기능 정리: 여러 유틸리티를
experimental.utils로 이동하여 API 구조화 - 다중 GPU 지원: 다중 GPU 사용 시 데이터셋 스트리밍 및 dtype 초기화 문제 해결
- Transformers 5.0 호환성: Transformers 5.0.0+ 호환성 개선 및 버그 수정
- VRAM 최적화:
3. Inference & Serving
ollama/ollama
- 릴리즈 수: 4개
- 주요 버전:
- v0.14.0 (2026-01-10)
- v0.14.1 (2026-01-14)
- v0.14.2 (2026-01-16)
- v0.14.3-rc1 (2026-01-16)
- 핵심 변경사항:
- 실험적 이미지 생성 모델 지원 (macOS, Linux CUDA)
- TranslateGemma 모델 추가 (55개 언어 번역 지원)
- macOS 자동 업데이트 서명 검증 문제 수정
- CLI 개선 (Shift+Enter로 새 줄 입력)
- OpenResponses 스펙 준수 개선
- Anthropic API 호환성 (
/v1/messagesAPI 지원)
- 기술적 세부사항:
- 이미지 생성 모델: Z-Image-Turbo 실험적 지원 (macOS, Linux CUDA), MLX 기반
- 번역 모델: Gemma 3 기반 TranslateGemma로 55개 언어 간 번역 지원
- 실험적 CLI:
ollama run --experimental로 agent loop 및 bash 도구 포함 CLI 제공 - API 개선:
/v1/responses엔드포인트가 OpenResponses 스펙에 더 잘 부합 - Anthropic 호환성:
/v1/messagesAPI 지원으로 Anthropic API와 호환 - VRAM 측정: AMD iGPU에서 더 정확한 VRAM 측정
- Modelfile:
REQUIRES명령으로 필요한 Ollama 버전 선언 가능
ggerganov/llama.cpp
- 릴리즈 수: 139개 (매우 활발한 개발)
- 주요 버전: b7598 ~ b7770 (2026-01-01 ~ 2026-01-18)
- 핵심 변경사항:
- AMD GPU 최적화: Vulkan Matmul 파라미터 최적화, RDNA4용 fattn-mma-f16 추가
- Flash Attention 최적화 및 CPU 지원
- Jinja 템플릿 엔진 개선 (attribute 지원)
- 다양한 플랫폼 바이너리 제공 확대
- 지속적인 성능 개선 및 버그 수정
- 기술적 세부사항:
- AMD GPU 최적화:
- Vulkan에서 AMD GPU (Coopmat 지원)를 위한 큰 matmul 파라미터 조합 최적화
- RDNA4 아키텍처를 위한 fattn-mma-f16 커널 추가
- HIP 백엔드 개선
- Flash Attention:
- VQ mma, flash_attn_ext_f16_iter, KQ_rowsum 최적화
- CPU 사이드 지원 활성화
- 커널 선택 로직 개선
- Jinja 템플릿:
- join, map, sort에 attribute 지원 추가
- 음수 배열 인덱스 및 기본값 지원
- 플랫폼 지원:
- macOS (Apple Silicon, Intel), iOS
- Linux (Ubuntu x64, s390x)
- Windows (x64, arm64)
- openEuler (x86, aarch64, 310p, 910b, ACL Graph)
- 백엔드 지원: CUDA 12/13, Vulkan, SYCL, HIP
- DeepSeek 모델: DeepSeek-R1-Distill-Qwen-1.5B 기본 튜닝
- AMD GPU 최적화:
4. Distributed Training
이 기간 동안 새로운 릴리즈가 없었습니다.
5. Vector Search & Embeddings
chroma-core/chroma
- 릴리즈 수: 2개
- 주요 버전:
- CLI 1.3.1 (2026-01-13)
- Chroma 1.4.1 (2026-01-14)
- 핵심 변경사항:
- Google Cloud Spanner 통합 강화
- 인덱싱 상태 추적 기능 추가 (Python, TypeScript, Rust 클라이언트)
- 다중 리전/다중 클라우드 구성 지원
- Eventual consistency 지원 (Query 노드 및 프론트엔드)
- WAL3 (Write-Ahead Log) 복제 인터페이스 추가
- Rust 클라이언트 0.12 업그레이드
- 기술적 세부사항:
- Spanner 통합:
- SysDB 및 마이그레이션 서비스가 실제 Spanner에 연결
- Spanner 마이그레이션을 Rust로 재구현
- Rolling hash를 사용한 마이그레이션 관리
- Rust SysDB에서 e2e tenant 및 데이터베이스 작업 지원
- Spanner collection 및 segments 스키마 추가
- 인덱싱 상태:
- Python, TypeScript, Rust 클라이언트에 인덱싱 상태 API 추가
- 프론트엔드 로직 및 메터링 지원
- 인덱싱 상태 추적을 위한 스키마 및 로직 추가
- 다중 리전 지원: Multi-region, multi-cloud 구성 지원
- Eventual consistency:
- Query 노드에 eventual consistency 구현
- 프론트엔드에 eventual consistency 지원 추가
- Read-level 테스트 추가
- WAL3:
- 복제된 인터페이스 추가
- quorum_writer를 통한 병렬 future 조정
- FragmentConsumer trait로 fragment 읽기 캡슐화
- 성능 개선:
- Ordered blockfile writer에서 eager commit
- Block ref drop 최적화 (copy to end 시 drop)
- Cursor 정리 로직 개선 (재삽입 횟수 기반 purge)
- Rust 클라이언트: 버전 0.11.x → 0.12 업그레이드
- Collection affinity: Collection affinity 버그 수정
- 기타:
- Tonic 버전 0.14로 업그레이드
- Rust Log Service 스키마 추가
- Globalize dead letter queue in SysDB
- Spanner 통합:
embeddings-benchmark/mteb
- 릴리즈 수: 10개
- 주요 버전:
- 2.6.2 ~ 2.6.9 (2026-01-02 ~ 2026-01-12)
- 2.7.0, 2.7.1, 2.7.2 (2026-01-13 ~ 2026-01-15)
- 핵심 변경사항:
- vLLM 지원 추가 (2.7.0): vLLM을 사용한 임베딩 모델 벤치마킹 지원
- CI 시스템을
uv로 마이그레이션 (2.6.2) - ResultCache 직접 노출 (2.7.2)
- 누락된 점수 계산 문제 수정 (2.7.2)
- 새로운 모델 추가 (llama-embed-nemotron-8b, pixie_models, mixedbread-ai 모델, voyage-4 시리즈, nemotron rerank)
- 새로운 데이터셋 추가 (EuroPIRQRetrieval, ChemRxivRetrieval)
- 기술적 세부사항:
- vLLM 통합:
- vLLM wrapper를 통한 고성능 임베딩 모델 벤치마킹 지원
- Rerank 모델 지원 포함
- Prompt 지원 추가
- 벤치마크 예제 및 문서 추가
- CI 개선:
uv를 사용한 의존성 관리로 마이그레이션- GitHub Actions에서
uv sync사용 - Makefile 업데이트
- API 개선:
ResultCache를mteb.ResultCache로 직접 노출하여 접근성 향상- 누락된 점수가 있는 결과 계산 로직 수정 (0 → NaN 처리)
- 새로운 모델 지원:
- llama-embed-nemotron-8b
- pixie_models
- mixedbread-ai/mxbai-edge-colbert-v0-32m
- mixedbread-ai/mxbai-edge-colbert-v0-17m
- voyage-4, voyage-4-large, voyage-4-lite
- nemotron rerank
- 새로운 데이터셋:
- EuroPIRQRetrieval
- ChemRxivRetrieval (ChemTEB v1.1)
- 버그 수정:
- Git LFS 콘텐츠 처리 개선
- Nemo retriever 버전 업데이트로 크래시 문제 해결
- 문서화: vLLM 링크 수정 및 문서 개선
- vLLM 통합:
상세 릴리즈 목록
LLM Frameworks
langchain-ai/langchain
langchain-core==1.2.6 (2026-01-02)
- URL: https://github.com/langchain-ai/langchain/releases/tag/langchain-core%3D%3D1.2.6
- 작성자: github-actions[bot]
langchain==1.2.1 (2026-01-07)
- URL: https://github.com/langchain-ai/langchain/releases/tag/langchain%3D%3D1.2.1
- 작성자: github-actions[bot]
langchain==1.2.2 (2026-01-07)
- URL: https://github.com/langchain-ai/langchain/releases/tag/langchain%3D%3D1.2.2
- 작성자: github-actions[bot]
langchain==1.2.3 (2026-01-08)
- URL: https://github.com/langchain-ai/langchain/releases/tag/langchain%3D%3D1.2.3
- 작성자: github-actions[bot]
langchain-core==1.2.7 (2026-01-09)
- URL: https://github.com/langchain-ai/langchain/releases/tag/langchain-core%3D%3D1.2.7
- 작성자: github-actions[bot]
langchain-core==0.3.82 (2026-01-09)
- URL: https://github.com/langchain-ai/langchain/releases/tag/langchain-core%3D%3D0.3.82
- 작성자: github-actions[bot]
langchain-core==0.3.83 (2026-01-13)
- URL: https://github.com/langchain-ai/langchain/releases/tag/langchain-core%3D%3D0.3.83
- 작성자: github-actions[bot]
- 주요 변경사항: UUID7 기반 run ID 사용
langchain==1.2.4 (2026-01-14)
- URL: https://github.com/langchain-ai/langchain/releases/tag/langchain%3D%3D1.2.4
- 작성자: github-actions[bot]
- 주요 변경사항: Agent 이름 메타데이터 추가, 타입 안정성 개선
langchain==1.2.5 (2026-01-16)
- URL: https://github.com/langchain-ai/langchain/releases/tag/langchain%3D%3D1.2.5
- 작성자: github-actions[bot]
- 주요 변경사항: 요약 프롬프트 업데이트, 메타데이터 구성 추가
langchain==1.2.6 (2026-01-16)
- URL: https://github.com/langchain-ai/langchain/releases/tag/langchain%3D%3D1.2.6
- 작성자: github-actions[bot]
- 주요 변경사항: SummarizationMiddleware 시그니처 불일치 수정
Models & Training
huggingface/transformers
v5.0.0rc2 (2026-01-08)
- URL: https://github.com/huggingface/transformers/releases/tag/v5.0.0rc2
- 작성자: (확인 필요)
- 주요 변경사항:
- 메이저 버전 5.0의 첫 번째 릴리즈 후보
- 프로덕션 사용 전 테스트 권장
v4.57.4 (2026-01-13)
- URL: https://github.com/huggingface/transformers/releases/tag/v4.57.4
- 작성자: vasqu
- 주요 변경사항: v4 시리즈의 마지막 패치 릴리즈
v4.57.5 (2026-01-13)
- URL: https://github.com/huggingface/transformers/releases/tag/v4.57.5
- 작성자: vasqu
- 주요 변경사항: QwenVL 모델 타입 로딩 문제 수정 시작
v4.57.6 (2026-01-16)
- URL: https://github.com/huggingface/transformers/releases/tag/v4.57.6
- 작성자: vasqu
- 주요 변경사항: Qwen2VL 및 Qwen2.5VL 모델의 config 저장/로드 시 model_type 불일치 문제 완전 해결
huggingface/peft
v0.18.1 (2026-01-09)
- URL: https://github.com/huggingface/peft/releases/tag/v0.18.1
- 작성자: (확인 필요)
- 주요 변경사항: PEFT 라이브러리 업데이트
huggingface/trl
v0.27.0 (2026-01-16)
- URL: https://github.com/huggingface/trl/releases/tag/v0.27.0
- 작성자: qgallouedec
- 주요 변경사항: 메이저 업그레이드 - VRAM 최적화, 비동기 처리, GDPO 추가 등
Inference & Serving
ollama/ollama
v0.14.0 (2026-01-10)
- URL: https://github.com/ollama/ollama/releases/tag/v0.14.0
- 작성자: github-actions[bot]
- 주요 변경사항: 실험적 이미지 생성 모델 지원, Anthropic API 호환성
v0.14.1 (2026-01-14)
- URL: https://github.com/ollama/ollama/releases/tag/v0.14.1
- 작성자: github-actions[bot]
- 주요 변경사항: Z-Image-Turbo 모델 사용 가능, macOS 자동 업데이트 수정
v0.14.2 (2026-01-16)
- URL: https://github.com/ollama/ollama/releases/tag/v0.14.2
- 작성자: github-actions[bot]
- 주요 변경사항: TranslateGemma 모델 추가, CLI 개선
v0.14.3-rc1 (2026-01-16)
- URL: https://github.com/ollama/ollama/releases/tag/v0.14.3-rc1
- 작성자: github-actions[bot]
- 주요 변경사항: macOS 시스템 종료 중 앱 종료 허용
ggerganov/llama.cpp
주요 릴리즈 (2026-01-01 ~ 2026-01-18, 총 139개)
b7598 (2026-01-01 00:30 UTC) - 기간 시작
- URL: https://github.com/ggml-org/llama.cpp/releases/tag/b7598
- 주요 변경사항: (상세 정보 확인 필요)
b7707 (2026-01-11 20:03 UTC)
- URL: https://github.com/ggml-org/llama.cpp/releases/tag/b7707
- 주요 변경사항: Vulkan에서 AMD GPU 최적화
b7723 (2026-01-13 19:31 UTC)
- URL: https://github.com/ggml-org/llama.cpp/releases/tag/b7723
- 주요 변경사항: RDNA4용 fattn-mma-f16 추가, Flash Attention 최적화
b7768 (2026-01-18 04:10 UTC)
- URL: https://github.com/ggml-org/llama.cpp/releases/tag/b7768
- 주요 변경사항: Jinja 템플릿 개선, openEuler ACL Graph 바이너리 추가
b7770 (2026-01-18 07:56 UTC) - 기간 종료
- 최신 릴리즈로 지속적인 성능 최적화 및 버그 수정
Vector Search & Embeddings
chroma-core/chroma
v2.5.25 (2026-01-08)
- URL: https://github.com/chroma-core/chroma/releases/tag/v2.5.25
- 작성자: (확인 필요)
CLI 1.3.1 (2026-01-13)
- URL: https://github.com/chroma-core/chroma/releases/tag/cli-1.3.1
- 작성자: github-actions[bot]
1.4.1 (2026-01-14)
- URL: https://github.com/chroma-core/chroma/releases/tag/1.4.1
- 작성자: github-actions[bot]
- 주요 변경사항: Spanner 통합, 인덱싱 상태 추적, 다중 리전 지원
embeddings-benchmark/mteb
2.6.2 ~ 2.6.9 (2026-01-02 ~ 2026-01-12)
- 지속적인 버그 수정 및 모델 추가
2.7.0 (2026-01-13)
- URL: https://github.com/embeddings-benchmark/mteb/releases/tag/2.7.0
- 작성자: KennethEnevoldsen
- 주요 변경사항:
- vLLM 지원 추가: vLLM을 사용한 임베딩 모델 벤치마킹 지원
- voyage-4-large, voyage-4-lite 모델 추가
- 문서 링크 문제 해결
2.7.1 (2026-01-14)
- URL: https://github.com/embeddings-benchmark/mteb/releases/tag/2.7.1
- 작성자: KennethEnevoldsen
- 주요 변경사항:
- voyage-4 모델 추가
- nemotron rerank 추가
- EuroPIRQRetrieval 데이터셋 추가
- ChemRxivRetrieval 데이터셋 추가 (ChemTEB v1.1)
- 로깅 개선
2.7.2 (2026-01-15)
- URL: https://github.com/embeddings-benchmark/mteb/releases/tag/2.7.2
- 작성자: KennethEnevoldsen
- 주요 변경사항:
- ResultCache 직접 노출
- 누락된 점수 계산 문제 수정
- pixie_models, mixedbread-ai 모델 추가
주요 기술 트렌드
이번 기간 동안 관찰된 주요 기술 트렌드:
- 비동기 처리 및 병렬화: TRL에서 보상 함수의 비동기 지원 및 병렬화로 학습 속도 향상
- VRAM 최적화: TRL의 forward_masked_logits로 최대 50% VRAM 사용량 감소
- 다중 보상 최적화: GDPO를 통한 다중 보상 함수 동시 최적화 지원
- AMD GPU 지원 강화: llama.cpp에서 RDNA4 아키텍처 최적화 및 HIP 백엔드 개선
- 이미지 생성 모델 확산: Ollama에서 실험적 이미지 생성 모델 지원 시작
- 타입 안정성 강화: LangChain에서 mypy 규칙 강화 및 타입 체크 개선
- 다중 리전/클라우드 지원: Chroma에서 다중 리전 및 다중 클라우드 구성 지원
- Eventual Consistency: Chroma에서 eventual consistency 지원으로 확장성 향상
- 메이저 버전 업그레이드: Transformers 5.0.0rc2 릴리즈로 메이저 버전 전환 시작
- vLLM 통합 확대: MTEB에서 vLLM 지원 추가로 고성능 임베딩 벤치마킹 가능
API 변경사항
huggingface/transformers v5.0.0rc2
- 변경된 API: 메이저 버전 업그레이드로 인한 API 변경 가능성
- 마이그레이션 가이드:
- 릴리즈 후보 단계이므로 프로덕션 사용 전 충분한 테스트 권장
- v4에서 v5로의 마이그레이션 가이드 확인 필요
huggingface/trl v0.27.0
- 변경된 API:
AutoModelForCausalLMWithValueHead및AutoModelForSeq2SeqLMWithValueHead가experimental로 이동- 여러 유틸리티 함수가
experimental.utils로 이동 DbrxForCausalLM지원 제거
- 마이그레이션 가이드:
- 실험적 기능 사용 시 import 경로 변경 필요
- Deprecated 함수 및 파라미터 제거됨 (코드 업데이트 필요)
ollama/ollama
- 변경된 API:
/v1/responses엔드포인트가 OpenResponses 스펙에 더 잘 부합하도록 개선 - 새로운 API:
/v1/messagesAPI 추가 (Anthropic API 호환) - 마이그레이션 가이드: 기존 코드는 대부분 호환되지만, OpenResponses 스펙 준수도 향상
chroma-core/chroma
- 새로운 API: 인덱싱 상태 추적 API 추가 (Python, TypeScript, Rust 클라이언트)
- 마이그레이션 가이드: 인덱싱 상태를 확인하려면 최신 클라이언트 버전 필요
embeddings-benchmark/mteb
- 새로운 API: vLLM wrapper를 통한 임베딩 모델 벤치마킹 지원
- 마이그레이션 가이드: vLLM을 사용한 벤치마킹을 위해 vLLM wrapper 사용법 확인 필요
성능 개선
huggingface/trl v0.27.0
- 개선 영역: Forward pass 중 VRAM 사용량
- 성능 향상: 최대 50% VRAM 사용량 감소 (
forward_masked_logits함수 사용 시) - 추가 개선: 비동기 보상 함수로 학습 속도 향상
ggerganov/llama.cpp
- 개선 영역: Flash Attention 성능, AMD GPU 최적화
- 성능 향상:
- RDNA4 아키텍처에서 fattn-mma-f16 커널로 성능 향상
- Vulkan에서 AMD GPU (Coopmat 지원)를 위한 matmul 최적화
chroma-core/chroma
- 개선 영역: 쓰기 성능, 다중 리전 지원
- 성능 향상:
- Ordered blockfile writer에서 eager commit
- WAL3 복제 인터페이스로 쓰기 성능 향상
새로운 모델/알고리즘
ollama/ollama
- 새로운 모델:
- Z-Image-Turbo: 실험적 이미지 생성 모델 (macOS, Linux CUDA)
- TranslateGemma: Gemma 3 기반 번역 모델 (55개 언어 지원)
- 특징:
- 이미지 생성은 실험적 단계 (macOS, Linux CUDA만 지원)
- 번역 모델은 프로덕션 사용 가능
huggingface/trl
- 새로운 알고리즘:
- GDPO: Group reward-Decoupled Normalization Policy Optimization (다중 보상 RL 최적화)
- DeepSeek V3.2 Off-policy 시퀀스 마스킹: DeepSeek 모델을 위한 특화된 마스킹 전략
- 실험적 기능 정리:
AutoModelForCausalLMWithValueHead,AutoModelForSeq2SeqLMWithValueHead를experimental로 이동- 여러 유틸리티 함수를
experimental.utils로 이동하여 API 구조화
- 제거된 기능:
DbrxForCausalLM지원 제거 - 다중 GPU 지원: 다중 GPU 사용 시 데이터셋 스트리밍 및 dtype 초기화 문제 해결
- Transformers 5.0 호환성: Transformers 5.0.0+ 호환성 개선 및 버그 수정
embeddings-benchmark/mteb
- 새로운 모델 지원:
- llama-embed-nemotron-8b
- pixie_models
- mixedbread-ai/mxbai-edge-colbert-v0-32m
- mixedbread-ai/mxbai-edge-colbert-v0-17m
- voyage-4, voyage-4-large, voyage-4-lite
- nemotron rerank
- 새로운 데이터셋:
- EuroPIRQRetrieval
- ChemRxivRetrieval (ChemTEB v1.1)
보안 업데이트
이 기간 동안 특별한 보안 패치 릴리즈는 없었습니다.
통계 요약
- 총 릴리즈 수: 169개
- 저장소 그룹 수: 5개
- 활발한 저장소:
- ggerganov/llama.cpp: 139개 (가장 활발, 일일 다중 릴리즈)
- embeddings-benchmark/mteb: 10개
- langchain-ai/langchain: 10개
- chroma-core/chroma: 2개
- ollama/ollama: 4개
- huggingface/transformers: 3개 (v5.0.0rc2 포함)
- huggingface/peft: 1개
- huggingface/trl: 1개 (메이저 업그레이드)
- 주요 버전 업그레이드:
- huggingface/transformers: v4.57.x → v5.0.0rc2 (메이저)
- huggingface/trl: v0.26.0 → v0.27.0 (메이저)
- ollama/ollama: v0.13.x → v0.14.2
- embeddings-benchmark/mteb: 2.6.x → 2.7.2
- chroma-core/chroma: 2.5.x → 1.4.1
- langchain-ai/langchain: 1.2.0 → 1.2.6
다음 단계
이번 기간의 변경사항을 바탕으로 권장되는 다음 단계:
- Transformers 5.0.0rc2 테스트: 메이저 버전 업그레이드이므로 프로덕션 사용 전 충분한 테스트 권장
- TRL v0.27.0 업그레이드 고려: VRAM 최적화 및 비동기 처리로 학습 효율성 향상 가능
- Ollama 이미지 생성 모델 실험: 실험적 단계이지만 이미지 생성 기능 테스트 가능
- LangChain 1.2.6 업데이트: 타입 안정성 개선 및 버그 수정 적용
- Transformers 4.57.6 업데이트: Qwen VL 모델 사용 시 필수 업데이트
- llama.cpp 최신 버전 모니터링: 매우 활발한 개발이므로 정기적 업데이트 권장
- Chroma 1.4.1 업데이트: 다중 리전 지원 및 인덱싱 상태 추적 기능 활용
- MTEB 2.7.2 업데이트: vLLM 지원 및 새로운 임베딩 모델 평가 기능 활용
참고 자료
'AI > 오픈소스 릴리즈 노트' 카테고리의 다른 글
| 오픈소스 릴리즈 요약 (26.01.18~26.01.25) (0) | 2026.01.25 |
|---|---|
| 오픈소스 릴리즈 노트 읽기 - 24년 9월 2, 3주차 (1) | 2024.09.20 |
| 오픈소스 릴리즈 노트 읽기 - 24년 9월 1주차 (1) | 2024.09.09 |
| 오픈소스 릴리즈 노트 읽기 - 8월 5주차 (2) | 2024.09.02 |
| 오픈소스 릴리즈 노트 읽기 - 8월 4주차 (4) | 2024.08.26 |