기간: 2026년 1월 18일 ~ 2026년 1월 25일
작성일: 2026년 1월 25일
대상 독자: ML/AI 개발자
개요
이 리포트는 추적 중인 주요 오픈소스 프로젝트들의 2026년 1월 18일부터 1월 25일까지의 릴리즈 변경사항을 기술적 관점에서 요약합니다. 총 62개의 릴리즈가 이 기간 동안 발행되었으며, 각 저장소 그룹별로 주요 업데이트와 기술적 개선사항을 정리했습니다.
주요 하이라이트:
- ollama/ollama v0.15.0: 새로운
ollama launch명령어 추가로 Claude Code, Codex, OpenCode, Droid 통합 지원 - huggingface/trl v0.27.1: v0.27.0의 버그 수정 및 vLLM 호환성 개선
- llama.cpp: 매우 활발한 개발 (48개 릴리즈), 지속적인 성능 최적화 및 버그 수정
- vllm-project/vllm v0.14.1: 보안 및 메모리 누수 수정 패치 릴리즈
- LangChain 1.2.7: 동적 도구 등록 및 미들웨어 개선
- LlamaIndex v0.14.13: Ray 기반 분산 데이터 수집 파이프라인 추가
- MTEB 2.7.3~2.7.9: 지속적인 버그 수정 및 개선
- Milvus v2.5.26: 새로운 패치 릴리즈
저장소 그룹별 요약
1. LLM Frameworks
langchain-ai/langchain
- 릴리즈 수: 1개
- 주요 버전: langchain==1.2.7 (2026-01-23)
- 핵심 변경사항:
- 동적 도구 등록을 위한 미들웨어 지원 추가
- 요약 프롬프트 개선 (trailing whitespace 제거, 문법 개선)
- 버전 일관성 검사 pre-commit 훅 추가
- 의존성 업데이트 (uv 그룹)
- 기술적 세부사항:
- 동적 도구 등록: 미들웨어를 통한 런타임 도구 등록 기능
- SummarizationMiddleware 개선: 시스템 프롬프트 문법 개선 및 trailing whitespace 제거
- 버전 관리: langchain-core와 langchain 간 버전 일관성 검사 자동화
- 의존성 관리: uv를 사용한 의존성 그룹 업데이트
run-llama/llama_index
- 릴리즈 수: 1개
- 주요 버전: v0.14.13 (2026-01-21)
- 핵심 변경사항:
- Ray 기반 분산 데이터 수집 파이프라인 통합
- Agent 워크플로우에 early_stopping_method 파라미터 추가
- CodeSplitter에 토큰 기반 코드 분할 지원 추가
- 다중 모달 Condensed Conversation & Context 추가
- ChatMemoryBuffer를 Memory로 교체
- 다양한 벡터 스토어 통합 개선 (Milvus, Qdrant, Vertex AI 등)
- 새로운 LLM 통합 추가 (Apertis)
- 기술적 세부사항:
- RayIngestionPipeline: 분산 데이터 수집을 위한 Ray 통합
- Early Stopping: Agent 워크플로우에서 조기 종료 메서드 설정 가능
- 토큰 기반 코드 분할: CodeSplitter에서 토큰 단위 분할 지원
- 다중 모달 지원: Condensed Conversation & Context의 다중 모달 버전
- 메모리 관리: ChatMemoryBuffer를 더 범용적인 Memory 인터페이스로 교체
- 벡터 스토어 개선:
- Milvus: 파티션 이름 지원
- Qdrant: 검색 파라미터 지원
- Vertex AI: 하이브리드 검색 지원
- 새로운 통합: Apertis LLM, HuggingFace datasets reader, Parallel Web System tools
2. Models & Training
huggingface/trl
- 릴리즈 수: 1개
- 주요 버전: v0.27.1 (2026-01-24)
- 핵심 변경사항:
- v0.27.0의 버그 수정 및 안정성 개선
- vLLM 서빙 모드에서 logprob drift 문제 수정
- DeepSeek OPSM에서 vLLM logprobs 전달 수정
- SFT 학습에서 prompt-completion 타입 및 Transformers v5 호환성 수정
- RewardTrainer의 재현성 문제 수정
- 기술적 세부사항:
- Logprob 정확도: vLLM 서빙 모드와 colocate 모드 간 logprob drift 문제 해결
- DeepSeek 지원: DeepSeek OPSM에서 vLLM logprobs 올바르게 전달
- Transformers v5 호환성: SFT 학습에서 Transformers v5와의 호환성 개선
- 재현성: RewardTrainer에서 결과 재현성 보장
- Gradient Accumulation: undefined
current_gradient_accumulation_steps문제 수정
3. Inference & Serving
ollama/ollama
- 릴리즈 수: 2개
- 주요 버전:
- v0.15.0 (2026-01-21) - 메이저 업그레이드
- v0.15.1 (2026-01-24) - 패치 릴리즈
- 핵심 변경사항:
- 새로운
ollama launch명령어: Claude Code, Codex, OpenCode, Droid와의 통합 지원 ollama run에서 다중 라인 문자열 (""") 지원 개선- 키보드 단축키 개선: Ctrl+J 및 Shift+Enter로 새 줄 입력 지원
- GLM-4.7-Flash 모델의 메모리 사용량 감소
- CGO 플래그에 -O3 최적화 추가 (v0.15.1)
- 새로운
- 기술적 세부사항:
- ollama launch: 외부 도구와의 통합을 위한 새로운 명령어
- Claude Code, Codex, OpenCode, Droid와 별도 설정 없이 사용 가능
- 다중 라인 입력:
"""를 사용한 다중 라인 문자열 생성 지원 - 키보드 단축키:
- Ctrl+J: 새 줄 삽입
- Shift+Enter: 새 줄 삽입
- 메모리 최적화: GLM-4.7-Flash 모델의 메모리 사용량 감소
- 컴파일 최적화: CGO 플래그에 -O3 최적화 레벨 추가로 성능 향상
- ollama launch: 외부 도구와의 통합을 위한 새로운 명령어
ggerganov/llama.cpp
- 릴리즈 수: 48개 (매우 활발한 개발)
- 주요 버전: b7765 ~ b7825 (2026-01-18 ~ 2026-01-24)
- 핵심 변경사항:
- 지속적인 성능 최적화 및 버그 수정
- Jinja 템플릿 엔진 개선 (none|string 지원)
- 파일 I/O 개선 (fallback 확장, fileno 수정, mmap dio 파일 처리)
- llama-fit-params 개선 (--ctx-size 0 명시적 유지)
- 다양한 플랫폼 바이너리 제공 지속
- 기술적 세부사항:
- Jinja 템플릿: none|string 타입 지원 추가, as_string() 메서드 추가
- 파일 I/O:
- Fallback 메커니즘 확장
- fileno 처리 개선
- mmap에서 dio 파일 사용 케이스 제외
- 파라미터 피팅: llama-fit-params에서 --ctx-size 0 명시적 유지
- 플랫폼 지원:
- macOS (Apple Silicon, Intel), iOS
- Linux (Ubuntu x64, s390x)
- Windows (x64, arm64, CUDA 12/13, Vulkan, SYCL, HIP)
- openEuler (x86, aarch64, 310p, 910b, ACL Graph)
vllm-project/vllm
- 릴리즈 수: 1개
- 주요 버전: v0.14.1 (2026-01-24)
- 핵심 변경사항:
- 보안 및 메모리 누수 수정 패치 릴리즈
- v0.14.0 기반 안정성 개선
- 기술적 세부사항:
- 보안 패치: 보안 취약점 수정
- 메모리 누수: 메모리 누수 문제 해결
- 안정성: v0.14.0의 안정성 개선
4. Distributed Training
이 기간 동안 새로운 릴리즈가 없었습니다.
5. Vector Search & Embeddings
embeddings-benchmark/mteb
- 릴리즈 수: 7개
- 주요 버전:
- 2.7.3 (2026-01-19)
- 2.7.4 (2026-01-19)
- 2.7.5 (2026-01-19)
- 2.7.6 (2026-01-20)
- 2.7.7 (2026-01-20)
- 2.7.8 (2026-01-20)
- 2.7.9 (2026-01-24)
- 핵심 변경사항:
- 지속적인 버그 수정 및 개선
- 집계 작업 저장 문제 수정 (2.7.6)
- PubChem 데이터 로드에 kwargs 추가 (2.7.9)
- 기술적 세부사항:
- 데이터 저장: 집계 작업 저장 로직 수정
- 데이터 로딩: PubChem 데이터 로드 함수에 kwargs 파라미터 추가
- 안정성: 지속적인 버그 수정 및 안정성 개선
milvus-io/milvus
- 릴리즈 수: 1개
- 주요 버전: v2.5.26 (2026-01-23)
- 핵심 변경사항:
- 새로운 패치 릴리즈 (릴리즈 노트 준비 중)
- 기술적 세부사항:
- 릴리즈 노트가 곧 제공될 예정
상세 릴리즈 목록
LLM Frameworks
langchain-ai/langchain
langchain==1.2.7 (2026-01-23)
- URL: https://github.com/langchain-ai/langchain/releases/tag/langchain%3D%3D1.2.7
- 작성자: github-actions[bot]
- 주요 변경사항:
- 동적 도구 등록을 위한 미들웨어 지원
- 요약 프롬프트 개선 (trailing whitespace 제거, 문법 개선)
- 버전 일관성 검사 pre-commit 훅 추가
- 의존성 업데이트
run-llama/llama_index
v0.14.13 (2026-01-21)
- URL: https://github.com/run-llama/llama_index/releases/tag/v0.14.13
- 작성자: github-actions[bot]
- 주요 변경사항:
- Ray 기반 분산 데이터 수집 파이프라인 통합
- Agent 워크플로우 개선
- 다양한 벡터 스토어 통합 개선
- 새로운 LLM 통합 추가
Models & Training
huggingface/trl
v0.27.1 (2026-01-24)
- URL: https://github.com/huggingface/trl/releases/tag/v0.27.1
- 작성자: qgallouedec
- 주요 변경사항:
- vLLM 서빙 모드에서 logprob drift 문제 수정
- DeepSeek OPSM에서 vLLM logprobs 전달 수정
- SFT 학습에서 Transformers v5 호환성 수정
- RewardTrainer의 재현성 문제 수정
Inference & Serving
ollama/ollama
v0.15.0 (2026-01-21)
- URL: https://github.com/ollama/ollama/releases/tag/v0.15.0
- 작성자: github-actions[bot]
- 주요 변경사항:
- 새로운
ollama launch명령어 추가 - 다중 라인 문자열 지원 개선
- 키보드 단축키 개선
- GLM-4.7-Flash 모델 메모리 사용량 감소
- 새로운
v0.15.1 (2026-01-24)
- URL: https://github.com/ollama/ollama/releases/tag/v0.15.1
- 작성자: github-actions[bot]
- 주요 변경사항:
- CGO 플래그에 -O3 최적화 추가
- README 업데이트 (Ruby gem 정보)
- 문서화 개선
ggerganov/llama.cpp
주요 릴리즈 (2026-01-18 ~ 2026-01-24, 총 48개)
b7765 (2026-01-18 01:30 UTC) - 기간 시작
- URL: https://github.com/ggml-org/llama.cpp/releases/tag/b7765
- 지속적인 성능 최적화 및 버그 수정
b7772 (2026-01-18 17:28 UTC)
- URL: https://github.com/ggml-org/llama.cpp/releases/tag/b7772
- 주요 변경사항: Fallback 확장, fileno 수정, mmap dio 파일 처리 개선
b7798 (2026-01-22 01:40 UTC)
- URL: https://github.com/ggml-org/llama.cpp/releases/tag/b7798
- 주요 변경사항: Jinja 템플릿 엔진에 none|string 지원 추가
b7825 (2026-01-24 22:03 UTC) - 기간 종료
- URL: https://github.com/ggml-org/llama.cpp/releases/tag/b7825
- 주요 변경사항: llama-fit-params에서 --ctx-size 0 명시적 유지
vllm-project/vllm
v0.14.1 (2026-01-24)
- URL: https://github.com/vllm-project/vllm/releases/tag/v0.14.1
- 작성자: khluu
- 주요 변경사항:
- 보안 및 메모리 누수 수정 패치 릴리즈
- v0.14.0 기반 안정성 개선
Vector Search & Embeddings
embeddings-benchmark/mteb
2.7.3 ~ 2.7.9 (2026-01-19 ~ 2026-01-24)
- 지속적인 버그 수정 및 개선
- 집계 작업 저장 문제 수정 (2.7.6)
- PubChem 데이터 로드 개선 (2.7.9)
milvus-io/milvus
v2.5.26 (2026-01-23)
- URL: https://github.com/milvus-io/milvus/releases/tag/v2.5.26
- 작성자: yanliang567
- 주요 변경사항: 릴리즈 노트 준비 중
주요 기술 트렌드
이번 기간 동안 관찰된 주요 기술 트렌드:
- 도구 통합 및 확장성: Ollama의
ollama launch명령어로 외부 도구와의 통합 용이성 향상 - 분산 처리 강화: LlamaIndex의 Ray 기반 분산 데이터 수집 파이프라인 추가
- 동적 기능 확장: LangChain의 미들웨어를 통한 동적 도구 등록 지원
- 성능 최적화 지속: llama.cpp의 지속적인 성능 최적화 및 버그 수정 (48개 릴리즈)
- 메모리 효율성: Ollama의 GLM-4.7-Flash 모델 메모리 사용량 감소
- 템플릿 엔진 개선: llama.cpp의 Jinja 템플릿 엔진에 타입 지원 확대
- 보안 및 안정성: vLLM의 보안 패치 및 메모리 누수 수정
- 재현성 보장: TRL의 RewardTrainer 재현성 문제 수정
- 벡터 스토어 통합 확대: LlamaIndex의 다양한 벡터 스토어 통합 개선
- vLLM 호환성 개선: TRL의 vLLM 서빙 모드 logprob 정확도 개선
API 변경사항
ollama/ollama v0.15.0
- 새로운 API:
ollama launch명령어 추가- Claude Code, Codex, OpenCode, Droid와의 통합 지원
- 개선된 API:
ollama run에서 다중 라인 문자열 (""") 지원 개선- 키보드 단축키: Ctrl+J 및 Shift+Enter로 새 줄 입력
- 마이그레이션 가이드: 기존 코드는 대부분 호환되며, 새로운
ollama launch기능 활용 가능
langchain-ai/langchain v1.2.7
- 새로운 기능: 미들웨어를 통한 동적 도구 등록
- 개선된 기능: SummarizationMiddleware의 프롬프트 개선
- 마이그레이션 가이드: 기존 코드는 호환되며, 새로운 미들웨어 기능은 선택적 사용
run-llama/llama_index v0.14.13
- 새로운 통합:
- RayIngestionPipeline: 분산 데이터 수집
- Apertis LLM 통합
- HuggingFace datasets reader
- Parallel Web System tools
- 개선된 기능:
- Agent 워크플로우에 early_stopping_method 파라미터 추가
- CodeSplitter에 토큰 기반 분할 지원
- ChatMemoryBuffer를 Memory로 교체
- 마이그레이션 가이드: ChatMemoryBuffer 사용자는 Memory 인터페이스로 마이그레이션 권장
huggingface/trl v0.27.1
- 버그 수정:
- vLLM 서빙 모드에서 logprob drift 문제 해결
- DeepSeek OPSM에서 logprobs 전달 수정
- SFT 학습에서 Transformers v5 호환성 개선
- 마이그레이션 가이드: v0.27.0 사용자는 업그레이드 권장 (버그 수정 포함)
성능 개선
ollama/ollama v0.15.0
- 개선 영역: 메모리 사용량, 컴파일 최적화
- 성능 향상:
- GLM-4.7-Flash 모델의 메모리 사용량 감소
- CGO 플래그에 -O3 최적화 추가 (v0.15.1)
ggerganov/llama.cpp
- 개선 영역: 파일 I/O, 템플릿 엔진, 파라미터 피팅
- 성능 향상:
- Fallback 메커니즘 확장으로 I/O 안정성 향상
- Jinja 템플릿 엔진 개선으로 템플릿 처리 효율성 향상
- 지속적인 성능 최적화 (48개 릴리즈)
huggingface/trl v0.27.1
- 개선 영역: Logprob 정확도, 재현성
- 성능 향상:
- vLLM 서빙 모드에서 logprob drift 문제 해결로 정확도 향상
- RewardTrainer의 재현성 보장
새로운 모델/알고리즘
ollama/ollama v0.15.0
- 새로운 기능:
ollama launch명령어- Claude Code, Codex, OpenCode, Droid와의 통합 지원
- 별도 설정 없이 외부 도구와 함께 사용 가능
run-llama/llama_index v0.14.13
- 새로운 통합:
- Apertis LLM: 새로운 LLM 통합 추가
- RayIngestionPipeline: 분산 데이터 수집 파이프라인
- HuggingFace datasets reader: HuggingFace 데이터셋 읽기 지원
- Parallel Web System tools: 병렬 웹 시스템 도구
보안 업데이트
vllm-project/vllm v0.14.1
- 보안 패치: 보안 취약점 수정
- 영향도: 보안 패치이므로 즉시 업그레이드 권장
통계 요약
- 총 릴리즈 수: 62개
- 저장소 그룹 수: 5개
- 활발한 저장소:
- ggerganov/llama.cpp: 48개 (가장 활발, 일일 다중 릴리즈)
- embeddings-benchmark/mteb: 7개
- ollama/ollama: 2개 (v0.15.0 메이저 업그레이드 포함)
- langchain-ai/langchain: 1개
- run-llama/llama_index: 1개
- huggingface/trl: 1개
- vllm-project/vllm: 1개
- milvus-io/milvus: 1개
- 주요 버전 업그레이드:
- ollama/ollama: v0.14.3 → v0.15.0 (메이저)
- embeddings-benchmark/mteb: 2.7.2 → 2.7.9
- langchain-ai/langchain: 1.2.6 → 1.2.7
- huggingface/trl: v0.27.0 → v0.27.1
- vllm-project/vllm: v0.14.0 → v0.14.1
- milvus-io/milvus: v2.5.25 → v2.5.26
다음 단계
이번 기간의 변경사항을 바탕으로 권장되는 다음 단계:
- Ollama v0.15.0 업그레이드: 새로운
ollama launch기능으로 외부 도구 통합 활용 - vLLM v0.14.1 업데이트: 보안 패치 및 메모리 누수 수정 적용 (즉시 권장)
- TRL v0.27.1 업데이트: vLLM 호환성 개선 및 재현성 문제 수정 적용
- LangChain 1.2.7 업데이트: 동적 도구 등록 기능 및 요약 프롬프트 개선 활용
- LlamaIndex v0.14.13 업데이트: Ray 기반 분산 데이터 수집 파이프라인 활용
- llama.cpp 최신 버전 모니터링: 매우 활발한 개발이므로 정기적 업데이트 권장
- MTEB 2.7.9 업데이트: 최신 버그 수정 및 개선사항 적용
- Ollama launch 기능 실험: Claude Code, Codex 등 외부 도구와의 통합 테스트
참고 자료
'AI > 오픈소스 릴리즈 노트' 카테고리의 다른 글
| OSS 릴리즈 요약 (0) | 2026.01.18 |
|---|---|
| 오픈소스 릴리즈 노트 읽기 - 24년 9월 2, 3주차 (1) | 2024.09.20 |
| 오픈소스 릴리즈 노트 읽기 - 24년 9월 1주차 (1) | 2024.09.09 |
| 오픈소스 릴리즈 노트 읽기 - 8월 5주차 (2) | 2024.09.02 |
| 오픈소스 릴리즈 노트 읽기 - 8월 4주차 (4) | 2024.08.26 |