GLM-4.5 시리즈는 Mixture-of-Experts 아키텍처로 128K 토큰 처리와 강화학습 기반 성능 향상을 달성.
국내외 벤치마크에서 최상위권 성능을 보이며 파라미터 효율성과 비용 효율성에서 Pareto 최적점을 기록.
에이전트 코딩 테스트에서 도구 호출 신뢰도와 과제 완성도 부문에서 주요 오픈소스 모델을 제압.
Get notified when new stories are published for "해커뉴스 🇰🇷 한국어"
No Sign-In needed. One-Click Subscribe.