Yuan3.0 Ultra는 YuanLab.ai 팀이 2026년 3월 공식 오픈소스로 공개한 1조 파라미터급 멀티모달 기반 LLM이다. 전 세계적으로도 드문 1조 규모 오픈소스 멀티모달 모델 가운데 하나이며, 언어 백본은 103개 Transformer 레이어로 구성된 Mixture-of-Experts(MoE)아키텍처를 기반으로 한다. 사전학습 초기 파라미터는 1515B였고, 독자적인 Layer-Adaptive Expert Pruning(LAEP)알고리즘을 통해 1010B로 압축했으며, 활성 파라미터는 68.8B, 사전학습 효율은 49% 향상됐다. 여기에 Localized Filtering-based Attention(LFA)와 Reflection Inhibition Reward Mechanism(RIRM)을 결합해 장문 문서 이해와 추론 효율이라는 핵심 기능을 함께 끌어올렸다. DeepSeek-V3, GPT-5.2, Kimi K2.5 등과 경쟁하는 구도에서 ChatRAG(68.2%), Docmatix(67.4%), SummEval(62.8%)같은 엔터프라이즈 핵심 벤치마크에서 강한 성과를 보여, 문서 중심·데이터 중심 기업형 Agent AI의 핵심 엔진으로 평가할 수 있다.