MoE(Mixture of Experts), 전문가 조합 모델전문가 조합(MoE)은 1991년 Jacobs 등이 처음 제한한 고전적인 앙상블 기법입니다.논문: 로컬 전문가의 적응형 조합(Adaptive Mixture of Local Experts) 인공 지능 모델을 입력 데이터의 하위 집합을 전문으로 하는 별도의 하위 네트워크(또는 '전문가')로 나누어 작업을 공동으로 수행하는 머신 러닝 접근 방식입니다.즉, 하나의 거대 모델이 모든 데이터를 처리하는 대신 여러 개의 작은 '전문가' 모델들이 입력 데이터의 일부에만 특화되어 작동하는 방식입니다. 전문가 조합 아키텍처를 활용하면 수십억 개의 매개변수로 구성된 대규모 모델도 사전 학습 중 계산 비용을 크게 줄이고 추론 시간 동안 더 빠른 성능을 달성할 수 ..