link 세부 정보
정보 바로가기 : 딥시크, 美 절반 비용으로 수준은 버금가…“국산 LLM에 방법론 접목하...
딥시크, 美 절반 비용으로 수준은 버금가…“국산 LLM에 방법론 접목하...[카테고리 설정이 아직되어 있지 않습니다.]
그러면서, 딥시크 V3가 하위 모델중 일부만 활성화라고 특정작업을 처리해 필요 메모리와 계산량을 줄이는 '믹스처 오브 엑스퍼츠(MoE)' 등 방법론을 활용했다고 설명했다. 더욱이 딥시크 V3는 전문가의 중복지식을...