미스트랄 AI와 엔비디아, 12B NeMo 모델 공개

2024-07-23


미스트랄 AI는 엔비디아(NVIDIA)와 협력하여 만든 12B 모델인 NeMo(네모)를 발표했습니다. 이 새로운 모델은 최대 128,000 토큰의 인상적인 컨텍스트 창을 자랑하며 크기 범주에 대한 추론, 세계 지식 및 코딩 정확성에서 최첨단 성능을 자랑합니다.


미스트랄 AI와 엔비디아의 협력은 성능의 경계를 허물 뿐만 아니라 사용 편의성을 우선시하는 모델로 이어졌습니다. 미스트랄 NeMo는 표준 아키텍처에 의존하기 때문에 현재 미스트랄 7B를 사용하는 시스템을 원활하게 대체할 수 있도록 설계되었습니다.


채택과 추가 연구를 장려하기 위한 조치로, 미스트랄 AI는 아파치 2.0 라이선스 하에 사전 훈련된 기지와 명령어 조정된 체크포인트를 모두 사용할 수 있도록 했습니다. 이 오픈 소스 접근 방식은 연구자와 기업 모두에게 어필할 가능성이 있으며, 잠재적으로 다양한 응용 프로그램의 모델을 통합하는 것을 가속할 수 있습니다.


미스트랄 NeMo의 주요 특징 중 하나는 훈련 중 양자화 인식으로, 성능을 손상하지 않고 FP8 추론을 가능하게 합니다. 이 기능은 대규모 언어 모델을 효율적으로 배포하려는 조직에 매우 중요할 수 있습니다.


미스트랄 AI는 미스트랄 NeMo 기본 모델과 최근 오픈 소스 사전 학습된 두 모델인 Gemma 29B와 Lama 38B 사이의 성능 비교를 제공했습니다.


"이 모델은 다국어 글로벌 응용 프로그램을 위해 설계되었습니다. 이 모델은 기능 호출에 대해 훈련되었고, 큰 컨텍스트 창이 있으며, 특히 영어, 프랑스어, 독일어, 스페인어, 이탈리아어, 포르투갈어, 중국어, 일본어, 한국어, 아랍어, 힌디어에 강합니다," 라고 미스트랄 AI가 설명했습니다.


"이것은 인류 문화를 형성하는 모든 언어에서 프론티어 AI 모델을 모든 사람의 손에 가져다주는 새로운 단계입니다."


미스트랄 NeMo는 Tiktoken에 기반한 새로운 토큰화기인 Tekken을 소개합니다. 100개 이상의 언어로 훈련된 Teken은 이전 미스트랄 모델에 사용된 SentencePiece 토큰화기에 비해 자연어 텍스트와 소스 코드 모두에 대해 향상된 압축 효율성을 제공합니다. 회사는 Teken이 소스 코드와 여러 주요 언어를 압축하는 데 약 30% 더 효율적이며 한국어와 아랍어의 경우 훨씬 더 큰 이점을 얻을 수 있다고 보고합니다.


또한 미스트랄 AI는 Tekken이 전체 언어의 약 85%에서 Lama 3 토큰화기를 능가하여 잠재적으로 미스트랄 NeMo가 다국어 애플리케이션에서 우위를 점할 수 있다고 주장합니다.


이 모델의 무게는 이제 허깅페이스(HuggingFace)에서 기본 버전과 명령 버전 모두 사용할 수 있습니다. 개발자들은 미스트랄 추론 도구를 사용하여 미스트랄 NeMo로 실험을 시작하고 미스트랄 미세 조정으로 조정할 수 있습니다. 미스트랄의 플랫폼을 사용하는 사람들의 경우, 이 모델은 open-mistral-nemo라는 이름으로 액세스할 수 있습니다.


NVIDIA와의 협력을 인정하기 위해 Mistral NeMo는 NVIDIA NIM 추론 마이크로 서비스로도 포장되어 있으며, ai.nvidia.com 를 통해 제공됩니다. 이러한 통합은 이미 NVIDIA의 AI 생태계에 투자한 조직에 대한 구축을 간소화할 수 있습니다.


미스트랄 NeMo의 출시는 고급 AI 모델의 민주화에 중요한 진전을 나타냅니다. 미스트랄 AI와 엔비디아는 고성능, 다국어 기능 및 오픈 소스 가용성을 결합하여 이 모델을 다양한 산업 및 연구 분야에 걸쳐 광범위한 AI 응용 프로그램을 위한 다용도 도구로 포지셔닝하고 있습니다.