Close

Mistral AI, Llama 2 70B 모델보다 뛰어난 Mixtral 8x7B 모델 공개

  • "High-quality Sparse Mixture of Experts Model (SMoE, 고품질 희소 전문가 모델)"
  • Llama 2 70B를 대부분 벤치마크에서 능가하며, 6배 빠른 추론
  • 대부분의 표준 벤치마크에서 GPT 3.5와 비슷하거나 더 나은 성능을 보임
  • 허용 라이센스가 있는 가장 강력한 오픈 웨이트 모…

    출처 : GeekNews – 개발/기술/스타트업 뉴스 서비스

Leave a Reply

Your email address will not be published. Required fields are marked *

이 사이트는 스팸을 줄이는 아키스밋을 사용합니다. 댓글이 어떻게 처리되는지 알아보십시오.

© 2024 NORICOMPANY