Close

MosaicML, MPT-7B-8K 모델 공개

  • 8k 컨텍스트 길이를 지원하는 7B 파라미터 오픈소스 LLM
  • MPT-7B에 추가로 500B 토큰 데이터를 이용해 256개의 NVidia H100 으로 3일간 트레이닝
  • 3개의 모델을 공개 : MPT-7B-8k, MPT-7B-8k-Instruct, MPT-7B-8k-Chat
  • 상업적 용도로 사용 가능
  • ALiBi(Attention with Linear…

    출처 : GeekNews – 개발/기술/스타트업 뉴스 서비스

Leave a Reply

Your email address will not be published. Required fields are marked *

이 사이트는 스팸을 줄이는 아키스밋을 사용합니다. 댓글이 어떻게 처리되는지 알아보십시오.

© 2024 NORICOMPANY