Close

LLaMA-Adapter V2: LLaMA를 효율적으로 파인 튜닝하는 도구

  • 단 120만개의 학습가능한 파라미터를 통해서 LLaMA를 1시간만에 Instruction-Following & MultiModal 모델로 학습가능
  • Alpaca는 7B개의 파라미터와 13G 저장공간, 3시간이 필요하지만,
    LLaMA-Adapter는 1.2M개의 파라미터와 4.7M 저장공간, 1시간이면 됨

출처 : GeekNews – 개발/기술/스타트업 뉴스 서비스

Leave a Reply

Your email address will not be published. Required fields are marked *

이 사이트는 스팸을 줄이는 아키스밋을 사용합니다. 댓글이 어떻게 처리되는지 알아보십시오.

© 2024 NORICOMPANY