Close

SlowLlama – Llama2-70b 와 CodeLLama를 M1/M2에서 양자화없이 파인튜닝

  • 애플 M1/M2 및 소비자용 nVidia GPU에서 LLama2-70B 같은 모델을 파인튜닝
  • 양자화(quantization)를 사용하는 대신, 포워드/백워드 패스 모두에서 모델의 일부를 SSD또는 메인 메모리로 오프로드 하는 방식
  • 현재 버전을 LoRA를 사용하여 업데이트를 더 작은 매개변수 셋으로 제한

Leave a Reply

Your email address will not be published. Required fields are marked *

이 사이트는 스팸을 줄이는 아키스밋을 사용합니다. 댓글이 어떻게 처리되는지 알아보십시오.

© 2024 NORICOMPANY