Close

Open-LLaMa – LLM 작성용 완전한 트레이닝 파이프라인

  • 데이터셋 생성부터 토큰화, 프롬프트 튜닝, LoRA 및 RLHF 까지 전체 파이프라인을 구성한 오픈소스
  • 사전학습된 Open-LLama-V2-pretrain 모델도 Hugging Face에 공개
  • FastChat 평가방법에 의하면 GPT-3.5와 비교시 약 89%의 성능을 낸다고(중국어로된 질문에 대해)
  • 학습 스피드는 36…

    출처 : GeekNews – 개발/기술/스타트업 뉴스 서비스

Leave a Reply

Your email address will not be published. Required fields are marked *

이 사이트는 스팸을 줄이는 아키스밋을 사용합니다. 댓글이 어떻게 처리되는지 알아보십시오.

© 2024 NORICOMPANY