HomeNewsITLIMA – 65B LLaMA 모델과 1000개의 프롬프트만으로 GPT-4에… LIMA – 65B LLaMA 모델과 1000개의 프롬프트만으로 GPT-4에 근접하는 성능을 내기 2023년 5월 23일노리컴퍼니ITNo Comments 234 views "Less Is More for Alignment" 강화학습 이나 선호도 모델링 없이 잘 큐레이트된 1000개의 프롬프트만으로 파인튜닝한 LLaMA 모델 43% 사례에서 GPT-4와 동등하거나 더 선호, Bard와 비교했을 때 58%, 휴먼 피드백으로 훈련한 DaVinci003에 비해 65% 높음 논문의 가설은 … 출처 : GeekNews – 개발/기술/스타트업 뉴스 서비스 관련