Close

vLLM: PagedAttention을 이용한 쉽고 빠르고 저렴한 LLM 서빙

  • 빠른 LLM 추론 및 서빙을 위한 오픈소스 라이브러리
  • PagedAttention 알고리듬으로 어텐션 키/값을 효율적으로 관리
    • 모델 아키텍처 변경없이 HuggingFace Transformers 대비 24배 높은 처리량
    • 비연속 메모리 공간에 연속된 키/값을 저장 가능
  • LMSYS Vicuna 와 …

    출처 : GeekNews – 개발/기술/스타트업 뉴스 서비스

Leave a Reply

Your email address will not be published. Required fields are marked *

이 사이트는 스팸을 줄이는 아키스밋을 사용합니다. 댓글이 어떻게 처리되는지 알아보십시오.

© 2024 NORICOMPANY