Close

LocalAI – 셀프호스트 가능한 OpenAI 호환 API

  • OpenAI와 호환되는 REST API로 다양한 LLM들을 이용 가능
  • GPU 없이도 가능. llama.cpp 호환 LLM에서는 GPU 가속 지원
  • 다중 모델을 지원하며, 오디오 트랜스크립션, 텍스트 생성, 이미지 생성(Stable Diffusion) 지원
  • 한번 로딩되면 모델을 메모리에 저장해두고 빠른 추론 지원
  • 출처 : GeekNews – 개발/기술/스타트업 뉴스 서비스

Leave a Reply

Your email address will not be published. Required fields are marked *

이 사이트는 Akismet을 사용하여 스팸을 줄입니다. 댓글 데이터가 어떻게 처리되는지 알아보세요.

© 2025 NORICOMPANY