BERT, RoBERTA 및 GPT-3와 같은 텍스트 기반 인공지능(AI) 언어 모델은 최근 몇 년간 큰 발전을 이루었다.그들은 서면 단어를 입력으로 제공하면 사실상 어떤 주제에도 매우 현실적인 텍스트를 생성할 수 있으며, 몇 가지 라벨이나 예제(BART 및 XLM-R 등)만을 사용하여 정서·감정 분석, 번역, 정보 검색, 추론, 요약 등 다양한 어려운 자연어 처리(NLP) 애플리케이션에 대해 미세 조정할 수 있는 유용한 사전 훈련 모델을 제공한다.그러나 이러한 응용 프로그램은 주로 AI 모델 학습에 매우 큰 텍스트 데이터 세트가
출처 : 인공지능신문 – 전체기사