알리바바그룹의 디지털 기술 및 인텔리전스의 중추 알리바바 클라우드가 70억 개의 파라미터를 갖춘 대규모 언어 모델(LLM) ‘Qwen-7B’와 이를 기반으로 한 ‘Qwen-7B-Chat’을 지난 3일 오픈소스로 공개했다. 이는 지난달 18일 메타가 70억, 130억, 700억 개의 파라미터로 사전 학습되고 미세 조정된 모델로 2조 개의 토큰으로 훈련되었으며 100만 개 이상의 인간 주석으로 훈련된 차세대 대화형 생성 인공지능 ‘라마 2(LLaMa2)’를 오픈 소스로 공개(참고)한지 보름여 만이다.중국의 대형 기술 회사가 LLM을 오
출처 : 인공지능신문 – 전체기사