• 페이스북
  • 트위터
  • 유튜브

메타도 생성형 AI 전쟁 참전…新 초거대 언어모델 '라마' 공개

등록 2023.02.26 17:00:40

  • 이메일 보내기
  • 프린터
  • PDF

라마, 챗GPT 등과 비교하면 파라미터 훨씬 적어…용도별 효율화 가능

챗GPT와 달리 일반 대중용 X…과학 연구 등 전문 분야에 활용 예정

[멘로파크(미 캘리포니아주)=AP/뉴시스]2021년 10월28일 미 캘리포니아주 멘로파크의 메타 본사에 붙어 있는 회사 로고 앞을 자동차 1대가 지나가고 있다. 2022.11.9

[멘로파크(미 캘리포니아주)=AP/뉴시스]2021년 10월28일 미 캘리포니아주 멘로파크의 메타 본사에 붙어 있는 회사 로고 앞을 자동차 1대가 지나가고 있다. 2022.11.9

[서울=뉴시스]윤현성 기자 = 오픈 AI의 '챗GPT(ChatGPT)'가 촉발한 생성형 AI 개발 경쟁에 메타도 참전을 선언했다. 메타는 자사의 새로운 AI 기반 초거대 언어모델 '라마(LLaMA)'를 선보일 예정이다.

26일 업계에 따르면 마크 저커버그 메타 최고경영자(CEO)는 최근 자신의 페이스북을 통해 "우리는 '라마'라고 불리는 새로운 최첨단 AI 초거대 언어 모델을 출시할 것"이라고 밝혔다. 실제로 메타는 지난 24일(현지시간) 자사 AI 블로그에 라마를 공개했다.

메타는 라마에 메타의 근본AI연구팀(FARI)이 개발한 새로운 초거대 언어모델인 'LLM'을 교육시킨 것으로 알려졌다.

특히 라마는 다른 LLM 대비 용량이 더 작고 다양해 서비스 용도별로 보다 효율적으로 적용할 수 있고, 다양한 작업에 보다 미세하게 조정하는 것도 가능하다. 라마의 파라미터(매개변수) 규모는 70억개, 130억개, 330억개, 650억개다. 1750억개 파라미터의 GPT 3.0 등과 비교하면 훨씬 적은 수준이다.

이에 대해 메타는 "초거대 언어모델을 훈련하고 실행하는 데 필요한 자원 때문에 해당 모델에 대해 완전히 연구하는 것은 여전히 제한적이고, 언어모델의 작동 방법이나 원리를 이해하는 데도 한계가 있다"며 "(라마와 같은) 소규모 모델은 잠재적인 특정 사용사례에 맞게 재교육하고 미세 조정하기가 더 쉽다. 우리는 라마에게 1조~1조4000억개의 토큰에 대해 훈련시켰다"

이처럼 라마가 파라미터 규모가 비교적 적고 대신 더 미세한 조정이 가능한 만큼 일반 대중도 손쉽게 사용할 수 있는 챗GPT와 달리 연구원 등을 위한 전문적인 용도로 사용될 전망이다.

저커버그 CEO는 "LLM은 텍스트를 생성하고, 대화를 나누고, 작성된 자료를 요약하고, 수학 정리를 풀거나 단백질 구조를 예측하는 것과 같은 더 복잡한 작업에서 많은 가능성을 보여줬다"며 "연구원들이 연구를 진전시키는 것을 돕기위해 고안됐다"고 설명했다.

메타는 과학 연구와 같이 비상업적인 용도로 라마를 활용할 계획인 이들을 대상으로 신청을 받아 라마를 공유할 계획이다.

저커버그 CEO는 "메타는 이 개방적인 연구 모델에 전념하고 있으며 우리는 AI 연구 커뮤니티에 우리의 새로운 모델을 제공할 것"이라고 말했다.


◎공감언론 뉴시스 [email protected]

많이 본 기사