"올트먼 축출, 이사회가 받은 '인류 위협 AI' 서한 탓"
"이사회, 획기적 AI '큐스타'에 대한 경고 서한 받아"
[레드몬드=AP/뉴시스]오픈AI 일부 연구원들이 '인류를 위협할 수 있는 강력한 인공지능(AI)을 개발했다'는 내용의 경고 서한을 이사회에 보낸 것이 샘 올트먼 해임 사태를 촉발했다고 22일(현지시간) CNBC와 로이터통신 등이 보도했다. 사진은 올해 2월7일 미 레드몬드에서 올트먼이 강연을 하는 모습. 2023.11.23 *재판매 및 DB 금지
내부 사정에 정통한 소식통에 따르면 미라 무라티 최고기술책임자(CTO)는 이날 직원들에게 큐스타(Q*)라고 불리는 획기적인 AI에 대한 편지가 이사회의 올트먼 해임을 초래했다고 말했다.
오픈AI는 큐스타를 통해 상당한 수준의 진전을 이뤘다고 한다. 일부 직원들은 큐스타가 인간의 명령 또는 도움 없이 스스로 사고하고 학습하는 범용AI(AGI) 개발의 돌파구가 될 수 있다고 믿는다고 로이터통신은 보도했다. 오픈AI는 AGI를 인간보다 더 똑똑한 AI시스템으로 정의하고 있다.
또 다른 내부 소식통은 큐스타가 방대한 컴퓨팅 자원을 바탕으로 특정 수학적 문제를 해결할 수 있었다고 언급하기도 했다. 비록 아직 초등학생 수준의 수학 정도만 수행하지만, 이런 테스트들로 인해 연구자들은 큐스타의 성공에 대해 매우 낙관적으로 보게 됐다고 이 소식통은 말했다.
앞서 오픈AI 이사회와 올트먼이 AI의 위험성 등과 관련한 이견을 보여 해임 사태가 벌어졌다는 분석 등은 지속적으로 언급돼 왔다. 전날 월스트리트저널은 오픈AI의 수석개발자이자 이사진 중 한명이었던 일리야 수츠케버가 AI의 위험성을 인지, 개발 속도를 늦추기 위해 올트먼 해임 사태를 일으켰다고 보도했다.
며칠 간 업계를 떠들썩하게 한 올트먼 해임 사태는 이날 새로운 오픈AI 이사회 구성과 올트먼의 최고경영자(CEO) 자리 복귀로 일단락됐다.
◎공감언론 뉴시스 [email protected]
Copyright © NEWSIS.COM, 무단 전재 및 재배포 금지