• 페이스북
  • 트위터
  • 유튜브

오픈AI 직원들, "일반인공지능 인류파멸 위험" 경고

등록 2024.06.05 07:57:16수정 2024.06.05 08:00:53

  • 이메일 보내기
  • 프린터
  • PDF

무분별한 경쟁과 비밀주의로 위험성 제어 안돼

자율규제로는 부족…적절한 규제 입법 서둘러야

"2027년 완성 일반인공지능 인류 파멸 위험 70%"

[서울=뉴시스]인간의 모든 능력을 구현할 수 있는 초인적 수준의 일반인공지능(AGI)의 발전단계를 형상화한 도표. (출처=medium.com) 2024.6.5. *재판매 및 DB 금지

[서울=뉴시스]인간의 모든 능력을 구현할 수 있는 초인적 수준의 일반인공지능(AGI)의 발전단계를 형상화한 도표. (출처=medium.com) 2024.6.5.  *재판매 및 DB 금지


[서울=뉴시스] 강영진 기자 = 인공지능(AI) 개발에서 선두를 달리는 미 오픈AI사의 전 현직 직원 9명이 회사가 AI가 위험해지지 않도록 하는 노력을 충분히 하지 않고 있다고 경고했다.

미 뉴욕타임스(NYT)는 4일(현지시각) 오픈AI 직원들이 회사 내부에 무모한 경쟁 문화와 비밀주의가 만연해 있음을 지적했다고 전했다.

이들은 당초 비영리연구단체로 출범해 2022년 챗GPT를 공개하며 대박을 터트린 오픈AI가 이익과 성장을 우선시하며 일반인공지능(AGI) 개발에 몰두하고 있다고 말한다. AGI는 사람이 하는 모든 일을 해내는 컴퓨터 프로그램을 가리킨다.

이들은 또 오픈AI가 직원들이 인공지능 기술에 대한 우려를 밝히지 못하도록 막아왔으며 퇴사하는 사람들에 대해서도 인공지능에 대해 우려하는 의견을 밝힐 경우 수백만 달러 상당의 스톡옵션을 포기하도록 강요하는 조항에 서명하도록 하고 있다고 주장했다.

오픈AI사 전 연구자 출신 대니얼 코코타즐로는 “오픈AI가 최초 AGI 구축 개발자가 되기 위해 무모하게 경쟁하고 있다”고 말했다.

오픈AI 전현직 직원들은 4일 공개한 서한에서 오픈AI 등 인공지능 선도 회사들이 투명성을 높이고 내부 고발자를 더 잘 보호해야 한다고 강조했다.

서한에는 오픈AI에서 퇴사한 연구자 3명과 여러 명의 현직 직원들 및 구글 딥마인드, 구글 AI중앙연구실 소속 전 현직 직원들이 서명했다.

지난달에도 AI 선임 연구자인 일랴 수츠키버와 얀 레이케가 오픈AI를 떠났다. 두 사람은 AI 모델의 위험을 제어하는 일을 담당해왔다.

코코타즐로는 AGI가 오는 2027년께 완성될 수 있을 것으로 전망하면서 AGI가 인류를 파괴하는 재앙이 될 확률이 70%에 달한다고 밝혔다. 

코코타즐로는 “세상은 대비가 돼 있지 않으며 우리도 마찬가지”라면서 “무작정 달려 나가기만 하는 것이 걱정스럽다”고 말했다.

코코타즐로 등 서한 서명자들은 AI회사들의 자율규제만으로는 강력한 AI의 위험성을 제어하는데 충분하지 않다며 적절한 입법이 필요하다고 강조했다.


◎공감언론 뉴시스 [email protected]

많이 본 기사