노벨물리학상 힌턴 "AI, 현대 사회 '극단주의'에 기여…실존적 위협도"
"근미래엔 AI가 치명적 바이러스·무기에 사용될 수도"
"AI 개발 규제 연구 시급…더 이상 공상과학 소설 아냐"
[스톡홀름=AP/뉴시스] 올해 노벨 물리학상 수상자인 제프리 힌턴 캐나다 토론토대 명예교수가 10일(현지시각) 스웨덴 스톡홀름 시청에서 열린 노벨 연회에서 연설하고 있다. 2024.12.10.
[서울=뉴시스]박광온 기자 = 올해 노벨물리학상 수상자인 제프리 힌턴 캐나다 토론토대 명예교수는 인공지능(AI)의 급속한 발전에 따른 위험성에 인류가 경각심을 가져야 한다고 촉구했다.
특히 AI는 이미 현대 사회의 확증 편향성과 양극화에 영향을 주고 있으며, 단기적 이익을 좇는 기업들이 인간보다 더욱 지능적인 AI를 개발할 경우엔 인간의 안전도 보장할 수 없을 것이라고 경고했다.
캐나다 현지 매체 베타킷에 따르면, 'AI 대부'로 불리는 힌턴 교수는 이날 스웨덴 스톡홀름 콘서트홀에서 열린 2024 노벨상 시상식 후 마련된 연회에서 이 같은 내용을 연설했다.
구체적으로 힌턴 교수는 인공 신경망을 사용해 복잡한 계산 문제 해결 방법을 학습하던 AI는 현재 인간의 추론 능력뿐만 아니라 직관 능력까지 뛰어나게 모델링하는 등 새로운 형태로 나아갔다고 운을 뗐다.
그러면서 "가까운 미래에 AI는 스스로 누구를 죽이거나 다치게 할지 결정하는 끔찍한 새 바이러스와 치명적 무기를 만드는 데 사용될 수 있다"며 "정부와 국제 기구의 시급하고 강력한 관심이 필요하다"고 강조했다.
힌턴 교수는 현대의 분열되고 양극화하는 사회 문제가 AI의 급속한 발전에 기인한 것이라고도 주장했다. AI가 시민들에게 편향적인 정보를 지속적으로 제공해, 기존의 관점을 강화하는 정보를 반복 학습하도록 했다는 것이다.
힌턴 교수는 이를 '반향실 효과'(echo chamber effect)라고 표현했는데, 이는 반향실에 들어선 사람들이 메아리쳐 돌아오는 자신의 소리만을 듣는 것처럼 계속해서 같은 정보를 학습하며 확증 편향이 강화되는 것을 뜻한다. 이는 사회적·정치적 의견 소통을 단절시키고 극단주의의 배경이 되기도 한다.
특히 힌턴 교수는 "인간보다 더욱 지능적인(intelligent) 디지털 존재를 만들 때 발생할 장기적인 실존적 위협도 있다"고 경고했다.
이어 "우리가 AI에 대한 통제권을 유지할 수 있을지 확신할 수 없다"며 "이제 단기적인 이익을 좇는 기업이 (AI)를 만든다면 우리의 안전이 최우선으로 지켜지지 않을 수 있다는 증거가 있다"고 말했다.
그러면서 "이런 새로운 존재가 통제권을 장악하려는 것을 어떻게 막을 수 있을지에 대한 연구가 시급하다"며 "이건 더 이상 공상 과학 소설(SF)이 아니다"고 직격했다.
앞서 힌턴 교수는 지난 10월 존 홉필드 프린스턴대 명예교수와 함께 인공신경망을 개발해 기계의 학습 취득을 가능하게 한 공로로 올해 노벨물리학상을 공동 수상했다.
당시 힌턴 교수는 수상 소감으로 "AI가 통제에서 벗어나 생존 위협을 가져올 수 있다는 측면에서 우리는 역사적 분기점에 있다"고 우려를 드러냈다. AI 통제에 더 많은 연구 자원을 투입해야 한다는 뜻이다.
힌턴 교수는 노벨물리학상을 수상하기 전부터 꾸준하게 AI의 위험성을 경고해 왔다.
실제 그는 지난 3월 일본 니혼게이자이신문(닛케이)과 인터뷰를 통해 "제1차 세계대전에서 재앙을 불러온 화학 무기처럼 로봇 무기 역시 언젠가 규제할 수 있을 것"이라며 "하지만 그 실현은 실제 전장에서 (로봇 무기가) 사용돼 인류가 그 비참함을 인식한 뒤가 될 것"이라고 경고했다.
◎공감언론 뉴시스 [email protected]
Copyright © NEWSIS.COM, 무단 전재 및 재배포 금지