
생성형 인공지능(AI) 챗GPT가 초대박을 터뜨렸으나 챗GPT가 향후 사회에 미칠 악영향에 대한 우려가 확산되면서 규제 방안이 필요하다는 목소리가 커지고 있는 가운데 챗GPT를 개발한 주역들이 나름의 규제 방안을 제시하고 나서 관심이 쏠리고 있다.
국제원자력기구(IAEA)와 비슷한 형태의 국제감독기구를 설치하는 것이 좋겠다는 구체적인 아이디어를 꺼내 들었기 때문이다.
챗GPT에 대한 규제가 필요하다는 목소리가 쏟아지고 있는 데 대해 챗GPT를 개발한 주인공들이 수동적인 대응에 그치지 않고 규제 여론은 적극 수렴하면서도 챗GPT의 순기능을 알려나가는 이른바 ‘투트랙 전략’을 구사하고 나선 것으로 분석된다.
◇오픈AI 공동창업자들 “초지능 향후 10년 안에 등장 가능성, 미리 대비해야”

24일(이하 현지 시간) 가디언 등 외신에 따르면 올트먼 오픈AI CEO를 위시해 그레그 브록먼과 일리야 수츠케버 등 오픈AI를 공동으로 창업한 오픈AI 핵심 관계자들은 지난 22일 오픈AI 홈페이지에 공동으로 올린 ‘초지능 기술에 대한 지배구조’라는 제목의 글에서 “초지능이 지닌 실존적 위험성을 줄이기 위해 초지능 시스템을 감독하고 감사를 실시하고 안전기준에 부합하는지를 검증하는 국제적인 규제기구의 설립이 필요하다”고 촉구했다.
이들은 “앞으로 10년 안에 AI가 초지능 단계로 진화할 가능성이 있다”면서 “초지능이 등장하면 긍정적이든 부정적이든 인류가 그동안 개발한 첨단기술을 능가할 가능성이 있다”며 이같이 호소했다.
이들은 이어 “초지능 기술이 출현하면 인류 사회 입장에서는 획기적으로 번영된 미래가 올 수 있지만 그에 따른 위기 관리도 동시에 필요하다”면서 “따라서 수동적인 자세로 임할 것이 아니라 초지능의 실존적인 리스크에 미리 대비할 필요가 있다”고 강조했다.
초지능이란 강인공지능이 지능 폭발을 일으켜 만들어낼 궁극의 지능을 뜻하는 것으로 AI가 인간의 모든 영역에서 사람을 능가하는 지능을 확보하는 상황을 가리킨다.
이와 비슷한 개념으로 ‘인공일반지능(AGI)’도 요즘 한창 쓰이고 있다. AGI란 특정한 문제뿐만 아니라 주어진 모든 상황에서 생각과 학습을 하고 창작할 수 있는 능력을 지닌 인공지능을 말하는 것으로 제한된 능력만 지닌 ‘약인공지능’과 대비되는 ‘강인공지능’으로 분류된다.
초지능이 출현하기 전에 AI 기술 개발에 대한 글로벌 규제와 감독이 필요하다는 목소리가 한창 나오고 있는 이유다.
◇IAEA 형태의 '국제 AI 감독기구' 설립 제안
이들은 AGI의 등장에 대비해 미리 취해야 할 조치로 AI 기술을 개발하는 업체들이 어느 정도 수준에서 협력할 수 있는 시스템이 필요하다고 밝혔다.
갈수록 강력한 AI가 나올 텐데 그에 발맞춰 고도로 발달한 AI의 안전성이나 윤리성을 강화하는 조치도 동시에 업체들끼리 강구해야 한다는 것.
실제로 올트먼 CEO는 지난 16일 미 상원 법제사법위원회가 마련한 사생활·기술·법소위 인공지능(AI) 청문회에 증인으로 나와 “AI 기술이 잘못된 방향으로 나간다면 매우 잘못된 방향으로 흐를 가능성이 있다고 본다”고 인정한 바 있다.
AI 업계가 이같이 공동으로 리스크를 관리할 수 있으려면 이 문제를 전 세계적으로 관리하고 필요할 경우 구속력 있는 관련 협약이나 협정을 만들어 추진할 수 있는 국제기구가 필요한데 IAEA 같은 형태의 국제기구가 적절한 것으로 판단된다는 입장을 이들은 피력했다.
민간 기업들이 개발한 AI 기술에 대해 IAEA와 비슷한 방식의 AI 감독기구가 관련 기준을 제정하고 관련 기업들을 주기적으로 조사하거나 사찰하는 일이 필요하다는 뜻이다. 개별 기업에 모든 책임을 맡기지 말고 국제기구를 만들어 집단적으로 그리고 효과적으로 대응하자는 의미이기도 하다.
김현철 글로벌이코노믹 기자 rock@g-enews.com