닫기

글로벌이코노믹

과학자들 "AI 기술 위협 핵무기 위험에 필적할 것"

공유
0

과학자들 "AI 기술 위협 핵무기 위험에 필적할 것"

오픈AI의 챗GPT. 사진=로이터이미지 확대보기
오픈AI의 챗GPT. 사진=로이터
오픈AI, 구글 딥마인드 등 인공지능 회사들의 최고경영자 및 과학자 그룹은 빠르게 발전하고 있는 AI 기술로 인한 인간에 대한 위협이 핵무기 갈등이나 질병의 위협에 필적할 것이라고 경고하고 나섰다고 파이낸셜타임스 등 외신이 30일(이하 현지시간) 전했다.

미국 샌프란시스코의 비영리단체인 AI안전센터는 "AI로 인한 인간 멸종 위험을 완화하는 것이 전염병과 핵 전쟁과 같은 다른 사회적 규모의 위험과 함께 우리 세계의 우선 순위 과제가 되어야 한다"는 성명서를 발표했다고 전했다.
여기에는 OpenAI의 샘 알트만(Sam Altman) 최고경영자, 구글 딥마인드의 데미스 하사비스(Demis Hassabis) 최고경영자, AI 스타트업인 앤스로픽(Anthropic)의 다리오 아모데(Dario Amodei) 설립자 등 350명 이상의 AI 경영진, 연구원 및 엔지니어들이 성명서에 서명하며 동참했다고 한다.

신경망에 대한 연구로 튜링상을 수상하고 종종 인공지능의 "대부"로 일컬어지는 제프리 힌튼과 요슈아 벵지오도 이같은 입장에 동참했다. 힌튼은 기술의 잠재적인 해악에 대해 자유롭게 말하기 위해 이달 초에 구글에서 나왔다.

이 성명은 빅테크 기업들의 여러 AI 출시로 잘못된 정보 확산, 사회적 편견 영속화, 근로자 교체 등 잠재적 결함에 대한 인식이 높아지자 해당 분야 전반에 걸친 규제를 촉구한 데 따른 것이다.

유럽연합 의원들은 유럽의 인공지능법을 추진하고 있고, 미국도 규제조치를 모색하고 있다.

마이크로소프트가 지원하는 OpenAI의 ChatGPT는 지난해 11월에 출시되었으며 인공지능의 광범위한 관심을 주도하고 있다. 알트만 최고경영자는 이번 달 미국 의회 청문회에서 처음으로 라이선스 형태의 규제를 요구하는 입장을 밝혔다.

지난 3월 일론 머스크 등 1,000여 명의 연구원과 기술 임원들은 이른바 '군비 경쟁'같은 첨단 AI 시스템 개발을 6개월간 중단할 것을 촉구했다.
그런 입장은 그 논리적 추론 범위 내에서 인용된 일부 연구자들을 포함하여 그 접근방식에 대한 비판을 받았으며, 다른 연구자들은 기술개발에 대한 중단 권고에 동의하지 않았다.

AI안전센터는 한 줄짜리 성명을 내면서 의견 불일치를 피하기를 바란다고 밝혔다.

센터는 30가지 정도의 잠재적인 간섭을 원치 않는다. 그럴 경우, 메시지 자체가 희석될 수 있다는 우려가 있다.

마이크로소프트의 최고 기술 책임자인 케빈 스콧과 최고 과학 책임자인 에릭 호비츠도 그 성명서에 서명했고, 현재 스타트업 Infection AI를 운영하는 전 딥마인드 공동 설립자인 무스타파 설리만도 그 성명에 동참했다고 전해졌다.


이진충 글로벌이코노믹 국제경제 수석저널리스트 jin2000kr@g-enews.com