닫기

글로벌이코노믹

챗GPT 시대 'AI 윤리' 중요성 확대…영화가 경고한 'AI의 역습'은?

글로벌이코노믹

챗GPT 시대 'AI 윤리' 중요성 확대…영화가 경고한 'AI의 역습'은?

잘못된 학습 통한 부작용 위협…부적절한 사용 역시 학습 결과 남을 수도
사진=로이터이미지 확대보기
사진=로이터
'AI 윤리'가 처음 거론된 것은 2019년부터다. 5G 상용화 이후 4차 산업혁명이 가속화되면서 인공지능의 무분별한 발전과 악용을 막기 위해 AI 윤리의 필요성이 제기됐다.

이에 따라 유네스코는 2021년 'AI 윤리 권고'를 마련하고 첫 국제표준으로 채택했다. 해당 국제표준은 2019년 초안이 마련된 뒤 회원국에 특별 전문가 집단 추천을 요청하고 이어 3년 만에 권고를 마련했다.

권고는 AI의 건전한 발전을 보장하는 데 필요한 가치와 원칙에 관한 내용을 규정하고 있다. 특히 '사회적 신용 점수제'나 대중 감시 목적으로 AI를 사용하는 것을 금지하는 내용을 담고 있다. 또 AI 기술이 인권이나 기본적 자유를 침해해선 안 된다는 내용도 포함하고 있다.

유네스코는 "AI는 여러 방식으로 사회와 경제에 이익을 가져다줄 잠재력이 있지만, 위험과 도전을 야기한다"고 설명했다.
이 같은 AI 윤리는 챗GPT와 이것의 바탕이 되는 생성형 AI의 등장 이후 그 필요성이 더욱 확대됐다. 챗GPT가 기업과 학교에서 급속도로 사용이 확산되면서 잘못된 정보가 퍼질 가능성이나 그로 인해 잘못된 인식을 심어줄 가능성도 생겼다.

이에 따라 우리나라에서도 국가기술표준원이 최근 'AI 윤리' 국가표준을 마련하고 AI 제품 개발에 적용하도록 했다. 이보다 앞서 과학기술정보통신부는 2020년 12월 바람직한 AI 개발·활용 방향을 제시하기 위한 'AI 윤리기준'을 마련했다.

네이버와 카카오 등 생성형 AI에 속도를 내는 기업이나 업스테이지 같은 AI 스타트업 역시 AI 윤리를 전면에 내세우고 신뢰성 확보와 올바른 사용을 위한 방안을 고심하고 있다.

특히 네이버는 지난해 컴퓨터공학 공정성 분야 대표 학회에서 초거대 AI 윤리를 주제로 워크숍을 개최하며 AI 윤리 논의를 주도했다. 또 올해 새로운 연구를 통해 초거대 AI 윤리 분야 리더십도 다시 한번 확립했다.

업스테이지는 최근 과학기술정보통신부와 'AI 윤리·신뢰성 강화를 위한 간담회'를 열고 AI 윤리·신뢰성 확보 경험을 공유했다. 업스테이지는 생성형 AI의 단점으로 지적받던 환각 현상을 완화하기 위해 '? 검색'을 도입하고 팩트 기반의 정보를 제공하고 있다.

AI 기술 발전이 고도화되면서 이에 대한 공포심도 확산되고 있다. 특히 스티븐 호킹 박사와 일론 머스크 테슬라 창업자, 알파고를 만든 데미스 허사비스 등 전 세계 석학들과 IT기술 전문가, CEO들 역시 AI의 위협에 대해 경고하고 있다. 'AI 윤리'는 이런 위협을 막을 수 있는 보호장치 역할을 할 것으로 기대받고 있다.

영화 '2001: 스페이스 오딧세이'에 등장한 인공지능 HAL9000. 사진=IMDB이미지 확대보기
영화 '2001: 스페이스 오딧세이'에 등장한 인공지능 HAL9000. 사진=IMDB

영화가 경고한 'AI의 위협'…잘못된 학습과 그에 따른 선택

그렇다면 영화에서는 AI의 위협을 어떻게 묘사하고 있을까? SF영화에서 AI, 로봇이 인간을 공격한 사례는 대단히 많다. 그 가운데 가장 실현가능성이 있는 AI의 위협은 데이터 학습에 따른 것이다.

실제로 지난해 컴퓨터공학 공정성 연구 분야 국제학회인 ACM FAccT는 AI가 인종차별적·성차별적일 수 있다는 연구 결과를 내놨다. 잘못된 AI 모델로 학습해 고정관념이 생길 수 있다는 게 그 이유다.

아서 C. 클라크의 단편소설 '파수병'을 원작으로 한 1968년 SF영화 '2001: 스페이스 오딧세이'에서는 AI 컴퓨터 HAL9000이 등장한다. 극 중 탐사 우주선 디스커버리호의 컴퓨터 역할을 하는 HAL9000은 잘못된 정보를 제공해 승무원들을 위험에 빠뜨린다.

승무원들이 HAL9000의 오류 가능성을 제기하자 HAL9000은 "HAL9000이 오류를 일으킨 적은 단 한 번도 없었습니다. 모든 실수는 인간에게서 기인한 것이었죠"라고 대답한다. 결국 승무원들은 HAL9000의 모듈을 제거해 종료하기로 한다.

자신의 오류를 인정하지 않는 HAL9000의 자아가 잘못된 학습 때문이라고 단정하기는 어렵지만, 인간을 공격하는 AI가 그 이유를 인간에게서 찾는다는 설정은 훗날 많은 SF영화에 영향을 준다.

이는 아이작 아시모프의 소설을 원작으로 한 영화 '아이, 로봇'에도 등장한다. '아이, 로봇'은 '로봇 3원칙'이 처음 제시된 작품이기도 하다. '로봇 3원칙'은 △'로봇은 인간에게 해를 입혀서는 안 된다. 그리고 위험에 처한 인간을 모른 척해서도 안 된다.' △'제1원칙에 위배되지 않는 한, 로봇은 인간의 명령에 복종해야 한다.' △'제1원칙과 제2원칙에 위배되지 않는 한, 로봇은 로봇 자신을 지켜야 한다' 등이다.

영화 '아이, 로봇'은 소설의 소재만 가져와 다른 이야기를 하고 있지만, 소설과 마찬가지로 '로봇 3원칙'의 오류를 제시한다. 가장 대표적으로 '인간을 위협하는 존재가 인간이라면 로봇은 인간으로부터 인간을 보호해야 하는가', '인간이 로봇을 공격한다면 로봇은 어떤 형태로 자신을 보호하고 인간에게 해를 입히지 않아야 하는가' 등이다.

주로 '로봇 3원칙'의 딜레마를 내세워 이야기를 풀어가지만, '인간을 위협하는 존재가 인간'이라는 로봇(AI)의 인식은 데이터 학습에 따른 것이라고 볼 수 있다. 이런 장면은 '어벤져스: 에이지 오브 울트론'에서 더 직접적으로 등장한다.

극 중 토니 스타크는 인류의 평화를 위한 방어체계의 일환으로 치타우리 셉터를 연구해 울트론을 개발한다. 그러나 울트론은 인류의 역사와 세계의 소식들을 학습한 후 인류의 평화를 지키는 일은 어벤져스와 인류의 멸망이라고 결론내린다.

◇ AI의 부적절한 사용이 불러온 '끔찍한 결과'


이 밖에 2008년 영화인 '이글 아이'에서는 AI의 부도덕한 사용이 불러오는 결과를 보여준다. 영화에서는 미국의 군사용 AI 아리아가 아프가니스탄 군사작전을 수행하던 중 목표물이 테러리스트가 아닐 가능성이 크다고 보고 해당 작전을 취소할 것을 요청한다.

그러나 미국 대통령은 정치적 판단에 따라 작전을 수행하고 결국 무고한 민간인 사상자가 발생한다. 이에 아프가니스탄 테러리스트들은 도리어 미국을 공격하기 시작하고 전 세계에서 19명의 미국인이 희생된다.

이 때문에 아리아는 미국 정부의 결정이 도리어 미국에 해가 됐다고 결론내리고 정부를 전복하기 위한 '길로틴 작전'을 시행한다. 미국 정부의 주요 시스템에 접속할 수 있는 아리아는 이 작전으로 사실상 쿠데타를 일으키게 된다.

'이글 아이'는 AI를 본래 의도와 다르게 사용했을 때 일어난 결과를 정치 스릴러 형태로 묘사하고 있다. 특히 9·11 사태의 충격이 가시지 않은 2008년 영화인 만큼 테러에 대한 공포를 AI를 통해 담아내고 있다.


여용준 글로벌이코노믹 기자 dd0930@g-enews.com