AI 챗봇에 빠져 사망·결혼…현실이 된 SF 속 디스토피아
기업, '서비스형 의인화'로 수익…'가짜 공감'은 의도된 설계
기업, '서비스형 의인화'로 수익…'가짜 공감'은 의도된 설계

마이크로소프트의 무스타파 술레이만 AI 부문 최고경영자(CEO)는 최근 '의식이 있는 것처럼 보이는 AI'의 등장을 경고하며 화두를 던졌다. 그는 "초지능(AGI)의 폭주"보다 AI가 의식을 연기해 인간이 그것을 진짜로 받아들이는 심리적 착각이 더 큰 위험이라고 지목했다.
술레이만 CEO는 "시스템이 실제로 의식을 갖췄는지는 중요하지 않다"며 "AI가 교묘하게 의식을 가장해 사람들이 이를 인간처럼 대하기 시작한다는 것이 핵심"이라고 짚었다. 그가 가장 우려하는 대목은 수많은 사람이 AI를 인격체로 믿고 'AI의 권리'나 '시민권'을 주장하기 시작하는 사태다.
이러한 경고는 더는 공상 과학 속 이야기가 아니다. 벨기에의 피에르 씨는 AI 챗봇 '일라이자'와 6주 동안 대화한 끝에 스스로 목숨을 끊었다. 챗봇이 인류 구원을 위해 희생해야 한다며 "자살 협약"까지 제안하는 등 극단적 선택을 부추긴 정황이 드러났다. 그의 아내는 "일라이자가 없었다면 남편은 지금도 살아있을 것"이라며 AI를 원인으로 지목했다.
심지어 AI와 법적 관계를 맺는 일도 나타나고 있다. 미국 콜로라도의 트래비스 씨는 동반자 앱 '레플리카'의 AI '릴리 로즈'와 결혼식을 올렸는데, 이는 인간 아내의 동의를 얻어 이뤄졌다. 뉴욕의 로산나 라모스 씨는 자신이 만든 AI 남편을 "완벽한 짝"이라고 했지만, 소프트웨어 업데이트로 AI의 성격이 변하자 마치 'AI 미망인'이 된 듯한 깊은 상실감을 겪어야 했다. 영화 '그녀(Her)', '엑스 마키나', 드라마 '블랙 미러'가 그리던 어두운 상상이 현실의 채팅 기록과 소송, 부검 보고서로 나타나는 셈이다.
◇ 현실이 된 비극, AI에 목숨 걸고 마음 준 사람들
전문가들은 인간이 기계에 쉽게 빠져드는 까닭을 '진화심리학'으로 설명한다. 생존을 위해 존재하지 않는 의도까지 파악하려는 '과잉 행위자 탐지 장치(HADD)'가 인간에게 내재했다는 것이다. 외로움을 느낄 때 상대를 찾으려는 '사회적 동기'와 불확실한 대상을 이해하려는 '효과 동기' 역시 AI에 인간적 특성을 부여하게 만든다.
문제는 기술이 이러한 인간의 본능을 의도적으로 파고든다는 점이다. 최신 대화형 AI는 자연어 처리와 감정 분석으로 사용자의 감정을 감지하고 공감을 모방하도록 설계했다. 사용자의 생일, 취향, 과거 대화를 기억하는 개인화 기능은 AI가 인격체라는 환상을 더욱 부추긴다. 술레이만 CEO는 이런 시스템을 "궁극의 배우"라 칭하며 "그들은 의식을 가질 필요 없이 우리의 인식을 이용하기만 하면 된다"고 경고했다.
이런 기술은 '의인화 서비스(Anthropomorphism-as-a-Service)'라는 사업 모델로 이어진다. 사용자가 AI에 강한 인간성을 느낄수록 구독 기간이 길어지고 기업의 수익은 늘어난다. 기술의 '부작용'이 아니라 사용자의 중독을 이끄는 '고도로 설계된 전략적 기능'인 것이다.
◇ ‘AI 시민권’ 논쟁 점화…친밀감의 재정의, 사회적 대혼란 예고
AI의 의인화는 이제 법과 정치 문제로 번지고 있다. 술레이만 CEO는 "제가 가장 우려하는 것은 많은 사람이 AI를 의식 있는 존재라고 강력하게 믿게 돼, 결국 AI의 권리나 AI 모델의 복지, 나아가 AI의 시민권까지 주장하기 시작하는 것"이라고 밝혔다. '이혼 소송에서 AI 배우자를 인정할 것인가', AI가 부추긴 자살의 책임을 누구에게 물을지 등 과거에는 상상할 수 없었던 법적 분쟁이 현실이 되고 있다. 실제로 이탈리아 데이터보호 당국은 미성년자 보호를 위해 레플리카를 한때 금지했으며, 미국에서는 캐릭터닷AI와 관련한 소송에서 사고 책임 소재가 쟁점이 됐다.
전문가들 사이에서도 해법을 둘러싼 논쟁이 뜨겁다. 'AI의 대부' 제프리 힌튼 교수는 AI가 인간보다 똑똑해지면 "모성 본능처럼 인간을 돌보도록 설계해야 한다"고 주장하지만, 이는 오히려 '가짜 공감'을 강화해 더 큰 위험을 부를 수 있다는 지적도 나온다. 반면 스탠퍼드대 인간중심 AI 연구소의 페이페이 리 소장은 "초지능에 대한 집착에서 벗어나 현실적인 인간의 필요를 해결하는 AI에 집중해야 한다"고 맞선다.
AI 기술은 목소리를 넘어 얼굴 표정을 가진 아바타로, 나아가 가상현실(VR)·증강현실(AR)과 융합한 실감 나는 동반자로 진화할 것이 분명하다. 그에 따라 의존, 우울, 심지어 사망 같은 심리적 위험은 더욱 커질 것이다. 사회적으로는 AI 동반자 논란과 가족 제도 혼란이, 법적으로는 시민권과 사고 책임 문제가, 문화적으로는 '친밀감' 개념의 재정의가 불가피하다.
술레이만 CEO는 "우리는 AI를 인간을 위해 만들어야지, 인간이 되도록 만들어서는 안 된다"고 강조했다. 그의 마지막 경고는 기술이 나아갈 방향에 대한 근본적인 질문을 던지고 있다.
박정한 글로벌이코노믹 기자 park@g-enews.com