닫기

글로벌이코노믹

[데스크칼럼] 도덕성과 판단력 없는 챗GPT의 위험성

글로벌이코노믹

오피니언

공유
1

[데스크칼럼] 도덕성과 판단력 없는 챗GPT의 위험성

노정용 국장 대우
노정용 국장 대우
"사회와 인류에 심각한 위험이 다가오고 있다." 비영리단체 '생명의 미래연구소'는 최근 인공지능(AI) 개발의 일시적 동결을 촉구하면서 경고를 내놓았다. 오픈AI 공동설립자 일론 머스크(테슬라 CEO), 애플 공동창업자 스티브 워즈니악을 비롯해 저명한 연구자‧기업 경영자 등 1300여 명이 공동 성명에 동참했다.

성명에는 통제할 수 없는 개발 경쟁이 가속화되고 있어 이대로 가다가는 인류의 문명이 붕괴될 수 있다는 위기감이 가득하다. 머스크는 그동안 "AI가 핵무기보다 더 위험하다"고 주장해 왔다. 실제로 오픈AI가 개발한 챗GPT의 무시무시한 확산 속도를 감안하면 지식인들이 경고하는 AI에 의한 인간 세상 종말이 올지도 모른다.
AI의 윤리 문제를 조사하는 비영리단체인 미국 AI디지털정책센터는 최근 미국 연방거래위원회(FTC)에 오픈AI가 개발한 최신 AI 'GPT-4'의 상업적 이용을 금지해 달라고 요청했다. 유럽과 미국에서는 AI의 고도화를 경계하는 목소리가 빠르게 확산되고 있다. 이탈리아 당국은 3월 31일 오픈AI의 대화형 AI '챗GPT'를 일시적으로 금지한다고 밝혔다.

AI디지털정책센터는 GPT-4가 FTC가 정한 'AI 활용 가이드라인'을 충족하지 못한다고 지적했다. 데이터 수집 과정에서 투명성이 부족하고, 정보 제공 과정에서 편견이 포함되지 않도록 하는 공정성이 너무나 부족하다는 주장이다.
머브 히콕 AI디지털정책센터 이사 겸 연구책임자는 "편견과 거짓을 제한하는 데 필요한 수단이 없다면 공공 안전에 대한 위험이 있다"며 그 기준을 충족할 때까지 GPT-4의 추가 상용 서비스 출시를 금지해 달라고 요청했다.

챗GPT가 촉발한 생성 AI 붐에 어떤 위협이 도사리고 있는지는 미국의 철학자 존 설이 1980년 고안한 '중국어 방'이라는 가상의 실험에서 힌트를 얻을 수 있다. 우선 방 안에 영어만 할 줄 아는 사람이 들어간다. 그 방에 필담을 할 수 있는 도구와 미리 만들어 놓은 중국어 질문과 질문에 대한 대답 목록을 준비해 둔다. 중국인 심사관이 중국어로 질문을 써서 방 안으로 보내면 방 안의 사람은 준비된 대응표에 따라 중국어로 답변을 써서 밖의 심사관에게 준다.

방 안에 누가 있는지 모르는 중국인이 보면 방 안에 있는 사람은 중국어를 할 줄 아는 것처럼 보인다. 그러나 안에 있는 사람은 실제로는 중국어를 전혀 모르는 사람이고, 중국어 질문을 이해하지 못하고 주어진 표에 따라 대답할 뿐이다. 이로부터 중국어로 질문과 답변을 완벽히 한다고 해도 안에 있는 사람이 중국어를 진짜로 이해하는지 여부를 판단할 수 없다는 결론을 얻는다. 지금 세상을 떠들썩하게 하고 있는 오픈AI의 챗GPT가 수행하는 질문과 답변이 이 '중국어 방'과 다름없다.

챗GPT는 자연어 생성 기술을 이용해 인간과 대화하며 인간의 언어 패턴을 모방한다. 그러나 질문의 의미를 이해하지 못할 뿐만 아니라 답변도 단순히 인간의 대화 패턴을 따라 생성할 뿐이다.

언어학자이자 철학자인 노엄 촘스키는 언어학 교수 이언 로버츠, 인공지능 연구원 제프리 와투멀과 함께 뉴욕타임스에 기고한 에세이에서 인공지능과 챗GPT 같은 지능형 챗봇은 코드를 작성하고 여행을 계획하는 데는 유용할 수 있지만, 인간의 두뇌처럼 뛰어난 독창적이고 사려 깊으며 잠재적으로 논쟁의 여지가 있는 토론은 절대로 할 수 없을 것이라고 주장했다.

촘스키는 AI가 도덕성과 합리적 사고가 부족하기 때문에 '악의 평범성', 즉 현실과 진실에 무관심하고 프로그래밍에 명시된 동작을 수행하는 데만 급급할 수 있다고 지적했다. 도덕성과 합리적 사고를 바탕으로 하는 판단력이 부족한 AI에게 인류의 미래를 맡긴다는 건 너무나 위험하다.


노정용 국장 대우