부정확하고 위험한 답변 무시...윤리보다 개발 독려
전 세계 AI 챗봇 규제장치 마련 움직임 분주
전 세계 AI 챗봇 규제장치 마련 움직임 분주
이미지 확대보기11일(현지시각) 뉴욕타임스에 따르면 구글 직원 2명이 위험한 답변을 하는 구글의 인공지능 개발에 대한 우려와 경각심으로 '바드'의 출시를 막으려 했다고 전했다. 보도에 따르면 AI 제품을 검토하는 임무를 맡은 구글 직원 2명이 챗봇의 사회적 파장에 대한 걱정으로 바드 출시에 반대했다.
바드 출시 과정에 정통한 관계자는 지난 3월 젠 겐나이(Jen Gennai) 구글 책임혁신그룹 이사와 함께 일하는 두 명의 팀원이 바드의 위험 평가에서 출시 금지를 권고했다고 내부 보고서를 통해 밝혔다. 이 내부 보고서에서 직원들은 "안전장치에도 불구하고 챗봇은 준비되지 않았다고 느꼈다"고 덧붙였다.
그러나 뉴욕타임스는 겐나이 이사가 직원들의 이러한 챗봇 위험 평가를 삭제하고 축소 평가했다고 보도했다. 이에 대해 그는 "바드는 실험이기 때문에 위험성을 점검하는 직원들이 프로젝트 진행 여부를 판단해서는 안 된다"고 말했다.
최근 몇 달 동안 전 세계 IT기업들은 생성형 AI 제품을 개발하고 배치하기 위해 서두르고 있다. 이러한 경쟁은 겉보기에는 OpenAI의 ChatGPT의 출시와 인기에 의해 촉발된 것으로 보이지만 개발 속도는 '통제불능'의 경쟁으로 사회에 대한 심각한 위험성을 경고하고 있다.
이에 최근 유럽연합(EU)은 현재 일명 'AI법'으로 알려진 입법을 검토하고 있어 이 법이 통과되면 특정 AI 서비스가 금지되고 여러 기능이 법적으로 제한된다. 미국도 이 대열에 합류해 조 바이든 미국 행정부는 챗GPT 같은 인공지능(AI) 기술을 규제할 수 있는 입법 검토에 들어갔다.
월스트리트저널에 따르면 미 상무부는 11일(이하 현지시간) GPT 같은 생성형 AI가 차별이나 해로운 정보들을 확산하는데 활용될 가능성을 염두에 두고 이를 규제하는 장치 마련이 필요한지 검토하겠다고 밝혔다.
아울러 AI 분야 선두주자로 치고 나갔던 중국도 엄격한 기준을 제안했다. 중국 인터넷 관리 부처인 사이버공간관리국(CCA)의 이 제안이 실행되면 중국 AI 업체들은 AI를 통해 생성되는 정보들이 사회질서를 어지럽히거나 국가 전복과 관련한 내용은 통제된다. 또 AI 관련 서비스는 당국의 인증을 받아야 한다.
김태형 글로벌이코노믹 기자 tadkim@g-enews.com
































