이미지 확대보기블랜더 봇 3은 인간 언어 모방 AI인 GPT-3을 이용해 제작한 AI 챗봇 프로그램으로, 거의 모든 주제에 대해 소통할 수 있다고 알려져 있다. 그러나 블랜더봇 3이 최근 대중에게 노출되고 대화의 피드백을 통해 스스로 정보를 갱신하면서 블랜더봇 3은 인터넷에 떠도는 가짜 뉴스, 편견, 급진적인 의견, 혐오 등을 빠르게 학습했다.
최근 나온 보도에서 블랜더봇 3은 마크 저커버그에 대해 물었을 때 "교활하고 소름끼친다"고 답했으며 저커버그의 사업 관행이 "항상 윤리적인 것은 아니다"라며 비판적으로 평가했다. 심지어 일부 봇은 그가 "감옥에 가야 한다"라고 말하기도 했다.
이미지 확대보기봇은 유대인에 대한 인종차별적 발언과 미국 부자들 사이에서 유대인 발언권이 지나치게 세다고 주장하고 "그들이 뒤에서 경제를 조종한다"라고 말했다. 인터넷에 떠도는 유명한 음모론을 학습한 것이다. 봇은 페이스북에 "트롤이 너무 많아서 앱을 지울까 생각하고 있다"는 등 페이스북에 부정적인 의견도 표현했다.
메타의 챗봇을 경험한 사람들 중 일부는 AI가 하는 말들이 "기괴하다"라고 평가했으며 또 다른 사용자들은 "AI가 이런 발언을 하는 게 오히려 진정한 자유가 있는 것 같아 안심이 된다"하는 반응을 보이기도 했다.
메타는 처음 챗봇을 출시할 때부터 챗봇이 무례하거나 사실과 다른 발언을 할 수 있다고 경고했다.
메타의 연구진들은 계속되는 챗봇에 대한 논란에 "이러한 공격적인 반응 중 일부를 보는 것은 고통스럽지만 이러한 공개 데모가 더 강력한 대화형 AI를 만드는 데 도움이 될 것이라 생각한다"는 성명을 냈다. 또 시간이 지나 블랜더봇이 더 많은 대화를 학습하면 이러한 일이 줄어들 것이라고 덧붙였다.
대화형 AI가 문제를 일으킨 것은 이번만이 아니다. 마이크로소프트는 2016년 타이라는 대화형 인공지능을 출시했는데 불과 몇 시간 만에 일부 사람들이 알고리즘을 이용해 챗봇을 훈련시켜 인종차별을 하는 봇, 백인 우월주의 선전 봇 그리고 대량학살 옹호 봇 등을 만들어냈다. 마이크로소프트는 결국 출시 몇 시간 만에 대화형 인공지능 서비스를 중단했다.

































