실제로 네이버 측은 하이퍼클로바X에게 반복 학습을 시킨 뒤 인공지능(AI)의 부적절한 답변이 급감했다고 전했다.
컨퍼런스에서 인공지능 전문가들이 공통적으로 강조한 점은 LLM이 범죄에 악용되거나, 차별 및 편견 발언을 막기 위해 LLM이 제공하는 정보에 대한 안전망이 필요하다는 것이었다.
심각한 피해를 낳을 수 있는 정보를 사용자에게 전달하지 않게끔 정보에 제한을 가해야 한다는 주장도 함께 제기됐다. 또한 국가, 지역, 성별, 연령, 종교 등 각각의 특성에 따라 차별적인 발언 혹은 편견 등을 내포한 답변이 나오지 않도록 학습을 통해 차단해야 한다는 의견도 나왔다.
이를 위해 네이버클라우드는 LLM이 내놓는 답변에 정보성이 있으면서 답을 회피하지 않고, 발언의 중립성을 지킬 수 있을지에 중점을 둬 하이퍼클로바X를 개발했다고 밝혔다.
하정우 네이버 퓨처 AI 센터장은 "인공지능의 안전성을 확보해야 한다는 전 세계적 논의가 이어지는 가운데 네이버 역시 어떻게 하면 LMM이 사회적으로 민감한 질문에 옳은 답변을 할 수 있을지 지속적으로 연구를 거듭했다"고 말했다. 이를 위해 자체적인 데이터 셋(데이터 집합)을 만들고 하이퍼클로바X에게 학습시켰다고 설명했다. 그 결과 하이퍼클로바X가 부적절한 답변을 하는 횟수가 크게 감소했다고 밝혔다.
키노트 연사로 나선 댄 헨드릭스 AI 안전 센터 총괄은 "인공지능은 마치 핵과 같은 양날의 검이다. 핵이 원자력 발전으로 대량의 전기를 만들어 내 인류에 이로운 영향을 미칠 수 있고, 원자 폭탄이 돼 대규모 살상 피해를 낼 수 있는 무기로도 사용될 수 있듯 어떻게 사용하느냐에 따라 인류에 위협으로 작용할 수 있다"고 경고했다.
AI 개발 속도가 규제를 만드는 속도 보다 빠른 탓에 전 세계 정부가 골머리를 앓고 있다. 또한 AI로 인해 파생되는 부정적인 현상을 막을 기술도 현재로선 부족한 현실이다. 이날 컨퍼런스에 모인 AI 전문가들은 정부나 기업들이 AI의 개발 단계에서부터 자율성에 한계를 두거나 제동 장치를 통해 자칫 발생할 수 있는 최악의 상황을 '예방'할 필요가 있다고 입을 모아 말했다.
편슬기 글로벌이코노믹 기자 pyeonhaeyo@g-enews.com