!['글로벌 AI 안전 컨퍼런스'에서 키노트 연사로 나선 하정우 네이버 퓨처 AI 센터장. 사진=편슬기 기자](https://nimage.g-enews.com/phpwas/restmb_allidxmake.php?idx=5&simg=2024041216244600197ea588b1547222106230203.jpg)
실제로 네이버 측은 하이퍼클로바X에게 반복 학습을 시킨 뒤 인공지능(AI)의 부적절한 답변이 급감했다고 전했다.
컨퍼런스에서 인공지능 전문가들이 공통적으로 강조한 점은 LLM이 범죄에 악용되거나, 차별 및 편견 발언을 막기 위해 LLM이 제공하는 정보에 대한 안전망이 필요하다는 것이었다.
이를 위해 네이버클라우드는 LLM이 내놓는 답변에 정보성이 있으면서 답을 회피하지 않고, 발언의 중립성을 지킬 수 있을지에 중점을 둬 하이퍼클로바X를 개발했다고 밝혔다.
하정우 네이버 퓨처 AI 센터장은 "인공지능의 안전성을 확보해야 한다는 전 세계적 논의가 이어지는 가운데 네이버 역시 어떻게 하면 LMM이 사회적으로 민감한 질문에 옳은 답변을 할 수 있을지 지속적으로 연구를 거듭했다"고 말했다. 이를 위해 자체적인 데이터 셋(데이터 집합)을 만들고 하이퍼클로바X에게 학습시켰다고 설명했다. 그 결과 하이퍼클로바X가 부적절한 답변을 하는 횟수가 크게 감소했다고 밝혔다.
키노트 연사로 나선 댄 헨드릭스 AI 안전 센터 총괄은 "인공지능은 마치 핵과 같은 양날의 검이다. 핵이 원자력 발전으로 대량의 전기를 만들어 내 인류에 이로운 영향을 미칠 수 있고, 원자 폭탄이 돼 대규모 살상 피해를 낼 수 있는 무기로도 사용될 수 있듯 어떻게 사용하느냐에 따라 인류에 위협으로 작용할 수 있다"고 경고했다.
그는 전문가로 구성된 평가단을 통해 LLM의 성능을 파악하고, 대중들에게 얼마만큼의 정보를 공개할지 '제한'할 필요가 있다고 주장했다. 질문에 대한 답변이 심각한 공공의 피해를 초래하거나 개인에게 위협으로 작용할 경우에 이런 제동 장치가 필요하다는 것이다. 예를 들면 LLM의 성능을 100으로 가정했을 때 악의적인 질문에 대해서는 30만큼의 답을 주는 방식이다.
AI 개발 속도가 규제를 만드는 속도 보다 빠른 탓에 전 세계 정부가 골머리를 앓고 있다. 또한 AI로 인해 파생되는 부정적인 현상을 막을 기술도 현재로선 부족한 현실이다. 이날 컨퍼런스에 모인 AI 전문가들은 정부나 기업들이 AI의 개발 단계에서부터 자율성에 한계를 두거나 제동 장치를 통해 자칫 발생할 수 있는 최악의 상황을 '예방'할 필요가 있다고 입을 모아 말했다.
편슬기 글로벌이코노믹 기자 pyeonhaeyo@g-enews.com