닫기

글로벌이코노믹

네이버 "하이퍼클로바X 반복 학습, AI 부적절 답변 급감"

공유
0

네이버 "하이퍼클로바X 반복 학습, AI 부적절 답변 급감"

LLM 제공 정보에도 한계 부여 불가피
인공지능 기능 억제 범죄 악용 막아야

'글로벌 AI 안전 컨퍼런스'에서 키노트 연사로 나선 하정우 네이버 퓨처 AI 센터장. 사진=편슬기 기자이미지 확대보기
'글로벌 AI 안전 컨퍼런스'에서 키노트 연사로 나선 하정우 네이버 퓨처 AI 센터장. 사진=편슬기 기자
챗GPT, 하이퍼클로바X 등과 같은 대형 언어 모델(LLM)이 범죄 등에 악용되는 것을 막기 위해서 '기능 억제'가 필요하다는 주장이 제기됐다. 여기서 기능 억제가 가리키는 뜻은 사용자의 요구에 따라 LLM이 제공할 수 있는 정보의 양에 한계 내지는 제동 장치를 부여해야 한다는 것이다.

실제로 네이버 측은 하이퍼클로바X에게 반복 학습을 시킨 뒤 인공지능(AI)의 부적절한 답변이 급감했다고 전했다.
과학기술정보통신부 주최로 '생성형 AI 레드팀 챌린지'의 2일차 행사인 '글로벌 AI 안전 컨퍼런스'가 12일 서울 삼성동 코엑스에서 개최됐다. 이날 컨퍼런스에서는 인공지능(AI)의 안전한 사용법에 대해 네이버, 셀렉트스타, SK텔레콤 등 빅테크 기업이 한자리에 모여 논의를 나눴다.

컨퍼런스에서 인공지능 전문가들이 공통적으로 강조한 점은 LLM이 범죄에 악용되거나, 차별 및 편견 발언을 막기 위해 LLM이 제공하는 정보에 대한 안전망이 필요하다는 것이었다.

심각한 피해를 낳을 수 있는 정보를 사용자에게 전달하지 않게끔 정보에 제한을 가해야 한다는 주장도 함께 제기됐다. 또한 국가, 지역, 성별, 연령, 종교 등 각각의 특성에 따라 차별적인 발언 혹은 편견 등을 내포한 답변이 나오지 않도록 학습을 통해 차단해야 한다는 의견도 나왔다.

이를 위해 네이버클라우드는 LLM이 내놓는 답변에 정보성이 있으면서 답을 회피하지 않고, 발언의 중립성을 지킬 수 있을지에 중점을 둬 하이퍼클로바X를 개발했다고 밝혔다.

하정우 네이버 퓨처 AI 센터장은 "인공지능의 안전성을 확보해야 한다는 전 세계적 논의가 이어지는 가운데 네이버 역시 어떻게 하면 LMM이 사회적으로 민감한 질문에 옳은 답변을 할 수 있을지 지속적으로 연구를 거듭했다"고 말했다. 이를 위해 자체적인 데이터 셋(데이터 집합)을 만들고 하이퍼클로바X에게 학습시켰다고 설명했다. 그 결과 하이퍼클로바X가 부적절한 답변을 하는 횟수가 크게 감소했다고 밝혔다.

키노트 연사로 나선 댄 헨드릭스 AI 안전 센터 총괄은 "인공지능은 마치 핵과 같은 양날의 검이다. 핵이 원자력 발전으로 대량의 전기를 만들어 내 인류에 이로운 영향을 미칠 수 있고, 원자 폭탄이 돼 대규모 살상 피해를 낼 수 있는 무기로도 사용될 수 있듯 어떻게 사용하느냐에 따라 인류에 위협으로 작용할 수 있다"고 경고했다.
그는 전문가로 구성된 평가단을 통해 LLM의 성능을 파악하고, 대중들에게 얼마만큼의 정보를 공개할지 '제한'할 필요가 있다고 주장했다. 질문에 대한 답변이 심각한 공공의 피해를 초래하거나 개인에게 위협으로 작용할 경우에 이런 제동 장치가 필요하다는 것이다. 예를 들면 LLM의 성능을 100으로 가정했을 때 악의적인 질문에 대해서는 30만큼의 답을 주는 방식이다.

AI 개발 속도가 규제를 만드는 속도 보다 빠른 탓에 전 세계 정부가 골머리를 앓고 있다. 또한 AI로 인해 파생되는 부정적인 현상을 막을 기술도 현재로선 부족한 현실이다. 이날 컨퍼런스에 모인 AI 전문가들은 정부나 기업들이 AI의 개발 단계에서부터 자율성에 한계를 두거나 제동 장치를 통해 자칫 발생할 수 있는 최악의 상황을 '예방'할 필요가 있다고 입을 모아 말했다.


편슬기 글로벌이코노믹 기자 pyeonhaeyo@g-enews.com