닫기

글로벌이코노믹

"믿을 수 있는 AI 위해"…네이버, 'AI 안전 컨퍼런스' 참여

공유
0

"믿을 수 있는 AI 위해"…네이버, 'AI 안전 컨퍼런스' 참여

네이버가 과학기술정보통신부가 주최하는 '생성형 AI 레드팀 챌린지'에 대표 파트너사로 참여한다. 사진=네이버이미지 확대보기
네이버가 과학기술정보통신부가 주최하는 '생성형 AI 레드팀 챌린지'에 대표 파트너사로 참여한다. 사진=네이버
네이버는 과학기술정보통신부(MSIT)가 주최하는 '생성형 AI 레드팀 챌린지(Gen AI Korea 2024)'에 대표 파트너사로 참여한다고 21일 밝혔다. 이번 챌린지는 초거대 언어모델(LLM)의 안전성, 신뢰성, 보안을 강화하기 위한 목적으로 진행된다.

우선, 11일 진행되는 '생성형 AI 레드팀 챌린지'는 실제 서비스 되고 있는 LLM에 참가자들이 모의 공격을 가해 모델의 안전성을 검증한다. 전공과 상관없이 AI 윤리와 안전에 관심 있는 국민 누구나 참가 가능하며, 우수 참가자들에게는 총 1700만원 규모의 상금이 제공된다.
둘째 날인 12일에는 안전한 AI 개발을 주제로 국내외 AI 기술 리더들의 발표와 의견 교류가 이루어지는 컨퍼런스가 진행된다. 북미 AI 스타트업 코히어(Cohere)의 공동 창업자 에이단 고메즈, 해외 빅테크의 공동 출자로 만들어진 AI 윤리·안전 포럼 프런티어 모델 포럼(Frontier Model Forum)의 대표이사 크리스 메세롤, 비영리기구 AI 안전센터(Center for AI Safety) 총괄 댄 헨드릭스, 글로벌 최고 수준의 이미지 생성 인공지능 개발사인 스태빌리티 AI(Stability AI)의 CEO 에마드 모스타크 등이 연사로 참여한다.

네이버는 대표 파트너사로서 행사 운영, LLM 안전성 검증 및 강화, 안전한 AI 개발을 위한 전문가 논의에 적극 참여한다. 특히, 자체 개발한 초대규모 AI '하이퍼클로바X(HyperCLOVA X)'를 제공해 참가자들이 국내 최고 수준 LLM의 안전성을 직접 검증하고 실험할 수 있도록 지원한다.

또한, 하정우 네이버 퓨처 AI 센터장이 컨퍼런스 연사로 참여하여 안전한 AI 개발을 위한 네이버의 노력과 성과를 공유한다. 네이버는 독일 튀빙겐대학교와 협업한 '초대규모 언어모델에서의 개인정보 유출 가능성 탐지 도구 제안' 연구, 서울대학교와 협업한 '초대규모 언어모델 신뢰성 강화 기술' 연구 등 AI 안전성 관련 주요 선행 연구들을 발표하고 있으며, 지난해에는 영국 정부가 개최한 AI 안전 정상회의에도 참여한 바 있다.

하정우 네이버 퓨처 AI 센터장은 "기업과 정부가 협력해 생성형 AI의 안전성을 논의할 수 있는 기회를 마련하고, 특히 글로벌 최고 수준의 AI 기술력뿐만 아니라 윤리와 안전 분야에서도 리더십을 확보해나가고 있는 기업으로서 네이버가 많은 기여를 할 수 있게 되어 의미있게 생각한다"고 밝혔다. 또한 "하이퍼클로바X의 안전성을 검증·강화하는 것은 물론, 여러 선행 연구와 서비스 운영 경험을 통해 쌓아온 네이버의 AI 안전성 기술 역량과 노하우를 공유할 것"이라고 말했다.

한편, 생성형 AI 레드팀 챌린지는 3월 21일부터 공식 홈페이지를 통해 참가자 모집을 시작한다.


편슬기 글로벌이코노믹 기자 pyeonhaeyo@g-enews.com