우선, 11일 진행되는 '생성형 AI 레드팀 챌린지'는 실제 서비스 되고 있는 LLM에 참가자들이 모의 공격을 가해 모델의 안전성을 검증한다. 전공과 상관없이 AI 윤리와 안전에 관심 있는 국민 누구나 참가 가능하며, 우수 참가자들에게는 총 1700만원 규모의 상금이 제공된다.
네이버는 대표 파트너사로서 행사 운영, LLM 안전성 검증 및 강화, 안전한 AI 개발을 위한 전문가 논의에 적극 참여한다. 특히, 자체 개발한 초대규모 AI '하이퍼클로바X(HyperCLOVA X)'를 제공해 참가자들이 국내 최고 수준 LLM의 안전성을 직접 검증하고 실험할 수 있도록 지원한다.
또한, 하정우 네이버 퓨처 AI 센터장이 컨퍼런스 연사로 참여하여 안전한 AI 개발을 위한 네이버의 노력과 성과를 공유한다. 네이버는 독일 튀빙겐대학교와 협업한 '초대규모 언어모델에서의 개인정보 유출 가능성 탐지 도구 제안' 연구, 서울대학교와 협업한 '초대규모 언어모델 신뢰성 강화 기술' 연구 등 AI 안전성 관련 주요 선행 연구들을 발표하고 있으며, 지난해에는 영국 정부가 개최한 AI 안전 정상회의에도 참여한 바 있다.
하정우 네이버 퓨처 AI 센터장은 "기업과 정부가 협력해 생성형 AI의 안전성을 논의할 수 있는 기회를 마련하고, 특히 글로벌 최고 수준의 AI 기술력뿐만 아니라 윤리와 안전 분야에서도 리더십을 확보해나가고 있는 기업으로서 네이버가 많은 기여를 할 수 있게 되어 의미있게 생각한다"고 밝혔다. 또한 "하이퍼클로바X의 안전성을 검증·강화하는 것은 물론, 여러 선행 연구와 서비스 운영 경험을 통해 쌓아온 네이버의 AI 안전성 기술 역량과 노하우를 공유할 것"이라고 말했다.
한편, 생성형 AI 레드팀 챌린지는 3월 21일부터 공식 홈페이지를 통해 참가자 모집을 시작한다.
편슬기 글로벌이코노믹 기자 pyeonhaeyo@g-enews.com