'인공지능 시대의 인권 증진' 세션 참여해 발표 진행
AI 개발·운영 과정 인권 보호 접목 사례 등 소개
AI 개발·운영 과정 인권 보호 접목 사례 등 소개
이미지 확대보기카카오는 '인공지능 시대의 인권 증진' 세션에 참여했으며 하진화 AI 세이프티 시니어 매니저는 발표를 통해 "카카오는 AI 기술 개발 및 운영 전 과정에 인권 보호 체계를 접목하고 있으며, 한국어와 문화 맥락에 최적화된 AI 가드레일 모델을 오픈소스로 공개하는 등 공공 조달의 신뢰성을 위한 기반을 마련하고 있다"고 말했다. 카카오는 AI기술의 개발과 서비스 출시, 운영 등에 이르는 과정에 인권 관점을 내재화한 거버넌스를 운영하고 있다.
또 카카오 그룹의 '안전한 AI를 위한 핵심 체크리스트'는 국가인권위원회가 개발한 'AI 인권영향평가 도구'를 주요 참고문헌 중 하나로 지정해 제작했으며 그룹 AI 윤리 원칙인 '카카오 그룹의 책임 있는 AI를 위한 가이드라인'은 인권을 명시적 원칙으로 포함하며 관련한 다양한 항목을 다각도로 반영하고 있다.
아울러 '디지털 아동·청소년 보호 체크리스트'의 경우 유니세프의 디지털 아동 영향평가를 참고해 개발했다. 카카오는 이러한 내부 기준을 OHCHR, AI 얼라이언스 등 글로벌 기관과의 협력을 통해 국제적 기준과의 정합성을 지속적으로 맞춰가고 있다.
현재 카카오의 주요 AI 서비스에 적용됐다. 최근에는 한국정보통신기술협회(TTA), 카이스트(KAIST)와 함께 생성형 AI 안전성 평가 데이터셋 'AssurAI'를 함께 개발했다. 총 1만1480건으로 구성된 데이터셋은 글로벌 AI 위험 분류체계를 기반으로 하며 한국의 사회·문화적 맥락을 반영했다. AI 모델의 안전성 평가나 연구 개발을 위해 누구나 활용할 수 있도록 허깅 페이스를 통해 오픈소스로 공개됐다.
김경훈 카카오 AI 세이프티 리더는 "AI 기술 개발과 서비스 운영의 측면에서 이용자 보호를 최우선의 가치로 여기며 관련 정책을 고도화하고 있다"며 "기술의 투명성 확보와 공공 기여 확대를 통해 IT기업으로서 인권 존중을 선도하고, 지속 가능한 기술 생태계와 사람 중심의 AI를 위해 노력할 것"이라고 말했다.
이재현 글로벌이코노믹 기자 kiscezyr@g-enews.com
































