닫기

글로벌이코노믹

플렉스, AI시대에 인간 돌아본다...'AI 신뢰성·안전성 가이드라인' 제정

글로벌이코노믹

플렉스, AI시대에 인간 돌아본다...'AI 신뢰성·안전성 가이드라인' 제정

채용·승진·해고 AI 아닌 '사람'이 체크
국내외 법규·글로벌 기준 반영

플렉스가 'HR SaaS 시스템의 AI 신뢰성·안전성 가이드라인'을 제정했다고 20일 밝혔다. 이미지=플렉스이미지 확대보기
플렉스가 'HR SaaS 시스템의 AI 신뢰성·안전성 가이드라인'을 제정했다고 20일 밝혔다. 이미지=플렉스


인공지능(AI) 기반 HR 서비스형소프트웨어(SaaS) 기업 플렉스는 국내 업계 최초 6대 윤리원칙 ‘P.A.T.H. For Sustainability’를 골자로 한 'HR SaaS 시스템의 AI 신뢰성 및 안전성 가이드라인’을 제정·공포했다고 20일 밝혔다.

해당 가이드라인은 AI 기술의 영향력이 점점 커지는 가운데 채용·승진·해고 등 개인 생계와 경력에 중대한 영향을 미치는 HR 영역의 특수성을 고려한 선제적 조치다.

플렉스는 AI 기술의 윤리적 활용과 잠재적 위험 관리가 지속가능성의 핵심이라고 판단, 단순한 선언을 넘어 구체적인 실행 방안을 담은 실행 가이드라인을 업계 최초로 마련했다.
핵심 철학은 플렉스가 자체 수립한 6대 윤리원칙으로 집약된다. P.A.T.H. For Sustainability는 △개인정보 보호(Privacy) △책임성(Accountability) △투명성(Transparency) △인간 존엄성(Human Dignity) △공정성(Fairness) △안전성(Safety)의 영문 머리글자와 일치한다.

특히 인간 존엄성 원칙을 통해 "노동의 가치와 인간의 고유성을 존중하고, 인간을 자원이 아닌 주체로 대우한다"는 철학을 명시했다.

가이드라인은 AI 시스템의 전 생애주기를 △기획·설계 △개발 △평가·검증 △도입·운영 △업무 위탁·제3자 활용의 5단계로 나누고, 각 단계별로 발생 가능한 위험과 구체적인 대응 방안을 상세히 규정했다. 개발 단계에서는 데이터 거버넌스, 편향 완화, 설명 가능성 구현, 민감정보 처리, AI 오정렬 방지 등 5개 핵심 영역별로 세부 기술 지침을 제시했다.

채용·승진·해고의 최종 결정을 개인에 대한 부당한 차별 등 권익 침해나 안전 위험을 초래할 수 있는 ‘고위험 서비스’로 분류했다. 플렉스는 해당 영역에 AI를 적용할 경우 인간의 최종 검토를 의무화하고, CEO(최고경영자) 또는 이에 준하는 책임자의 최종 승인을 받도록 하는 특별 관리체계를 구축했다.

장해남 플렉스 대표는 "이번 가이드라인은 규제 준수를 위한 형식적 절차가 아닌, ‘인간 중심 AI SaaS’를 선도하겠다는 플렉스의 철학이자 고객과의 약속"이라며 "가이드라인을 계속 발전시켜 가장 신뢰할 수 있는 AI SaaS 파트너가 될 것"이라고 밝혔다.


김지유 글로벌이코노믹 기자 tainmain@g-enews.com