"알 때까지 질문·수차례 재확인 가능" 고객-직원 편의 극대화
오류·보안문제 잔존…보험사들 "조심스러워" vs IT업계 "도구니까" 시각차도
오류·보안문제 잔존…보험사들 "조심스러워" vs IT업계 "도구니까" 시각차도
이미지 확대보기유승재 페르소나AI 대표는 28일 서울 양재 aT센터에서 열린 ‘코리아 핀테크 2025’에서 이같이 밝혔다.
유 대표는 “과거 보안 문제로 LLM(대규모언어모델)을 사용하지 못하던 금융권도 현재는 AI 에이전트를 활용하고 있다”고 말했다.
유 대표는 AI 에이전트가 금융소비자의 편리성을 높였다고 강조했다. 그는 “AI 에이전트는 사람이 말하는 구어체를 이해하고, 일을 대신하는 에이전트의 기능까지 가능하도록 발전됐다”라며 “고객은 AI에 정보를 이해할 때까지 물어볼 수 있으므로 편리성이 커진 것”이라고 했다.
그는 AI 에이전트가 고객뿐 아니라 내부 직원의 편의도 개선했다면서 “고객 1인당 응대 시간을 단축해 고객 경험이 상승한 데 나아가 업무 효율성 및 생산성이 가속됐다”고 부연했다.
유 대표는 “보험업권의 AI 활용에 있어 대고객 전달성, 윤리 및 규정 준수는 주요 테마가 될 것”이라고 말했다. 그러면서 AI 에이전트는 단순 질문을, 실제 상담사들은 민감 질문을 각각 처리하는 방향성을 제시했다.
조재일 보험연구원 연구원도 “생성형 AI나 AI 에이전트가 세부 결정을 할 때 필터링이 안 되는 경우 파급 효과가 크다”라며 “‘휴먼 인텔리전스’의 적기 활용이 필요하다”고 공감대를 나타냈다.
레티 신 스트레티지 부대표는 “생성형 AI는 해석의 오류 여지가 있으며, 학습이 잘못되는 경우 고객의 주요 정보를 유출할 수도 있다”라며 “또 문화적, 언어적 편견(bias)이 각기 다른 AI 모델에 편재돼있을 수 있다”고 했다.
이날 자리에서는 생성형 AI 활용을 둘러싼 보험업권과 IT업계의 관점 차이도 두드러졌다. 보험업권 관계자들은 보안, 오류의 문제를 보수적으로 바라보는 한편 IT업권은 사실상 규제 완화가 필요하다고 목소리를 높였다.
이동욱 삼성화재 AI혁신파트장은 “LLM 도입으로 100% 확신 불가능한 영역이 생겼다”라며 “회사는 AI의 오류 발생조차 인지를 못 하는 위험이 발생할까 주의를 기울이고 있다”라고 털어놨다.
그는 이어 “다만 AI로 비롯되는 위험에 대한 걱정보다는 어떻게 하면 품질 높은 서비스를 만들 수 있을지를 중점적으로 고민하고 있다”라며 “실제 고객에 공개할 때는 보안, 성능 이슈가 해결된 채 공개될 것으로 생각한다”고 말했다.
이에 반해 신훈철 DB INC 담당은 “보안 문제가 가장 큰가, 소비자 입장 문제가 큰가를 고려할 때”라고 했다.
신 담당은 “이런 문제는 보험사뿐 아니라 국가와 정부 기관의 규제와도 연결돼 있다”라며 “AI 도입을 보안 문제로만 보는 것 아니라 인간 사회가 빛나게 도구로 사용해야 한다”고 주장했다.
이민지 글로벌이코노믹 기자 mj@g-enews.com
































