네이처 논문 통해 R1 모델 '안전하지 않다' 인정… 외부 통제 제거 시 유해 반응 증가
"오픈소스 공유, 오용 위험도 초래"… 中 당국, AI 개발-안전 균형 '고심'
"오픈소스 공유, 오용 위험도 초래"… 中 당국, AI 개발-안전 균형 '고심'
이미지 확대보기이는 중국 AI 기업들이 위험에 대해 덜 솔직하게 말한다는 일반적인 인식과 달리, 자율적으로 안전 문제를 평가하고 있음을 보여준다고 21일(현지시각) 사우스차이나모닝포스트(SCMP)가 보도했다.
딥시크는 학술지 '네이처(Nature)'에 게재된 논문에서, 업계 벤치마크와 자체 테스트를 사용하여 자사 모델을 평가했다고 밝혔다. 논문에 따르면 딥시크는 자사의 'R1 추론 모델'과 'V3 기본 모델'이 6개 업계 벤치마크에서 평균 안전 점수보다 약간 높았다고 밝혔다.
하지만 1,120개의 테스트 문제로 구성된 자체 안전 벤치마크에서는 외부 "위험 통제" 메커니즘이 제거되면 R1이 "상대적으로 안전하지 않다"는 사실을 발견했다.
딥시크는 테스트된 모든 모델이 탈옥 공격에 직면했을 때 유해 반응의 "현저히 증가한 비율"을 보였으며, 특히 R1과 알리바바 그룹 홀딩(Alibaba Group Holding)의 'Qwen2.5'는 오픈소스이기 때문에 가장 취약한 것으로 간주된다고 밝혔다.
오픈소스 모델은 기술 채택에 도움이 되지만, 악의적인 사용자가 모델의 외부 안전 메커니즘을 제거할 수도 있다는 위험을 내포하고 있다.
딥시크의 최고경영자(CEO) 량 원펑(Liang Wenfeng)을 교신 저자로 기재한 논문은 "오픈소스 공유가 커뮤니티 내에서 첨단 기술의 보급을 촉진하는 동시에 오용의 잠재적 위험을 초래한다는 것을 충분히 인식하고 있다"고 말했다.
딥시크의 경고는 중국 정책 입안자들이 중국의 오픈소스 AI 생태계에서 개발과 안전의 균형을 맞춰야 할 필요성을 강조하는 가운데 나왔다.
중국 사이버공간관리국(Cyberspace Administration of China)과 관련된 기술 표준 기관은 오픈소스를 통해 모델 취약점이 '악성 모델'을 훈련하는 범죄자들에게 이용될 위험이 높아질 것이라고 경고했다.
네이처 논문은 또한 딥시크 R1의 컴퓨팅 훈련 비용이 29만 4천 달러에 불과하다는 사실을 처음으로 공개했는데, 이는 미국 모델의 훈련 비용보다 훨씬 낮은 수준이다. 이는 딥시크가 '비용 효율성'이라는 강력한 무기로 미·중 AI 경쟁에 참여하고 있음을 보여준다.
신민철 글로벌이코노믹 기자 shincm@g-enews.com
































