"오픈 소스 모델, 탈옥 취약성" 최초 공개… 中 AI 기업에 '과학적 엄격함' 표준 제시
'기술 보고서' 넘어 '세계 최고 저널' 투고… "투명성과 재현성 향한 환영할 만한 단계"
'기술 보고서' 넘어 '세계 최고 저널' 투고… "투명성과 재현성 향한 환영할 만한 단계"

이는 AI 개발에 있어 '과학적 엄격함'의 새로운 표준을 제시했다는 평가를 받고 있다고 23일(현지시각) 사우스차이나모닝포스트(SCMP)가 보도했다.
오하이오 주립대학교의 환 쑨(Huan Sun) 교수는 딥시크가 중국과 미국 기업의 향후 AI 모델 출시에 대해 "매우 좋은 모범"을 세웠다고 말했다. 그는 "프론티어 모델 개발자들이 세부 사항이 거의 없는 '기술 보고서'를 공개하는 것 이상으로 나아가기를 바란다"고 말했다.
지난주 네이처에 게재된 딥시크의 논문은 오픈소스 모델이 악의적인 행위자에 의해 '탈옥(jailbreak)'되기 특히 취약하다고 지적하며, AI 모델이 직면한 위험에 대한 세부 정보를 처음으로 공개했다.
네이처는 "동료 검토를 거친 출판물은 LLM이 어떻게 작동하는지에 대한 명확성을 돕고, 그들이 의도한 대로 하는지 평가하는 데 도움이 된다"고 밝혔다.
딥시크는 논문에서 자사 모델 'R1 추론 모델'과 'V3 기본 모델'이 6개 업계 벤치마크에서 평균 안전 점수보다 약간 높았다고 밝혔다.
하지만 외부 안전 메커니즘이 제거되면 R1이 "상대적으로 안전하지 않다"는 사실을 발견했다. 딥시크는 R1과 알리바바의 'Qwen2.5'가 오픈소스이기 때문에 '탈옥 공격'에 가장 취약하다고 밝혔다.
딥시크의 연구팀은 창립자이자 CEO인 량 원펑(Liang Wenfeng)을 포함하여 주로 중국 유수 대학의 졸업생과 박사과정 학생들로 구성되어 있다.
논문은 딥시크가 경쟁사 모델의 출력을 사용하여 모델을 훈련하는 논란의 여지가 있는 관행을 언급하며, 오픈AI의 모델을 "증류"했다는 비난을 반박했다.
네이처 편집위원회는 "이 모든 것은 확인되지 않은 주장과 과대 광고가 너무나 자주 표준이 되는 업계에서 투명성과 재현성을 향한 환영할 만한 단계"라고 말했다.
상하이 AI 안전 연구원 주샤오후(Zhu Xiaohu)는 "딥시크가 설정한 표준을 바탕으로 향후 중국 기술 기업이 세계 최고의 저널에 더 많은 투고를 할 수 있다"고 말했다.
중국 기술 기업이 과학적 엄격함을 갖추고 투명성을 높인다면, 국제적인 신뢰를 얻고 글로벌 기술 경쟁에서 더욱 강력한 입지를 확보할 수 있을 것으로 보인다.
신민철 글로벌이코노믹 기자 shincm@g-enews.com