닫기

글로벌이코노믹

[초점] 삼성전자, 초소형 AI 'TRM' 공개…구글 제미나이 추론 능력 앞서

글로벌이코노믹

[초점] 삼성전자, 초소형 AI 'TRM' 공개…구글 제미나이 추론 능력 앞서

700만 파라미터로 1만 배 큰 모델과 경쟁…'재귀' 방식의 힘
AI, '크기'에서 '효율'로 패러다임 전환…스타트업·엣지AI 새 기회
초소형 AI 모델 'TRM'이 구글 제미나이 등 거대 AI 모델의 추론 능력을 앞서는 성과를 보였다. 삼성전자 몬트리올 AI 연구소 연구팀이 개발한 TRM은 700만 파라미터만으로 1만 배 큰 모델들과 경쟁하며 AI 분야의 새로운 가능성을 열었다. 사진=로이터이미지 확대보기
초소형 AI 모델 'TRM'이 구글 제미나이 등 거대 AI 모델의 추론 능력을 앞서는 성과를 보였다. 삼성전자 몬트리올 AI 연구소 연구팀이 개발한 TRM은 700만 파라미터만으로 1만 배 큰 모델들과 경쟁하며 AI 분야의 새로운 가능성을 열었다. 사진=로이터
인공지능(AI) 기술의 진보가 곧 모델의 거대화와 같다고 여겨지던 시대에, 기존 성공 방정식을 뿌리부터 뒤흔드는 연구 결과가 나왔다. 삼성전자 몬트리올 AI 연구소(Samsung AI Lab, SAL)의 한 소규모 연구팀이 파라미터(매개변수)의 양이 아닌, 구조 혁신으로 성능의 한계를 돌파할 수 있음을 증명하며 전 세계 AI 학계와 산업계의 관심을 모으고 있다고 포브스재팬이 지난 11일(현지시각) 보도했다.

이들이 개발한 '소형 재귀 모델(Tiny Recursive Model, TRM)'은 불과 700만 개의 파라미터를 가졌음에도, 특정 추론 영역에서 구글의 제미나이를 포함해 수천 배 더 큰 거대 모델과 필적하거나 오히려 이를 능가하는 놀라운 결과를 내놨다. TRM이 보여준 성과는 AI 발전 방향이 단순히 막대한 자본을 들여 모델 크기를 키우는 데만 있지 않다는 강력한 증거가 되며, AI 기술의 민주화와 지속가능성에 대한 새로운 화두를 던진다.

혁신의 핵심, '재귀'라는 역발상 접근


TRM의 가장 큰 특징은 기존 심층 신경망(딥러닝)이 대량의 파라미터와 깊이를 쌓아 성능을 높인 것과 달리, '재귀(Recursion)'라는 개념을 핵심 설계에 도입한 점이다. 재귀는 모델이 스스로에게 "현재의 답이 충분히 좋은가? 그렇지 않다면 어떻게 더 개선할 수 있는가?"라고 되풀이해 질문을 던지는 과정이다. 모델은 한 번 답을 내고 그 결과를 재입력해 다시 생각하는 과정을 반복하며 스스로 답을 다듬어 나간다.

SAIL 연구소는 아카이브(arXiv)에 공개한 논문에서 "수렴을 가정하지 않고 잠재 상태와 출력 상태를 재귀적으로 개선한다"고 밝혔다. 논문에서 밝힌 이 원칙은 섣불리 하나의 정답에 안주하지 않고 끊임없이 더 나은 해답을 찾는다는 뜻이다. 연구팀은 이 과정의 효율을 높이고자 마지막 단계뿐 아니라 여러 중간 단계에서 피드백을 주어 학습을 돕는 '딥 슈퍼비전(Deep Supervision)'과, 모델 스스로 "충분히 답을 개선했다"고 판단하면 연산을 멈추는 '적응형 정지(Adaptive Halting)' 기술을 함께 적용했다.

삼성의 알렉시아 졸리쿠르-마르티노 연구원 등 논문 공동 저자들은 "적은 수의 파라미터만 가진 모델이라도 재귀를 통해 추론 과제에서 놀랍도록 강력한 성능을 이룰 수 있다"고 강조했다. 이러한 접근법은 AI의 지능이 단순히 파라미터의 양이 아닌, 문제 해결을 위한 아키텍처의 정교함에 달려있을 수 있다는 가능성을 보여준다.

크기 아닌 구조…벤치마크로 입증된 성능


TRM의 진정한 가치는 일반 대화나 문장 생성이 아닌, 고도의 논리 추론 능력이 필요한 특정 과제에서 드러난다. 연구팀은 TRM을 복잡한 논리 퍼즐과 추론 능력 시험에 투입했다. 그 결과, 고난도 스도쿠 문제인 '스도쿠-익스트림(Sudoku-Extreme)' 풀이에서 87.4%의 정확도를 기록하며 기존 계층형 추론 모델(HRM)의 55%를 크게 웃돌았다. 또 복잡한 미로를 찾는 '메이즈-하드(Maze-Hard)' 과제에서도 85%의 정답률을 보여 HRM(74.5%)을 앞섰다.

특히 인공일반지능(AGI)의 잠재력을 가늠하는 추상 논리·추론 기준인 'ARC-AGI' 시험에서 TRM의 성과는 더욱 두드러진다. TRM은 'ARC-AGI-1'에서 44.6%의 정확도를 달성해, 자신보다 파라미터 수가 많은 HRM(27M)은 물론 구글의 '제미나이 2.5 프로(Gemini 2.5 Pro)' 등 세계 유수의 모델들을 뛰어넘었다. 심지어 더 어려운 'ARC-AGI-2' 시험에서도 7.8%를 기록하며 제미나이 2.5 프로(4.9%)와 딥시크 R1(4.7%)을 모두 제쳤다. 1만 배 이상 큰 거대언어모델(LLM)과 맞대결하여 복잡한 구조화 추론에서 거둔 승리라는 점에서 뜻이 깊다.

AI 산업 지각변동…'작고 강한 AI'가 온다


TRM의 등장은 연구실 수준의 성과를 넘어 AI 산업 전체 전략에 중요한 뜻을 던진다. 현재 1조 개가 넘는 파라미터를 가진 초거대 모델을 운영하려면 대규모 서버와 전력, 전용 반도체 클러스터가 반드시 있어야 한다.

반면, 700만 파라미터 수준의 TRM은 일반 하드웨어에서도 구동할 수 있고 에너지 소비 또한 현저히 낮다. TRM의 이러한 특징은 자본과 기반 시설이 부족한 스타트업, 대학 연구실, 그리고 개인정보 보호가 중요한 지역 기반 처리나 엣지 컴퓨팅 환경에서도 고성능 AI를 개발하고 활용할 길을 열어준다. 최적화가 잘 된 소형 모델을 특수 논리·추론용 소형 모델로 만들어, 거대 생성 AI의 트랜스포머 아키텍처와 섞어 운용하는 전략도 가능하다.

이러한 효율성 추구는 이미 세계적인 정보기술 대기업들이 소형·온디바이스 AI로 기술 전략을 바꾸는 큰 흐름과도 맞물린다. 삼성의 연구는 여기서 한 걸음 더 나아가, 모델 압축이 아닌 '재귀'라는 구조의 혁신이 효율성을 한껏 높일 새로운 돌파구가 될 수 있음을 보여준다.

미래 AI, 거대 모델의 보완재로 떠올라


물론 TRM의 적용 분야는 아직 좁다. 적용 분야가 좁다는 한계에도, 이 모델의 성공은 모든 AI가 거대언어모델(LLM)일 필요는 없다는 점을 분명히 한다.

앞으로 AI 시스템은 인간의 두뇌처럼 각기 다른 영역에 특화한 모듈들이 결합된 '하이브리드 시스템' 형태가 될 가능성이 높다. 예를 들어, 창의적인 글쓰기나 대화는 LLM이 맡고, 복잡한 수학 문제나 논리 추론은 TRM 같은 재귀 모듈이 전담하는 방식이다. 기업은 모든 문제에 값비싼 범용 AI를 쓰기보다, 특정 작업에 최적화한 소형 모델들을 조합해 비용과 데이터 위험을 동시에 줄이는 효율 높은 해법을 쓸 수 있다.

삼성 SAIL 몬트리올의 이번 연구는 AI 분야의 진보가 하드웨어의 규모 확장에만 의존하는 것이 아니라, 아키텍처에 대한 깊은 고민과 창의성에 달려있음을 보여주는 중요한 이정표다. 연구 결과와 코드를 MIT 라이선스로 전부 공개한 것은 이러한 흐름의 전환을 더욱 빠르게 할 기폭제가 될 것이다.


박정한 글로벌이코노믹 기자 park@g-enews.com