초저지연 ‘델타플로우 2’로 16.32µs 달성… 구글 윌로우 데이터 대비 압도적 성능
로컬 클러스터링 디코더로 물리 큐비트 75% 절감… 100만 라운드 안정성 검증 완료
초저지연 기술로 ‘논리 클록’ 속도 혁신… 암호 해독 등 초거대 양자 연산 현실로
로컬 클러스터링 디코더로 물리 큐비트 75% 절감… 100만 라운드 안정성 검증 완료
초저지연 기술로 ‘논리 클록’ 속도 혁신… 암호 해독 등 초거대 양자 연산 현실로
이미지 확대보기11일(현지시각) 양자 컴퓨팅 전문매체 퀀텀 자이트가이스트에 따르면 리버레인은 자사의 시스템이 구글(Google)의 최신 연구 데이터보다 10배 이상 빠른 속도로 양자 오류를 처리하는 데 성공했다. 리버레인의 이 같은 성과는 실용적인 양자 컴퓨터 시대를 앞당길 강력한 동력을 확보했다는 의미다.
구글의 ‘윌로우’ 데이터로 증명한 압도적 기술력
최근 리버레인은 자사의 실시간 양자 오류 수정(QEC) 시스템인 ‘델타플로우 2(Deltaflow 2)’를 통해 평균 지연 시간(Latency) 16.32µs(마이크로초, 100만 분의 1초)를 달성했다. 이는 리버레인이 당초 목표로 설정했던 20µs를 뛰어넘는 수치다.
특히 이번 성과는 구글의 2024년 ‘윌로우(Willow)’ 실험 데이터를 활용해 시연됐다는 점에서 의미가 크다. 구글이 보고한 평균 지연 시간이 63µs(±17µs)였던 것과 비교하면, 리버레인의 시스템은 약 4배에서 최대 10배 이상 빠른 처리 능력을 보여준 셈이다. 리버레인 측은 연구의 우선순위가 달라 직접적인 비교는 조심스럽다는 입장을 덧붙였으나, 실제 양자 처리 장치(QPU) 데이터에서 이 정도의 초저지연 성능을 입증한 것은 유틸리티 규모의 내결함성 양자 컴퓨팅 구현을 위한 핵심적인 진전으로 평가받는다.
‘로컬 클러스터링 디코더’와 ‘윈도잉’ 기술의 혁신
이런 비약적인 성능 향상의 비결은 리버레인의 독자적인 하드웨어 및 소프트웨어 설계에 있다. 핵심 기술인 ‘로컬 클러스터링 디코더(LCD)’는 FPGA(프로그래밍 가능한 반도체)에 구현돼 논리 큐비트 구성에 필요한 물리적 큐비트 수를 4분의 1로 줄이면서도 디코딩 시간을 획기적으로 단축했다.
또한, 리버레인만의 ‘윈도잉(Windowing)’ 방식은 전체 계산이 끝날 때까지 기다리지 않고 실시간으로 데이터를 스트리밍하며 오류를 수정한다. 이를 통해 데이터가 쌓여 처리가 늦어지는 백로그 현상을 방지하고, 지속적이고 안정적인 양자 연산을 가능하게 한다. 리버레인은 100만 라운드에 걸쳐 이 시스템의 안정성을 검증하며 실전 배치 가능성을 입증했다.
양자 연산의 ‘논리 클록’ 결정… 실전 응용의 열쇠
지연 시간 단축은 단순히 속도의 문제를 넘어 양자 컴퓨터의 연산 효율성을 결정짓는 핵심 지표다. 양자 오류 수정이 빨라질수록 양자 컴퓨터의 ‘논리 클록(Logic Clock)’ 속도가 높아지며, 이는 단위 시간당 더 많은 복잡한 연산을 수행할 수 있음을 의미한다.
예를 들어, 2048비트 RSA 암호를 해독하는 것과 같은 초거대 계산에서 지연 시간의 차이는 전체 작업 소요 시간을 결정적으로 가르는 요소가 된다. 리버레인은 이번 결과가 매직 스테이트 텔레포테이션(Magic State Teleportation)과 같은 복잡한 알고리즘을 현실화하는 데 필수적인 역량임을 강조했다.
이인수 글로벌이코노믹 기자 tjlee@g-enews.com
































