구글이 양자컴퓨터 연산의 오류 자체를 획기적으로 줄일 수 있는 계산 알고리즘을 회사의 초전도체 양자칩(QPU) ‘윌로우’에서 구현하는 데 성공했다. 양자컴만이 취할 수 있는 연산 전략이 더 확고해졌고, 기술의 상용화 수준도 한단계 높아졌다는 평이 나온다.23일 구글에 따르며 회사는 윌로우를 이용해 ‘시간차 상관함수(OTOC)’를 측정하는 연구를 22일(현지시각) ‘네이처’지에 게재했다.이는 퍼져 나간 양자 정보를 되감아 원래대로 복원할 수 있는지 보는 실험이다.많은 큐비트로 구성된 양자 회로에선 시간이 흐를수록 동역학적 정보가 뒤섞여 나중에는 상세한 정보를 얻기 어렵다. 양자컴의 고질적 문제인 오류가 생기는 원인이다.하지만 OTOC 측정을 이용하면 오랜 시간이 지나도 다체 양자계의 정보를 그대로 보존할 수 있다는 점이 이론적으로 알려져 있었다.즉 더욱 정밀하고 오류에 강한 양자 연산을 구현하는 방법이 될 수 있단 의미다.실험을 통해 구글은 윌로우는 OTOC 측정을 약 2시간 만에 처