Ученые впервые запустили квантовые программы на обычном компьютере. Этот метод можно масштабировать на относительно бюджетные устройства
Ученые из двух ведущих университетов представили способ решения квантовых задач на обычном компьютере. Этот метод можно масштабировать на относительно бюджетные устройства
источник: scx2.b-cdn.netисточник: scx2.b-cdn.net
Физики из Швейцарского федерального технологического института Лозанны (EPFL) и Колумбийского университета представили подход к моделированию квантового алгоритма с помощью обычного компьютера. Новый подход использует классический алгоритм машинного обучения, который имитирует поведение квантовых компьютеров ближайшего будущего.
В работе, опубликованной в журнале Nature Quantum Information, профессор EPFL Джузеппе Карлео и аспирант Колумбийского университета Матия Медвидович, нашли способ выполнить сложный алгоритм квантовых вычислений на традиционных компьютерах вместо квантовых.
«Квантовое программное обеспечение», известное как Quantum Approximate Optimization Algorithm (QAOA) используется для решения классических задач оптимизации в математике. По сути, это способ выбора наилучшего решения задачи из множества возможных решений. Существует большой интерес к пониманию того, какие проблемы могут быть эффективно решены квантовым компьютером, и QAOA является одним из наиболее заметных кандидатов для этого», — объяснил Карлео.
У QAOA есть множество сторонников, в том числе и Google, который делает ставку на квантовые технологии и вычисления в ближайшем будущем: в 2019 году они создали Sycamore, 53-кубитный квантовый процессор, и использовали его для выполнения задачи, на которую, по их оценкам, современному классическому суперкомпьютеру потребовалось бы около 10 тыс. лет. Sycamore выполнил ту же задачу за 200 секунд.
Используя обычные компьютеры, ученые разработали метод, который может приблизительно имитировать поведение особого класса алгоритмов, известных как вариационные квантовые алгоритмы, они представляют собой способы определения состояния с наименьшей энергией или «основного состояния» квантовой системы. QAOA является одним из важных примеров такого семейства квантовых алгоритмов, которые, по мнению исследователей, являются одними из наиболее перспективных кандидатов на «квантовое преимущество» в компьютерах ближайшего будущего.
В основе подхода лежит идея о том, что современные инструменты машинного обучения можно использовать для обучения и эмуляции внутренней работы квантового компьютера. Ключевым инструментом для этих симуляций является Neural Network Quantum States, искусственная нейронная сеть, которую Карлео разработал в 2016 году вместе с Матиасом Тройером и которая теперь впервые использовали для симуляции QAOA.
August 3, 2021
Running quantum software on a classical computer
by Ecole Polytechnique Federale de Lausanne
источник: scx2.b-cdn.netисточник: scx2.b-cdn.net
Fig. 1: The QAOA quantum circuit. A schematic representation of the QAOA circuit and our approach to simulating it. The input state is trivially initialized to |+⟩|+⟩. Next, at each p, the exchange of exactly (UC) and approximately (RX(β) = e−iβX) applicable gates is labeled (see Sec. Methods). As noted in the main text, each (exact) application of the UC gate leads to an increase in the number of hidden units by ∣E∣ (the number of edges in the graph). In order to keep that number constant, we «compress» the model (see Sec. Methods), indicated by red dashed lines after each UC gate. The compression is repeated at each layer after the first, halving the number of hidden units each time, immediately after doubling it with UC gates. After the final layer, the RBM is parametrized by θopt, approximating the final QAOA target state |γ,β⟩|γ,β⟩. Credit: DOI: 10.1038/s41534-021-00440-z
Two physicists, from EPFL and Columbia University, have introduced an approach for simulating the quantum approximate optimization algorithm using a traditional computer. Instead of running the algorithm on advanced quantum processors, the new approach uses a classical machine-learning algorithm that closely mimics the behavior of near-term quantum computers.
In a paper published in Nature Quantum Information, EPFL professor Giuseppe Carleo and Matija Medvidović, a graduate student at Columbia University and at the Flatiron Institute in New York, have found a way to execute a complex quantum computing algorithm on traditional computers instead of quantum ones.
The specific «quantum software» they are considering is known as Quantum Approximate Optimization Algorithm (QAOA) and is used to solve classical optimization problems in mathematics; it's essentially a way of picking the best solution to a problem out of a set of possible solutions. «There is a lot of interest in understanding what problems can be solved efficiently by a quantum computer, and QAOA is one of the more prominent candidates,» says Carleo.
Ultimately, QAOA is meant to help us on the way to the famed «quantum speedup,» the predicted boost in processing speed that we can achieve with quantum computers instead of conventional ones. Understandably, QAOA has a number of proponents, including Google, who have their sights set on quantum technologies and computing in the near future: in 2019 they created Sycamore, a 53-qubit quantum processor, and used it to run a task it estimated it would take a state-of-the-art classical supercomputer around 10,000 years to complete. Sycamore ran the same task in 200 seconds.
«But the barrier of „quantum speedup“ is all but rigid and it is being continuously reshaped by new research, also thanks to the progress in the development of more efficient classical algorithms,» says Carleo.
In their study, Carleo and Medvidović address a key open question in the field: can algorithms running on current and near-term quantum computers offer a significant advantage over classical algorithms for tasks of practical interest? «If we are to answer that question, we first need to understand the limits of classical computing in simulating quantum systems,» says Carleo. This is especially important since the current generation of quantum processors operate in a regime where they make errors when running quantum «software,» and can therefore only run algorithms of limited complexity.
Using conventional computers, the two researchers developed a method that can approximately simulate the behavior of a special class of algorithms known as variational quantum algorithms, which are ways of working out the lowest energy state, or «ground state» of a quantum system. QAOA is one important example of such family of quantum algorithms, that researchers believe are among the most promising candidates for «quantum advantage» in near-term quantum computers.
The approach is based on the idea that modern machine-learning tools, e.g. the ones used in learning complex games like Go, can also be used to learn and emulate the inner workings of a quantum computer. The key tool for these simulations are Neural Network Quantum States, an artificial neural network that Carleo developed in 2016 with Matthias Troyer, and that was now used for the first time to simulate QAOA. The results are considered the province of quantum computing, and set a new benchmark for the future development of quantum hardware.
«Our work shows that the QAOA you can run on current and near-term quantum computers can be simulated, with good accuracy, on a classical computer too,» says Carleo. «However, this does not mean that alluseful quantum algorithms that can be run on near-term quantum processors can be emulated classically. In fact, we hope that our approach will serve as a guide to devise new quantum algorithms that are both useful and hard to simulate for classical computers.»