Чому протоколи виправлення помилок працюють лише тоді, коли початок помилок вже значно низький?


15

Квантове виправлення помилок є фундаментальним аспектом квантових обчислень, без яких масштабні квантові обчислення практично неможливі.

Одним з аспектів квантових обчислень, що відрізняються відмов, часто згадується, є те, що кожен протокол виправлення помилок містить поріг частоти помилок . В основному, для того, щоб дане обчислення можна було захистити від помилок за допомогою заданого протоколу, частота помилок затворів повинна бути нижче певного порогу.

Іншими словами, якщо коефіцієнт помилок поодиноких воріт недостатньо низький, не можна застосовувати протоколи виправлення помилок, щоб зробити обчислення більш надійними.

Чому це? Чому для початку неможливо знизити частоти помилок, які вже не дуже низькі?


Ну, в якийсь момент тут просто просто шум. Чи дивно, що є момент, коли виправлення помилок з більшою ймовірністю виправить потрібні частини в шум?
Дискретна ящірка

1
@Discretelizard не стільки, щоб взагалі був такий, але пороги, як правило, дуже низькі (або високі з точки зору вірності). Чому це так?
glS

Відповіді:


4

Ми хочемо , щоб порівняти стан виходу з деяким ідеальним станом, так як зазвичай, вірність, використовується як це хороший спосіб сказати , наскільки добре можливі результати вимірювань р порівняти з можливими результатами вимірювань | г | , де | г | є ідеальним вихідним станом і ρ це досягається (потенційно змішане) стан після деякого процесу шуму. Як ми порівняння станів, це F ( | г | , ρ ) = F(|ψ,ρ)ρ|ψ|ψρ

F(|ψ,ρ)=ψ|ρ|ψ.

Описуючи як процеси корекції шуму і помилок з допомогою операторів Крауса, де є шум канал з операторами Kraus Н я і Е є виправлення помилок каналу з Kraus операторів Х J , стан після того, як шум ρ ' = Н ( | г | ψ | ) = i N i | г | г | | N i і стан після виправлення шуму і помилок ρ = ENNiEEj

ρ=N(|ψψ|)=iNi|ψψ|Ni
ρ=EN(|ψψ|)=i,jEjNi|ψψ|NiEj.

Вірність цього задається

F(|ψ,ρ)=ψ|ρ|ψ=i,jψ|EjNi|ψψ|NiEj|ψ=i,jψ|EjNi|ψψ|EjNi|ψ=i,j|ψ|EjNi|ψ|2.

Щоб протокол виправлення помилок не мав користі, ми хочемо, щоб вірність після виправлення помилок була більшою, ніж вірність після шуму, але перед виправленням помилок, щоб стан виправлених помилок був менш відрізним від не виправленого стану. Тобто, ми хочемо , щоб Це дає

F(|ψ,ρ)>F(|ψ,ρ).
Оскільки вірність позитивна, це можна переписати якi,j| Г || EjNi| г || 2>i| Г || Ni| г || 2.
i,j|ψ|EjNi|ψ|2>i|ψ|Ni|ψ|2.
i,j|ψ|EjNi|ψ|2>i|ψ|Ni|ψ|2.

Розщеплення в корректируемой частини, Н з , для яких ЕН з ( | г | г | | ) = | г | г | | і не-корректируемой частини, Н н з , для яких ЕН п з ( | г | г | | ) = σ . Позначення ймовірності виправлення помилки як P cNNcENc(|ψψ|)=|ψψ|NncENnc(|ψψ|)=σPcі не виправляється (тобто занадто багато помилок трапилося для відновлення ідеального стану), оскільки дає i , j | Г | | E j N i | г | | 2 = Р з + Р п зг | | σ | г | P з , де рівність передбачатиметься, припустивши ф | σ | г | = 0Pnc

i,j|ψ|EjNi|ψ|2=Pc+Pncψ|σ|ψPc,
ψ|σ|ψ=0. Це хибна «корекція» буде спроектована на ортогональний результат до правильного.

Для кубітів з (рівною) ймовірністю помилки на кожному кубіті як p ( зауважте : це не те саме, що параметр шуму, який слід було б використовувати для обчислення ймовірності помилки), ймовірність наявності виправлена ​​помилка (якщо припустити, що n кубітів були використані для кодування k кубітів, що допускає помилки на до t кубітів, визначених обмеженою синглтоном n - k 4 t ) - P cnpnktnk4t.

Pc=jt(nj)pj(1p)nj=(1p)n+np(1p)n1+12n(n1)p2(1p)n2+O(p3)=1(nt+1)pt+1+O(pt+2)

Ni=jαi,jPjPj χj,k=iαi,jαi,k

i|ψ|Ni|ψ|2=j,kχj,kψ|Pj|ψψ|Pk|ψχ0,,0,
χ0,0=(1p)n

1(nt+1)pt+1(1p)n.
ρ1ppt+1p

ppt+1pn=5t=1p0.29

Редагувати з коментарів:

Pc+Pnc=1

i,j|ψ|EjNi|ψ|2=ψ|σ|ψ+Pc(1ψ|σ|ψ).

1(1ψ|σ|ψ)(nt+1)pt+1(1p)n,

1

Це показує, з приблизним наближенням, що виправлення помилок або просто зниження коефіцієнтів помилок недостатньо для обчислення толерантності до помилок, якщо тільки помилки вкрай низькі, залежно від глибини схеми.


Я думаю, ти намагаєшся пояснити, до якого рівня фізичної помилки ймовірність невиправних помилок низька? Зауважте, що пороги відмовостійкості менші (порядки величин для багатьох кодів)
М. Стерн

@ M.Stern Отже, це (дуже груба) оцінка, коли виправлення помилок "зменшує помилку" (тобто збільшує вірність на деяку кількість після подачі шуму), тож це, безумовно, не поріг відмови, ні. Виконання виправлення помилок, можливо, збільшило вірність після шуму на деяку кількість, але воно не скинуло його чи нічого, тому вірність просто зменшиться (а помилка) поширюється, навіть якщо виправлення помилок постійно застосовується, показуючи виправлення помилок само по собі недостатньо для відмовостійкості
Mithrandir24601

Гм, glS доведеться судити, якщо це відповість на питання. У будь-якому випадку це цікаво і добре написано. Отже, ви припускаєте, що стан є ортогональним, якщо помилки були непоправними, правда? (Це, безумовно, розумно в багатьох сценаріях.) Інша крайність була б тоді, коли існує 50/50 ймовірність виникнення логічної помилки у випадку непоправних помилок.
М. Штерн

@ M.Stern Дякую! Так, або ці стани є ортогональними, або беруть нижню межу. Оскільки порівняння нижньої межі з іншою не є чудовою ідеєю, я пішов з припущенням, що вони ортогональні. Якщо є якісь зміни, які, на вашу думку, було б корисно додати до кінця цього, працюйте далеко! Гм ... Я думаю, що шанс логічної помилки 50/50 призведе до того ж результату, лише в кінці різних
збірників

4

Вже є хороша математична відповідь, тому я спробую запропонувати її легко зрозуміти.

Квантове виправлення помилок (QEC) - це (група) досить складних алгоритмів, що вимагає безлічі дій (ворота) на кубіти та між ними. У QEC ви з’єднуєте два кубіти з третім помічником-кубітом (ancilla) і передаєте інформацію, якщо інші два рівні (у певному відношенні) в цей третій кубіт. Потім ви читаєте цю інформацію з аніалли. Якщо вам скажуть, що вони не рівні, ви дієте на цю інформацію (застосуйте виправлення). То як це може піти не так, якщо наші кубіти та ворота не є ідеальними?

QEC може змусити інформацію, що зберігається у ваших кубітах, розкладатись. Кожна з цих дверей може розкладати інформацію, що зберігається в них, якщо вони не виконані ідеально. Отже, якщо тільки виконання QEC знищує більше інформації, ніж відновлює в середньому, це марно.

Ви думаєте, що знайшли помилку, але ви цього не зробили. Якщо порівняння (виконання воріт) або зчитування інформації (ancilla) недосконале, ви можете отримати неправильну інформацію і, таким чином, застосувати "неправильні виправлення" (читати: ввести помилки). Крім того, якщо інформація в додатках занепадає (або змінюється шумом), перш ніж ви зможете її прочитати, ви також отримаєте неправильне зчитування.

Мета кожного КВК - очевидно, вводити менше помилок, ніж виправляє, тому вам потрібно мінімізувати вищезгадані ефекти. Якщо ви виконуєте всю математику, ви виявляєте досить суворі вимоги до своїх кубітів, воріт та показань (залежно від вибраного алгоритму QEC).


4

Класична версія

000000111111
01010.
p

p>12

01010

Квантова версія

ХZ

|ψNN/2N/2Nдемонстрація клонування|ψ. Ми б клонували логічний кубіт! Але клонування неможливо, тому виправлення помилок повинно було бути неможливим.


2

Мені, здається, є дві частини цього питання (ще одна стосується назви, а ще одна стосується самого питання):

1) На яку кількість шуму ефективні коди виправлення помилок?
2) З якою кількістю недосконалості в воротах ми можемо здійснити квантові обчислення, стійкі до відмов?

Дозвольте мені ще раз наголосити на різниці: квантові коди виправлення помилок можна використовувати в багатьох різних сценаріях, наприклад, для виправлення втрат при передачі. Тут кількість шуму здебільшого залежить від довжини оптичного волокна, а не від недосконалості воріт. Однак якщо ми хочемо здійснити квантові обчислення, що мають стійкість до відмов, ворота є основним джерелом шуму.

1)

Виправлення помилок працює для великих частот помилок (менше, ніж 1/2). Візьмемо для прикладу простий код повторення в 3 кубіти. Частота логічної помилки - це лише ймовірність помилки більшості (помаранчева лінія)f(p)=p for comparison):

plot physical vs logical error rate

So whenever the physical error rate p is below 1/2, the logical error rate is smaller than p. Note however, that is particularly effective for small p, because the code changes the rate from O(p) to a O(p2) behaviour.

On 2)

We want to perfrom arbitrarily long quantum computations with a quantum computer. However, the quantum gates are not perfect. In order to cope with the errors introduced by the gates, we use quantum error correction codes. This means that one logical qubit is encoded into many physical qubits. This redundancy allows to correct for a certain amount of errors on the physical qubits, such that the information stored in the logical qubit remains intact. Bigger codes allow for longer calculations to still be accurate. However, larger codes involve more gates (for example more syndrome measurements) and these gates introduce noise. You see there is some trade-off here, and which code is optimal is not obvious.
If the noise introduced by each gate is below some threshold (the fault-tolerance or accuracy threshold), then it is possible to increase the code size to allow for arbitrarily long calculations. This threshold depends on the code we started with (usually it is iteratively concatenated with itself). There are several ways to estimate this value. Often it is done by numerical simulation: Introduce random errors and check whether the calculation still worked. This method typically gives threshold values which are too high. There are also some analytical proofs in the literature, for example this one by Aliferis and Cross.


The second paragraph is touching the right points, but it is still very qualitative. You are saying that you need the gates introduced by the error correction protocol to reduce the error rate more than they increase it. However, how does one go from this intuitive idea to an actual quantitative estimate over the threshold? Also, does this imply an universal lower threshold that no error correcting protocol can beat?
glS

@glS I suspect that there is such a "universal lower threshold", i.e. an error value above which there exist no fault tolerant correction protocols. However, the value should depend on both your gate set and your error model. People tend to be more interested in positive results here (showing the existence of a good fault tolerant protocol). It may be interesting to find upper bounds in order to see "how much room we have left" in making our fault tolerant schemes better. I'd guess there isn't much room left.
Jalex Stark

@glS You're right, some actual quantitative calculation would improve this answer. I think these calculations are typically done numerically? But I also want to know about this
M. Stern

@JalexStark What makes you think there is not much room left? For example the surface code doesn't seem to be optimized w.r.t. this threshold. It uses only nearest neighbor interactions on a lattice and you could do a lot more in general.
M. Stern

@M.Stern I don't have any theorem-based evidence, and I'm not an expert in the area. I was just guessing based on the amount of work done and on how large the best thresholds are.
Jalex Stark

2

You need a surprisingly large number of quantum gates to implement a quantum error correcting code in a fault-tolerant manner. One part of the reason is that there are many errors to detect since a code that can correct all single qubit errors already requires 5 qubits and each error can be of three kinds (corresponding to unintentional X, Y, Z gates). Hence to even just correct any single qubit error, you already need logic to distinguish between these 15 errors plus the no-error situation: XIIII, YIIII, ZIIII, IXIII, IYIII, IZIII, IIXII, IIYII, IIZII, IIIXI, IIIYI, IIIZI, IIIIX, IIIIY, IIIIZ, IIIII where X, Y, Z are the possible single qubit errors and I (identity) denotes the no-error-for-this-qubit situation.

The main part of the reason is, however, that you cannot use straight-forward error detection circuitry: Every CNOT (or every other nontrivial 2 or more qubit gate) forwards errors in one qubit to another qubit which would be disastrous for the most trivial case of a single qubit error correcting code and still very bad for more sophisticated codes. Hence a fault-tolerant (useful) implementation of needs even more effort than one might naively think.

With many gates per error correcting step, you can only permit a very low error rate per step. Here yet another problem arises: Since you may have coherent errors, you must be ready for the worst case that an error ϵ propagates not as Nϵ after N single qubit gates but as N2ϵ. This value must remain sufficiently low such that you overall gain after correcting some (but not all) errors, for example single qubit errors only.

An example for a coherent error is an implementation of a gate G that does, to first order, not simply G but G+ϵX which you might call an error of ϵ because that is the probability corresponding to the probability amplitude ϵ and hence the probability that a measurement directly after the gate reveals that it acted as the error X. After N applications of this gate, again to first order, you have actually applied GN+NϵGNX (if G and X commute, otherwise a more complicated construct that has N distinct terms proportional to ϵ). Hence you would, if measuring then, find an error probability of N2ϵ.

Incoherent errors are more benign. Yet if one must give a single value as an error threshold, then one cannot choose to only assume benign errors!


thanks for the answer, but I would appreciate if you could expand the answer to say more about some of the points here. In particular, 1) what do you mean exactly by saying that you need many gates in the error correcting code because there are "many errors to detect"? 2) What do you mean with "straight-forward logical construct"? 3) Why do "coherent errors" imply an error propagation scaling like N2ϵ instead of Nϵ?
glS

@glS I have substantially expanded the answer to address all your questions. Did I manage to do that?
pyramids
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.