Чи є якісь оцінки того, як складність квантової інженерії масштабується з розмірами?


12

Мені здається, що надзвичайно актуальним питанням для перспектив квантових обчислень буде те, як інженерна складність квантових систем масштабується з розмірами. Значить, простіше побудувати -квітні комп’ютери, ніж один -кубітний комп'ютер. На мій погляд, це приблизно аналогічно тому, що аналітично легше розв’язати задачі тіл, ніж одна проблема тіл, оскільки заплутаність є головним мотивуючим фактором, що стоїть в першу чергу за квантовими обчисленнями.н 1нн 1н

Моє запитання таке: Мабуть, нам дійсно слід було б турбуватися про те, як «складність» побудови та контролю квантової системи тіл зростає з . Виправити архітектуру воріт, або навіть алгоритм - чи принципово виникають труднощі, пов'язані з тим, що -бітний комп'ютер - це квантова проблема багатьох тіл? І що математично кажучи, наше розуміння того, як квантові явища перетворюються на класичні явища, є досить поганим? Тут складність можна визначити будь-якою кількістю способів, і питання, яке нас би хвилювало, приблизно полягає в тому, щоб керувати кубітною машиною (тобто, зберігаючи когерентність її хвильових функцій) «просто» на разів важче, ніж керуватиннн100010010 -кубітна машина, або , абоабо ? Чи є у нас якісь причини вважати, що це більш-менш перший, а не останній?1002100!100100


Ха, не знаю, що моє і мало призвести до ...
Кіт Раш

Привіт @KeithRush Чи не пропущено щось у першому реченні? Велике питання до речі.
MEE - Відновіть Моніку

Абсолютно не дублюється, але я вважаю, що відповіді на два питання глибоко пов'язані: quantumcomputing.stackexchange.com/questions/1803/…
agaitaarino

Відповіді:


8

Це питання, над яким я думав уже більше 10 років. У 2008 році я був студентом, і я сказав моєму професору квантових обчислень, що хочу вивчити "фізичну складність" виконання квантових алгоритмів, для яких, як відомо, була вигода "квантових обчислень".

Наприклад, пошук Grover вимагає квантових воріт на відміну від класичних воріт, але що робити, якщо вартість управління квантовими воротами масштабується як а для класичних ворота це тільки ?O(n)О(н)н4н

Він миттю відповів:

"Напевно, ваше уявлення про фізичну складність залежатиме від реалізації"

Це виявилося правдою. "Фізична складність" маніпулювання кубітами з ЯМР набагато гірша, ніж для надпровідних кубітів, але у нас немає формули фізичної складності щодо для будь-якого випадку.нн

Це кроки, які вам потрібно буде зробити:

1. Придумайте точну модель декогерентності для вашого квантового комп'ютера. Це буде відрізнятися, наприклад, від кубіта спіна в квантовій точці GaAs, порівняно зі спиновим кубітом у діамантовому центрі NV.
2. Точно обчисліть динаміку кубітів за наявності декогерентності.
3. Сюжет проти , де - вірність ятих кубітів порівняно з результатом, який ви отримаєте без декогерентності. 4. Це може вказувати на рівень помилок (але різні алгоритми матимуть різні вимоги до точності). 5.ЖнЖн

Виберіть код виправлення помилок. Це покаже вам , скільки фізичних кубітів вам потрібно для кожного логічного кубіта, для частоти помилок . 6. Тепер ви можете побудувати графік вартості (у кількості необхідних допоміжних кубітів) "інженерії" квантового комп'ютера.Е

Тепер ви можете зрозуміти, чому вам довелося прийти сюди, щоб задати питання, а відповіді не було в жодному підручнику:

Крок 1 залежить від типу реалізації (ЯМР, Photonics, SQUIDS тощо).
Крок 2 дуже важкий. Динаміка безкогерентності моделювалася без фізичних наближень для 64 кубітів , але немарківська непертурбативна динаміка з декогерентністю в даний час обмежена 16 кубітами .
Крок 4 залежить від алгоритму. Таким чином, немає "універсального масштабування" фізичної складності, навіть якщо робота з певним типом реалізації (наприклад, ЯМР, Photonics, SQUIDs тощо).
Крок 5 залежить від вибору коду виправлення помилок

Отже, щоб відповісти на ваші два питання конкретно:

Це управління 1000-кубітною машиною (тобто збереження когерентності її хвильових функцій) "просто" на разів важче, ніж управління кубітною машиною, або , абоабо ?100101002100!100100

Це залежить від вашого вибору на кроці 1 , і ніхто не зміг пройти весь шлях від кроку 1 до кроку 3, але щоб отримати точну формулу фізичної складності щодо кількості кубітів, навіть для конкретного алгоритму. Тож це все ще відкрите питання, обмежене складністю моделювання динаміки відкритої квантової системи.

Чи є у нас якісь причини вважати, що це більш-менш перший, а не останній?

Найкраща причина полягає в тому, що це наш досвід, коли ми граємо з 5-кубітними, 16-кубітними та 50-кубітними комп'ютерами IBM. Показник помилок не збільшується на або n 100 . Як енергія потрібна , щоб зробити 5-кубіт, 16-кубіт і 50-кубіт квантовий комп'ютер, і як же це масштаб з п ? Ця "інженерна складність" ще більше залежить від впровадження (думаю, ЯМР проти SQUID) відкритого питання, хоч і цікавого.н!н100н


1
Як щодо легшого питання щодо нескінченно малої динаміки? Тобто для кожного та початкового стану ρ на ( C 2 ) n , у вас векторне поле визначається динамікою, оціненою в цій точці. Обчисліть норму за допомогою метричного тензорного поля Фішера. Це значно простіше питання, не даючи динаміці текти протягом обмеженого часу, але все-таки дає обмеження. Якщо ви хочете, для кожного n візьміть надсумок над усіма вихідними станами ρ та побудуйте результат проти n . нρ(С2)ннρн
AHusain

1
Що ви маєте на увазі під "нескінченно малою динамікою"? Векторне поле визначається динамікою, оціненою в який момент? Обчисліть норму що (використовуючи метричне тензорне поле Фішера)? Ви маєте на увазі обчислити норму векторного поля? Можливо, це є гарною ідеєю, але якщо це, на вашу думку, ви маєте на увазі, а це дивитися на невідповідність нескінченно малого часу при t = 0, я не знаю, наскільки це цінно як показник, оскільки це займає час, щоб декогеренція досягла своєї повної сили, оскільки сила декогеренції характеризується функцією реакції ванни, яка є інтегралом над t.
користувач1271772

1
Нехай - риманівський багатообразник, визначений усіма станами на n кубітах, оснащених метричним тензором Фішера. Звичайне диференціальне рівняння визначає векторне поле на M n . Для будь-якого стану ρ можна побачити елемент у T ρ M n . Ви з'ясуєте швидкість декогерентності від цієї, щоб отримати функцію r ( ρ )(Мн,г)нМнρТρМнr(ρ). Якщо ви хочете, що над усіма можливими станами зробіть градієнтне підйом. Це дає дуже грубу межу швидкості декогерентності з урахуванням векторного поля, яке визначало динаміку. Це може бути використано для обмеження декогерентності навіть у більші часи через цю обмежену швидкість.
Ахусей

4

Складність схеми

Я думаю, що перше питання - це зрозуміти, що розуміється під "контролем" квантової системи. Для цього це може допомогти почати думати про класичний випадок.

Скільки різних -бітових входів, 1-бітних вихідних класичних обчислень? Для кожного з 2 n можливих входів є 2 різних можливих виходу. Таким чином, є 2 2 n різних можливих функцій, які вам можуть запропонувати побудувати, якщо те, про що ви говорите з точки зору керованості, - це "побудова будь-якої з можливих функцій". Потім ви можете запитати "яку частку з цих функцій я можу створити, використовуючи не більше 2 n / n двобітних воріт?" (можна, мабуть, узагальнити це до kn2n222n2n/nk-бітні ворота, щоб отримати аргумент відносної складності між двома розмірами ланцюга). Існує докладний розрахунок, який ви можете виконати, щоб визначити це число, показуючи, що воно невелике. Це те, що називається теоремою Шеннона (але що ні?), Але є принаймні інтуїтивне пояснення: для отримання потрібних обчислень, які ви хочете виконати, потрібно трохи рядка з біт. Ця інформація повинна бути нестислимою, оскільки немає місця для збереження. Але, якщо ви могли б створити всі ці функції за допомогою коротших замикань, то опис цієї схеми було б способом стиснення даних.2n

nϵO(n2), то належним чином керувати 1000-кубітним апаратом начебто в 10000 разів важче, ніж керувати 10-кубітною машиною, в тому сенсі, що вам потрібно захистити її від невідповідності набагато довше, застосуйте ще багато воріт тощо.

Декогерентність

Слідкуючи за коментарями,

Розглянемо конкретний алгоритм або конкретний вид схеми. Моє запитання може бути перетворене - чи є якісь теоретичні чи практичні вказівки щодо того, як (інженерна) проблема запобігання масштабам декогерентності, коли ми масштабуємо кількість цих схем?

Це ділиться на два режими. Для невеликих квантових пристроїв перед виправленням помилок ви можете сказати, що ми перебуваємо в режимі NISQ . Ця відповідь , мабуть, найбільше стосується того режиму. Однак у міру збільшення вашого пристрою прибуток зменшуватиметься; важче і важче виконати інженерне завдання, просто додати ще кілька кубітів.

pppp1%O(logϵ)ϵO(logϵ)коефіцієнт масштабу. Для конкретних цифр вас можуть зацікавити види обчислень, які проводив Ендрю Стійн: дивіться тут (хоча цифри, можливо, зараз можуть бути трохи покращені).

Що насправді досить переконливо - це побачити, як змінюються коефіцієнти в цих відносинах, коли похибка вашого ворота стає все ближче і ближче до порога виправлення помилок. Я не можу покласти руки на відповідний розрахунок (я впевнений, що Ендрю Стійн в якийсь момент зробив це. Можливо, це була розмова, до якої я пішов.), Але вони дуже сильно підірвані, тому ви хочете працювати з гідною маржею нижче порогу.

Однак, є кілька припущень, які необхідно зробити щодо вашої архітектури, перш ніж ці міркування є актуальними. Наприклад, має бути достатній паралелізм; ви повинні мати можливість діяти на різних частинах комп'ютера одночасно. Якщо ви робите лише одну справу за один раз, помилки завжди накопичуватимуться занадто швидко. Ви також хочете мати можливість розширити свій виробничий процес, не погіршившись. Здається, що, наприклад, надпровідні кубіти будуть цілком непогані для цього. Їх продуктивність головним чином залежить від того, наскільки точно можна скласти різні частини схеми. Ви розумієте це за один, і ви можете "просто" повторити багато разів, щоб зробити багато кубітів.


1
Це по суті те, що я мав на увазі, але усунення алгоритмічної складності та орієнтація на складність техніки - особливо запобігання декогерентності. Розглянемо конкретний алгоритм або конкретний вид схеми. Моє запитання може бути перетворене - чи є якісь теоретичні чи практичні вказівки щодо того, як (інженерна) проблема запобігання масштабам декогерентності, коли ми масштабуємо кількість цих схем?
Кіт Раш

@KeithRush ОК! Тепер я починаю розуміти, що ви хочете :) По суті, це обчислювальна складність відмовостійкості - які витрати часу та простору, щоб отримати певну кількість високоякісних логічних кубітів - і це щось, що люди розробили досить ретельно. Я спробую викопати відповідну інформацію завтра, якщо хтось інший мене не поб'є.
DaftWullie

2

мн

Тож у певному сенсі «вірність» може дати оцінку, наскільки схильний процесор помилок. Якщо ви використовували квантовий комп'ютер для обчислення динаміки хімічної реакції або будь-якої іншої проблеми, яка могла б використовувати суперпозицію для досягнення квантового прискорення (або навіть "квантової переваги" в кінцевому підсумку), на вас може вплинути знепритомність або навіть те, як швидко ви досягнете суперпозиції , може зіграти роль в режимі без помилок. "Вірність" може дати оцінку помилок, використовуючи ми 1 кубіт або скажімо 200 кубітів. Ви могли навіть "інженером" гамільтониана, щоб дати кубіти високої точності, в адіабатичному випадку, де мають місце помилки витоку.

Зауважте, що на практиці вкрай бажані показники помилок 99,5% + для полегшення ефективного виправлення помилок. Частота помилок може бути типовою для зчитування електронів зчитування між кубітами. У такому випадку частота помилок 99,5% або 99,8% (п’ять-шість впевнених типів сигми) потребує менших накладних витрат (виправлення помилок) при масштабуванні системи.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.