Es scheint mir eine äußerst relevante Frage für die Aussichten des Quantencomputers zu sein, wie die technische Komplexität von Quantensystemen mit der Größe skaliert. Das heißt, es ist einfacher, Qubit-Computer als einen Qubit-Computer zu bauen. In meinen Augen ist dies in etwa analog zu der Tatsache, dass es einfacher ist, Körper-Probleme analytisch zu lösen als ein Körper-Problem, da Verschränkung der primäre Motivationsfaktor für das Quanten-Computing ist.1 n
Meine Frage lautet wie folgt: Es scheint, dass wir uns wirklich darum kümmern sollten, wie die Schwierigkeit, ein Körper-Quantensystem aufzubauen und zu steuern, mit wächst . Fix eine Gate - Architektur, oder sogar ein Algorithmus - ist es eine prinzipielle Schwierigkeit, die dadurch entsteht , dass ein -qubit Computer ist ein Quanten Problem Vielteilchen-? Und das mathematisch gesehen, ist unser Verständnis, wie Quantenphänomene zu klassischen Phänomenen heraufskaliert werden, ziemlich schlecht? Hier Schwierigkeit könnte in einer beliebigen Anzahl von Arten definiert werden, und die Frage , würden wir kümmern uns um, grob ist, steuert eine -qubit Maschine (das heißt, die Erhaltung der Kohärenz ihrer Wellenfunktionen) ‚nur‘ x härter als eine Steuerung Qubit-Maschine oder 100 2 oder 100 ! oder 100 100 ? Haben wir Gründe zu der Annahme, dass es mehr oder weniger das erstere und nicht das letztere ist?
quelle
Antworten:
Dies ist eine Frage, über die ich mich seit mehr als 10 Jahren Gedanken gemacht habe. 2008 war ich Student und sagte meinem Quantencomputerprofessor, ich wolle die "physikalische Komplexität" von Quantenalgorithmen untersuchen, bei denen die "rechnerische Komplexität" bekanntermaßen von der Quantenberechnung profitiert.
Zum Beispiel erfordert die GroversucheQuantentore im Gegensatz zuO(n)klassischen Toren, aber was ist, wenn die Kosten für die Steuerung von Quantentoren wie folgt steigen?O(n−−√) O(n) betragen, während sie für klassische Tore nur n betragen ?n4 n
Er antwortete sofort:
Das stellte sich als wahr heraus. Die "physische Komplexität" der Manipulation Qubits mit NMR ist viel schlimmer als bei supraleitenden Qubits, aber wir haben inbeiden Fällenkeine Formel für die physikalische Schwierigkeit in Bezug auf n .n n
Dies sind die Schritte, die Sie unternehmen müssen:
1. Überlegen Sie sich ein genaues Dekohärenzmodell für Ihren Quantencomputer. Dies unterscheidet sich beispielsweise für ein Spin-Qubit in einem GaAs-Quantenpunkt von einem Spin-Qubit in einem Diamant-NV-Zentrum.F n F n dekohärenten Qubits im Vergleich zu dem Ergebnis ist, das Sie ohne Dekohärenz erhalten würden. E .
2. Berechnen Sie die Dynamik der Qubits bei vorhandener Dekohärenz genau.
3. Zeichnen Sie gegen n , wobei F die Genauigkeit von n ist. Wählen Sie einen Fehlerkorrekturcode. Hier erfahren Sie, wie viele physikalische Qubits Sie für jedes logische Qubit für eine Fehlerrate E benötigen
4. Dies kann Ihnen einen Hinweis auf die Fehlerrate geben (unterschiedliche Algorithmen stellen jedoch unterschiedliche Anforderungen an die Wiedergabetreue).
5.
6. Jetzt können Sie die Kosten (in Bezug auf die Anzahl der benötigten Hilfs-Qubits) für das "Engineering" des Quantencomputers zeichnen.
Jetzt können Sie sehen, warum Sie hierher gekommen sind, um die Frage zu stellen, und die Antwort war in keinem Lehrbuch enthalten:
Schritt 1 hängt von der Art der Implementierung ab (NMR, Photonik, SQUIDS usw.).
Schritt 2 ist sehr schwierig. Dekohärenzfreie Dynamik wurde für 64 Qubits ohne physikalische Näherungen simuliert , aber nicht-markovianische, nicht-störende Dynamik mit Dekohärenz ist derzeit auf 16 Qubits beschränkt .
Schritt 4 hängt vom Algorithmus ab. Daher gibt es keine "universelle Skalierung" der physikalischen Komplexität, selbst wenn mit einer bestimmten Art von Implementierung gearbeitet wird (wie NMR, Photonics, SQUIDs usw.).
Schritt 5 hängt von der Wahl des Fehlerkorrekturcodes ab
Um Ihre beiden Fragen konkret zu beantworten:
Es hängt von Ihrer Wahl in Schritt 1 ab , und es ist noch niemandem gelungen, Schritt 1 bis Schritt 3 vollständig zu durchlaufen , um eine genaue Formel für die physikalische Komplexität in Bezug auf die Anzahl der Qubits zu erhalten, selbst für einen bestimmten Algorithmus. Dies ist also immer noch eine offene Frage, die durch die Schwierigkeit begrenzt ist, die Dynamik offener Quantensysteme zu simulieren.
Der beste Grund ist, dass dies unsere Erfahrung ist, wenn wir mit IBMs 5-Qubit-, 16-Qubit- und 50-Qubit-Quantencomputern spielen. Die Fehlerraten steigen nicht um oder n 100 . Wie funktioniert die Energie , die es zu nimmt macht den 5-Qubit, 16-Qubit und 50-Qubit - Quantencomputer, und wie funktioniert diese Skala mit n ? Diese "technische Komplexität" hängt noch stärker von der Implementierung ab (denken Sie an NMR vs. SQUIDs) und ist eine offene, wenn auch interessante Frage.n! n100 n
quelle
Schaltungskomplexität
Ich denke, das erste Problem besteht darin, wirklich zu verstehen, was unter "Steuern" eines Quantensystems zu verstehen ist. Hierfür könnte es hilfreich sein, über den klassischen Fall nachzudenken.
Dekohärenz
Im Anschluss an die Kommentare,
Dies unterteilt sich in zwei Regime. Bei kleinen Quantengeräten könnte man vor der Fehlerkorrektur sagen, wir befinden uns im NISQ-Regime . Diese Antwort ist wahrscheinlich für dieses Regime am relevantesten. Wenn Ihr Gerät jedoch größer wird, werden die Renditen sinken. Es wird immer schwieriger, die Engineering-Aufgabe zu erfüllen, nur um ein paar weitere Qubits hinzuzufügen.
Was wirklich sehr überzeugend ist, ist zu sehen, wie sich die Koeffizienten in diesen Beziehungen ändern, wenn sich Ihr Gate-Fehler dem Fehlerkorrekturschwellenwert nähert. Ich kann anscheinend keine geeignete Berechnung finden (ich bin mir sicher, dass Andrew Steane irgendwann eine gemacht hat. Möglicherweise war es ein Gespräch, zu dem ich gegangen bin.), Aber sie sind wirklich in die Luft gegangen, und deshalb möchten Sie operieren mit einem anständigen Spielraum unterhalb der Schwelle.
Dennoch müssen einige Annahmen über Ihre Architektur getroffen werden, bevor diese Überlegungen relevant sind. Zum Beispiel muss es eine ausreichende Parallelität geben; Sie müssen in der Lage sein, gleichzeitig auf verschiedene Teile des Computers einzuwirken. Wenn Sie immer nur eine Sache gleichzeitig tun, werden Fehler immer zu schnell auftreten. Sie möchten auch in der Lage sein, Ihren Herstellungsprozess zu skalieren, ohne dass sich die Situation verschlechtert. Es scheint, dass zum Beispiel supraleitende Qubits dafür ziemlich gut sind. Ihre Leistung hängt hauptsächlich davon ab, wie genau Sie verschiedene Teile der Schaltung herstellen können. Sie bekommen es richtig für einen, und Sie können "nur" viele Male wiederholen, um viele Qubits zu machen.
quelle
In gewissem Sinne könnte die "Wiedergabetreue" eine Einschätzung geben, wie fehleranfällig der Prozessor ist. Wenn Sie den Quantencomputer zur Berechnung der chemischen Reaktionsdynamik oder eines anderen Problems verwenden, bei dem eine Überlagerung zur Erzielung einer Quantenbeschleunigung (oder sogar einer "Quantenüberlegenheit") verwendet werden könnte, könnte die Dekohärenz einen Einfluss auf Sie haben oder sogar, wie schnell Sie eine Überlagerung erreichen , könnte einen Beitrag zum fehlerfreien Betrieb leisten. "Fidelity" könnte eine Fehlerschätzung liefern, unabhängig davon, ob 1 Qubit oder 200 Qubit verwendet werden. Sie könnten sogar einen Hamiltonianer "konstruieren", um High-Fidelity-Qubits zu erzeugen, im adiabatischen Fall, in dem Leckfehler auftreten.
In der Praxis sind Fehlerraten von 99,5% + äußerst wünschenswert, um eine effiziente Fehlerkorrektur zu ermöglichen. Fehlerraten können von der Art sein, mit der Elektronenspins zwischen Qubits genau gelesen werden. In einem solchen Fall würden Fehlerraten von 99,5% oder 99,8% (Fünf- oder Sechs-Sigma-Konfidenz) weniger Aufwand (Fehlerkorrektur) beim Skalieren des Systems erfordern.
quelle