Wenn die Fehlerrate niedrig genug wäre, könnten Sie eine Berechnung hundertmal ausführen und die häufigste Antwort verwenden. Dies funktioniert beispielsweise, wenn die Fehlerrate so niedrig ist, dass die erwartete Anzahl von Fehlern pro Berechnung sehr gering ist. Das bedeutet, dass die Funktionsweise dieser Strategie davon abhängt, wie lange und kompliziert eine Berechnung sein soll, die Sie durchführen möchten.
Sobald die Fehlerrate oder die Länge Ihrer Berechnung ausreichend hoch ist, können Sie nicht mehr sicher sein, dass das wahrscheinlichste Ergebnis null Fehler ist: Ab einem bestimmten Punkt ist es wahrscheinlicher, dass Sie einen oder zwei haben, oder mehr Fehler, als dass Sie Null haben. In diesem Fall hindert nichts die meisten Fälle daran, Ihnen eine falsche Antwort zu geben. Was dann?
Diese Probleme sind für die Quantenberechnung nicht besonders: Sie gelten auch für die klassische Berechnung. Es kommt lediglich vor, dass fast alle unsere Technologien in einem ausreichend fortgeschrittenen Zustand sind, sodass uns diese Probleme in der Praxis nicht beschäftigen. Möglicherweise besteht eine größere Wahrscheinlichkeit, dass Ihr Computer während der Berechnung von einem Meteoriten getroffen wird (oder der Akku fast leer ist oder Sie ihn ausschalten), als dass ein Hardwarefehler vorliegt. Das (vorübergehende) Besondere an der Quantenberechnung ist, dass die Technologie noch nicht ausgereift genug ist, um hinsichtlich der Möglichkeit von Fehlern so gelassen zu sein.
In jenen Zeiten, in denen das klassische Rechnen hatIn einem Stadium, in dem die Fehlerkorrektur sowohl praktisch als auch notwendig war, konnten wir bestimmte mathematische Techniken anwenden - die Fehlerkorrektur -, die es ermöglichten, die effektive Fehlerrate zu unterdrücken und im Prinzip so niedrig zu machen, wie wir es wollten. Die gleichen Techniken können überraschenderweise für die Quantenfehlerkorrektur verwendet werden - mit ein wenig Erweiterung, um den Unterschied zwischen Quanten- und klassischer Information auszugleichen. Vor Mitte der neunziger Jahre wurde zunächst angenommen, dass eine Quantenfehlerkorrektur aufgrund der Kontinuität des Raums der Quantenzustände unmöglich sei. Es stellt sich jedoch heraus, dass durch die richtige Anwendung klassischer Fehlerkorrekturtechniken auf die verschiedenen Arten, wie ein Qubit gemessen werden kann (üblicherweise als "Bit" und "Phase" bezeichnet), Sie können im Prinzip auch viele Arten von Rauschen auf Quantensystemen unterdrücken. Diese Techniken sind auch nicht speziell für Qubits: Dieselbe Idee kann für Quantensysteme beliebiger endlicher Dimensionen verwendet werden (obwohl sie bei Modellen wie der adiabatischen Berechnung möglicherweise die tatsächliche Durchführung der von Ihnen gewünschten Berechnung behindert).
Zum Zeitpunkt, an dem ich dies schreibe, sind einzelne Qubits so schwierig zu bauen und zu verteilen, dass die Leute hoffen, mit der Durchführung von Proof-of-Principles-Berechnungen ohne jegliche Fehlerkorrektur davonzukommen. Das ist in Ordnung, aber es wird begrenzen, wie lange ihre Berechnungen dauern können, bis die Anzahl der akkumulierten Fehler groß genug ist, dass die Berechnung nicht mehr aussagekräftig ist. Es gibt zwei Lösungen: Verbesserung der Rauschunterdrückung oder Anwendung der Fehlerkorrektur. Beide sind gute Ideen, aber es ist möglich, dass die Fehlerkorrektur mittel- und langfristig einfacher durchzuführen ist als die Unterdrückung von Rauschquellen.
Nun zu M. Sterns Antwort :
Der Hauptgrund, warum für Quantencomputer eine Fehlerkorrektur erforderlich ist, liegt darin, dass Qubits ein Kontinuum von Zuständen aufweisen (der Einfachheit halber betrachte ich derzeit nur Qubit-basierte Quantencomputer).
Moreover, quantum states are very delicate, and any interaction with the environment can cause decoherence and collapse of a state likeα|0⟩+β|1⟩ to |0⟩ with probability |α|2 or |1⟩ with probability |β|2 .
In a classical computer if say a bit's value is being replicated n-times as follows:
In case after the step something like0001000100 is produced it can be corrected by the classical computer to give 0000000000 because majority of the bits were 0′s and most probably the intended aim of the initial operation was replicating the 0 -bit 10 times.
But, for qubits such a error correction method won't work, because first of all duplicating qubits directly is not possible due to the No-Cloning theorem. And secondly, even if you could replicate|ψ⟩=α|0⟩+β|1⟩ 10-times it's highly probably that you'd end up with something like (α|0⟩+β|1⟩)⊗(αeiϵ|0⟩+βeiϵ′|1⟩)⊗(αeiϵ2|0⟩+βeiϵ′2|1⟩)⊗... i.e. with errors in the phases, where all the qubits would be in different states (due to the errors). That is, the situation is no-longer binary. A quantum computer, unlike a classical computer can no longer say that: "Since majority of the bits are in 0 -state let me convert the rest to 0 !", to correct any error which occurred during the operation. That's because all the 10 states of the 10 different qubits might be different from each other, after the so-called "replication" operation. The number of such possible errors will keep increasing rapidly as more and more operations are performed on a system of qubits. M. Stern has indeed used the right terminology in their answer to your question i.e. "that doesn't scale well".
So, you need a different breed of error correcting techniques to deal with errors occurring during the operation of a quantum computer, which can deal not only with bit flip errors but also phase shift errors. Also, it has to be resistant against unintentional decoherence. One thing to keep in mind is that most quantum gates will not be "perfect", even though with right number of "universal quantum gates" you can get arbitrarily close to building any quantum gate which performs (in theory) an unitary transformation.
Niel de Beaudrap mentions that there are clever ways to apply classical error correction techniques in ways such that they can correct many of the errors which occur during quantum operations, which is indeed correct, and is exactly what current day quantum error correcting codes do. I'd like to add the following from Wikipedia, as it might give some clarity about how quantum error correcting codes deal with the problem described above:
Note: I haven't given any example of actual quantum error correcting techniques. There are plenty of good textbooks out there which discuss this topic. However, I hope this answer will give the readers a basic idea of why we need error correcting codes in quantum computation.
Recommended Further Readings:
An Introduction to Quantum Error Correction and Fault-Tolerant Quantum Computation - Daniel Gottesman
Scheme for reducing decoherence in quantum computer memory - Peter Shor
Recommended Video Lecture:
Mini Crash Course: Quantum Error Correction by Ben Reichardt, University of Southern California
quelle
If you built a house or a road and noise was a variance, a difference, with respect to straightness, to direction, it's not solely / simply: "How would it look", but "How would it be?" - a superposition of both efficiency and correctness.
If two people calculated the circumference of a golf ball given a diameter each would get a similar answer, subject to the accuracy of their calculations; if each used several places of decimal it would be 'good enough'.
If two people were provided with identical equipment and ingredients, and given the same recipe for a cake, should we expect identical results?
You're spoiling the weighing, tapping your finger on the scale.
If you're at a loud concert and try to communicate with the person next to you do they understand you the first time, everytime?
If you tell a story or spread a rumor, (and some people communicate verbatim, some add their own spin, and others forget parts), when it gets back to you does it average itself out and become essentially (but not identically) the same thing you said? - unlikely.
It like crinkling up a piece of paper and then flattening it out.
All those analogies were intended to offer simplicity over exactness, you can reread them a few times, average it out, and have the exact answer, or not. ;)
A more technical explanation of why quantum error correction is difficult but neccessary is explained on Wikipedia's webpage: "Quantum Error Correction":
quelle
Noise doesn't perfectly average itself out. That's the Gambler's Fallacy. Even though noise tends to meander back and forth, it still accumulates over time.
For example, if you generate N fair coin flips and sum them up, the expected magnitude of the difference from exactlyN/2 heads grows like O(N−−√) . That's quadratically better than the O(N) you expect from a biased coin, but certainly not 0.
Even worse, in the context of a computation over many qubits the noise doesn't cancel itself nearly as well, because the noise is no longer along a single dimension. In a quantum computer withQ qubits and single-qubit noise, there are 2Q dimensions at any given time for the noise to act on (one for each X/Z axis of each qubit). And as you compute with the qubits, these dimensions change to correspond to different subspaces of a 2Q dimensional space. This makes it unlikely for later noise to undo earlier noise, and as a result you're back to O(N) accumulation of noise.
As computations get larger and longer, the chance of seeing no noise or of the noise perfectly cancelling out rapidly becomes so close to 0% that you can't expect see the correct answer even once even if you repeated the computation a trillion times.
quelle