Welche Arten von statistischen Problemen dürften von Quantencomputern profitieren?

14

Wir stehen vor dem Aufkommen des Quantencomputers , wobei Quantensprachen Hardware-Quantencomputer antizipieren, die jetzt für simulierte Quantencomputer auf hohem und niedrigem Niveau verfügbar sind . Quantum Computing bringt neue elementare Funktionen wie Verschränkung und Teleportation von Qubits, Messung von Qubits und Überlagerung von Qubits.

Welche Arten von statistischen Problemen werden wahrscheinlich von der Quantenberechnung profitieren?

Bieten Quantencomputer beispielsweise eine allgegenwärtigere Erzeugung echter Zufallszahlen? Was ist mit der rechnerisch günstigen Erzeugung von Pseudozufallszahlen? Wird Quantencomputing dazu beitragen, die MCMC-Konvergenz zu beschleunigen oder die Konvergenzzeit nach oben zu begrenzen? Wird es Quantenalgorithmen für andere auf Stichproben basierende Schätzer geben?

Dies ist eine weit gefasste Frage, und akzeptable Antworten werden ebenfalls weit gefasst sein, aber ein dickes Lob, wenn sie zwischen Quanten- und klassischer Berechnung unterscheiden. (Wenn dies eine zu umfassende Frage ist, helfen Sie mir bitte, sie zu einer besseren Frage zu machen.)

Alexis
quelle
6
+1 Ich denke, es ist eine gute und interessante Frage. Da es viele (und möglicherweise spekulative) Antworten einlädt, ist es an der Grenze, welche Art von Frage hier funktioniert. Es teilt diese Grenze mit einigen unserer beliebtesten und beständigsten Themen und verdient, wie diese, den CW-Status.
whuber
7
Da maschinelles Lernen eine Art Unterdisziplin der Statistik ist, könnten Sie Quantum-Algorithmen für überwachtes und unbeaufsichtigtes maschinelles Lernen interessant finden.
Jakub Bartczuk
2
Schnelleres Computing ist immer wertvoll, aber derzeit befindet sich das Quanten-Computing noch im Anfangsstadium und es ist noch nicht so weit wie das klassische Computing. Ich schätze diese Frage, weil ich etwas darüber lernen musste. Bisher finde ich es schwer zu verstehen.
Michael R. Chernick
1
Ist es wichtig, dass das Quanten-Computing noch in den Kinderschuhen steckt? Es funktioniert und es schlägt das klassische Computing, als es noch ein Baby war. Ebenfalls nicht so unwichtig, kann die Beschleunigung für Probleme wie das Lösen von Matrixgleichungen oder das Auffinden der Umkehrung von Funktionen und Blackboxen exponentiell sein . Jetzt brauchen wir es nur noch, um erwachsen zu werden. Die Algorithmen, die auf solchen zukünftigen Computern ausgeführt werden können, wurden bereits seit Jahrzehnten entwickelt. Es ist nur unkompliziert (obwohl sehr umfassend, man denke nur an die Matrixgleichungen), Anwendungen für Statistiken zu entwickeln.
Sextus Empiricus
1
Ich denke, der erste und wichtigste Punkt ist, dass Quantencomputer die Arithmetik theoretisch erheblich beschleunigen können. Ist das korrekt? Wenn ja, dann sehen alle linearen Algebra-Routinen bereits einen Vorteil.
AdamO

Antworten:

1

Brute-Force-Methoden profitieren am ehesten davon, was Quanten-Computing ist. Warum? Eine mögliche physikalische Erklärung für den Weg eines aufgeschlagenen Baseballs ist, dass alle möglichen Quantenpfade automatisch erkundet werden und der Weg mit dem geringsten Energieaufwand, dh der Weg mit dem geringsten verfügbaren Widerstand, ausgewählt wird, und dies alles ohne dass ein Taschenrechner gebaut werden muss ; Die Berechnungen sind unaussprechlich. Verallgemeinern; Die Natur kann als Quantenrechner betrachtet werden. Daher sind die Probleme, die ähnlich sind, diejenigen, die eine Optimierung durchführen, wie die Minimierung der Regression eines Kriteriums, die Anpassungsgüte oder andere (die Anpassungsgüte ist in einigen Fällen schlecht gestellt), die, die davon profitieren.

BTW, die Zwischenschritte; Die Iterationen würden bei der Optimierung nicht berechnet, sondern nur das Endergebnis, genau wie wenn ein Baseballfeld auftritt. Das heißt, nur der tatsächliche Weg des Baseballs tritt auf, die alternativen Wege werden automatisch ausgeschlossen. Ein Unterschied zwischen einer statistischen Implementierung und einem physikalischen Ereignis besteht jedoch darin, dass der Fehler der statistischen Berechnung durch willkürliche Erhöhung der Genauigkeit (z. B. auf 65 Dezimalstellen) beliebig klein gemacht werden kann und dies physikalisch typischerweise nicht erreichbar ist . Zum Beispiel wirft selbst eine Pitching-Maschine einen Baseball nicht auf eine genau duplizierte Bahn.

Carl
quelle
+1 Vielen Dank. Würden Sie sagen, dass Monte-Carlo-Methoden, Bootstrapping-Methoden und andere quantitative Lösungsansätze zum Label "Brute Force" passen?
Alexis
1
Möglicherweise, jedoch nicht auf die gleiche Weise wie bei der linearen Programmierung. Zum Beispiel wurde die Methode von Metropolis und Ulam (Monte-Carlo-Simulation) ursprünglich von Ulam angewendet, um die kritische Masse der Atombombe zu berechnen. Mit True Quantum Computing wird eine simulierte Bombe entweder einer simulierten Explosion unterzogen oder nicht mit ungefähr der gleichen Geschwindigkeit wie die reale Explosion. Übrigens traf ich Ulam 1964, ich war damals ein junger Mann.
Carl
1
Vielen Dank, dieser Punkt über "simulierte Explosion" hilft wirklich, und ich denke, er baut meine Intuition zu diesem Thema auf. Auch ::
Alexis
1

Ich mochte die Antwort oben auf Baseball. Aber ich wäre vorsichtig, was Quanten-Computing gut machen könnte.

Es scheint sehr gut zu funktionieren, wenn es darum geht, kryptografische Schemata und dergleichen zu knacken: Alle Lösungen zu überlagern und dann auf die eigentliche Lösung zu kollabieren, kann recht schnell gehen.

In den achtziger Jahren - vor langer Zeit - gab es eine sehr bekannte Firma namens Thinking Machines. Siehe diesen Artikel: https://en.wikipedia.org/wiki/Thinking_Machines_Corporation

Die ganze Idee hatte einen Hauch von Quanten-Computing. Es wurde eine n-dimensionale Hypercube-Anordnung verwendet. Stellen Sie sich vier (sehr einfache) Mikroprozessoren vor, die in einem Quadrat verbunden sind. Jeder kann eine Berechnung durchführen und dann das Ergebnis mit dem Prozessor vor (gegen den Uhrzeigersinn), nach (im Uhrzeigersinn) oder gegenüber (quer) teilen. Als nächstes stellen Sie sich 8 Prozessoren in einem Würfel vor, die dieses Konzept auf drei Dimensionen erweitern können (jeder Prozessor kann jetzt seine Ausgabe mit einer oder mehreren von 7 anderen teilen: 3 entlang eines Scheitelpunkts des Würfels; drei quer über die Fläche eines Quadrats war der Prozessor Teil und eine Diagonale im 3-Raum).

Nehmen Sie das jetzt auf, vielleicht 64 Prozessoren in einem 6-dimensionalen Hypercube.

Dies war eine der heißesten Ideen der Zeit (zusammen mit der dedizierten 34-Bit-Lisp-Maschine, die Symbolics herausbrachte, und dem etwas bizarren Nur-Cache-Speichersystem, das Kendall Square Research herausbrachte - beide haben lesenswerte Wikipedia-Seiten).

Das Problem war, dass es genau einen und nur einen Algorithmus gab, der in der TM-Architektur tatsächlich gut funktionierte: eine schnelle Fourier-Transformation unter Verwendung des so genannten "Perfect Shuffle-Algorithmus". Es war ein genialer Einblick in die Verwendung einer Binärmaskentechnik, des maßgeschneiderten Algorithmus und der Architektur, um eine FFT auf brillant clevere und schnelle Weise parallel zu verarbeiten. Aber ich glaube nicht, dass sie jemals eine andere Verwendung dafür gefunden haben. (Siehe diese verwandte Frage: /cs/10572/perfect-shuffle-in-parallel-processing )

Ich war lange genug dabei, um zu erkennen, dass Technologien, die brillant und leistungsstark erscheinen, häufig ein Problem (oder genügend Probleme) nicht lösen, um sie nützlich zu machen.

Zu dieser Zeit gab es viele brillante Ideen: TM, Symbolics, KSR sowie Tandem (weg) und Stratus (erstaunlicherweise noch am Leben). Alle dachten an diese Firmen - zumindest einige von ihnen - würden die Welt übernehmen und das Computing revolutionieren.

Aber stattdessen haben wir FaceBook.

eSurfsnake
quelle
Sie haben Recht, den Hype hervorzurufen, und ich mag Ihre historische Perspektive, eSurfsnake. Ich bin in Santa Clara County aufgewachsen, als es zu Silicon Valley wurde ... Ich habe lange eine tiefe Wertschätzung für universelles Rechnen. Einer der Gründe, warum Statistik mich bewegt, ist, dass Wahrscheinlichkeit - echte Zufälligkeit - außerhalb des Bereichs der Berechnung liegt. Wir können es simulieren ... sehr gut für viele Zwecke, aber es gibt Aspekte der Natur, die scheinbar nicht berechnet werden. Quantum Computing scheint elementare Operationen zu bieten, die auch keine Turing-Berechnung sind. Deshalb möchte ich verstehen, was solche Tools bedeuten könnten.
Alexis
@Alexis Tatsächlich haben Quantencomputer keine Super-Turing-Fähigkeiten. Jedes Problem, das mit einem Quantencomputer berechnet werden kann, kann auch mit einem klassischen Computer berechnet werden, was sich aus der Tatsache ergibt, dass klassische Computer Quantencomputer simulieren können. Es sind jedoch einige Probleme bekannt, die mit Quantencomputern nachweislich effizienter gelöst werden können.
user20160
@ user20160 Echte Zufälligkeit ist eine überragende Fähigkeit. Überlagerung ist eine Super-Turing-Fähigkeit. Simulation ist nicht das Ding selbst.
Alexis
@Alexis Ich bin mir nicht sicher, ob es sich um dasselbe handelt, aber mit Super-Turing meine ich die Fähigkeit, eine Funktion zu berechnen, die eine Turing-Maschine nicht kann. Interessanterweise bietet die wahre Zufälligkeit nicht die Möglichkeit, Funktionen zu berechnen, die nicht deterministisch berechnet werden konnten. Ich stimme vollkommen zu, dass Simulation nicht das Ding selbst ist, sondern das Herzstück der rechnerischen Äquivalenz (wo wir das Ding selbst abstrahieren). Wenn Maschine A Maschine B simulieren kann, kann A jede Funktion berechnen, die B kann. Mehr in Nielsen & Chuang. Quantenberechnung und Quanteninformation
user20160
0

Welche Arten von statistischen Problemen dürften von Quantencomputern profitieren?

Auf Seite 645 von " Physikalische Chemie: Konzepte und Theorie " erklärt Kenneth S. Schmitz:

Quanteneffekte werden wichtig, wenn die De-Broglie-Wellenlänge mit den Abmessungen des Teilchens vergleichbar oder größer ist. In diesem Fall können sich die Wellenfunktionen überlappen, was zu unterschiedlichen Eigenschaften des Systems führt.

Makroskopische Systeme können mit klassischen Methoden analysiert werden, wie diese Wikipedia-Seite erklärt:

Eine differenziertere Betrachtung unterscheidet die klassische und die Quantenmechanik dahingehend, dass die klassische Mechanik nicht erkennt, dass Materie und Energie nicht in unendlich kleine Parzellen unterteilt werden können, so dass letztendlich die Feinverteilung irreduzibel granulare Merkmale aufweist. Das Kriterium für die Feinheit ist, ob die Wechselwirkungen in Form der Planckschen Konstante beschrieben werden oder nicht. Grob gesagt betrachtet die klassische Mechanik Teilchen in mathematisch idealisierten Begriffen als ebenso fein wie geometrische Punkte ohne Größe, die immer noch ihre endlichen Massen haben. Die klassische Mechanik betrachtet auch mathematisch idealisierte erweiterte Materialien als geometrisch kontinuierlich wesentlich. Solche Idealisierungen sind für die meisten alltäglichen Berechnungen nützlich, können jedoch für Moleküle, Atome, Photonen und andere Elementarteilchen völlig fehlschlagen. Auf viele Arten, Die klassische Mechanik kann als eine hauptsächlich makroskopische Theorie angesehen werden. Auf der viel kleineren Skala von Atomen und Molekülen kann die klassische Mechanik versagen, und die Wechselwirkungen von Teilchen werden dann durch die Quantenmechanik beschrieben.

   

Bieten Quantencomputer beispielsweise eine allgegenwärtigere Erzeugung echter Zufallszahlen?

Nein. Sie brauchen keinen Computer, um eine echte Zufallszahl zu generieren , und die Verwendung eines Quantencomputers wäre eine enorme Verschwendung von Ressourcen, ohne die Zufälligkeit zu verbessern.

ID Quantique bietet SoCs, Standalone- und PCIe-Karten für 1200 bis 3500 US- Dollar zum Verkauf an . Es ist etwas mehr als nur Photonen, die durch einen halbtransparenten Spiegel wandern, verfügt jedoch über ausreichende Quanten-Zufallseigenschaften , um AIS 31 ("Funktionsklassen und Bewertungsmethoden für einen echten (physikalischen) Zufallszahlengenerator - Version 3.1 vom 29. September 2001" .PDF ) zu erfüllen . So beschreiben sie ihre Methode:

Quantis ist ein physikalischer Zufallszahlengenerator, der einen elementaren Quantenoptikprozess ausnutzt. Photonen - Lichtteilchen - werden einzeln auf einen halbtransparenten Spiegel geschickt und detektiert. Diese exklusiven Ereignisse (Reflexion - Übertragung) sind den Bitwerten "0" - "1" zugeordnet. Dies ermöglicht es uns, ein wirklich unvoreingenommenes und unvorhersehbares System zu garantieren.

Ein schnelleres (1 Gbit / s) System wird von QuintessenceLabs angeboten . Ihr Quanten-Zufallszahlengenerator „qStream“ entspricht NIST SP 800-90A und erfüllt die Anforderungen des Entwurfs NIST SP 800 90B und C. Er verwendet Esaki-Tunneldioden . Ihre Produkte sind neu und die Preise sind noch nicht öffentlich verfügbar.

Ebenfalls erhältlich sind Systeme von Comscire für mehrere hundert bis ein paar tausend Dollar. Ihre PCQNG- und Post-Quanten-RNG- Methoden und -Patente werden auf ihrer Website erläutert.

Quantum Numbers Corp. hat ein Gerät in Chipgröße entwickelt, mit dem sich schnell (1 Gbit / s) Quanten-Zufallszahlen erzeugen lassen, von denen sie behaupten, dass sie bald verfügbar sein werden.

Was ist mit der rechnerisch günstigen Erzeugung von Pseudozufallszahlen?

Wenn Sie "rechengünstig" meinen wie in wenigen Anweisungen und schnelle Ausführung = ja.

Wenn Sie meinen, dass jeder Computer ein kostengünstiges Mittel ist, um echte Zufallszahlen zu generieren = nein.

In QRNG implementierte Eigenschaften erzeugen keine Pseudozufallszahlen .

Wird Quantencomputing dazu beitragen, die Konvergenz der Markov-Kette nach Monte Carlo (MCMC) zu beschleunigen oder die Konvergenzzeit nach oben zu begrenzen?

Ich lasse es vorerst noch jemanden machen.

Wird es Quantenalgorithmen für andere auf Stichproben basierende Schätzer geben?

Wahrscheinlich.

Bitte bearbeite und verbessere diese Wiki-Antwort.

Rob
quelle
Ich bin mir nicht sicher, ob ich der "wahren Verschwendung von Ressourcen" für zuverlässiges echtes RNG zustimme. Zum einen braucht Pseudo-RNG Zeit, die sich bei umfangreichen Simulationsarbeiten schnell summiert. Zum anderen benötigt RNG Speicher und ebenfalls für umfangreiche Simulationsarbeiten. Eine schnelle, garantierte Quelle für echte Zufälligkeit aus einer bekannten Distribution zu haben, scheint nicht so verschwenderisch. Darüber hinaus schließen andere Lösungen für echtes RNG nicht aus, dass auch Quantencomputer eine solche Lösung bereitstellen.
Alexis