In diesem Artikel von Lustig spricht er über etwas, das nicht intuitiv erscheint: Zufällige Stichproben können eine bessere Leistung zeigen als einheitliche Stichproben. Ich habe versucht, dies ab Seite 15 dieser Folien zu verstehen , aber ich kann aus nichts wirklich einen Sinn machen.
Warum erhalten wir eine bessere Rekonstruktion hinsichtlich der Signalähnlichkeit, wenn wir zufällige Permutationen von Frequenzkoeffizienten vornehmen? Warum führt dies zu einer besseren Rekonstruktion und welche Intuition steckt hinter dem Phänomen?
Antworten:
Die Schlüsselidee ist, dass der Zufallsstichprobenansatz dem resultierenden Signal mehr Einschränkungen auferlegt als der einheitliche Abtastansatz.
Der POCS-Algorithmus (Projektionen auf konvexe Mengen), der für die Rekonstruktion des zufällig abgetasteten Signals verwendet wird, ist das Schlüsselstück: Er erzwingt:
Der einheitliche Stichprobenansatz unternimmt keinen Versuch, die kühne Einschränkung durchzusetzen .
Hier ist ein Beispiel, das zeigt:
Wie Sie sehen können, verbessert diese letzte Einschränkung die Rekonstruktion erheblich.
R-Code unten
quelle