Ich bin neu im Thema der komprimierten Abtastung. Ich habe ein paar Artikel von R. Baranuik, Y. Eldar, Terence Tao usw. darüber gelesen. Alle diese Artikel enthalten im Wesentlichen die mathematischen Details dahinter, dh Sparsity, RIP, L1-Normminimierung usw. Jedoch kann jeder die MATLAB-Codes bereitstellen das erreichen Drucksensoren?
Vielen Dank im Voraus für jede Hilfe.
Antworten:
mex
- nicht sicher.Aber all das und mehr ist in dieser Liste von Toolboxen enthalten .
Ich habe festgestellt, dass der schwierige Teil darin besteht, Pseudocode zu finden - hier wird der Algorithmus tatsächlich beschrieben. Hier sind einige Beispiele für Algorithmen, die den Pseudocode enthalten:
IST
.quelle
Ich nehme an, ich beantworte die Fragen hier nicht zum Thema, aber für L1-Optimierungsansätze finde ich YALL1 ( http://yall1.blogs.rice.edu/ ) und SPGL1 ( http://www.cs.ubc.ca/). ~ mpf / spgl1 / ) sehr nützliche und effiziente Pakete. TFOCS ( http://cvxr.com/tfocs/ ) ist wahrscheinlich etwas schwieriger zu verwenden, sollte aber recht flexibel sein. Es gibt auch CVX ( http://cvxr.com/cvx/ ), mit dem es sehr einfach ist, konvexe Optimierungsprobleme direkt in den Code einzugeben , aber es ist erheblich langsamer, um die Probleme zu lösen, die für die komprimierte Erfassung spezifisch sind, da es sich um ein Problem handelt sehr allgemeiner Löser.
Es gibt auch einige Rekonstruktionsalgorithmen in Sparselab ( http://sparselab.stanford.edu/ ).
Eine größere Liste mit wenigen Rekonstruktionscodes finden Sie hier: https://sites.google.com/site/igorcarron2/cs#reconstruction
quelle
Beachten Sie, dass L1 nicht der einzige Ansatz für die Druckmessung ist. Bei unseren Nachforschungen haben wir mit dem Approximate Message Passing (AMP) bessere Erfolge erzielt. Ich definiere "Erfolg" als geringeren Fehler, bessere Phasenübergänge (Fähigkeit, sich mit weniger Beobachtungen zu erholen) und geringere Komplexität (sowohl Speicher als auch CPU).
Der Approximate Message Passing-Algorithmus erstellt ein Bayes'sches Framework zum Schätzen der unbekannten Vektoren in einem linearen Großsystem, bei dem die Ein- und Ausgänge des linearen Systems durch probablistische Modelle bestimmt werden (z. B. "dieser Vektor wurde mit Rauschen gemessen", "dieser Vektor hat einige") Nullen "). Der ursprüngliche AMP-Ansatz von Donoho wurde von Rangan in Generalized Approximate Message Passing mit verfügbarem Matlab-Code verfeinert. Die Ein- und Ausgänge können nahezu beliebige Wahrscheinlichkeitsdichtefunktionen sein. In unserer Forschung haben wir festgestellt, dass GAMP in der Regel schneller, genauer und robuster ist (Lesen: bessere Phasenübergangskurven) als die konvexen L1-Ansätze und gierigen Ansätze (z. B. Orthogonal Matching Pursuit).
Mein Berater und ich haben gerade einen Artikel über die Verwendung von GAMP für Analysis CS geschrieben, in dem man eine Fülle von Nullen erwartet, nicht in dem unbekannten Vektor x, sondern in einer linearen Funktion dieses Unbekannten, Wx.
quelle
Sie können auch die Matlab UNLocBox überprüfen: http://unlocbox.sourceforge.net Auf der Demoseite befinden sich 4 Compressive-Sensing-Skripte: http://unlocbox.sourceforge.net/doc/demos/index.php
quelle
Ich habe einige praktische Codierungs-Tutorials geschrieben, die Anfängern die Grundlagen von CS, MP, OMP usw. erklären. Sie können sie bei überprüfen https://sparse-plex.readthedocs.io/en/latest/demos/index.html einsehen
Es ist Teil meiner Bibliothek Sparse-Plex unter GitHub https://github.com/indigits/sparse-plex
quelle