Erhöhen der Bildauflösung

12

Ich kenne einige Oszilloskope ( DSA8300 ), die wiederholt mit einigen hundert kS / s abtasten, um ein Signal mit einigen GHz zu rekonstruieren. Ich habe mich gefragt, ob dies auf 2D-Signale (Fotos) ausgedehnt werden kann. Kann ich mit einer handelsüblichen 16-Megapixel-Kamera eine Serie (z. B. 4) von Standbildern aufnehmen, um schließlich ein 32-Megapixel-Bild zu rekonstruieren? Entfernt dies das Aliasing, das ich von jedem Bild habe?

Sollte so etwas von einem einzelnen Bild aus versucht werden, würde es offensichtlich nicht funktionieren, da keine neuen Informationen eingeführt werden. Wenn alle aufgenommenen Bilder absolut identisch sind, bin ich dann immer noch an der gleichen Stelle wie ein Bild? Sind Variationen also unerlässlich? Ist das CCD / CMOS-Rauschen ausreichend variabel, damit so etwas funktioniert?

Gibt es einen Namen für eine solche Technik oder einen solchen Algorithmus? Wonach soll ich suchen?

Lord Loh.
quelle
CCD-Rauschen würde Ihnen nicht helfen, aber eine physische Bewegung der Kamera könnte helfen. Wenn Sie mehrere Bilder einer identischen Szene mit einer identischen Kamera an einer identischen Position aufnehmen, können Sie nur das Rauschen reduzieren, nicht das Aliasing. Sie messen immer noch die gleichen Punkte. Das Aufnehmen von Bildern, die um weniger als ein Pixel voneinander versetzt sind, führt jedoch zu einer effektiv höheren Abtastrate und hilft, Aliasing zu entfernen.
Endolith
Ich habe eine Nikon DX mit einer Breite von 23,6 mm und 4928 Pixel in dieser Dimension. Dies entspricht der Breite jeder Photosite auf dem Sensor ~ 4,7889 Mikrometer. Soll ich meine Kamera also um Bruchteile dieses Betrags entlang der Breitenachse bewegen? Sagen Sie 10 Bilder, indem Sie meine Kamera jedes Mal 0,47 Mikrometer bewegen? Und das gleiche auf der Höhe? Das klingt kaum nach einem Wochenendprojekt mit serienmäßigen Schrittmotoren: '- (
Lord Loh.
Ich habe mich gefragt, ob ich mehrere Fotos von einer einzelnen Aufnahme einer Lichtfeldkamera ( Lytro ) mit verschiedenen Fokusebenen verwenden kann, um ein hochauflösendes Bild zu rekonstruieren. Intuitiv denke ich, dass es nicht funktionieren wird: - /
Lord Loh.
1
Nein, es hängt von der Entfernung zum Ziel, der Optik usw. ab. Stellen Sie sich vor, ein Strahl schießt aus jedem Pixel Ihrer Kamera heraus, wird von der Linse gebogen und trifft auf Ihr Ziel, sodass er von einem rechteckigen Punktegitter abgedeckt wird. Das sind die Punkte, die jedes Kamerapixel sieht. Wenn das Ziel eine mit Streifen bedeckte Wand ist und sich die Streifen zwischen den einzelnen Rasterpunkten mehrmals abwechseln, ist ein Aliasing möglich.
Endolith
Das macht jetzt Sinn :-) Eine 0,4 Mikron Bewegung ist in diesem Fall praktisch überhaupt keine Bewegung!
Lord Loh.

Antworten:

8

Ein Wort für diese Technik ist Superauflösung .

Robert Gawron hat hier einen Blogpost und hier die Python-Implementierung .

Normalerweise beruht diese Technik darauf, dass jedes Bild geringfügig von den anderen versetzt ist. Der einzige Vorteil, den Sie erhalten, wenn Sie sich nicht zwischen den Aufnahmen bewegen, ist die Reduzierung des Geräuschpegels.

Peter K.
quelle
Beseitigt dies verzerrte Teile des Bildes? Wie Fenster und feine Netze bauen? Können die verlorenen Informationen nach einem Aliasing der einzelnen Bilder immer noch wiederhergestellt werden?
Lord Loh.
4

Intuitiv, wenn Sie den Sensor bewegenN1N×N

Unter Verwendung von Schätzmethoden kann jede Bewegung, die keine ganzzahlige Multiplikation der Auflösung des Sensors (Ereignis mit einer Wahrscheinlichkeit von Null) ist, dh eine Teilbewegung, verwendet werden, um mehr Daten zu sammeln und die Auflösung zu verbessern.

Normalerweise werden diese Methoden als Super Resolution bezeichnet, was für die Poly-Phase-Darstellung und -Abtastung ein ungewöhnlicher Name ist.

Beachten Sie jedoch, dass sich viele Artikel mit Super Resolution befassen, die tatsächlich ein anderes Problem lösen (Deconvolution of Single Image).
Das Problem, das Sie suchen, liegt zwar auch im Bereich Inverse Probleme, es werden jedoch mehrere Bilder verwendet.

Ich denke, die Methode, nach der Sie suchen, wird hauptsächlich in der Lithografie verwendet.

Royi
quelle
Das hatte ich mir ursprünglich gedacht. Dass ich mich im Submikrometerbereich bewegen müsste, aber dies - mathworks.com/matlabcentral/fileexchange/… geht nicht so vor und führt zu einer anständigen Bildverbesserung - kann daran liegen, dass Informationen von Subfoto-Websites durch Verschieben abgerufen werden die Kamera leicht zufällig statt systematischer 1 / N-Schrittbewegung.
Lord Loh.
Hallo, wie ich geschrieben habe, könnte unter Verwendung von Schätztechniken jede Bewegung (es sei denn, es handelt sich um eine ganzzahlige Multiplikation der Sensorzellen) verwendet werden, um mehr Daten abzuleiten.
Royi
1

Ein anderes Wort ist "Stapeln". Es wird verwendet, um das CCD-Rauschen zu reduzieren, die Schärfentiefe zu erhöhen (indem Bilder gestapelt werden, die etwas anders fokussiert sind), astronomische Fotos mit sehr geringem Licht zu verbessern und aus einer Reihe von Bildern mit normalem Bereich einen hohen Dynamikbereich (HDR) zu erhalten. Sehen

http://en.wikipedia.org/wiki/Focus_stacking

http://www.instructables.com/id/Astrophotography-Star-Photo-Stacking

http://en.wikipedia.org/wiki/High_dynamic_range_imaging

Glenn Randers-Pehrson
quelle