Was begrenzt die Größe digitaler Bildsensoren?

10

Ich habe hier einige Informationen zu Sensorgrößen gelesen

http://en.wikipedia.org/wiki/Image_sensor_format

Demnach ist das 35mm ff-CMOS der Sensor mit den größten Abmessungen, der in Digitalkameras verwendet wird. Kleinere Sensoren haben aufgrund ihrer Größe viele Vorteile.

Warum gibt es nicht noch größere Sensoren, um diese Vorteile zu nutzen? 1,5 FF zB?

Fubo
quelle
4
Diese Seite ist veraltet. Hasselblad brachte im März einen Mittelformat-CMOS-Sensor auf den Markt.
Philip Kendall
Der Artikel erwähnt speziell verschiedene Mittelformat-Chips, die größer sind als das sogenannte "Vollbild" (eine Fehlbezeichnung). en.wikipedia.org/wiki/…
sein
@his Welche CMOS- Sensoren, die größer als Vollbild sind, werden erwähnt?
Philip Kendall
@fubo Interessieren Sie sich speziell für CMOS-Sensoren (im Gegensatz zu CCD-Sensoren) oder meinen Sie wirklich "Was begrenzt die Größe digitaler Bildsensoren?"
Philip Kendall
@PhilipKendall aktualisiert
fubo

Antworten:

29

Sie können einige sehr große CCDs erstellen. In einer älteren Pressemitteilung wird von einem CCD gesprochen, das für das US Naval Observatory erstellt wurde und 4 "× 4" und 10.560 Pixel × 10.560 Pixel groß ist. Das sind 111 Megapixel auf einem Sensor. Das ist irgendwie nicht klein.

Ein 111-Megapixel-Sensor

(Von oben Pressemitteilung)

Die erste Einschränkung, die der Sensor hat, besteht darin, dass es sich um einen einzelnen Wafer aus Silizium handeln muss, und das ist ein fester Preis. Sie können CCDs erstellen, die mit einem CCD mit drei Kanten entworfen wurden (an der verbleibenden Kante können Sie die Daten auslesen), z.

Mosaik CCD

(Von http://loel.ucolick.org/manual/deimos_ccd/science/overview/EL3160.html )

Diese werden häufig in Teleskopen verwendet, um einen größeren Abbildungsbereich bei nur geringerem Preisanstieg zu erhalten. Beachten Sie, dass es das Problem gibt, dass jeder CCD separat von den anderen kalibriert werden muss (keine zwei Bildsensoren haben genau die gleiche Reaktion) - dies ist ein wichtiges Anliegen für wissenschaftliche Zwecke ( Kalibrierungsinformationen für ein solches CCD-Array ).

Das Mosaik-CCD kann erheblich vergrößert werden. PanSTARRS verfügt über ein 1,4-Gigapixel-Sensorarray , das aus einem riesigen Array von 600 × 600-Pixel-CCDs besteht:

8x8 CCD-Array von PanSTARRS

Oben sehen Sie eine 8 × 8-Anordnung von CCDs - jede recht klein. Dies ist dann Teil einer größeren Anordnung von 8 × 8 dieser Segmente, was eine Gesamtanordnung von 64 × 64 Sensoren ergibt. Dies geschah aufgrund von Kosteneinsparungen, Geschwindigkeit (das gleichzeitige Auslesen von viertausend CCDs mit 600 × 600 Pixeln ist schneller als das Auslesen eines größeren CCDs), der Isolierung gesättigter Pixel und eines einfacheren Austauschs bei Fehlern.

Das LSST verwendet konventionellere Drei-Kanten-CCDs, um sein Ziel von 3,2 Gigapixeln zu erreichen. In jedem Segment gibt es ein 8 × 2-Array von 500 × 200-Pixel-Sensoren. Alle hier für PanSTARRs genannten Faktoren sind ebenfalls vorhanden. Es wird erwartet, dass das Auslesen von 3,2 Milliarden Pixeln 2 Sekunden dauert (was eigentlich ziemlich schnell ist). Zu weniger, größeren CCDs zu gehen würde bedeuten, dass es langsamer ist - nicht schneller.

LSST-Sensoren

Obwohl es möglich ist, mehrere Sensoren zusammen zu verwenden, bestehen sie immer noch aus eher kleinen Einzelsensoren und nicht aus einem großen Einzelsensor (wie dies beim 4 × 4 "-Sensor des USNO der Fall war). In einigen Fällen sind die CCDs viel kleiner als selbst die in Punkt- und Schießkameras verwendeten.

Schauen Sie zurück auf das erste Bild des 4 × 4 "-Sensors und betrachten Sie dann die Größe der dortigen regulären Sensoren:

Sensoren auf einem Wafer

Hier sind einige zusätzliche Informationen zu beachten. Es gibt die maximale Ausbeute, wie viele Sie auf einen Wafer legen können (auf die Sie einfach nicht mehr passen können) und den Abfall. Um diesen 4 "× 4" Sensor herzustellen, brauchten sie einen extremHochwertiger Wafer aus Silizium. Bei einem normalen Vollbild sind die Fehler im Kristall vorhanden, unabhängig davon, wie viele Sensoren Sie auf den Wafer setzen. Bei einem 8-Zoll-Siliziumwafer (gleiche Größe wie der auf der Oberseite - beachten Sie, dass sich der halbe Durchmesser am Rand befindet) sind Fehler im gesamten Wafer verteilt. Je weniger Sensoren auf dem Wafer vorhanden sind, desto höher ist die Wahrscheinlichkeit, dass dieser vorhanden ist Dies ist ein Fehler im Sensor, der ihn unbrauchbar macht (36% Abfall auf einem Vollbild-Sensorwafer gegenüber 12,6% Abfall auf dem 13,2 mm × 8,8 mm Sensor). Dies ist ein Teil des Grundes, warum häufig mehr Forschung zur Erhöhung des Sensors durchgeführt wird Dichte des Chips, anstatt ihn größer zu machen (und diese Dichteforschung hat andere Anwendungen wie das Beschleunigen von CPUs).

Mit einem Sensor, der für einen 60 mm × 60 mm-Rahmen vorgesehen ist, können Sie nur etwa 8 Sensoren auf dem Wafer anbringen, und der Abfall steigt. Dort können Sie die Skaleneffekte bei der Arbeit sehen.

Bedenken Sie, dass die 15 oder 16 Arbeitssensoren des Vollbild-Wafers die gleichen Kosten verursachen wie die 213 oder so kleineren Sensoren ... und dementsprechend günstig sind. Das folgende Bild zeigt das Problem mit den Fehlern an den gleichen Stellen auf dem Wafer für Chips unterschiedlicher Größe.

Sensorausbeute

(Von http://commons.wikimedia.org/wiki/File:Wafer_die%27s_yield_model_(10-20-40mm)_-_Version_2_-_EN.png )

Wenn Sie bereit sind, sich von einem Bild auf einmal zu entfernen, können Sie ein einzelnes Array (also drei - eins für jede Farbe) von Sensoren erhalten, die sich über das Bild bewegen. Diese werden häufig als Scan-Backs für Großformatkameras verwendet. Dort geht es eher um die Präzision der Geräte als um die Größe des Sensors (Speicher, Datenspeicherung, schnelle E / A werden erheblich). Es gibt einige Kameras, die dies als integrierte Einheit haben, wie zum Beispiel die Seitz 6x17 Digital .

Weiterführende Literatur:

Nayuki
quelle
111 Megapixel sind klein im Vergleich zum geplanten LSST (3,2 Gigapixel) . Ich denke, das derzeit größte in Betrieb befindliche Teleskop ( gemessen an Pixeln) ist PanSTARRS mit 1,4 Gigapixeln .
Joe
@ Joe der Schlüssel gibt es einen Sensor, der 4 "x 4" ist. Wenn Sie im angegebenen Link zum Abschnitt "LSST Focal Plane" scrollen, wird die Erklärung von "189 3x3 Rafts" angezeigt, wobei jeder Teil davon ein 3-Kanten-Mosaik-CCD ist. Der Mosaik-Ansatz kann beim Verknüpfen ziemlich groß skaliert werden ... aber es handelt sich nicht um einen einzelnen Sensor. PanSTARRS verwendet einen ähnlichen Ansatz - image-sensors-world.blogspot.com/2007/09/… mit einer Reihe von CCDs ( pan-starrs.ifa.hawaii.edu/public/design-features/images/… ). Für beide sind die Sensoren eher klein.
12

Die größten kommerziell für die Fotografie erhältlichen CMOS-Sensoren sind "Mittelformate" und messen etwa 44 mm x 33 mm. CCDs gibt es in etwas größeren Größen bis zu 54 mm x 40 mm. Möglicherweise wurden größere Sensoren für wissenschaftliche Anwendungen hergestellt.

Sensoren werden hergestellt, indem eine Maske unter Verwendung von UV-Licht auf einen großen Siliziumwafer projiziert wird. Der Wafer wird dann in einzelne Sensoren geschnitten. Die absolute Größenbeschränkung eines Sensors, die mit dieser Methode erzeugt werden könnte, wird durch die Größe des vom Projektor erzeugten Bildkreises bestimmt (obwohl bei sehr großen Sensoren andere Bedenken bestehen können, wie z. B. Stromverbrauch und Wärmeableitung, die eine harte Wirkung haben Größenbeschränkung).

Die praktische Grenze der Sensorgröße wird viel früher erreicht, da sie durch die Ausbeute bestimmt wird, dh wie viele Sensoren während der Herstellung aufgrund von Defekten entsorgt werden müssen. Wenn viele kleine Sensoren auf einem einzelnen Wafer hergestellt werden, führt ein einzelner Defekt dazu, dass ein Sensor verworfen wird, aber viele weitere sind lebensfähig. Wenn ein Sensor den gesamten Wafer aufnimmt, bedeutet ein einzelner Defekt, dass keine Sensoren erzeugt werden. Die Ausbeute nimmt somit mit dem Quadrat der Sensorgröße ab, was größere Sensoren unwirtschaftlich macht.

Es gelten auch Skaleneffekte. 36 mm x 24 mm "Vollbild" -Sensoren wären teurer, wenn sie im gleichen Volumen wie Mittelformatsensoren hergestellt würden.

Matt Grum
quelle
2
Gute Antwort - Ich schätze es, die Realitäten von Ingenieurwesen und Wirtschaft
B Shaw
5

Es gibt noch größere Sensoren. Wenn Sie sich das Bild in der oberen rechten Ecke dieser Seite genau ansehen, werden Sie feststellen, dass der größte Sensor dort der Kodak KAF- Sensor im Mittelformat ist .

Ok, ich verstehe, dass es nicht ganz einfach ist, dies herauszufinden, da man leicht annehmen kann, dass der Hintergrund dieses Bildes grau ist, während das Bild in Wirklichkeit einen weißen Hintergrund hat.

Sehen Sie es hier besser .

Neben diesem Sensor gibt es weitere Sensoren, die größer als FF sind. Scrollen Sie auf derselben Seite zur Tabelle der Sensorformate und -größen , klicken Sie auf die Spalte "Zuschneidefaktor", um die Tabelle zu sortieren, und sehen Sie sich die Formate mit einem Zuschneidefaktor kleiner als 1 an. Wenn Sie die Filmformate herausnehmen, erhalten Sie die folgenden Sensoren in dieser Reihenfolge:

  • Phase Eins P 65+, IQ160, IQ180
  • Blatt AFi 10
  • Mittelformat (Hasselblad H5D-60)
  • Kodak KAF 39000 CCD
  • Pentax 645D
  • Leica S.

Aber Vorsicht: Solche Sensoren haben auch Nachteile: große, schwere Kameras und Objektive. Es ist viel schwieriger, ein Objektiv für einen solchen Sensor zu bauen (größerer Bildkreis) und ... ... natürlich ... ... Preis.

John Thomas
quelle
Der Kodak-Sensor ist jedoch CCD und kein CMOS.
Philip Kendall
4

Einige weitere Dinge, die das Praktische auf das beschränken können, was hergestellt werden kann:

  1. Gewicht (des resultierenden Systems). Ein sehr großer Sensor benötigt einen sehr großen Bildkreis, dh große Objektive, und eine große Kamera.
  2. Energieverbrauch. Ein großer Sensor benötigt mehr Strom als ein kleiner, wodurch die Akkulaufzeit verkürzt wird (es sei denn, Sie erhöhen die Größe und das Gewicht der Kamera erneut, um einen größeren Akku aufzunehmen).
  3. Geschwindigkeit. Das Auslesen eines größeren Sensors dauert länger als das Auslesen eines kleineren Sensors mit derselben Sensorelementdichte. Ihre "Verschlusszeit" sinkt also.
  4. Kosten (angedeutet, kommt aber auf mehreren Ebenen ins Spiel). Ein größerer Sensor kostet natürlich mehr als ein kleiner, nicht nur, weil er mehr Rohstoffe benötigt, sondern auch die Menge der weggeworfenen Produkte steigt, deren Kosten alle von der kleineren Anzahl, die verkauft wird, rekapituliert werden müssen.
jwenting
quelle
Ich bin überrascht, dass sonst niemand das Geschwindigkeitsproblem erwähnt hat. Erwähnenswert ist auch, dass je größer Sie werden (in Zoll oder cm), desto mehr Verzerrungen an den Rändern auftreten. Es gibt Astronomiepapiere, in denen beschrieben wird, wie die Projektion des Bildes beschrieben wird, damit andere verstehen, wie das Bild verzerrt ist, damit sie es neu projizieren können, um mehrere Bilder gleichzeitig auszurichten. Das Skalieren in Pixel ohne Skalieren in der physischen Größe ist ebenfalls ein Geschwindigkeitsproblem, da längere Belichtungszeiten für ein ausreichendes Signal-Rausch-Verhältnis erforderlich sind.
Joe
@ Joe, das ist ein Nebeneffekt des Objektivs, das Sie vor den Sensor stellen, und erzeugt keine perfekt parallelen Strahlen auf der gesamten Sensorfläche, kein Problem mit dem Sensor selbst. Sie könnten dies umgehen, indem Sie Ihre Objektive (und Ihren Bildkreis) so viel breiter machen und das Gewicht, die Größe und damit die Kosten Ihres Systems noch weiter erhöhen.
Jwenting