Ich habe also alles über das Multikamerasystem des neuen Huawei P20 Pro gelesen, was mich wirklich zum Nachdenken gebracht hat, wie wir mehrere Kameras verwenden können, um die Bildqualität zu verbessern, insbesondere in einer so kompakten Form wie einem Telefon.
Ich habe in den Bayer-Filter geschaut und festgestellt, dass wir, wenn jede Fotoseite die Intensität einer der RGB-Komponenten erfasst, auch die Intensitäten der beiden anderen RGB-Komponenten verwerfen. Und so müssen wir die verworfenen Intensitäten durch Demosaikieren approximieren.
Was ist, wenn wir ein Kamerasystem mit drei Kameras erstellen, die jeweils nur für eine der RGB-Kameras verantwortlich sind, anstatt auf Demosaikierung zurückzugreifen? Keine Demosaikierung mehr erforderlich. Würde es nicht die Qualität des endgültigen Bildes drastisch verbessern, da es keine Farbnäherungen mehr gibt?
Wäre es wirklich teuer, da die P20 Pro mit 3 Kameras bereits in Ordnung zu sein scheint?
quelle
Antworten:
Ihre Idee ist sehr interessant. Es gibt jedoch einige sehr schwerwiegende Probleme.
Sicher, diese Liste kann erweitert werden, aber ich hoffe, das ist genug
BEARBEITEN: Bezogen auf Punkt 1, wenn sich Sensoren in einer Ebene befinden, "verzerrt" dies zusätzlich die von ihnen aufgenommenen Bilder. Und dies bedeutet, dass Sie bei Nahaufnahmen 3 verschiedene Fokussiersysteme haben sollten.
quelle
Die moderne Bildqualität von Smartphones wird durch ihre winzige Sensorgröße, Linsenqualität und Beugung begrenzt, nicht durch den Demosaikierungsprozess.
Daher scheint die Idee nicht nützlich zu sein.
Beachten Sie, dass das oben erwähnte P20 eine monochrome Kamera aufweist, die die gleichen Probleme bei der Bildregistrierung mit sich bringt wie die hypothetischen getrennten R-, G- und B-Kameras (Parallaxe, inkonsistente Bilder zwischen Kanälen). Und das Ziel war es, die geringe Lichtempfindlichkeit und nicht die Farbauflösung zu erhöhen. Weil die Farbauflösung kein Problem ist und sich niemand darum kümmert.
quelle
Viele Videokameras machen bereits genau das, was Sie vorschlagen. Sie verwenden jedoch ein Strahlteilungssystem zwischen der Linse und den Sensoren, das im Wesentlichen die Lichtmenge, die jeden Sensor erreicht, um ungefähr das gleiche Verhältnis reduziert wie bei Verwendung eines Bayer-Maskenfilters.
Das größte Problem bei der Verwendung von drei verschiedenen Objektiven bei gleichzeitig sehr hoher Präzision ist die Komplexität und die Kosten für die Erstellung perfekt aufeinander abgestimmter Objektivsätze. Dies ist nicht unlösbar, aber die Lösung ist wahrscheinlich teurer und rechenintensiver als die Verwendung einer Bayer-Maske und die Demosaikierung.
Jede dieser drei Kameras würde einen Einfarbfilter davor benötigen, um die Vergleichsunterschiede von jeder zu verwenden, um ein "Farb" -Bild zu erzeugen. Dies bedeutet, dass der gleiche Anteil an Licht, der von den winzigen Filtern eines Bayer-maskierten Sensors absorbiert / reflektiert wird, immer noch von den großen Einzelfarbfiltern vor jedem der drei unabhängigen Sensoren absorbiert / reflektiert wird. Ohne einen Filter mit einer anderen Farbe vor jedem Filter wären alle identische Schwarzweißkameras, die dieselben Daten erzeugen.
Hier ist die Sache mit "Farbe": Es gibt keine "Farbe" in der Natur. Licht hat nur Wellenlängen. Elektromagnetische Strahlungsquellen an beiden Enden des sichtbaren Spektrums haben ebenfalls Wellenlängen. Der einzige Unterschied zwischen sichtbarem Licht und anderen Formen elektromagnetischer Strahlung wie Radiowellen besteht darin, dass unsere Augen chemisch auf bestimmte Wellenlängen elektromagnetischer Strahlung reagieren und nicht auf andere Wellenlängen . Darüber hinaus gibt es keinen wesentlichen Unterschied zwischen "Licht" und "Radiowellen" oder "Röntgenstrahlen". Nichts.
Die Zapfen in unserer Netzhaut bestehen aus drei verschiedenen Größen, die jeweils am besten auf eine unterschiedliche Wellenlänge elektromagnetischer Strahlung reagieren. Bei unseren "roten" und "grünen" Zapfen gibt es kaum Unterschiede in der Reaktion auf die meisten Wellenlängen des Lichts. Durch den Vergleich des Unterschieds, der eine höhere Reaktion aufweist, des roten oder des grünen Kegels, kann unser Gehirn jedoch interpolieren, wie weit und in welche Richtung in Richtung Rot oder Blau die Lichtquelle am stärksten ist.
Farbe ist ein Konstrukt unseres Augenhirnsystems, das die relative Reaktion der drei unterschiedlich großen Zapfen in unserer Netzhaut vergleicht und eine Wahrnehmung von "Farbe" erzeugt, basierend auf den unterschiedlichen Mengen, die jeder Zapfensatz auf dasselbe Licht reagiert. Es gibt viele Farben, die Menschen wahrnehmen und die nicht durch eine einzige Lichtwellenlänge erzeugt werden können. "Magenta" zum Beispiel ist das, was unser Gehirn erzeugt, wenn wir gleichzeitig rotem Licht an einem Ende des sichtbaren Spektrums und blauem Licht am anderen Ende des sichtbaren Spektrums ausgesetzt sind.
quelle
Diese Technologie existiert in Form einer 3ccd / 3-Chip-Kamera . Es würde einige Probleme beim Einpassen des Prismas in den in einem Telefon verfügbaren Platz geben. Ich denke, Sie würden am Ende etwas haben, das mindestens so dick ist wie ein iPhone der Generation 1, aber möglicherweise ist etwas erforderlich, das näher an der Dicke eines Kartenspiels liegt. Ich nehme an, der Markt könnte stark genug sein, um ein solches Gerät zu unterstützen. Es gab genug Interesse für Vorbestellungen, um für den 1200-Dollar-Wasserstoff ausverkauft zu sein . Ich weiß, ich hätte fast einen gekauft.
quelle