Die Antwort lautet zunächst einmal: "Es wird für die Standfotografie verwendet!" Ich werde gleich ein bisschen mehr erklären, und seine Verwendung ist im Moment ziemlich nisch.
Die Wurzeln von xvYCC
Die xvYCC-Codierung ist, soweit ich das beurteilen kann, eine moderne Erweiterung der YCC-Codierung oder in ihrer langen Form Y'CbCr (oder YCbCr, die sich geringfügig unterscheidet). Die YCC-Codierung ist Teil einer Familie von Luminanz / Chrominanz Farbräume, die größtenteils im L a b * -Farbraum verwurzelt sind, den das CIE bereits in den 1930er Jahren formuliert hatte. Der Lab-Farbraum ist auch ein Luminanz / Chrominanz-Farbraum, bei dem die Luminanz einer Farbe im L * -Wert codiert wird, während zwei Chrominanzachsen einer Farbe im a * - und im b * -Wert codiert werden. Der a * -Wert codiert eine Hälfte der Chrominanz entlang der Grün / Magenta- Achse, während der b * -Wert die andere Hälfte der Chrominanz entlang der Blau / Gelb- Achse codiertAchse. Diese beiden Farbachsen wurden ausgewählt, um die vier primären Farbempfindlichkeiten des menschlichen Auges zu imitieren und darzustellen, die auch entlang eines Rot / Grün- und Blau / Gelb-Achsenpaars liegen (obwohl das wahre menschliche Sehvermögen eine Doppelpeak-Rot-Kurve beinhaltet, mit der kleinerer Peak in der Mitte der blauen Kurve, was tatsächlich bedeutet, dass das menschliche Auge direkt auf Magenta und nicht auf Rot reagiert ... daher die Grün / Magenta-Achse in Lab.)
Die YUV-Codierung
Y'CbCr wird wahrscheinlich am bekanntesten in Form der YUV-Videocodierung erkannt. Die YUV-Codierung wurde speziell entwickelt, um den für die Farbcodierung für die Videoübertragung erforderlichen Speicherplatz zu reduzierenIn Zeiten, in denen Bandbreite ein eher knappes Gut war. Das Übertragen von Farbinformationen als RGB-Triplets ist verschwenderisch, da R-, G- und B-Triplets Farben mit einem angemessenen Maß an Redundanz codieren: Alle drei Komponenten enthalten Luminanzinformationen sowie Chrominanzinformationen, und die Luminanz wird über alle drei Komponenten gewichtet. YUV ist eine Form der Y'CbCr-Luminanz / Chrominanz-Farbcodierung mit geringer Bandbreite, die nicht die verschwenderische Redundanz der RGB-Codierung aufweist. Je nach Unterabtastungsformat kann YUV zwischen 2/3 und 1/4 der Bandbreite eines vollständigen RGB-Signals belegen (und darüber hinaus das vollständige Detailbild im separaten Luminanzkanal Y speichern, der auch Schwarzweiß unterstützt als Farbfernsehsignale mit einem einzigen Codierungsformat.) Es sollte klar bemerkt werden, dass YCC nicht wirklich ein Farbraum ist, Vielmehr handelt es sich um eine Methode zum Codieren von RGB-Farbinformationen. Ich denke, ein genauerer Begriff wäre aFarbmodell als ein Farbraum, und der Begriff Farbmodell kann sowohl auf RGB als auch auf YUV angewendet werden.
Aus der in der ursprünglichen Frage verlinkten Referenz geht hervor, dass xvYCC eine erweiterte Form der Y'CbCr-Codierung ist, die codierte Luminanz- / Chrominanz-Farbinformationen mit mehr Bits als YUV speichert. Anstatt Luminanz und Chrominanz in verschachtelten Sätzen von 2 bis 4 Bits zu codieren, codiert xvYCC Farbe in modernen 10-Bit-Werten.
Verwendung in der Standfotografie
Interessanterweise gibt es eine DSLR-Kameramarke, die etwas sehr Ähnliches verwendet. Canon hat in den letzten Jahren ein neues RAW-Format mit dem Namen sRAW in seine Kameras aufgenommen. Während ein normales RAW-Bild einen direkten Speicherauszug voller Sensordaten enthält, ist sRAW eigentlich kein echtes RAW-Bildformat. Das sRAW-Format enthält keine Überlagerungsdaten, es enthält verarbeiteten Y'CbCr-Inhalt, der aus den zugrunde liegenden RGBG-Überlagerungspixeldaten interpoliert wird. Ähnlich wie in den TV-Tagen zielt sRAW darauf ab, mehr originelle Signalinformationen zu verwenden, um Luminanz- und Chrominanzdaten in einem hochpräzisen (14-Bit), aber platzsparenden Bildformat zu codieren. Ein sRAW-Bild kann zwischen 40 und 60% der Größe eines RAW-Bildes betragen.
Der Vorteil von sRAW besteht darin, dass Sie eine hohe Farbgenauigkeit für die menschliche Wahrnehmung in einem kompakten Dateiformat beibehalten und die RGBG-Pixel auf dem Bayer-Sensor besser nutzen (anstatt überlappende Abtastungen, die böses Farbmoiré erzeugen, führt sRAW nicht überlappende Chrominanzabtastungen durch) und überlappende / verteilte Luminanzabtastung.) Der Nachteil ist, dass es sich nicht um ein echtes RAW-Format handelt und die Farbinformationen vom Vollschichtsensor interpoliert und heruntergetastet werden. Wenn Sie nicht die volle RAW-Auflösung der Kamera benötigen (dh Sie möchten nur mit 8 x 10 oder 11 x 16 drucken), kann sRAW ein echter Vorteil sein, da viel Platz gespart werden kann (bis zu 60% Ersparnis gegenüber RAW) ), speichert schneller als RAW und bietet eine höhere Bildrate sowie eine bessere Verwendung der vom Sensor erfassten Farbinformationen als RAW mit voller Auflösung.
Sie haben die Dinge fast vollständig rückwärts. Dies ist kein Fall, in dem noch Fotografie mit Video "aufholen" könnte / sollte - ganz im Gegenteil, dies ist eine Frage des Videos, das endlich (ungefähr) die Fähigkeiten erreicht hat, die TIFF (zum Beispiel) ein paar Jahrzehnte lang bietet vor (oder so).
Obwohl Sie sicherlich nicht sahen vor sehr viele 16 Bits / Kanal TIFFs 20 Jahren war die Fähigkeit , bereits dort, und 16 Bits / Kanal (in TIFF und verschiedenen anderen Formaten) ist jetzt ziemlich häufig. Gleichzeitig fühle ich mich verpflichtet, darauf hinzuweisen, dass die meisten Leute 8 Bits / Kanal für völlig ausreichend halten. Nur ein offensichtliches Beispiel: JPEG2000 unterstützt 16 Bit / Kanal und eine bessere Komprimierung als das Original-JPEG - kommt der Verwendung der Original-JPEG-Spezifikation jedoch nicht einmal nahe.
Etwa zur gleichen Zeit (eigentlich ein bisschen früher) arbeitete xvYCC daran, die Fähigkeiten von TIFF (grob) nachzuholen, und das openEXR-Dateiformat wurde entwickelt. Es werden bis zu 32 Bit / Kanal unterstützt. Es ist zwar noch nicht so weit verbreitet, aber ich würde erwarten, dass es ein bisschen wie TIFF sein wird und irgendwann eine breitere Verwendung finden wird.
Was den Farbraum angeht, stimmt es, dass die größere Anzahl von Bits / Pixel, wenn xvYCC eine größere Farbskala als sRGB unterstützt. Wiederum bietet ProPhotoRGB (zum Beispiel) einen viel breiteren Farbumfang - und (ganz ehrlich) es ist fraglich, ob ein größerer Farbraum als der von ProPhotoRGB bereits erforderlich ist (ungefähr 13% der Farben, die Sie verwenden können) Darstellen in ProPhotoRGB sind grundsätzlich imaginär - sie gehen über das hinaus, was die meisten Menschen wahrnehmen können.
Der Vorteil von xvYCC liegt in der Reduzierung der Datenmenge, die zur Darstellung eines bestimmten Qualitätsniveaus benötigt / verwendet wird. Insbesondere für HD-Videos ist die Minimierung der Bandbreite äußerst wichtig. Für digitale Fotokameras ist die Bandbreite jedoch ein viel geringeres Problem - obwohl es sicherlich schön wäre, wenn (zum Beispiel) doppelt so viele Bilder auf eine bestimmte CF-Kartengröße passen würden, ist dies kein besonders schwerwiegendes Problem. Relativ wenige Menschen nutzen die größte verfügbare Kapazität an CF-Karten, und die Kosten für CF-Karten sind kein wesentlicher Teil des Budgets eines typischen Fotografen.
Fazit: In Bezug auf die technischen Möglichkeiten bietet xvYCC wenig, was noch nicht verfügbar ist.
Edit: Ich sollte wohl noch einen Punkt hinzufügen. LCD-Bildschirme ersetzten die CRT-Bildschirme für die meisten Monitore zu der Zeit, als Digitalkameras weit verbreitet wurden - aber LCD-Bildschirme für Endverbraucher beginnen erst jetzt, die 8-Bit- / Kanal-Farbauflösung zu überschreiten (oder sich dieser sogar zu nähern). Es war schwer, sich über 10 oder 12 Bit / Kanal Gedanken zu machen, wenn ein typischer Monitor nur etwa 6 anzeigen konnte.
Es gibt auch ein kleines Detail, das vielen Menschen einfach egal ist. Für sie fällt die Fotoqualität unter ein Bestehens- / Nichtbestehenskriterium. Alles, worum die meisten Menschen wirklich bitten, ist, dass ein Bild einigermaßen erkennbar ist. Ich vermute, dass die Leute langsam anfangen, Besseres zu erwarten, aber nach Jahren von Walgreens (oder wem auch immer), die ihre rothaarige Tochter in eine Blondine (usw.) verwandeln, dauert es eine Weile, bis sie sich an die Idee gewöhnt haben, dass Farbe überhaupt genau sein kann.
Bearbeiten: Es gibt tatsächlich einen weiteren Schritt nach JPEG 2000: JPEG XR . Dies unterstützt bis zu 32 Bit / Kanal (Gleitkomma) HDR. Es gibt auch ein Dateiformat an, das alle üblichen EXIF / IPTC-Daten, eingebettete Farbprofile usw. enthalten kann. In Bezug auf diese Frage enthält es einen Wert, der angibt, dass eine Datei den xvYCC-Farbraum verwenden soll (Wert von
11
imTRANSFER_CHARACTERISTICS
Syntaxelement, Tabelle A.9, falls es jemanden interessiert). Dies scheint (zumindest noch) nicht weit verbreitet zu sein, unterstützt jedoch direkt den xvYCC-Farbraum für Standbilder.quelle
Also, um meine eigene Frage nach ein paar Recherchen zu beantworten:
Es ist zwar nicht xvYCC, aus Gründen, die mich wirklich noch entziehen sich (da JPEG - Kodierung ein ähnliches ältere Schema verwendet), es wird erscheinen einige ermutigende Bewegungen auf die sein : „Wir können schöne Dinge haben!“ Vorne, denn es scheint, als würde sich zumindest Microsoft um einen breiteren Farbumfang und eine bessere Bittiefe in der Standfotografie kümmern - zumindest ein bisschen.
Langsam aber sicher drängten sie auf einen neuen Dateiformatstandard namens JPEG XR (früher Windows Media Photo und dann HD Photo). Es ist eine interessante Weiterentwicklung des "traditionellen" JPEG, das eine bessere Komprimierung bei gleicher Bildqualität und (bis auf den Punkt dieser Diskussion) eine höhere Bittiefe bietet.
JPEG 2000 tut dies auch, aber es war größtenteils ein Misserfolg, möglicherweise aufgrund von Bedenken in Bezug auf Patente, die die verwendete Wavelet-Komprimierung oder etwas anderes abdecken. Der wichtige Punkt ist: Microsoft bewirbt jetzt JPEG XR und bietet es in einer Vielzahl seiner Software an, einschließlich Internet Explorer 9 . Ab 2009 handelt es sich um einen offiziellen, echten internationalen Standard , der vom "Community Promise" von Microsoft abgedeckt wird, wonach ihre Patente nicht in feindlicher Weise gegen Implementierungen durchgesetzt werden dürfen. Das ist also ziemlich gut für die zukünftige Aufnahme.
Und außerdem treiben sie die Idee von mehr Bits pro Kanal als " hohe Farbe " voran (was für mich lustig ist, da dies in meinen Augen immer noch die alten 16-Bit-für- alle- Kanäle sind Grafikkartenmodus). Als Teil davon haben sie einen möglicherweise lächerlich großen "Zwischen" -Farbraum namens scRGB - lesen Sie hier einen ausführlichen Bericht darüber - der von JPEG XR unterstützt wird, wenn Sie möchten. Als endgültiger Farbraum ist er möglicherweise nicht besonders nützlich , da sich die meisten seiner Farben außerhalb der menschlichen Wahrnehmung im "imaginären" Bereich befinden . Aber wie auch immer, ist der Punkt, Microsoft wird die Integration von höheren Bit-Tiefe - Standards in das Windows - Betriebssystem, und noch Fotografie istein Teil davon. Aus einem etwas älteren CNET-Interview : "Ich erwarte unbedingt, dass die Unterstützung von scRGB in Kameras JPEG XR begleitet."
Aber das war 2007. Viereinhalb Jahre später sehen wir immer noch keine Kameras, die JPEG XR unterstützen, geschweige denn Farbräume mit großem Farbumfang und hoher Tiefe. Aber vielleicht bin ich nur ungeduldig. Wie die anderen Antworten hier vermerken, wird Display-Hardware, die einen weiten Bereich unterstützt, gerade verfügbar, die Unterstützung für das beliebteste Betriebssystem der Welt ist relativ neu, und der erste Webbrowser, der diese Unterstützung bietet, wurde in diesem Monat veröffentlicht . Da sich dies durchsetzt und hoffentlich irgendwann von Chrome und Firefox aufgegriffen wird , werden Bildverarbeitungsprogramme (einschließlich RAW-Konverter) unterstützt, und die eigentliche direkte Ausgabe von Kameras wird folgen.
Oder das Ganze wird floppen. Wir werden sehen. :)
quelle
Ich werde ein paar Notizen um Jons hinzufügen ...
Der Farbraum ist in einem Kamerakontext nur dann von Bedeutung, wenn es sich um JPEGs handelt, da für RAW-Bilder der Farbraum in der "Entwicklungs" -Phase ausgewählt wird. Einige Kameras (für bestimmte Pentax-Halbprofis) erlauben die Auswahl von sRGB oder aRGB für die JPEG-Entwicklung, sodass sie möglicherweise eine dritte (oder vierte für ProPhoto) hinzufügen. Andererseits ziehen die meisten Profis das Bild im gewünschten Farbraum für das gewünschte Ausgabemedium ein.
Der Betrachter (und / oder das Gerät) muss auch den Farbraum kennen und damit umgehen können. Während Monitore mit großem Farbumfang immer häufiger werden, sind sie wahrscheinlich immer noch eine massive Minderheit und es wird eine Weile dauern, bis sie aufholen. Heck, ich kenne einige Leute, die noch alte CRT-Monitore haben, die an ansonsten anständige Computer angeschlossen sind.
quelle
encoding
. Man könnte sagen, RGB ist ein Farbraum ... es ist nicht nur eine Art der Codierung von Farbdaten. Acolor space
definiert die Luminanz- und Chrominanzwerte jeder Farbe über eine Reihe von Primärfarbzuordnungen, eine Gammataste, einen Weiß- und Schwarzpunkt sowie einige Kurven.Der xvYCC-Farbraum wird wahrscheinlich nicht für die Standfotografie genutzt, da neue Standards entwickelt wurden, die eine Verbesserung der älteren Standards darstellen, und kein Hersteller möchte in einen Standard investieren, der möglicherweise abwertet, bevor er durch den nächstgrößeren ersetzt wird '. Sie haben von VHS vs. Beta gelernt.
Das High Efficiency Image Format (HEIF), MPEG-H Part 12, ist ein Dateiformat, das ein Strukturformat angibt, aus dem codecspezifische Bildformate abgeleitet werden können.
HEIF enthält auch die Spezifikation für die Kapselung von Bildern und Bildsequenzen gemäß der hocheffizienten Videokodierung (HEVC, ISO / IEC 23008-2 | ITU-T Rec. H.265 oder MPEG-H Part 2).
Es wird im Keynote-Video zur WWDC 2017 von Apple erwähnt: https://youtu.be/oaqHdULqet0?t=58m49s .
Das iPhone 7 und höher von Apple nimmt das Fotografierte auf und speichert es im JPEG- oder HEIF-Format. Durch die Verwendung von HEIF kann eine makellose Camera-to-Storage-to-Display-Lösung bereitgestellt werden - eine vollständige Infrastruktur ohne Verlust oder Konvertierung von Eingabe zu Ausgabe (bei Verwendung von HEIF unkomprimiert).
Es ist nicht so, dass sie alle Funktionen voll unterstützen (so wie MPEG selten "voll unterstützt" wird) oder dass es für andere nicht einfach genug ist, dies zu tun. Sie scheinen lediglich als Erste eine Komplettlösung für Bilder (für Video) zu haben Wir haben seit Jahren eine Untergruppe von HEVC (H.264, H.265 und kürzlich HikVisions H.265 +).
Wenn Sie wissen, dass andere Kameras HEIF unterstützen, kommentieren oder bearbeiten Sie diese bitte, danke.
Kameras, die Bilder und Videos mit einem besonders hohen Dynamikbereich aufzeichnen (der Sensor hat mehr als 16 Bit pro Farbe), verarbeiten die Daten häufig nicht (erstellen Sie eine komprimierte Datei), sondern geben die Rohdaten direkt aus. Beispiel: http: // www .jai.com / de / products / at-200ge - dass die Kamera 24 bis 30 Bit pro Pixel ausgibt oder http://www.jai.com/en/products/at-140cl - dass die Kamera 24 bis 36 Bit pro Pixel ausgibt .
Es ist möglich, eine CIE 1931-Farbraumkamera (und wahrscheinlich auch andere Farbräume) zu erwerben. Wenn Sie endlos suchen oder bereit sind, einen speziellen Kamerahersteller zu beauftragen, um genau das zu produzieren, was Sie möchten, schreiben Sie die Software wahrscheinlich selbst an Konvertieren Sie von Ihrem Farbraum in einen von anderen Programmen verwendeten.
Hier ist ein Link zur Condor3 CIE 1931-Kamera von Quest Innovations: http://www.quest-innovations.com/cameras/C3-CIE-285-USB .
Kameras mit 3,4,5 oder 6 Sensoren können das Spektrum in kleinere Teile aufteilen und mehr Bits pro Kanal liefern, wodurch die genaue Farbe und Intensität genauer bestimmt werden: http://www.optec.eu/en/telecamere_multicanale/telecamere_multicanale.asp .
3CCD oder 3MOS
4CCD oder 4MOS
5CCD oder 5MOS
Verweise:
https://developer.apple.com/videos/play/wwdc2017/503/
https://nokiatech.github.io/heif/technical.html
https://en.wikipedia.org/wiki/High_Efficiency_Image_File_Format
quelle