Warum wird der xvYCC-Farbraum für Standbilder nicht akzeptiert?


23

In den letzten fünfzehn Jahren war sRGB der primäre Standard für Computermonitore (und für das Drucken auf Verbraucherebene). Dies ändert sich jetzt, da Monitore mit LED-Hintergrundbeleuchtung mit größerem Farbumfang immer häufiger eingesetzt werden. Normalerweise verwenden Fotografen diese mit einem Farbraum wie aRGB, der zum Teil dem Standard entspricht. Meine Kamera kann beispielsweise JPEGs nativ in diesem Raum speichern.

Aber es gibt einen neuen Standard, der in der AV-Branche weit verbreitet ist, um sRGB zu ersetzen. Dies ist IEC 61966-2-4 - xvYCC (oder "xvColor" für Marketingzwecke). Dieser Farbraum ist 1,8 × größer als sRGB und deckt 90% des Farbbereichs des menschlichen Sehens ab (anstatt der uninspirierten 50%, die unser aktueller gemeinsamer Nenner abdeckt). Weitere Informationen finden Sie auf der xvYCC-Website von Sony .

Der wichtige Punkt ist jedoch, dass dies nicht theoretisch ist. Es ist Teil des HDMI 1.3-Standards, zusammen mit einer Spezifikation für die Farbtiefe von 10 bis 16 Bit pro Farbe ("Deep Color", das heißt). Im Gegensatz zu aRGB, das im Grunde genommen eine professionelle Nischensache ist, gibt es eine breite Unterstützung für Consumer-Level-Geräte.

Das ist der Hintergrund. Die Frage ist: Angesichts der Tatsache, dass dies weit verbreitet ist und wir wahrscheinlich alle über Computer- (und TV-!) Hardware verfügen, die dies in den nächsten Jahren unterstützen wird, warum wird dies im Grunde genommen nur als Videosache verkauft? Anscheinend würde sich die Kameraindustrie freuen, an Bord zu kommen.

Sony ist begeistert von dieser Idee und hat vor vier Jahren Videokameras auf den Markt gebracht, die sie unterstützen. Die Playstation 3 unterstützt es, um Himmels willen! Warum nicht auch in die Sony Alpha-Spiegelreflexkameras einbauen? Und Sony ist nicht allein - Canon unterstützt auch Videokameras.

Wenn Sie RAW aufnehmen, ist die Unterstützung in der Kamera natürlich unwichtig. Es sind die Konverter-Software-Leute, die einsteigen müssten - warum gibt es keinen Anstoß dafür? Nach meinem Verständnis ist xvYCC eine Erweiterung von YCbCr, das bereits in JPEG- Dateien verwendet wird. Aber wenn ich die Literatur lese, finde ich viele Erwähnungen aktualisierter MPEG-Standards, aber nichts über Standbilder.

Warum können wir keine schönen Dinge haben?

Antworten:


11

xvYCC ist eine besonders clevere Methode zur Codierung von Farbdaten: Es missbraucht die YCC-Darstellung, indem zuvor verbotene Wertekombinationen verwendet werden, um Farben außerhalb des im YCC-Schema verwendeten RGB-Bereichs darzustellen. Das heißt, einige YCC-Tupel dekodieren in Farben mit negativen RG- oder B-Werten. Zuvor waren diese einfach illegal; In xvYCC sind diese zulässig, und Displays mit einem größeren Farbumfang als das RGB-System können diese so gut wie möglich rendern. Es ist also wirklich ein kluger, größtenteils kompatibler Hack, um einen zusätzlichen Umfang zu erhalten, ohne das Format zu ändern.

Ist es sinnvoll, es in der Standfotografie zu verwenden? Ich denke nicht wirklich. Es ist nicht unbedingt erforderlich, mit YCC kompatibel zu sein. Warum also nicht einen breitgefächerten Bereich wie ProPhoto RGB verwenden? Oder noch besser, da die Verwendung einer zusätzlichen Bittiefe für Standbilder nicht teuer ist, warum nicht mit so etwas wie CIELAB arbeiten, das die gesamte wahrnehmbare Bandbreite des Menschen abdecken kann? Sie haben genug Bits, damit die Fähigkeit, all diese imaginären Farben zu codieren, Sie keine nennenswerte Menge an Farbauflösung kostet.

Natürlich ist die Frage der Kameraunterstützung ein bisschen irrelevant - wenn Sie sich wirklich für Farbe interessieren, sollten Sie rohe Detektorwerte aus der Kamera ziehen und von diesen ausgehen. Und selbst wenn Sie dies tun, bleiben Sie in der wahrnehmbaren Farbskala der Kamera stecken. Die Genauigkeit Ihrer Farbdarstellung hängt auch davon ab, wie gut sich die Filter Ihrer Kamera der spektralen Empfindlichkeit menschlicher Zapfen annähern. Verstehen Sie das falsch, und Farben, die für das Auge identisch aussehen, sehen für Ihre Kamera anders aus. Keine Kodierung wird das beheben. Tatsächlich geschah dies mit einer billigen Digitalkamera, die ich hatte - in diesem Fall ließ ihre IR-Empfindlichkeit die Glut lila aussehen. Selbst wenn Sie das IR-Spektrum ausblenden, werden Dinge mit stacheligen Spektren wie Regenbogen und fluoreszierenden Lichtern oder Mineralien (und möglicherweise einigen Farbstoffen) diesen Effekt zeigen, wenn die Kontinuumsspektren in Ordnung sind.


20

Die Antwort lautet zunächst einmal: "Es wird für die Standfotografie verwendet!" Ich werde gleich ein bisschen mehr erklären, und seine Verwendung ist im Moment ziemlich nisch.

Die Wurzeln von xvYCC

Die xvYCC-Codierung ist, soweit ich das beurteilen kann, eine moderne Erweiterung der YCC-Codierung oder in ihrer langen Form Y'CbCr (oder YCbCr, die sich geringfügig unterscheidet). Die YCC-Codierung ist Teil einer Familie von Luminanz / Chrominanz Farbräume, die größtenteils im L a b * -Farbraum verwurzelt sind, den das CIE bereits in den 1930er Jahren formuliert hatte. Der Lab-Farbraum ist auch ein Luminanz / Chrominanz-Farbraum, bei dem die Luminanz einer Farbe im L * -Wert codiert wird, während zwei Chrominanzachsen einer Farbe im a * - und im b * -Wert codiert werden. Der a * -Wert codiert eine Hälfte der Chrominanz entlang der Grün / Magenta- Achse, während der b * -Wert die andere Hälfte der Chrominanz entlang der Blau / Gelb- Achse codiertAchse. Diese beiden Farbachsen wurden ausgewählt, um die vier primären Farbempfindlichkeiten des menschlichen Auges zu imitieren und darzustellen, die auch entlang eines Rot / Grün- und Blau / Gelb-Achsenpaars liegen (obwohl das wahre menschliche Sehvermögen eine Doppelpeak-Rot-Kurve beinhaltet, mit der kleinerer Peak in der Mitte der blauen Kurve, was tatsächlich bedeutet, dass das menschliche Auge direkt auf Magenta und nicht auf Rot reagiert ... daher die Grün / Magenta-Achse in Lab.)

Die YUV-Codierung

Y'CbCr wird wahrscheinlich am bekanntesten in Form der YUV-Videocodierung erkannt. Die YUV-Codierung wurde speziell entwickelt, um den für die Farbcodierung für die Videoübertragung erforderlichen Speicherplatz zu reduzierenIn Zeiten, in denen Bandbreite ein eher knappes Gut war. Das Übertragen von Farbinformationen als RGB-Triplets ist verschwenderisch, da R-, G- und B-Triplets Farben mit einem angemessenen Maß an Redundanz codieren: Alle drei Komponenten enthalten Luminanzinformationen sowie Chrominanzinformationen, und die Luminanz wird über alle drei Komponenten gewichtet. YUV ist eine Form der Y'CbCr-Luminanz / Chrominanz-Farbcodierung mit geringer Bandbreite, die nicht die verschwenderische Redundanz der RGB-Codierung aufweist. Je nach Unterabtastungsformat kann YUV zwischen 2/3 und 1/4 der Bandbreite eines vollständigen RGB-Signals belegen (und darüber hinaus das vollständige Detailbild im separaten Luminanzkanal Y speichern, der auch Schwarzweiß unterstützt als Farbfernsehsignale mit einem einzigen Codierungsformat.) Es sollte klar bemerkt werden, dass YCC nicht wirklich ein Farbraum ist, Vielmehr handelt es sich um eine Methode zum Codieren von RGB-Farbinformationen. Ich denke, ein genauerer Begriff wäre aFarbmodell als ein Farbraum, und der Begriff Farbmodell kann sowohl auf RGB als auch auf YUV angewendet werden.

Aus der in der ursprünglichen Frage verlinkten Referenz geht hervor, dass xvYCC eine erweiterte Form der Y'CbCr-Codierung ist, die codierte Luminanz- / Chrominanz-Farbinformationen mit mehr Bits als YUV speichert. Anstatt Luminanz und Chrominanz in verschachtelten Sätzen von 2 bis 4 Bits zu codieren, codiert xvYCC Farbe in modernen 10-Bit-Werten.

Verwendung in der Standfotografie

Interessanterweise gibt es eine DSLR-Kameramarke, die etwas sehr Ähnliches verwendet. Canon hat in den letzten Jahren ein neues RAW-Format mit dem Namen sRAW in seine Kameras aufgenommen. Während ein normales RAW-Bild einen direkten Speicherauszug voller Sensordaten enthält, ist sRAW eigentlich kein echtes RAW-Bildformat. Das sRAW-Format enthält keine Überlagerungsdaten, es enthält verarbeiteten Y'CbCr-Inhalt, der aus den zugrunde liegenden RGBG-Überlagerungspixeldaten interpoliert wird. Ähnlich wie in den TV-Tagen zielt sRAW darauf ab, mehr originelle Signalinformationen zu verwenden, um Luminanz- und Chrominanzdaten in einem hochpräzisen (14-Bit), aber platzsparenden Bildformat zu codieren. Ein sRAW-Bild kann zwischen 40 und 60% der Größe eines RAW-Bildes betragen.

Der Vorteil von sRAW besteht darin, dass Sie eine hohe Farbgenauigkeit für die menschliche Wahrnehmung in einem kompakten Dateiformat beibehalten und die RGBG-Pixel auf dem Bayer-Sensor besser nutzen (anstatt überlappende Abtastungen, die böses Farbmoiré erzeugen, führt sRAW nicht überlappende Chrominanzabtastungen durch) und überlappende / verteilte Luminanzabtastung.) Der Nachteil ist, dass es sich nicht um ein echtes RAW-Format handelt und die Farbinformationen vom Vollschichtsensor interpoliert und heruntergetastet werden. Wenn Sie nicht die volle RAW-Auflösung der Kamera benötigen (dh Sie möchten nur mit 8 x 10 oder 11 x 16 drucken), kann sRAW ein echter Vorteil sein, da viel Platz gespart werden kann (bis zu 60% Ersparnis gegenüber RAW) ), speichert schneller als RAW und bietet eine höhere Bildrate sowie eine bessere Verwendung der vom Sensor erfassten Farbinformationen als RAW mit voller Auflösung.


Sehr interessant und informativ - danke! Aber ich bin immer noch überrascht, dass diese Nischenverwendung das einzige ist, was es bisher gibt.
Mattdm

1
Technisch gesehen könnte man JPEG als ein anderes Bildformat betrachten, das Daten in einer YCC-kompatiblen Weise codiert. Ein Teil der JPEG-Platzersparnis beruht auf der Tatsache, dass RGB-Daten in einem Luminanz- / Chrominanzformat codiert werden, bei dem die Daten durch verlustbehaftete Blockkomprimierung weiter komprimiert werden. Während die spezifische Kodierung xvYCC in der Standbildfotografie nicht üblich ist, ist die Luminanz- / Chrominanzkodierung tatsächlich das am weitesten verbreitete Format.
jrista

7

Sie haben die Dinge fast vollständig rückwärts. Dies ist kein Fall, in dem noch Fotografie mit Video "aufholen" könnte / sollte - ganz im Gegenteil, dies ist eine Frage des Videos, das endlich (ungefähr) die Fähigkeiten erreicht hat, die TIFF (zum Beispiel) ein paar Jahrzehnte lang bietet vor (oder so).

Obwohl Sie sicherlich nicht sahen vor sehr viele 16 Bits / Kanal TIFFs 20 Jahren war die Fähigkeit , bereits dort, und 16 Bits / Kanal (in TIFF und verschiedenen anderen Formaten) ist jetzt ziemlich häufig. Gleichzeitig fühle ich mich verpflichtet, darauf hinzuweisen, dass die meisten Leute 8 Bits / Kanal für völlig ausreichend halten. Nur ein offensichtliches Beispiel: JPEG2000 unterstützt 16 Bit / Kanal und eine bessere Komprimierung als das Original-JPEG - kommt der Verwendung der Original-JPEG-Spezifikation jedoch nicht einmal nahe.

Etwa zur gleichen Zeit (eigentlich ein bisschen früher) arbeitete xvYCC daran, die Fähigkeiten von TIFF (grob) nachzuholen, und das openEXR-Dateiformat wurde entwickelt. Es werden bis zu 32 Bit / Kanal unterstützt. Es ist zwar noch nicht so weit verbreitet, aber ich würde erwarten, dass es ein bisschen wie TIFF sein wird und irgendwann eine breitere Verwendung finden wird.

Was den Farbraum angeht, stimmt es, dass die größere Anzahl von Bits / Pixel, wenn xvYCC eine größere Farbskala als sRGB unterstützt. Wiederum bietet ProPhotoRGB (zum Beispiel) einen viel breiteren Farbumfang - und (ganz ehrlich) es ist fraglich, ob ein größerer Farbraum als der von ProPhotoRGB bereits erforderlich ist (ungefähr 13% der Farben, die Sie verwenden können) Darstellen in ProPhotoRGB sind grundsätzlich imaginär - sie gehen über das hinaus, was die meisten Menschen wahrnehmen können.

Der Vorteil von xvYCC liegt in der Reduzierung der Datenmenge, die zur Darstellung eines bestimmten Qualitätsniveaus benötigt / verwendet wird. Insbesondere für HD-Videos ist die Minimierung der Bandbreite äußerst wichtig. Für digitale Fotokameras ist die Bandbreite jedoch ein viel geringeres Problem - obwohl es sicherlich schön wäre, wenn (zum Beispiel) doppelt so viele Bilder auf eine bestimmte CF-Kartengröße passen würden, ist dies kein besonders schwerwiegendes Problem. Relativ wenige Menschen nutzen die größte verfügbare Kapazität an CF-Karten, und die Kosten für CF-Karten sind kein wesentlicher Teil des Budgets eines typischen Fotografen.

Fazit: In Bezug auf die technischen Möglichkeiten bietet xvYCC wenig, was noch nicht verfügbar ist.

Edit: Ich sollte wohl noch einen Punkt hinzufügen. LCD-Bildschirme ersetzten die CRT-Bildschirme für die meisten Monitore zu der Zeit, als Digitalkameras weit verbreitet wurden - aber LCD-Bildschirme für Endverbraucher beginnen erst jetzt, die 8-Bit- / Kanal-Farbauflösung zu überschreiten (oder sich dieser sogar zu nähern). Es war schwer, sich über 10 oder 12 Bit / Kanal Gedanken zu machen, wenn ein typischer Monitor nur etwa 6 anzeigen konnte.

Es gibt auch ein kleines Detail, das vielen Menschen einfach egal ist. Für sie fällt die Fotoqualität unter ein Bestehens- / Nichtbestehenskriterium. Alles, worum die meisten Menschen wirklich bitten, ist, dass ein Bild einigermaßen erkennbar ist. Ich vermute, dass die Leute langsam anfangen, Besseres zu erwarten, aber nach Jahren von Walgreens (oder wem auch immer), die ihre rothaarige Tochter in eine Blondine (usw.) verwandeln, dauert es eine Weile, bis sie sich an die Idee gewöhnt haben, dass Farbe überhaupt genau sein kann.

Bearbeiten: Es gibt tatsächlich einen weiteren Schritt nach JPEG 2000: JPEG XR . Dies unterstützt bis zu 32 Bit / Kanal (Gleitkomma) HDR. Es gibt auch ein Dateiformat an, das alle üblichen EXIF ​​/ IPTC-Daten, eingebettete Farbprofile usw. enthalten kann. In Bezug auf diese Frage enthält es einen Wert, der angibt, dass eine Datei den xvYCC-Farbraum verwenden soll (Wert von 11im TRANSFER_CHARACTERISTICSSyntaxelement, Tabelle A.9, falls es jemanden interessiert). Dies scheint (zumindest noch) nicht weit verbreitet zu sein, unterstützt jedoch direkt den xvYCC-Farbraum für Standbilder.


Vielen Dank; Das ist definitiv eine Sichtweise. Ich weiß, dass diese Dateiformate und breiteren Farbräume existieren. Ich denke , was ich ist wirklich daran interessiert ist , warum ein es Push in der A / V - Welt für mehr Farbtiefe, aber nicht in Verbraucher-Level - Fotografie.
Mattdm

1
@mattdm: Ich denke, der Grund, warum es einen Push dafür gibt, ist, dass es vorher nicht da war. Seit mindestens einem Jahrzehnt ist ein breiter Farbraum / eine hohe Farbtiefe für Standbilder verfügbar. Soweit ich weiß, unterstützen Digitalkameras Adobe RGB (das einen breiteren Farbraum als sRGB hat, obwohl 98% davon nicht vollständig unterstützt werden) der Lab-Gamut) seit einigen Jahren. Canon sRAW ist seit mindestens ein paar Jahren in DSLRs der Einstiegs- und Mittelklasse erhältlich. Ich würde Jerry zustimmen ... Video ist die Domain, die "aufholt".
jrista

4

Also, um meine eigene Frage nach ein paar Recherchen zu beantworten:

Es ist zwar nicht xvYCC, aus Gründen, die mich wirklich noch entziehen sich (da JPEG - Kodierung ein ähnliches ältere Schema verwendet), es wird erscheinen einige ermutigende Bewegungen auf die sein : „Wir können schöne Dinge haben!“ Vorne, denn es scheint, als würde sich zumindest Microsoft um einen breiteren Farbumfang und eine bessere Bittiefe in der Standfotografie kümmern - zumindest ein bisschen.

Langsam aber sicher drängten sie auf einen neuen Dateiformatstandard namens JPEG XR (früher Windows Media Photo und dann HD Photo). Es ist eine interessante Weiterentwicklung des "traditionellen" JPEG, das eine bessere Komprimierung bei gleicher Bildqualität und (bis auf den Punkt dieser Diskussion) eine höhere Bittiefe bietet.

JPEG 2000 tut dies auch, aber es war größtenteils ein Misserfolg, möglicherweise aufgrund von Bedenken in Bezug auf Patente, die die verwendete Wavelet-Komprimierung oder etwas anderes abdecken. Der wichtige Punkt ist: Microsoft bewirbt jetzt JPEG XR und bietet es in einer Vielzahl seiner Software an, einschließlich Internet Explorer 9 . Ab 2009 handelt es sich um einen offiziellen, echten internationalen Standard , der vom "Community Promise" von Microsoft abgedeckt wird, wonach ihre Patente nicht in feindlicher Weise gegen Implementierungen durchgesetzt werden dürfen. Das ist also ziemlich gut für die zukünftige Aufnahme.

Und außerdem treiben sie die Idee von mehr Bits pro Kanal als " hohe Farbe " voran (was für mich lustig ist, da dies in meinen Augen immer noch die alten 16-Bit-für- alle- Kanäle sind Grafikkartenmodus). Als Teil davon haben sie einen möglicherweise lächerlich großen "Zwischen" -Farbraum namens scRGB - lesen Sie hier einen ausführlichen Bericht darüber - der von JPEG XR unterstützt wird, wenn Sie möchten. Als endgültiger Farbraum ist er möglicherweise nicht besonders nützlich , da sich die meisten seiner Farben außerhalb der menschlichen Wahrnehmung im "imaginären" Bereich befinden . Aber wie auch immer, ist der Punkt, Microsoft wird die Integration von höheren Bit-Tiefe - Standards in das Windows - Betriebssystem, und noch Fotografie istein Teil davon. Aus einem etwas älteren CNET-Interview : "Ich erwarte unbedingt, dass die Unterstützung von scRGB in Kameras JPEG XR begleitet."

Aber das war 2007. Viereinhalb Jahre später sehen wir immer noch keine Kameras, die JPEG XR unterstützen, geschweige denn Farbräume mit großem Farbumfang und hoher Tiefe. Aber vielleicht bin ich nur ungeduldig. Wie die anderen Antworten hier vermerken, wird Display-Hardware, die einen weiten Bereich unterstützt, gerade verfügbar, die Unterstützung für das beliebteste Betriebssystem der Welt ist relativ neu, und der erste Webbrowser, der diese Unterstützung bietet, wurde in diesem Monat veröffentlicht . Da sich dies durchsetzt und hoffentlich irgendwann von Chrome und Firefox aufgegriffen wird , werden Bildverarbeitungsprogramme (einschließlich RAW-Konverter) unterstützt, und die eigentliche direkte Ausgabe von Kameras wird folgen.

Oder das Ganze wird floppen. Wir werden sehen. :)


2
Ein gutes Merkmal von JPEG XR ist, dass es rechenintensiv ist und daher beispielsweise für die Kodierung in der Kamera implementiert werden kann. JPEG 2000 ist teuer. Dies ist sicherlich ein Faktor, auch wenn dies mit dem Vormarsch der Rechenleistung vielleicht nicht so wichtig ist.
PeterT

3

Ich werde ein paar Notizen um Jons hinzufügen ...

  1. Der Farbraum ist in einem Kamerakontext nur dann von Bedeutung, wenn es sich um JPEGs handelt, da für RAW-Bilder der Farbraum in der "Entwicklungs" -Phase ausgewählt wird. Einige Kameras (für bestimmte Pentax-Halbprofis) erlauben die Auswahl von sRGB oder aRGB für die JPEG-Entwicklung, sodass sie möglicherweise eine dritte (oder vierte für ProPhoto) hinzufügen. Andererseits ziehen die meisten Profis das Bild im gewünschten Farbraum für das gewünschte Ausgabemedium ein.

  2. Der Betrachter (und / oder das Gerät) muss auch den Farbraum kennen und damit umgehen können. Während Monitore mit großem Farbumfang immer häufiger werden, sind sie wahrscheinlich immer noch eine massive Minderheit und es wird eine Weile dauern, bis sie aufholen. Heck, ich kenne einige Leute, die noch alte CRT-Monitore haben, die an ansonsten anständige Computer angeschlossen sind.


Ich möchte noch einmal betonen, dass xvYCC kein 'Farbraum' ist, sondern im besten Fall ein Kodierungsformat für RGB-Farbinformationen. Es unterstützt einen breiteren Farbraum, nicht weil es ein Farbraum ist, sondern weil es Farbinformationen mit mehr Informationsbits speichert und sie in einem Format speichert, das der Art und Weise, wie Menschen Luminanz und Farbe wahrnehmen, näher kommt.
jrista

@jrista, der IEC-Standard nennt ihn ausdrücklich "Extended-Gamut-YCC-Farbraum für Videoanwendungen - xvYCC", was stark impliziert, dass es sich tatsächlich um einen Farbraum handelt. Nachdem auf YCC nachlesen, wie ich sehe , wo Sie auf dem hier kommen, und wollen nicht hundert Dollar zahlen , um den Standard zu lesen ich nicht sicher sein kann, aber meine derzeitige Annahme ist , dass es gibt sowohl einen erweiterten Weg von Spezifizierungs Farbinformationen in YCC und ein tatsächlich breiterer RGB-Farbraum.
Mattdm

1
Ich muss tiefer in die Spezifikation einsteigen. Ich bin mir noch nicht ganz sicher, wofür das xv steht. Vielleicht bezieht sich das tatsächlich auf einen großen Farbraum. YCC ist jedoch, selbst wenn sie mehr Bits verwenden, mit Sicherheit keine "Tonleiter", sondern nur eine encoding. Man könnte sagen, RGB ist ein Farbraum ... es ist nicht nur eine Art der Codierung von Farbdaten. A color spacedefiniert die Luminanz- und Chrominanzwerte jeder Farbe über eine Reihe von Primärfarbzuordnungen, eine Gammataste, einen Weiß- und Schwarzpunkt sowie einige Kurven.
jrista

1
Ich vermute, "xv" ist "erweiterter Wert", aber es kann nur "coole Farben" bedeuten.
Mattdm

1

Der xvYCC-Farbraum wird wahrscheinlich nicht für die Standfotografie genutzt, da neue Standards entwickelt wurden, die eine Verbesserung der älteren Standards darstellen, und kein Hersteller möchte in einen Standard investieren, der möglicherweise abwertet, bevor er durch den nächstgrößeren ersetzt wird '. Sie haben von VHS vs. Beta gelernt.

Das High Efficiency Image Format (HEIF), MPEG-H Part 12, ist ein Dateiformat, das ein Strukturformat angibt, aus dem codecspezifische Bildformate abgeleitet werden können.

HEIF enthält auch die Spezifikation für die Kapselung von Bildern und Bildsequenzen gemäß der hocheffizienten Videokodierung (HEVC, ISO / IEC 23008-2 | ITU-T Rec. H.265 oder MPEG-H Part 2).

Es wird im Keynote-Video zur WWDC 2017 von Apple erwähnt: https://youtu.be/oaqHdULqet0?t=58m49s .

Das iPhone 7 und höher von Apple nimmt das Fotografierte auf und speichert es im JPEG- oder HEIF-Format. Durch die Verwendung von HEIF kann eine makellose Camera-to-Storage-to-Display-Lösung bereitgestellt werden - eine vollständige Infrastruktur ohne Verlust oder Konvertierung von Eingabe zu Ausgabe (bei Verwendung von HEIF unkomprimiert).

Es ist nicht so, dass sie alle Funktionen voll unterstützen (so wie MPEG selten "voll unterstützt" wird) oder dass es für andere nicht einfach genug ist, dies zu tun. Sie scheinen lediglich als Erste eine Komplettlösung für Bilder (für Video) zu haben Wir haben seit Jahren eine Untergruppe von HEVC (H.264, H.265 und kürzlich HikVisions H.265 +).

Wenn Sie wissen, dass andere Kameras HEIF unterstützen, kommentieren oder bearbeiten Sie diese bitte, danke.

Kameras, die Bilder und Videos mit einem besonders hohen Dynamikbereich aufzeichnen (der Sensor hat mehr als 16 Bit pro Farbe), verarbeiten die Daten häufig nicht (erstellen Sie eine komprimierte Datei), sondern geben die Rohdaten direkt aus. Beispiel: http: // www .jai.com / de / products / at-200ge - dass die Kamera 24 bis 30 Bit pro Pixel ausgibt oder http://www.jai.com/en/products/at-140cl - dass die Kamera 24 bis 36 Bit pro Pixel ausgibt .

Es ist möglich, eine CIE 1931-Farbraumkamera (und wahrscheinlich auch andere Farbräume) zu erwerben. Wenn Sie endlos suchen oder bereit sind, einen speziellen Kamerahersteller zu beauftragen, um genau das zu produzieren, was Sie möchten, schreiben Sie die Software wahrscheinlich selbst an Konvertieren Sie von Ihrem Farbraum in einen von anderen Programmen verwendeten.

Hier ist ein Link zur Condor3 CIE 1931-Kamera von Quest Innovations: http://www.quest-innovations.com/cameras/C3-CIE-285-USB .

Kameras mit 3,4,5 oder 6 Sensoren können das Spektrum in kleinere Teile aufteilen und mehr Bits pro Kanal liefern, wodurch die genaue Farbe und Intensität genauer bestimmt werden: http://www.optec.eu/en/telecamere_multicanale/telecamere_multicanale.asp .


Prisma für eine 3-Kanal-Kamera 3CCD oder 3MOS

Prisma für eine 4-Kanal-Kamera 4CCD oder 4MOS

Prisma für eine 5-Kanal-Kamera 5CCD oder 5MOS


Verweise:

https://developer.apple.com/videos/play/wwdc2017/503/

https://nokiatech.github.io/heif/technical.html

https://en.wikipedia.org/wiki/High_Efficiency_Image_File_Format

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.