(20.08.2014)Meganium schrieb: [ -> ]Mit den Farbmodellen meinte ich eigentlich das Einstellen von Farben, ich hab jetzt versehentlich das mit AdobeRGB (welches die Farbräume CMY und RGB mühelos schluckt) gleichsetzen wollen. Eigentlich meinte ich: CMYK hat 101^4 = mehr als 100 Millionen "Möglichkeiten", während mit RGB "nur" 256³= etwas mehr als 16 Millionen Farben auswählbar sind. Natürlich kann ein Standard-Monitor, der auch nur normales rot, grün und blau anzeigen kann, nicht plötzlich noch 20 Millionen Farben daherzaubern.
Tut mir Leid, dass ich hier ein bisschen Klugscheißen muss, aber es gibt einige Falschheiten in deinem Post. Darum muss ich hier noch einmal intervenieren.
Der gesamte Umfang des für den Menschen sichtbaren Lichts wird als
Gamut oder Lab-Farbraum bezeichnet. Dieser enthält die komplette Farbpalette (aber nicht die Sättigungswerte). Da dieser aber viel zu groß ist, um damit an Computern zu arbeiten bzw. es keine Displaytechnologie gibt, die solche Farbwerte erreichen kann, werden Farbräume (sRGB, AdobeRGB, ProPhoto-RGB, ...) genutzt. Diese decken nur einen kleinen Teil der gesamten Palette ab. sRGB ist der gebräuchlichste, AdobeRGB ist hauptsächlich für den professionellen Photo-Bereich vorgesehen und deckt mehr Farben ab als sRGB, ist also näher an der Realität, wird dafür aber nicht überall unterstützt (Codec-abhängig).
Die Farbmodelle (RGB, CMY, YUV, HSB) sind die Werte, in denen der Computer die Farben speichert bzw. mit denen er rechnet. Sie besitzen eine Farbtiefe oder Quantisierung (8bit, 24bit, 32bit, 48bit, etc.). Bei einem RGB Modell mit 8bit pro Farbe können werte von 0 bis 255 für jede Farbe gespeichert werden, man gibt diese auch in Werten von 0 bis 1 an. Die Konvertierung von Farbmodellen sind Milchmädchenrechnungen (beispielsweise ist
Cyan=1-
Rot). Es gibt also keinen Unterschied in der resultierenden Farbe, wenn man mit unterschiedlichen Farbmodellen rechnet, es ist nur die Art, wie man rechnet, aber das Ergebnis bleibt immer das Gleiche. Entscheidend ist die Farbtiefe. Bei 8bit pro Farbe ergeben sich 16,7 Millionen mögliche Farben ( 2^(3*8) ), bei 16bit schon 281,5 Milliarden Farben ( 2^(3*16) ). Mit einem guten Display ist möglich bis zu 12bit pro Farbe zu unterscheiden, aller darüber ist unsinnig (persönliche Meinung).
Generell wird in jedem Bildformat immer in RGB Werten gespeichert, nur bei Videos wird YUV für 10bit und 12bit pro "Farbe" verwendet.
HSB ist ein häufig verwendeter Eingabewert für Farben, da er sich sehr übersichtlich darstellen lässt und CMY hat nur den Zweck die Farbpatronen in Druckern anzusteuern.
Um alles noch einmal zusammenzufassen, der Farbraum legt die Eckpunkte für das grünste Grün, das roteste Rot und das blauste Blau im gesamten sichtbaren Lichtspektrum fest. Das Farmodell legt fest, wie die Werte gespeichert werden und besitzt eine Farbtiefe. Diese beschreibt die Anzahl der möglichen Farben zwischen dem größten und dem kleinsten Wert für diese Farbe.
Zu den Displays:
Ein Display ist durch die Anzeigetechnik (LCD, OLED, Plasmazelle) in seinem Farbraum begrenzt, hier ist es aber nicht wie bei den Computerfarbräumen mit exakten Werten, sondern der Farbraum ist "gewellt" und "verschoben". Generell ist aber die mögliche Farbtiefe bei jeder Anzeigetechnologie unendlich groß, es kann also alle Werte zwischen dem maximalen und dem minimalen Wert anzeigen, die der Computer im sendet. Das wird beim LCD beispielsweise über die Spannung der einzelnen Farbzellen geregelt, diese kann alle Werte zwischen dem Maximum und dem Minimum annehmen. Diese Extremwerte legen fest, wie gut ein Display die vom Computer gesendeten Farben darstellen kann.
Es tut mir Leid, falls dieser Text jetzt nervig wirken könnte, aber das ist genau das, was ich studiere und deswegen bin ich da etwas penibel.