Яка мета корекції гамми на сучасних екранах і як вона стосується графіки та фотографії?


15

Я дуже заплутався в цілях корекції гамми та взаємозв'язку між виправленими гамою та некоректованими зображеннями з точки зору графіки та фотографії, а також управління кольором взагалі (перетворення з лінійних RGB в RGB-коригувані простори, а потім їх відображення екран).

З багатьох джерел, головним чином http://www.guillermoluijk.com/article/gamma/index.htm та питання № 23026151 на StackOverflow (Чи потрібно гамма виправляти кінцевий вихід кольорів на сучасному комп'ютері / моніторі?) , Я ' ви прийшли до висновку, що:

Корекція гамма спочатку була розроблена для компенсації нелінійної відповіді моніторів ЕПТ на вхідний сигнал. CRT не змогли самостійно підсилити вхідний сигнал, і тому вихідний сигнал з ПК потрібно було відрегулювати, що спричинило (станом на сьогодні) стандартну корекцію гамма-2.2 та кольоровий простір sRGB.

Однак сучасні екрани не страждають від втрати сигналу, як це робили CRT. Вони теж можуть показувати деякі нелінійності, але, враховуючи, що вхідний сигнал найчастіше переноситься лише 8 бітами на канал (256 відтінків), вони повинні мати можливість компенсувати деякі нелінійності у відтворенні їх кольорів, оскільки вони, ймовірно, здатні відтворення понад 256 відтінків в одному каналі. Це означало б, що корекція гамми разом із sRGB та всіма кольоровими коректорами, скорегованими гаммою, є лише спадщиною епохи CRT, і її єдиною метою було лінійне відображення вхідного сигналу.

Є також статті , які стверджують, що корекція гамми - це компенсація нелінійності зору людини(CambridgeInColour.com - Розуміння корекції гамми), який повинен приблизно відповідати гамма-кривій, оскільки ми здатні помітити невеликі відмінності в більш темних відтінках, але не так добре з яскравими (яскравість точки повинна зростати експоненціально, щоб вона здаються яскравішими). Це не так, як датчики камери записують сцену. Сирі дані від датчика отримують в лінійному RGB і перетворюються на кольоровий простір RGB з корекцією гами (тіні підняті, а світлі потемніли). Корекція гамми була покликана компенсувати втрату вихідного сигналу, тому, на мій погляд, сучасні екрани - це просто імітувати поведінку ЕПТ, щоб скасувати корекцію гамми та відобразити сцену так, як це було захоплено камерою - грубо кажучи, карта карти відтінки 1: 1 для екранного. Добре,

Чи означає це, що кожен відтінок у будь-якому кольоровому просторі RGB повинен мати абсолютно однакові значення RGB у будь-якому іншому просторі RGB, включаючи лінійний RGB (наприклад, # 010A1F у sRGB, точно перекладається на # 010A1F у лінійному RGB з точки зору зберігання у файлі растрових зображень із 8bpc), і лише від екрана та графічного адаптера залежить, як вони організовують передачу кольорів і чи потрібно будь-якій із сторін виконувати якісь додаткові перерахунки, щоб перетворити зображення на кольоровий простір призначення? Іншими словами, зміна кольорового простору в графічному редакторі насправді не має нічого спільного з самими значеннями RGB, бере лише до уваги новий кольоровий простір у метаданих зображень? Я вважаю, що це не так, тому що керування кольором як таке буде непридатним, коли використовується інтерфейс цифрового графічного адаптера / екрана - графічний адаптер може просто надсилати звичайні RGB дані незалежно від кольорового простору, який використовується, оскільки не буде аналогового посилення (гамма) застосовуються до значень, що йдуть у лінійній шкалі від 0 до 255. Також гама різних кольорових профілів була б однаковою, якби не було введено помилок округлення, або?

Моя остання плутанина, можливо, пов’язана з нерозумінням перетворення кольорового профілю та таблиці рівнів експозиції (перша) у статті http://www.guillermoluijk.com/article/superhdr/index.htm (можна перекласти за допомогою Google Translate). Чи правильно я розумію, що лінійні значення перетворюються за допомогою експоненціальної функції (або зворотної гами), зменшуючи тональний діапазон у напрямку тіней і, таким чином, затемнюючи зображення? Це те, що відбувається, якщо ми збережемо лінійний RGB і представимо його як виправлене гамою зображення на екрані комп'ютера?

Прошу вибачення за те, що я задавав таке складне запитання, але це дуже важко знайти справді хороше джерело інформації, що пояснює всі невизначеності, що виникають. Заздалегідь дякую за будь-яку відповідь, яка може допомогти виправити моє непорозуміння.


4
Ви можете спробувати зменшити це питання. Хоча все ще можна відповісти на це лише з назви, я вважаю, що редагування це було б хорошим способом допомогти вам зрозуміти тему самостійно.
JenSCDC

1
Я починаю працювати над відповіддю, не малою мірою, тому що зрозумів, що багато чого забув, і відповісти на чиєсь питання - це хороший спосіб його вивчити.
JenSCDC

Основна причина - просто зворотна сумісність. Ви хочете мати можливість використовувати один і той же комп'ютер і те саме програмне забезпечення зі старими CRT-моніторами та сучасними РК-моніторами. Програмне забезпечення продовжує робити те саме, що і раніше: створює зображення в кольоровому просторі sRGB. Це, звичайно, включає звичайну гамма-корекцію. Тоді старі монітори CRT використовуватимуть зображення, як є, а сучасні дисплеї в основному "скасовують" перетворення з лінійного простору кольорів у кольоровий простір sRGB.
Jukka Suomela

І як це стосується фотографії: надаючи правильні інструменти, це не так. Корекція гамми (і взагалі перетворення між різними кольоровими просторами) відбувається автоматично; звичайні користувачі не повинні бачити його взагалі. Це просто технічність, про яку повинні бути обізнані комп'ютерні програмісти, але кінцевим користувачам про це зовсім не потрібно знати. (Якщо, звичайно, ви явно не хочете ввести щось на зразок шістнадцяткових значень кольорів у кольоровому просторі sRGB; в такому випадку ви, швидше за все, знаєте, що робите.)
Jukka Suomela

Відповіді:


10

від Чарльза Пойнтона "Реабілітація гамми" :

Помилкове уявлення: нелінійність монітора ЕПТ є дефектом, який потрібно виправити.

Факт: Нелінійність ЕЛТ майже не обернена чутливістю людського зору до легкості. Нелінійність призводить до того, що реакція ЕПТ приблизно сприймається рівномірно. Ця функція, далеко не дефект, дуже бажана.

Помилкове уявлення: Основна мета корекції гамми - компенсувати нелінійність ЕПТ.

Факт: Основна мета корекції гамми у відео, настільній графіці, додрукарській формі, JPEG та MPEG полягає в кодуванні значень освітленості або тристимулу (пропорційного інтенсивності) у сприймається однорідний домен, щоб оптимізувати перцептивну ефективність обмеженої кількості біт у кожному компоненті RGB (або CMYK).

решта статті теж дуже освічуюча :)


Сцена в природі знаходиться в лінійній гамі, і вона повинна бути представлена ​​на екрані або на папері так само, з невеликим підйомом гами, щоб компенсувати спалах, як правило, гамма 1.1 або 1.2.
Ілля Борг

1
Докторська дисертація доктора Пойнтона тепер онлайн: poynton.ca/PDFs/Poynton-2018-PhD.pdf . У главах 3 та 4 розглядаються класичні криві, у главі 8 представлено OETF "Світлості Барта", який має таку ж форму, як і крива Долбі PQ (SMPTE-2084). На найвищому кінці шкали він безперешкодно перетворюється з гамми в криву колоди, і це те, що ми насправді очікували. Вся книга дуже радісна!
Йероен ван Дуйн

7

Розглянемо цей приклад від Кембридж у кольорі :

введіть тут опис зображення

Застосовуючи гамма-кодування, ми можемо представити оригінальне зображення більш точно, з однаковою глибиною бітів (5, у цьому прикладі).

Це досягається за допомогою використання 32 рівнів таким чином, що більше відповідає людському оці. Іншими словами, це форма стиснення. Наприклад, JPEG можуть насправді зберігати близько 11 зупинок динамічного діапазону, незважаючи на використання лише 8 біт на канал.

І як і будь-яка інша форма стиснення, не має значення, якщо вам не байдуже розмір файлу (і менша швидкість, з якою ви можете читати чи писати більші файли). Теоретично ви могли б використовувати формат у форматі JPEG, який використовував лінійну гаму, якби ви хотіли виділити 11 біт для кожного каналу, а не 8.

Отже, підсумовуючи, гамма - це лише форма стиснення: вона зменшує розмір файлу, необхідний для зберігання певного обсягу інформації у міру сприйняття очей. Крім того, вона дозволяє зберігати більш тонкі градації на одній і тій же глибині біт.


7

Я колишній інженер радіомовлення, і зараз працюю в художніх фільмах та на телебаченні як редактор та керівник VFX.

Багато тверджень тут невірні. Гамма на шляху сигналу - бажана перевага і вибір дизайну ранніми відеоінженерами для зменшення сприйнятого шуму при передачі.

Усі вакуумні трубки, включені до ЕЛТ, демонструють різні нелінійності (див. Закон Лангмюра-дитини). ЕЛТ можуть змінюватись від "гамми" від 1,5 до 3,5 (якщо керується сигналом напруги), залежно від різних конструктивних відмінностей. Нелінійність була менш проблемою з монохромною, але стала більш критичною з кольором, тому NTSC вказав сигнальну гаму 1 / 2.2. Конструкція та допоміжні схеми ЕЛТ регулюють фактичну гамму від закону Лангмюра-Чайлда (зазвичай прийнято розуміти як 1,5, але, як правило, вище для CRT через низку факторів) до рівня, відповідного сприйняттю людиною "гамма" - 2,5. Для NTSC телевізор вважався гамма-ціллю ~ 2,4, **, тоді як PAL вказував ~ 2,8

Більш висока гамма в старих аналогових стандартах широкомовного сигналу призначена спеціально для зменшення сприйнятого шуму, заснованого на сприйнятті людини як нелінійного. У цьому випадку використання, скориставшись нелінійності, щоб приховати шум завдяки ефекту "ущільнення" гамма-кодування, що кодує сигнал. Це досить академічно.

Існує декілька способів, щоб дизайн CRT TV & Monitor міг бути змінений для досягнення лінійності на відміну від кривої гамма-типу, але гамма-крива в аналоговому мовленні зменшила видимий шум на 30 дБ. Гамма була бажаною тоді, ЯКЩО ЗАРАЗ .

Гамма потрібна, навіть якщо РК-монітор можна використовувати лінійним (гамма-1,0) способом. Тут стверджуються, що гамма більше не потрібна - це повноцінне навантаження, і не зрозуміти поточну мету застосування кривої попереднього наголосу.

Гамма - це те, що дозволяє sRGB (або Rec709) виглядати «добре», навіть якщо глибина бітів становить лише 8 біт на канал. Ось приклад:

Це зображення в sRGB, 8-бітне, з попереднім наголосом гами (тобто нормальним веб-зображенням). нормальний

Ось як це виглядало б без користі від гамми (тобто, якщо це були лінійні значення та лінійний дисплей, без попереднього наголосу на гаммі). поганий

Гамма передбачає БІЛЬШЕ БІТИ в темних областях для більш плавного градієнта і зниження шуму.

Якщо ви хочете пройти абсолютно лінійно, весь ваш сигнал сигналу потребує не менше 12 біт на канал. 8 bpc НЕ БУДЬ ЛІШЕ. Кодування кривою та декодування на дисплеї дозволяє використовувати менший фрагмент даних у один байт на кольоровий канал.

У фільмі ми використовуємо лінійну як робочу область , але при роботі з лінійною ми знаходимося в 32 бітах на канал з плаваючою точкою . Під час обміну файлами лінійних зображень ми використовуємо EXR Half, що становить 16 біт на поплавок каналу. (І якщо ми використовуємо 10-бітні файли DPX, дані зображення кодуються за допомогою кривої LOG).

АЛЕ

Комп'ютерні монітори, які ми використовуємо, все ще є 8 або 10 бітними для дисплея, тому всі лінійні зображення все ще повинні бути відрегульовані гаммою, перш ніж надсилатись на монітор. Чому?

Більшість "хороших" моніторів - це лише 8 біт на чан, а багато - лише "6-бітний внутрішній". Це означає, що вони приймають 8-бітне зображення на чан і відображаються як 6 біт на канал. Як вони можуть зробити прийнятний образ?

GAMMA!

10 бітних моніторів на канал є рідкісними та дорогими (як у мого NEX PA271W). Мій NEC може приймати 10-бітовий сигнал і використовує 14-бітний внутрішній LUT для профілювання. Але 10 біт все одно недостатньо для лінійних!

Гамма або деяка форма кривої преемфи / демфи потрібна навіть для 10 біт. 12 біт - це мінімальний мінімум для розумного лінійного відображення, і навіть тоді він неприйнятний для індустрії художніх фільмів.

Ми використовуємо 12-бітні проектори для DCDM (Digital Cinema) і здогадуєтеся, що? DCDM не тільки використовує CIE X´Y´Z´, але ми також використовуємо проекторну гаму 2,6 !!!

DCI був створений для театрів і є власною закритою екосистемою, не покладаючись на старі технології, такі як CRT. Якби була якась «перевага» у використанні лінійного (гамма-1,0) простору, вона була б використана, але це не так.

Лінійний НЕ використовується в цифровому кінотеатрі, оскільки ПРЕДИМНА використовує гамма-криву .

Тож, будь ласка, перестаньте говорити, що ми використовуємо гамму лише зі застарілих причин, бо це помилково.

Будь ласка, прочитайте Пойнтона на цю тему , оскільки він роз'яснює ці проблеми легко зрозумілим чином.

Дякую за прочитане

Зноска: ** У той час як NTSC визначав гамму сигналу 1 / 2.2, очікувалося , що телевізори матимуть гамму 2,4 для посилення гамми системи. Корисно зазначити, що Rec709 (HDTV) і sRGB однакові, за винятком кривої передачі. Цікаво, що Rec709 (через BT1886) визначає "фізичну гамму дисплея" 2,4 (тобто гамма самого монітора), а монітори sRGB зазвичай встановлюються на рівні 2,4 або вище (опитування показують, що більшість користувачів встановлюють їх на 2,5 і більше). Але гамма SIGNAL інша, бл. 1 / 2,2 для sRGB і приблизно 1 / 2,0 для Rec709. в обох випадках є посилення гамма-системи, яке навмисно базується на очікуваному середовищі перегляду.


Мені завжди було цікаво, чому аудіоіндустрія не використовує той самий підхід, а натомість кидає на неї 16+ біт за зразок ...
Зевс

Привіт @Zeus, є кілька причин (якщо ви ставите це питанням, я можу дати більш глибоку відповідь). В основному, навіть у 16 ​​або 24 бітовому режимі, аудіопотоки набагато менші пропускної здатності, ніж відео (загалом), і обчислювально легше обробляти. Тим не менш, у багатьох випадках аудіо DOES використовує такі типи попереднього наголосу та знецінення (особливо низька швидкість передачі бітів). Насправді слух також є нелінійним (як і все сприйняття), але 8-бітове аудіо - це «свого роду», як 4 біт на канал каналу. Пам'ятайте, що 8 біт на чан відео використовує в цілому 24 біти на піксель, тому порівняння з 16 бітовим аудіо - це яблука / апельсини.
Myndex

Дякую @Myndex, на жаль, це було б поза темою як питання. Мені просто цікаво, чому подібне попереднє наголошення не використовувалося для аудіо спочатку, враховуючи, що це так само природно для слуху, як і для зору. До речі, я мав на увазі, звичайно, 16 біт на канал (як на CD); лінійний 8-бітовий аудіо (який формально існує) може бути жахливішим, ніж лінійне 8-бітове відео з вашого прикладу (яке навіть не існує як стандарт). Я розумію, що компроміси є нижчими, але переваги високі: втрачаючи половину роздільної здатності кожні 3 дБ,
Зевс

Я думаю, що є сайт, пов’язаний з обміном стеками, який вітає питання щодо аудіо. Незалежно: кожен біт у 16 ​​бітовому аудіо дорівнює 6 дБ (напруга), тому загальний динамічний діапазон становить 96 дБ. 6 дБ (напруга) є "вдвічі" (або наполовину) голоснішою за напругу, АЛЕ люди схильні сприймати 10 дБ як буквальну "наполовину як гучну" кількість. Pre / De emph використовується в аудіо з самого початку. Записи мали криву RIAA, магнітна стрічка використовувала криву NAB тощо, і т. Д. Що ви маєте на увазі втрату половини роздільної здатності кожні 3 дБ ???
Myndex

У лінійному цифровому кодуванні половина напруги - це половина цифрового діапазону (за визначенням), тобто втрата 1 біта роздільної здатності. Це багато для чогось, що сприймається як "трохи м'якше" (-6dB, це цифра, яку я мав на увазі, а не 3). Якщо ми хочемо захопити необхідні ~ 35 дБ принаймні (для виступу чи оркестру), це вже 6-бітна втрата для найм'якших звуків (і навіть тоді, якщо їх нормалізувати). Мені відомо про "аналоговий" акцент (який був дещо іншим і залежав від частоти), але ніколи не чув про те, що використовується для цифрових, отже, мої запитання ...
Зевс

3

Існує багато заплутаних статей про корекцію гамми, з багатьма неясними посиланнями на гамму та людський зір. Причина гамми - історична та результат кривої реакції старих моніторів типу ЕЛТ (нічого спільного із зором людини). У сучасних плоских екранах немає логічної причини кодування гамми та подальшої корекції, але це стало галузевим стандартом.

Збігом Аналогічне співвідношення між гамма - кривої і кривої відгуку людського зору має деяку перевагу , отримуючи допомоги скоротити розмір файлу в якості бітової глибини зображення може бути зменшена без впливу на сприймається якість зображення.


1

У OP майже все правильно, за винятком того, що гамма робить темні тони яскравішими, а не тьмянішими. Це існує просто у файлі, а не в оці. Дані завжди декодуються назад до початкових лінійних, перш ніж будь-яке око бачить це. Будь-яка різниця в оці, що бачить оригінальну сцену та бачить відтворені декодовані дані, є просто небажаною помилкою відтворення.

Гамма робиться лише для виправлення серйозних втрат моніторів CRT. CRT нелінійний, він демонструє яскраві тони, але втрачає темніші тони. Таким чином, гамма робить темні тони надмірно яскравими, щоб потім сподіватися, що знову з’являються нормальні (лінійні) після втрат CRT. Однак РК-монітори лінійні, і тому більше не потрібна гамма, але для збереження сумісності зі всіма старими зображеннями RGB у світі все ж стандарти включають ту саму гаму. РК-моніторам досить просто їх розшифрувати та відкинути. А дані як і раніше працюють на CRT.

Гамма в жодному разі не стосується людського ока. Окрім того, як ми хочемо побачити виправлені лінійні вихідні дані. Око має подібну зворотну реакцію, що є чисто випадковою, але людське око НІКОЛИ не бачить гамма-даних. Він завжди спочатку розшифровується (або втратами CRT, або ЖК-чіпом), і людське око лише знову (сподіваємось) бачить лінійні дані. Так само, як і в оригінальній сцені, жодна гамма також не потрібна. Око не потребує допомоги. Вийдіть на вулицю і подивіться на дерево. Там немає гамми. Ми дійсно уявляємо, що наше око не може добре бачити дерево? :) Подумайте над цим трохи більше. Мозок декодує реакцію очей, а CRT або LCD декодує кодування даних. Ті, хто стверджує, що гамма про око, просто не знає, вони просто повторюють неправильні речі, які вони чули. Це не важко почути, але це дуже неправильно. Ці хлопці повинні пояснити, коли і як людське око може навіть побачити гамму, яку вони собі уявляють за потрібну. Це не може, не має шансів.

Гамма - це не 8 біт. Дані кодуються та розшифровуються, і, сподіваємось, ідентичні, тому ми можемо побачити точне відтворення вихідної лінійної сцени. Гамма була зроблена ще на початку телебачення NTSC (1940), до того, як з’явилися біти, але у нас був CRT. :) Гамма - це лише про втрати CRT. Чистий і простий. А ще в день CRT гамма була вкрай необхідною.

Дані RGB нормалізуються (становлять 0..1 відсоткове значення) перед додаванням гамми, як правило, з експонентом 1 / 2,2 (приблизно квадратний корінь). 18% - це (0,18 ^ 1 / 2,2) = 0,46, або 46% на гістограмі, або 117 за шкалою 0..255. (Люди 18% зображень теж повинні бути 50%. :) 18% - 18%, але ми бачимо майже 50%, тільки тому, що дані гістограми кодуються гаммою.) Але зауважте, що 0 до будь-якого показника все ще дорівнює 0, а 1 до будь-який показник досі 1, тому динамічного збільшення діапазону немає. І жодного відсікання через гаму немає, кінцеві точки не можуть переміщатися. І звичайно, тому що дані розшифровуються, перш ніж хтось їх побачить. Вся справа (кодуйте, потім декодуйте) - це просто неоперація. Сподіваюся, жодної зміни очей. Але у файлах нормалізовані дані (це ФРАКЦІЯ) для експонента стає більшою кількістю, яскравішими, за винятком того, що жодне око не може його побачити там.

Гамма проводиться ТІЛЬКО для корекції відповіді моніторів CRT.


1

Я вважаю, що наші очі мають цю криву реакції, але ця реакція на раптову зміну кількості світла, особливо якщо вона зросла вище, але в той же час мозок розшифровує цю реакцію, звужуючи нашу райдужну оболонку, щоб підтримувати однакове (лінійне сприйняття) ми перебуваючи в стабільному режимі перегляду, поки перехід до нового стану перегляду не відбудеться плавно.

Корекція гамма по суті була результатом нелінійності електронного пістолета CRT, якій потрібно більше кодування (тобто застосовано .45 гамма), щоб надіслати рівномірний вихід (лінійний вихід), оскільки характеристики електронного пістолета CRT подають сигнал так, ніби він був декодований (тобто 2,2 гамма) крива застосована). У дні CRT вони кодували всі цифрові дані для збереження рівномірності перегляду та обміну даними в Інтернеті, тому формати файлів зображень в основному кодуються кривою гамма sRGB, що дуже схоже на криву .45455 Gamma Curve), і це скасувало випуск пістолета CRT .

Тепер після того, як всі дані в Інтернеті були закодовані, і завдяки цій лінійній поведінці LCD-технології (тобто вхідний сигнал = вихідні значення) вони виявили, що вже пізно декодирувати всі цифрові дані знову після того, як вони стали стандартними, тому вони прийшли з логічне рішення! і це знову імітувати дефект CRT, і вони виробляли РК-дисплеї з мікросхемою, яка декодує сигнал (тобто застосовувати криву 2,2 гамма) просто як застаріла система :) інакше вони повинні були розшифрувати всі дані в Інтернеті.

Тож не зациклюйтесь на цій заплутаності очей нелінійності, у вас буде нескінченне коло безнадійного мислення.

І ось стосунки з Гаммою та Нашими очима

Дані лінійних зображень, отримані датчиками камери RAW Файли, які за замовчуванням мають гамма = 1,00 (характер датчика камери), тобто (відсутність декодування чи кодування = відсутність корекції), коли сирі файли "відображалися" на моніторі, стало темно "лише переглянуто темно" і там 10 & 12 біт на канал - це великі файли, але, на жаль, ми не отримали користі від цієї глибини, оскільки наші очі не чутливі до яскравих значень настільки, наскільки вони занадто чутливі до темних значень і можуть розрізнити будь-яку тонку зміну темряви (і я буду пояснюйте нижче).

Оскільки зображення "виглядає темним" завдяки природі "Моніторів", рівень яскравості витрачається на яскраві значення більше, ніж на середні та темні значення (адже гамма монітора Переглянуті середні тони знищені ", тому ми б отримали користь набагато більше, якщо темні цінності мали однаковий шанс.

Тож вони виявили, що застосувати корекцію Gamma (наприклад, кодуючи необроблені дані до якогось формату, наприклад, JPEG з .45455 гамма sRGB), вдало перетворивши його на 8 біт на канал, що означає менший розмір файлу на додаток до правильного перегляду або відображення значень яскравості є (що полягає в тому, що гамма .45455 спалюється до пікселів) і знову темні та середні тони) дуже відповідає природі очей.

Моє пояснення полягає в тому, що клітини-палички в очах у нас є здатністю нічного бачення і тому, що надто чутливий характер розрізнення темних значень >> ми маємо близько 120 мільйонів стрижневих клітин Vs лише 6 або мільйон для клітин Cones, які чутливі до однотонних кольорів і довжини хвиль

Я думаю, що за це не відповідає крива реакції очей, і не намагайтеся будь-яким іншим чином зв’язувати Гаму з Оком та Монітор Гамми. Будь ласка, виправте мене, якщо я помиляюся :). Я намагався зрозуміти проблеми гамми, так що все, що я мав про це.

Це найкращі посилання на причини гамми та рішення

http://www.w3.org/TR/PNG-GammaAppendix.html


0

Ось мій перший проект відповіді - я докладу детальніше, як дозволяє час, але я хочу дати ОП якісь відповіді. Коментарі більш ніж вітаються.

Інформація про ЕПТ вже не застосовується. Але є дуже вагома практична причина продовжувати використовувати зображення, кодовані гаммою. Використовуючи гамма-кодування, редагування на зразок кривих виглядає "нормально", оскільки око не відповідає лінійно на світло - шукайте створення простору LAB, щоб дізнатися більше про це.

Для прикладу подивіться на цей скріншот:введіть тут опис зображення

Ліве зображення - оригінал, середнє - копія в гамі 2.2, а праве - копія в гамі 1,0. Крива, застосована до кожної з копій, видно. З огляду на форму кривої, чи виглядає версія 2.2 або 1.0 такою, яку ви очікували?


0

Власне, в ці дні гамма не потрібна, особливо при роботі у зображеннях із високим розрядом зображення. Однак це означає повне перезапис програмного забезпечення в занадто багатьох випадках - або перехід далеко не безпроблемний (скажімо, знайомі криві повністю змінюють форму, про що містер Бланкерц тільки що згадував).


-1

РК-монітори "лінійні", і сьогодні їм не потрібна гамма, але CRT-монітори нелінійні та все ж є. І у всіх архівах світу існуючих зображень є гамма для CRT, тому набагато простіше продовжувати додавати гамму, ніж змінювати все програмне забезпечення та застарівати всі існуючі зображення.

Людське око абсолютно не має користі для гамми. Око бачить оригінальну сцену чудово без гами. Гамма ТІЛЬКИ коригує очікувані втрати CRT-моніторів (тому ми бачимо відтворення оригінальної сцени). Світлодіодні монітори знають, як просто розшифрувати гамму та відкинути її, нічого особливого (адже людське око очікує бачити вірну репродукцію вихідних даних сцени без гамми, відтворення має виглядати однаково). Було б погано бачити це як гамма-дані. На щастя, людське око має нульову можливість побачити будь-які гамма-дані. Сайти, які говорять нам, що очі потребують гамми, просто не знають нічого про гамму.

Наші гістограми кодуються гаммою, оскільки дані кодуються (з вищезгаданої причини), аж до того моменту, як вони будуть показані людському оці. Середина наших кодованих даних становить не 50%, але приблизно 73% у гамма-даних (налаштування камери, такі як баланс білого та контрастність, зміщують їх трохи більше). Якщо ви недостатньо розкриєте зображення точно на одній зупинці, точка 255 зміщується до масштабу приблизно 3/4, а НЕ до 50%. Сіра карта 18% - це 18% у вкладишах, але приблизно 46% - у гамма-даних. Люди, неправильно припускаючи, що вони повинні бути на 50%, можуть навіть подумати про калібрування свого лічильника світла до цього. :) Але око ніколи не бачить гамма-даних, воно завжди спочатку розшифровується, так чи інакше. Око, сподіваємось, завжди бачить вірне відтворення оригінальної сцени.

Але FWIW, принтери також потребують більшості змін гами. Не значення 2,2, але не надто далеко від нього (через посилення крапки тощо). Apple дотримується світових стандартів 2.2, але всі ми знаємо, що на ранніх комп’ютерах Mac використовували гаму 1.8. Це не для монітора, вони використовували ті самі монітори, що і Windows (монітори є взаємозамінними). Але Apple раніше продавала лазерні принтери, а гамма-1,8 була для їх принтера. Потім обладнання для відео Mac додало ще трохи, щоб довести його до рівня 2.2, необхідного CRT. Сьогодні принтерам доведеться трохи зменшити їх з отриманих 2.2 даних, але вони все ще потребують цього.

На сьогодні стандартом є гама 2.2, так що всі наявні у світі дані RGB все ще сумісні.


1
Світлодіодний тип підсвічування. Основна причина корекції гамми - НЕ оптимізація CRT, навіть якщо вона коли-небудь була.
Euri Pinhollow
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.