Яким чином програмне забезпечення підвищує експозицію в процесі обробки?


9

Хтось знає про будь-які алгоритми чи може пояснити математично, як яскравість (EV) виконується в процесі післяобробки? Чи регулює рівень яскравості / RBG / контраст для кожного пікселя? Це стосується гістограми?

Які технічні характеристики компенсації експозиції для неекспонованого зображення в процесі обробки?

EDIT: У цьому питанні тут було розміщено посилання. У ній є приклади зміни EV, і він рухається вліво / вправо. У відповіді Метта Грамма він заявляє, що кожен піксель "множиться" (що, на мій погляд, вказує на те, що гістограма переміщена вгору / вниз).

Хтось може пояснити, чому це так? (Цей EV змінюється зліва направо)


Ви маєте на увазі обмежити це питання лише цими продуктами Adobe, або вас цікавлять коригування експозиції в процесі післяобробки?
Прочитайте, будь ласка, мій профіль


2
Я читав це двічі, і досі вважаю це досить заплутаним питанням. Не могли б ви перебрати слово, щоб викреслити деякі з більш дискурсивних частин і чітко зосередитись на своєму основному питанні?
Марк Уітакер

@mattdm Так, взагалі. Itai Kinda не дуже. :) Марк Уітакер зробить. (Мені сказали, що я не можу більше ніж одна людина)
BBking

@Mark Whitaker Чи я це ще зрозуміло?
BBking

Відповіді:


7

Я знаю, що ми всі схвильовані тим, що є цифрові камери, але факт полягає в тому, що ми цього не робимо . У нас є аналогові камери, які мають цифровий вихідний формат (і багато цифрової схеми, яка також безпосередньо не пов'язана із зображенням).

Щоразу, коли аналоговий сигнал перетворюється на цифровий сигнал, ви вносите шум квантування. Тобто, дуже малоймовірно, що сигнал, який переходить до перетворення, точно відповідатиме значення цифрового числа, яке виходить на інший кінець - подумайте про це як помилки укорочення або округлення.

Коли ви виконуєте післяобробку в цифровому файлі зображення, шум квантування, який додається камера, "запікається". Не має значення, з якою глибиною бітів ви працюєте в публікації, дані, з якими ви працюєте, мають як аналогові (ну, так і квантові) компоненти шуму (тепловий і пострільний шум, спотворення підсилювача тощо) та шум квантування. виходу камери. Якість базових даних не є ідеальною, тому будь-які обчислення, зроблені за несправними даними, призведуть до несправних результатів. GIGO , як то кажуть.

З іншого боку, у камері ви отримуєте можливість посилити (або послабити) аналоговий сигнал перед квантуванням. Це зовсім не допомагає від шуму в аналоговій області, але зменшує шум квантування при заданому рівні яскравості .

Скажімо, у вас є аналогове значення 4,4, щомакал. Якщо ви знімаєте за допомогою ISO 100, наша гіпотетична «цифрова» камера перетворить її в цифрове значення рівно 4. Якщо ви вирішите збільшити видимий показник експозиції в пості, ви затримаєтесь працювати з 4, який усікається. Якщо ви збільшите ISO в камері (менше, ніж на повній зупинці), то 4,4 буде посилено аналоговою схемою до її перетворення в цифрову, і це може призвести до 1-го більш високого цифрового значення, ніж обчислювальні технології для всіх цифрових процесорів. Різниця в одному біті може здатися не такою сильною, але коли ви починаєте накопичувати всі помилки в процесі обробки, даний піксель може бути досить довгим від значень, які він повинен мати. Ось що таке шум.

(Існує також той факт , що камера «знає» свої власні характеристики відгуку, і може враховувати їх обробку. Lightroom, наприклад, не робить камери конкретної, ISO на основі датчика шум віднімання. Камери можуть , хоча і НЕ все роблять .)


Дякую Стен. Так, у фотографічному знімку є всі типи шуму. Отже, якщо ви відрегулюєте електромагнітний звук у PP, ви також посилите цей шум. Так само, як ISO посилює будь-який шум.
BBking

2
І ударні ISO, і EV посилюють шум, але я думаю, що Стен говорить, що регулювання ISO вгору в камері краще, ніж нахил експозиції в процесі після обробки (адже ви по суті підсилюєте сигнал до того, як шум квантування введений в A / D крок).
seanmc

4

Це формула, яку ви шукаєте?

RGB[c] = max( RGB[c] * pow(2,EV), RGBmax )

Що в основному означає, що для кожного каналу (кожного пікселя) даних RGB помножте їх на 2 ^ EV, а потім відріжте їх на будь-яке максимальне значення для ваших даних. Для 8-бітового кольору RGBmax становитиме 255, для 16-бітового кольору 65535 тощо.

Тут EV відносний EV, тому EV + 2.0 помножить (полегшить) кожен піксель на чотири, а EV-2.0 поділить (затемнить) кожен піксель на чотири.

Сама формула не залежить від гістограми, але якщо вам потрібно вирішити, яке значення експозиції використовувати для оптимального регулювання зображення, то з гістограми буде зроблено якусь статистику для обчислення ЕВ.


1
Я вважаю, що значення RGB вже представляють сприйняту яскравість, тому ваша формула є неправильною. Це було б правильним для значень, виміряних датчиком (близьких до лінійних, див. Відповідь Метта), але не для вже перетворених значень RGB. (Спробуйте, що станеться, якщо застосувати формулу.)
Szabolcs

@Szabolcs, я думав, що ОП просить алгоритм зробити EV компенсацію в пост-обробці, ні? Я визнаю, що питання мені не зовсім зрозуміле, але вони задають математику.
Восьминіг

Дякую за вашу відповідь! Чи є у вас посилання для цих формул, щоб я міг детальніше розглянути його?
BBking

1
@Octopus Так, але я зазначив, що ваша формула неправильна, якщо вона застосовується до значень RBG . Значення RGB обчислюються з необроблених даних датчика, беручи логарифм вихідного значення (наше сприйняття приблизно логарифмічний), а потім лінійно змінювати результат (що відповідає встановленню чорної точки та точки білого). (Плюс деякі інші речі, про які згадував Метт.) Таким чином, ваша формула є правильною, коли вона застосовується до значень необроблених пікселів, але вона є неправильною для значень RGB. Якщо ви насправді спробуєте здійснити перетворення на зображенні на практиці, ви побачите, що я маю на увазі.
Szabolcs

Візьміть необроблений файл, витягніть дані за dcrawдопомогою -4перемикача, щоб переконатися, що він сам не перетворить журнал, а потім спробуйте виконати основне перетворення сировини самостійно та застосуйте компенсацію експозиції під час процесу.
Szabolcs

3

Зауважте, що це питання було відредаговано з моменту відповіді Стана на це питання, що фактично є іншим питанням:

Хтось знає про будь-які алгоритми чи може пояснити математично, як яскравість (EV) виконується в процесі післяобробки? Чи регулює рівень яскравості / RBG / контраст для кожного пікселя? Це стосується гістограми?

Які технічні характеристики компенсації експозиції для неекспонованого зображення в процесі обробки?

Це може бути простим, як множення всіх значень пікселів (наприклад, яскравість, контраст - це не термін, що застосовується до окремих пікселів) та застосування зміщення. Якщо це робиться після демонстраційного оцінювання, ви просто помножите значення червоного зеленого та синього на один і той же коефіцієнт.

Процес компенсації експозиції є дещо складнішим в контексті перетворення RAW, оскільки датчики камери за своєю суттю є лінійними пристроями, тоді як більшість перетворювачів RAW застосовують нелінійну тонову криву, щоб спробувати імітувати контрастну S-криву, яку ви отримуєте з плівкою.

Таким чином, найкращий час зробити компенсацію експозиції - це перш ніж це застосувати. Це в основному означає використовувати функцію EC перетворювача RAW, не чекати, поки ви не експортуєте Photoshop, оскільки до цього часу майже напевно буде застосована нелінійна крива.

Ситуація є ще більш складною, оскільки деякі перетворювачі RAW * використовували «кручені» кольорові профілі, які призводять до того, що відтінок / насиченість відображаються на різні значення залежно від інтенсивності. Це робиться для отримання більш приємних кольорів за рахунок точності і може впливати на результати компенсації експозиції.

Деякі перетворювачі RAW також пропонують інструменти для відновлення виділень та збільшення тіней. Вони вносять локальні корективи (тобто вони враховують набагато більше, ніж окремі значення пікселів). Якщо ви хочете дізнатись деталі цих алгоритмів, вам, мабуть, доведеться почекати, і сподіваємось, що тут з’явиться розробник Lightroom.

* коли я кажу "деякі перетворювачі RAW", я кажу в основному про Lightroom / ACR, тому що це єдиний, який я вивчив, інші передові перетворювачі RAW, схоже, роблять подібне.


З того, що ви знаєте, чи можете ви продемонструвати, як множення значення RGB призводить до підвищення яскравості? Як у, чи має піксельна структура значення кольору та яскравості? Наскільки я знаю, ви можете помножити значення пікселя, щоб змінити його колір. Мені подобається S-крива. Я знаю, що запитую конкретно про окремий піксель, але я більше розумію, що стосується картини в цілому. Я розумію, що також задіяна інтерполяція.
BBking

1
@BBking RAW-файли містять лише значення інтенсивності (яскравості), кожен піксель має кольоровий фільтр, тому у вас чергується інтенсивність червоного, зеленого та синього кольорів. Оскільки датчики камери є лінійними пристроями, масштабування записаних значень дає майже такий же результат, як і довше опромінення датчика. Після демонстраційного оцінювання зображення можуть зберігатися в декількох кольорових форматах, найпоширенішим є RGB, де на кожному пікселі фіксується кількість червоного, зеленого та синього світла. Помноження кожного з цих значень на один і той же коефіцієнт збільшує яскравість, множення кожного значення на іншу кількість змінює колір.
Метт Грум

"Оскільки датчики камери є лінійними пристроями" ... Щоб бути педантичними, датчики камери "майже лінійні" як ([ви вже вказали]) ( photo.stackexchange.com/a/33986/6294 ). (Я вважав, що це варто згадати, оскільки ОП також зацікавлена ​​в математичній постановці проблеми). Хороший алгоритм теоретично міг би врахувати типовий відгук датчика, навіть якщо він працює лише зі значеннями RGB.
Альберто

@Alberto так, це хороший момент, я мав би сказати "приблизно лінійно", але так як мій коментар був уже 598 символів, що взяло б його понад 600 і вимагало б розбиття на два коментарі;)
Метт Грум

3

Математично на яскравість матриці (зображення) загалом впливає вплив на значення функції CIE L * піксельного відтінку. Це арифметичні відносини. Додавання, віднімання, множення та ділення.

Знову ж таки, математично, матриця перетворення (чисельна) приєднується до існуючої матриці в пп. Їх можна зробити вибірково суб'єкту або загальній матриці (зображенню).

Хороша експозиція та погана експозиція - це довільні терміни - до тих пір, поки діапазон освітленості предмета лежить у межах корисного діапазону датчика камери. Тематичний діапазон може бути широким або вузьким до крайніх.

Примітка: Гістограма - це наочний посібник, який представляє відносний розподіл освітленості на зображенні. Він лінійний. Це не має нічого спільного з опроміненням, зворотним співвідношенням інтенсивності та часу, яке завжди представлено логарифмічно.


2

Які технічні характеристики компенсації експозиції для зображень, що не піддаються впливу, після обробки?

Посилення всіх значень у зображенні збільшить усі значення на рівну кількість. Ця "лінійна" відповідь властива цифровим зображенням.

Ми не сприймаємо речі таким чином, і отримане зображення здасться неприродним.

Аналоговий (плівкова емульсія) зображення виглядав більш природним, оскільки реакція фотоемульсії майже нагадує реакцію зорової системи людини. Посилалися на криву "S" у формі. Ця характерна форма "S" є аналогом.

Компенсація різниці між нашою пропорційною візуальною реакцією людини та лінійною цифровою відповіддю пропонує різні засоби для естетичної гармонізації різниці.

Потрібен ефективний спосіб забезпечити пропорційну компенсацію різниці. У цьому полягає технічність.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.