Чому для сучасних DSLR потрібен фізичний фільтр для згладжування?


13

Я розумію, що мета фільтра проти згладжування (AA) - запобігання муару. Коли вперше з'явилися цифрові камери, необхідно було створити фільтр AA, щоб створити достатньо розмиття для запобігання шаблонів муару. На той час потужність процесорів камер була дуже обмеженою. Але чому все-таки потрібно розмістити фільтр AA над датчиком в сучасних камерах DSLR? Не вдалося це зробити так само легко алгоритмами, що застосовуються, коли вихід з датчика знижується?Здавалося б, поточна потужність обробки, наявна в камері, дозволила б це зробити набагато більше, ніж навіть кілька років тому. Поточний процесор Digic 5+ від Canon має більш ніж в 100 разів більше процесорної потужності процесора Digic III, що зменшує потужність найбільш ранніх цифрових камер. Особливо під час зйомки файлів RAW не вдалося зробити розмивання AA на етапі після обробки? Це основна передумова Nikon D800E, хоча для протидії першому використовується другий фільтр?


Це не так. Вже є DSLR, які не мають фільтра проти псевдоніму, включаючи Pentax K-5 II, Nikon D800E, плюс дзеркальні моделі, такі як Olympus PEN E-PM2 та всі Fujis (X-E1, X-Pro1). Крім того, вони навіть оголосили камери з фіксованими об'єктивами без фільтра AA (X20 та X100S).
Ітаї

1
І всі ці камери часом показують кольоровий муар.
Kendall Helmstetter Gelner

3
Дійсно, але так будуть і інші камери. Я підозрюю, що фільтр проти псевдоніму, який уникає будь-якого муару, був би занадто сильним, тому виробники використовують фільтри АА меншої міцності. Наприклад, у моїх порівняннях K-5 II та K-5 II , муар зустрічається на обох камерах, лише набагато більше, ніж у K-5 II.
Itai

1
IIRC у нового Nikon D7100 також немає.
Джеймс Снелл

1
І тепер, Pentax K-3 не має фільтра, але має режим вібрації датчика дуже, дуже незначно під час опромінення, щоб імітувати його. Дуже багато цікавих нововведень у цій галузі.
Прочитайте, будь ласка, мій профіль

Відповіді:


12

Згладжування - це результат повторення шаблонів приблизно однакової частоти, що заважають один одному небажаним чином. У випадку зйомки більш високі частоти зображення, що проектується об'єктивом на датчик, створюють і інтерференційний малюнок (в цьому випадку муар) з піксельною сіткою. Ця перешкода виникає лише тоді, коли ці частоти приблизно однакові або коли частота дискретизації датчика відповідає частоті вейвлетів зображення. Це межа Найкіста. Зауважте ... це аналогічна проблема ... муар виникає через перешкоди, які виникають у реальному часі в реальному світі, перш ніж зображення дійсно піддається впливу.

Після того, як зображення викрито, цей інтерференційний малюнок ефективно «запечений». Ви можете використовувати програмне забезпечення до певної міри, щоб очистити шаблони муару після публікації, але це мінімально ефективно в порівнянні з фізичним фільтром з низькою прохідністю (AA) перед датчиком. Детально втрата внаслідок муара також може бути більшою, ніж втрата фільтра AA, оскільки moiré - це фактично безглузді дані, де трохи розмиті деталі все ще можуть бути корисними.

Фільтр AA призначений для розмивання цих частот у Nyquist, щоб вони не створювали жодних моделей перешкод. Причина, що нам ще потрібні фільтри AA, полягає в тому, що датчики зображення та лінзи все ще здатні вирішувати до тієї ж частоти. Коли датчики покращуються до того, що частота дискретизації самого датчика постійно перевищує навіть найкращі лінзи при їх оптимальній діафрагмі, тоді потреба у фільтрі АА зменшиться. Сама лінза ефективно справляється з необхідним для нас розмиттям, а схеми перешкод ніколи не з’являться в першу чергу.


Ось частина коментар розміщений на photo.stackexchange.com/questions/10755 / ... . Ви все ще вважаєте, що це точно? Якщо так, то як формується шаблон, поки дані RAW не будуть змінені? "За іронією долі, принаймні з RAW, теоретична межа ніквістів не завжди здається жорсткою межею, що, ймовірно, пов'язано з різною довжиною хвилі червоного, зеленого та синього світла та розподілом пікселів RGB у сенсорі", - jrista ♦ 10 квітня '11 о 18:50 "
Майкл C

1
Я вважаю, що я говорив про дозвіл взагалі там, а не безпосередньо про згладжування записаного цифрового сигналу. Ліміт нейкістів - це настільки складна річ, щоб забити цвях у сенсорі байєра через нерівну схему рядків RGRG та GBGB. Просторова роздільна здатність зеленого вище просторового дозволу червоного або синього кольору, так що Найквиста межа червоного або синього світла на більш низькій частоті , ніж Найквиста межа в зеленому світлі. Межа найквіста в демонтованому зображенні начебто складно назвати точно, тому вона стає трохи нечіткою смугою, а не конкретною математичною межею.
jrista

1
... цей візерунок стає частиною зображення. Навіть якби ви знали точні характеристики вейвлет-віртуального зображення і могли б створити послідовність фур’є, тоді вам доведеться змінити орієнтацію зображення відносно віртуальної концепції датчика, щоб усунути муар «ідеально». Це багато надмірно напруженої, високо математичної роботи ... якщо припустити, що ви знали ТОЧНУ природу вихідного сигналу віртуального зображення та його відношення до датчика. Після того, як псевдонім випікається в RAW, він майже зроблений, насправді не відбувається його скасування без пом'якшення деталей.
jrista

1
Я знаю все про різницю частоти між червоним / синім та зеленим. Що ж стосується всіх поточних оптичних фільтрів AA, які фільтрують лише у nyquist, це дійсно залежить від камери. Не всі фільтри AA розроблені абсолютно однаково, і навіть для одного і того ж бренду різні моделі та різні лінії часто мають фільтри АА, які ведуть себе по-різному. Я знаю, що історично 1D і 5D лінії дозволяли ДЕЯКІ частоти трохи вище ніквістських через, проте я думаю, що це питання балансування з роздільною здатністю об'єктива.
jrista

1
На датчиках з меншими пікселями, такими як Canon 18mp APS-C, D800, D3200, пікселі отримують дійсно, дуже мало. Поза межами невеликого сегмента, якщо справді нові лінзи (як, наприклад, покоління марки L II від Canon, а потім лише ті, що випущені протягом останніх двох-трьох років), можуть вирішити достатньо деталей, щоб значно переробити датчик і викликати згладжування на частотах вище нейкіст. Фільтруйте навколо нейкіста, і сам об’єктив буде розмивати деталі поза цим. Я думаю, що це є причиною того, що у лінії 5D був надмірно сильний фільтр AA ... лінзи вирішують її легше.
jrista

11

Фізика просто не працює таким чином. Згладжування незворотно перетворює частоти, що перевищують ліміт Найквіста, і відображається як частоти нижче межі, хоча цих "псевдонімів" насправді немає. Жодна кількість обробки в'язаного сигналу не може відновити вихідний сигнал у загальному випадку. Фантастичні математичні пояснення досить довгі, якщо ви не провели клас з теорії вибірки та цифрової обробки сигналів. Якби у вас це було, ви б не ставили запитання. На жаль, тоді найкраща відповідь - це просто "Це не так, як працює фізика. Вибачте, але вам доведеться довіряти мені з цього приводу". .

Щоб спробувати дати деяке грубе відчуття, що вищезазначене може бути правдою, розглянемо випадок зображення цегляної стіни. Без фільтра AA не залишиться шаблонів муару (які фактично є псевдонімами), завдяки чому лінії цегли виглядають хвилястими. Ви ніколи не бачили справжньої будівлі, лише картину з хвилястими лініями.

Звідки ви знаєте, що справжні цеглини не були закладені у хвилястий візерунок? Ви припускаєте, що вони були не з ваших загальних знань про цеглу та людський досвід бачити цегляні стіни. Однак чи міг би хтось просто подумати навмисне зробити цегляну стіну, щоб вона виглядала в реальному житті (коли дивився на власні очі) як на малюнку? Так, вони могли. Отже, чи можна математично розрізнити заруджене зображення нормальної цегляної стіни та вірну картину навмисно хвилястої цегляної стіни? Ні, це не. Насправді ви не можете сказати, різниця або, за винятком того, що ваш intution про те, що картина , ймовірно , є може дати вам враження , що ви можете. Знову ж таки, строго кажучи, ви не можете сказати, чи є хвилі артефактами муару або справжніми.

Програмне забезпечення не може магічно зняти хвилі, оскільки не знає, що є реальним, а що ні. Математично можна показати, що він не може знати, принаймні, лише дивлячись на хвилясте зображення.

Цегляна стіна може бути очевидним випадком, коли ви можете знати, що відчужена картина неправильна, але є ще багато найтонших випадків, коли ви насправді не знаєте і, можливо, навіть не знаєте, що відбувається згладжування.

Додано у відповідь на коментарі:

Різниця між звуковим сигналом і зображенням полягає лише в тому, що перший - 1D, а другий - 2D. Теорія та будь-яка математика на реалізацію ефектів все одно однакова, лише те, що вона застосовується в 2D при роботі із зображеннями. Якщо зразки знаходяться на звичайній прямокутній сітці, як на цифровій камері, то виникають деякі інші цікаві питання. Наприклад, частота вибірки є sqrt (2) нижчою (приблизно на 1,4x нижче) уздовж діагональних напрямків, як призначено для вирівнювання по осі. Однак теорія вибірки, частота Найквіста і те, що насправді є псевдонімами, не відрізняються в 2D-сигналі, ніж у 1D-сигналі. Основна відмінність полягає в тому, що це може бути складніше для тих, хто не звик думати в частотному просторі, щоб обернути свою думку і спроектувати, що все це означає з точки зору того, що ви бачите на малюнку.

Знову ж таки, ні, ви не можете "демозаїкувати" сигнал після факту, принаймні, не в загальному випадку, коли ви не знаєте, яким повинен бути оригінал. Шаблони Муара, викликані вибіркою суцільного зображення, є псевдонімами. Ця ж математика стосується їх так само, як це стосується і високих частот, що передаються в аудіопотік і звучать, як фонові свисті. Це той самий матеріал, з тією ж теорією, що його пояснює, і те саме рішення з цим.

Це рішення полягає у усуненні частот, що перевищують границю Найквіста перед вибіркою. Звук, який можна виконати за допомогою простого фільтрів низьких частот, можна, можливо, зробити з резистора та конденсатора. Для вибірки зображень вам все ще потрібен фільтр низьких частот, в цьому випадку він займає частину світла, який би вражав лише один піксель, і поширював його на сусідні пікселі. Візуально це виглядає як невелике розмивання зображення ранішевона є вибірковою. Вміст високої частоти виглядає як тонка деталь або гострі краї на малюнку. І навпаки, гострі краї та тонкі деталі містять високі частоти. Саме такі високі частоти перетворюються на псевдоніми у вибірковому зображенні. Деякі псевдоніми - це те, що ми називаємо шаблонами муару, коли оригінал мав деякий регулярний зміст. Деякі псевдоніми надають ефект "сходового кроку" лініям або краям, особливо коли вони майже вертикальні або горизонтальні. Є й інші візуальні ефекти, викликані псевдонімами.

Тільки тому, що незалежна вісь в аудіосигналах - це час, а незалежні осі (дві з них, оскільки сигнал є 2D) зображення - відстань, не збивають математику або якимось чином не відрізняють її між звуковими сигналами та зображеннями. Можливо, тому, що теорія та застосування псевдоніму та антизгладжування були розроблені на 1D-сигналах, що були напруженими на основі часу, термін "часова область" використовується на відміну від "частотної області". На зображенні нечастотне представлення простору технічно є "дистанційною областю", але для простоти в обробці сигналу його часто називають "часовою областю". Не дозволяйте це відволікати вас від того, що насправді є збудженням. І ні, це зовсім не докази того, що теорія не стосується образів, лише те, що помилковий вибір слів іноді використовується для опису речей через історичні причини. Фактично, ярлик "часова область", що застосовується до нечастотної області зображень, є насправдітому що теорія однакова між зображеннями та справжніми сигналами на основі часу. Згладжування згладжування незалежно від того, якою є незалежна вісь (або осі).

Якщо ви не готові заглиблюватися в це на рівні декількох курсів коледжу з теорії вибірки та обробки сигналів, врешті-решт вам просто доведеться довіряти тим, хто має. Деякі з цих матеріалів є неінтуїтивними без значного теоретичного підґрунтя.


Весь мій досвід в вибірці та цифровій обробці сигналів стосувався цифрового звуку. Я розумію, як фільтр низьких частот діє, щоб обмежити звуки вище певної частоти від потрапляння в AD перетворення. Якщо ви займаєтеся вибіркою на частоті 44,100 Гц, ви застосовуєте фільтр, який починає прокручуватися приблизно в 20 кГц, і будь-яка відповідь 22 КГц майже втрачена. Але з цифровими зображеннями це не так просто, адже навіть при фільтрах AA деякий псевдонім проходить. Я читав деінде, що фільтри не намагаються блокувати все вище Nyquist, оскільки це занадто зменшить роздільну здатність.
Майкл C

1
Я б погодився з тим, що проблема фільтра низьких частот у камері не є такою ж, як проблема з фільтром низьких частот у роботі з обробкою звуку. Я думаю, що найкращим способом є те, що звуковий фільтр низьких частот працює безпосередньо з електронним сигналом, де оптичний фільтр низьких частот працює на просторових частотах сигналу зображення, що виробляється лінзою. Електронний сигнал, з яким ви звикли працювати, має інший характер, ніж сигнал зображення.
jrista

1
@Michael: Дивіться доповнення до моєї відповіді.
Олін Латроп

1
"Шаблони Муара, викликані вибіркою безперервного зображення, є псевдонімами." - Олін. Я думаю, що це ключовий момент саме там! Коли ви фактично приймаєте експозицію, ви не записуєте чисту версію вихідного віртуального зображення ... ви записуєте псевдоніми точок даних у межах цього вихідного віртуального зображення. Ці дані на вашому комп’ютері містять псевдоніми. Дуже приємний, стислий і зрозумілий спосіб викласти це. :)
jrista

1
@Michael: Те, що ви говорите про те, як повнокольорові пікселі інтерполюються від неочищених значень датчика, є правильним, але не має ніякого відношення до дискусії про те, що вони називають. Зрештою, реальне безперервне зображення все ще відбирається в дискретних точках, тому для уникнення псевдонімів потрібен антиалізируючий фільтр перед вибіркою. Що стосується вашого коментаря до алгебри, то це абсолютно не має сенсу. Звичайно, алгебра застосовується до поліномів вищого порядку та 2D рівнянь, тільки що вона стає більш складною через наявність більш незалежних змінних.
Олін Латроп

6

Ви не можете отримати однаковий ефект у програмному забезпеченні. Ви можете дістатися десь поруч, враховуючи певні припущення. Але фільтр AA поширює світло так, що він вражає кілька різних кольорових пікселів, надаючи інформацію, яка відсутня у датчика фільтра no-AA.

Nikon D800E взагалі нічого не робить, щоб спробувати повторити фільтр AA. Якщо на зображенні є високочастотні візерунки, ви отримуєте муар, і це ваша проблема - вам доведеться з цим впоратися!

Згладжування стає гірше, коли частота деталізації зображення дуже близька до частоти вибірки. Для старих камер з датчиками низької роздільної здатності (а отже, і з низькою частотою вибірки) муар був серйозною проблемою з великою кількістю типів деталей зображення, тому фільтри АА були сильними (нічого спільного з обмеженою потужністю обробки). Зараз у нас набагато вищі частоти дискретизації, для відображення муара потрібні значно більш високі частотні деталі зображення.

Врешті-решт частота дискретизації буде настільки високою, що необхідні деталі об'єкта високої частоти не зроблять це попереднім відхиленням об'єктива та ефектами дифракції, що зробить фільтр AA зайвим. Частково це є причиною того, що на деяких спинках MF немає фільтра AA, надвисокої роздільної здатності плюс модні фотографи, які люблять знімати на f / 32 з гігантськими блоками живлення Profoto, що підтверджують освітлення.


Мені здається, інтерполяцію, здійснену в процесі демозаспостереження, можна змінити, щоб виконати саме те саме, оскільки усереднення суміжних пікселів - це те, що робиться там. Nikon D800E має два компоненти фільтра AA, як і інші камери, але замість одного поляризуючого світла по горизонталі, а іншого поляризуючого його вертикально, другий знаходиться на 180 градусів від першого і приймає поляризовані промені від першого і поєднує їх назад в один потік. Дивіться photo.stackexchange.com/questions/22720/…
Michael C

2
@MichaelClark Ні, ви не можете досягти такого ж ефекту в процесі демозаспостереження. Одинична точка попадання світла на сенсор D800E створюватиме заряд лише на одному фотосайті. Немає можливості сказати, якого кольору було світло, переглядаючи сусідні пікселі, інформація втрачена назавжди. Та сама точка світла, що потрапить на датчик D800 (з фільтрами AA), буде сильно вражати один піксель, а навколишні пікселі - меншою мірою. Оскільки сусідні пікселі мають різні кольорові фільтри, дивлячись на їх інтенсивність, можна за алгоритмом демонстрації оцінювання кольору світла.
Метт Грум

1
@MichaelClark Єдина причина, що D800E має таке розташування - спростити виробничий процес, набагато простіше змінити орієнтацію одного з фільтрів на вхідному етапі, ніж було б поміняти два фільтри на прозорий елемент скла - зрештою фільтр стек повинен бути такої ж висоти, оскільки він має заломлюючий ефект, і сучасні конструкції лінз враховують це. Просто встановлення жодного фільтра на D800E не призведе до тонкої аберації у зображеннях.
Метт Грум

Але в той же час, коли одна точка світла потрапляє на одне місце датчика, відповідні точки світла потрапляють на всі сусідні ділянки датчика, а фільтр AA викликає, що всі вони проливають світло один на одного. Чи не більшість алгоритмів демонстрації оцінок використовують інтерполяцію для порівняння рівнів освітленості не тільки безпосередніх піксельних свердловин, але й інших колодязів поблизу пікселів з однаковою чутливістю до кольорів? Чи ефективно ви не розмиваєте сусідні пікселі один з одним математично, що ви робите?
Майкл С

1
@MichaelClark псевдонім - це не розмивання. Він впливає на пікселі дуже далеко один від одного. Наприклад, ви отримуватимете бит кожні 50 пікселів, зникаючи / зменшуючи більше 10. Чи реальна ця смужка чи спричинена смужками меншими за пікселі? Ви не можете знати.
JDługosz

2

Це все хороші відповіді та хороша інформація. У мене дуже спрощене пояснення. Перейдемо від 2D до 1D (застосовується те саме поняття).

Коли частота потрапить ваш датчик , який вище , ніж «макс допустимої частоти», це буде на самому ділі створити частоту дзеркала в нижню частину. Після зразка вашого зображення ви побачите цей нижній сигнал, але камера або ваш комп'ютер не знають, чи справді це був нижній сигнал, який справді був там, чи це псевдонім, створений із занадто високого сигналу. Ця інформація втрачається. Ось причина "максимальної дозволеної частоти" або найквістської частоти. Він говорить, що це найвища частота, яку можна вибирати, і над нею інформація втрачається.

аналог аудіо: скажімо, у вас налаштована система там, де потрібно діапазон частот від 0 Гц до 1000 Гц. щоб залишити трохи додаткового приміщення, яке ви пробуєте на 3000 Гц, що робить ваш ніквіст 1500 Гц. ось де входить фільтр aa. Ви не хочете, щоб все, що перевищувало 1500 Гц, насправді ваше відключення розпочнеться відразу після 1000 ГГц, але ви впевнені, що до моменту, коли ви досягнете 1500 Гц, нічого не залишиться.

припустимо, ви забули aa фільтр, і ви дозволяєте тону 2500 Гц входити у ваш датчик. він буде відображатись навколо частоти дискретизації (3000 Гц), тому ваш датчик підбере тон у 500 Гц (3000 Гц - 2500 ГГц). Тепер, коли ваш сигнал відібраний, ви не дізнаєтесь, чи був 500 Гц насправді, чи це псевдонім.

btw. дзеркальні зображення трапляються на всіх частотах, але вони не є проблемою, якщо ви не над nyquist, тому що ви можете їх легко відфільтрувати пізніше. Приклад вхідного тону - 300 Гц. у вас з'являться псевдоніми (3000 - 300 = 2700 Гц [і правильність також 3000 + 300 = 3300 Гц]). однак, оскільки ви знаєте, що розглядаєте лише до 1000 Гц, вони будуть легко вилучені. тому знову проблема виникає, коли дзеркальні зображення потрапляють у той спектр, який ви насправді хочете, тому що ви не зможете сказати різницю, і це те, що вони означають під «запеченим».

сподіваюся, що це допомагає


1
За винятком того, що "псевдонім" у контексті фотографії є ​​"просторовим", що базується на повторюваних шаблонах зображення, що проектується на датчик, а не на конкретних частотах світла, що вражає один піксельний колодязь. Оптичні низькочастотні фільтри на більшості датчиків камери не фільтрують "всі" частоти, що перевищують ліміт Найквіста, вони лише фільтрують "більшість" повторних шаблонів на границі Найквіста та відповідних кратних.
Майкл С

Я вдячний за ваш коментар. Я також не мав на увазі частоти світла, а швидкість зміни інтенсивності від одного пікселя до іншого. Я ігнорував кольори. Я думаю, я дивився на це як на 3 окремі чорно-білі зображення. Пізніше кожен отримує один колір і разом з ними накладаються всі кольори. Мені все ще важко обернути голову навколо частот у зображеннях. Я думаю, що у вас білий білий піксель поруч із чорним пікселем, він представляє високі частоти через швидку зміну, а світло-сірий піксель поруч із темно-сірим пікселем - нижчою частотою.
pgibbons

Це не зовсім так, як спрацьовує датчик Bayer маскування, і це одна з причин, чому я спочатку задав це питання.
Майкл С

Більш високі частоти в цьому контексті є повторюваними шаблонами з меншою відстані на датчику між кожним повторенням. Нижні частоти - це повторювані шаблони з більшою відстані між кожним повторенням. Якщо піксельний крок датчика дорівнює 6 мкм, то шаблони, які повторюються кожні 3 мкм, будуть на частоті Найквіста. Шаблони, які повторюються кожні 4 мкм, будуть нижче NF, а шаблони, що повторюються кожні 2 мкм, були б над ним.
Майкл С
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.