Чи зйомка з меншою роздільною здатністю RAW за допомогою камери датчика обрізання імітує якості повнокадрових камер?


12

Я не кажу про зміни фокусної відстані.

Я читав багато публікацій, в яких говориться, що в повнокадровій камері щільність пікселів нижча порівняно з камерою датчика обрізання, і тому вона захоплює більше світла і, таким чином, має кращі показники ISO та більший динамічний діапазон. Тож якщо я зміню камеру датчика обрізання для зйомки з меншою роздільною здатністю, чи буде це прирівнюватись до кращої щільності пікселів і імітувати продуктивність повного кадру (або середнього формату), чи завжди він буде знімати з максимальною роздільною здатністю та зменшенням розміру?

--EDIT: 1--
У мене Canon 60D і у мене є 3 варіанти розміру зображень RAW (RAW, M-RAW amd S-RAW). Якщо RAW - це просто звалище від датчиків камери, то як вони можуть бути 3 різних розмірів? Чи також камера зменшує розмір RAW-зображень?


2
Вівек - прочитайте це питання: photo.stackexchange.com/q/3419/1024 . Згідно @whuber (і статтю, на яку він посилається), менші RAW - це справді якась агрегація індивідуальних сенсел, як те, що Стен описує у своїй відповіді, тільки це робиться м'яким, а не апаратним.
ysap

(Сторінка ysap посилається на частину запитання / запитання.)
Прочитайте мій профіль

Я дам документ від ysap прочитати і прокоментувати його.
Viv

Відповіді:


7

Зважаючи на те, що у вас є Canon, нижчі режими RAW, mRAW та sRAW, НЕ ВИМОГАТИ ВИКОРИСТОВУВАТИ ВСІ з доступних пікселів сенсорів, щоб отримати більш багатий результат без необхідності інтерполяції байєра. Фактичний формат виводу, хоча він все ще міститься у файлі зображень Canon RAW .cr2, кодується у форматі Y'CbCr, подібно до багатьох форматів розкриття відео. Він зберігає інформацію про освітленість для кожного ПОВНОГО пікселя (2х2 квадратики 1 червоного, 1 синього та 2 зелених пікселів), а кожен канал кольоровості отримується з даних половини пікселів (1х2 пара 1 червоний + 1 зелений або 1 синій + 1 зелений) .

Я не точно впевнений у тому, які конкретні апаратні відмінності в читанні та кодуванні між mRAW та sRAW є, однак, загалом кажучи, чим менший вихідний формат, тим більше вхідна інформація пікселя для введення пікселів, яку ви можете використовувати для кожного вихідного пікселя. Невелика кількість інтерполяції, присутня в m / sRAW, є суперечливою, оскільки обидва формати інтерполюють набагато менше, ніж у вихідних RAW. Слід також зазначити, що ні mRAW, ні sRAW не є власне форматами "RAW" у нормальному сенсі ... Дані сенсора обробляються та перетворюються на щось інше до того, як вони будуть збережені у файл .cr2.

Щоб отримати докладніші відомості про формати YUV та Canon sRAW, дивіться мою відповідь тут: Чому кольоровий простір xvYCC не сприймає фотографії?

З розділу "Розуміння того, що зберігається у файлі Canon RAW .CR2":

Формат sRaw (для "малого RAW") був представлений з 1D Mark III в 2007 році. Це менша версія зображення RAW.

Для 1D Mark III, тоді для 1Ds Mark III і 40D (всі з Digic III) розмір sRaw рівно 1/4 (одна четверта) від розміру RAW. Таким чином, ми можемо припустити, що кожна група з 4 «пікселів сенсорів» підсумована до 1 «пікселів» для sRaw.

З 50D та 5D Mark II (з мікросхемою Digic IV), RAW 1/4 розміру все ще є (sRaw2), а також RAW розміру половини: sRaw1. У 7D напіврозмір сировини називається mraw (те саме кодування, що і sraw1), 1 / четвертий сирий називається sraw (подібно sraw2).

Jpeg без втрат sRaw завжди кодується 3 компонентами кольорів (nb_comp) та 15 бітами.

Jpeg-код Dcraw був вперше модифікований (8.79) для обробки sRaw через значення h = 2 першого компонента (сірий фон у таблиці). Нормальні RAW завжди h = 1. Починаючи з 50D, маємо v = 2 замість v = 1 (помаранчевий в таблиці). Dcraw 8.89 є першою версією, яка впорається з цим та sraw1 з 50d та 5D Mark II.

"h" - коефіцієнт горизонтальної вибірки, а "v" - коефіцієнт вертикального відбору. Він визначає, скільки горизонтальних / вертикальних одиниць даних закодовано в кожному MCU (мінімально кодована одиниця). Див. T-81, стор. 36.

3.2.1 формат sRaw та sRaw2

h = 2 означає, що декомпресовані дані будуть містити 2 значення для першого компонента, 1 для стовпця n та 1 для стовпця n + 1. З двома іншими компонентами, декомпресованим sraw і sraw2 (які мають h = 2 & v = 1), завжди є 4 елементарні значення

[y1 y2 xz] [y1 y2 xz] [y1 y2 xz] ...
(y1 і y2 для першого компонента)

Кожен "піксель" у зображеннях sRAW та mRAW містить чотири компоненти ... розділений Y 'компонент (y1 та y2), а також x (Chrominance Blue) та z (Chrominance Red). Усі чотири компоненти (з точки зору 1/2 зображення, sRAW1 / mRAW) мають висоту стовпця 2 (год) та ширину 1 (v). Це вказує на те, що значення Luminance (Y ') складається з FULL 2x2 піксельних квадратиків ... або двох колонок 2x1 пікселів, збережених у y1 та y2.

Згадані нижче посилання, схоже, не конкретно заявляють про це, тому я трохи спекулюю тут, однак із sRAW2 (1/4 сировини) я вважаю, що інформація про освітлення отримана з блоку 4x4 пікселів, де h = 4 та v = 2. Кодування кольоровості було б складніше при зображенні розміру 1/4, оскільки масив фільтру кольорів байєра на датчику не розташований у акуратних червоних та синіх стовпцях. Я не впевнений, чи обробляються чергування стовпців висотою 2х1 для кожного компонента Cr і Cb, або чи виконується якась інша форма інтерполяції. Одне певне: інтерполяція вихідних даних завжди більша, ніж вихідні дані, і, наскільки я можу, не відбувається перекриття (як у звичайній інтерполяції байєрів).

Нарешті, sRAW1 / mRAW та sRAW / sRAW2 стискаються за допомогою алгоритму стиснення без втрат. Це критична відмінність між цими форматами та JPEG, яка також використовує кодування типу ycc. JPEG виконує стиснення втрат, що робить неможливим відновлення пікселів до їх точного оригінального зображення. Формати s / mRAW від Canon дійсно можуть бути відновлені до початкових 15-бітних даних із повною точністю.

Список літератури:


8

Теоретично це може, якби камера використовувала правильну стратегію зменшення розміру зображення.

Як ви зазначали, для поточних камер з датчиком обрізання зображення неочищеного зображення залишається однаковим, незалежно від розміру JPEG, який ви встановили. Зображення JPEG просто масштабується. Це може дещо зменшити появу шуму, але зменшення зумовлене алгоритмом масштабування зображення (ви не можете вмістити стільки чітко пікселів у меншу картину, скільки можна у повнорозмірну версію). Однак більш імовірно, що ви зможете зробити принаймні так само добре, якщо не краще, якщо ви зробите зменшення шуму і масштабування себе після факту.

Існує стратегія, яка дозволить створити справжнє зниження шуму. Деякі спинки середнього формату високої роздільної здатності (як і Phase One SensorPlus) використовують стратегію під назвою піксельної бінінгу , де групи суміжних датців розглядаються як один значно більший сенсор, і їх накопичувальний заряд зчитується з датчика. Це відрізняється від читання індивідуальних зарядів і усереднення (це те, до чого ви обмежені в обробці після читання) - це відбувається на апаратному рівні і змінює те, що означає "сировина". Шум читання має більше шансів відмовитися, а накопичений заряд робить аналого-цифрове перетворення менш неоднозначним (діапазон перетворених квантів ширший із меншим посиленням).

На практиці це зазвичай означає скорочення роздільної здатності в чотири рази (половина ширини і половина висоти). З 60 або 80 Мп середнього формату, що все ще залишає вас з 15 або 20 Мп зображення; за допомогою 16-мегапіксельної камери з датчиком обрізання, ви б перейшли до 4-мегапіксельного зображення. Тепер ви можете знати, і я, можливо, знаю, що чистий 4 Мп зображення краще, ніж галасливий 16 Мп зображення, але далеко не кожен буде купувати думку про те, що витратити додаткові кошти потрібно менше. Це означає, що навряд чи ви побачите скорочення пікселів, які використовуються в камері, що не є програмою рівня рівня. Це може з’явитися у повнокадрових камерах, якщо їх роздільна здатність постійно зростає, але я б не шукав цього в датчику обрізання. (Добре, можливо, Pentax може зайняти удар котрийсь день, оскільки вони не роблять повний кадр.)


Вибачте, я думаю, що я повинен уточнити розміри зображень RAW. У мене Canon 60D і у мене є 3 варіанти розміру зображень RAW (RAW, M-RAW amd S-RAW). Якщо RAW - це просто звалище від датчиків камери, то як вони можуть бути 3 різних розмірів? Чи також камера зменшує розмір RAW-зображень?
Viv

@Stan: Canon вже робить саме те, що ви описали у своїх форматах mRAW та sRAW. Вони не є літературними форматами RAW, вони є похідними YUV (Y'CrCb, якщо бути точним), і вони дійсно є формами піксельного бінінгу. Дивіться мою відповідь для отримання більш детальної інформації.
jrista

Повторне майбутнє: справжнє обмеження - область датчика. Якщо розмір датчика залишиться однаковим, а роздільна здатність збільшиться (зменшивши пікселі), чистий приріст від бінінгу пікселів не буде. Це просто питання використання більше сенсорів, щоб прочитати ту саму фізичну область датчика. На що ми можемо сподіватися - це покращена чутливість окремих датців, так що більше світла та менше шуму реєструється в будь-якій заданій невеликій частині датчика.
бер

1
@jrista: це не бінь, це усереднення після читання. Бінінг повинен призвести до цілісного зменшення лінійної роздільної здатності, а окремі дані фотосайту недоступні для обробки, оскільки сукупні зчитування (не окремі, а потім усереднені, зчитувані) виконуються на декількох сенсорах. (У системі Bayer-quad це означає 1/4, 1/16, 1/64 тощо) повної роздільної здатності, вираженої як площа або пікселі. це просто робота в іншому просторі даних.

1

Якщо високий рівень шуму є вашою основною проблемою, одне рішення - знімати кілька кадрів і мати програмне забезпечення з хорошими алгоритмами, поєднувати одне хороше зображення з кількох гірших. Наприклад ALE, Anti-Lamenessing Engine робить це. Для рухомих предметів це, очевидно, не працює, але ви можете знімати, скажімо, за ISO 1600, а потім комбінувати знімки, щоб досягти рівня шуму, близького до ISO 400 або 800.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.