Хто вирішує, які пікселі отримують скільки виграшу? Багато з того, що відбувається в зоровій системі людини, відбувається в корі, а не в оці, і залежить від того, що, на нашу думку, важливо бачити на основі поєднання інтелектуального рішення та (дещо переборливого) інстинктивного потягу до самозбереження . Хоча в одному сенсі правда, що ми бачимо, що там є, однаково правда в іншому сенсі, що ми бачимо те, що хочемо (або потрібно) бачити.
Це було б майжетривіально для створення порівняно низького датчика щільності пікселів з великими фотосайтами, що дозволяють отримати величезний динамічний діапазон, і (якщо припустити, що це технологія типу CCD, оскільки поточна технологія CMOS-датчиків не може працювати таким чином) електронний затвор на піксель на додаток до механічний затвор. То що б це у вас вийшло? Плоске зображення з великою глибиною бітів та дуже низьким локальним контрастом (якщо вся бітова глибина перетворена як-то для відображення чи друку) разом із низкою пікселів, які майже, але не зовсім, відсікаються сенсорною насиченістю ( хоча насправді вони обрізані обмежувальною дією електронного затвора безпосередньо перед точкою насичення). Скажімо, заради аргументу, що цей датчик та пов'язаний з ним комп'ютер могли записувати дані відсікання (причина, чому він припинив запис на цей сенсор, що може бути таким же простим, як запис фактичної тривалості експозиції на цьому місці). Це дозволило б електроніці камери реконструювати, якими були б цифри, якби фотосайт міг залишитися в грі до остаточного свистка. Тож тепер у нас є ще більш плоске зображення з більшою глибиною бітів. А де ви проводите лінію? 32 біта? 64?
Тепер наступає важка частина - перетворюючи ці плоскі дані з високим динамічним діапазоном у переконливу фотографію. Найпростіший підхід полягає в тому, щоб взяти вісім біт (або якою би була глибина вихідного біта), які представляють основне дозоване зображення, і викинути решту. Мабуть, буде не набагато складніше пристосувати дані до S-кривої, стискаючи крайні тіні та / або підсвічуючи - що є більш-менш тим, що вже роблять розширені параметри динамічного діапазону на новіших камерах. Але є лише стільки вихідних бітів на піксель, і більшість значень розширеного підсвічування збираються до білого (або принаймні суміші 254 і 255). Таким чином, ви дуже мало заробили, різко ускладнивши систему.
Але є ще один варіант відкритого - вибіркове картографування областей. Чому б не принести, скажімо, небо або просто хмари на тому небі, щоб вони зберегли деталі, зберігаючи бажаний контраст на передньому плані? Ось тут живе важка проблема. Що важливо? Камера повинна вирішити для вас? Якщо камера вирішить, ми маємо великий прогрес у машинному зорі та штучному інтелект, щоб обійтись першими. Якщо ні, то чи справді ви хочете прийняти цей рівень прийняття після зйомки для кожної фотографії, яку ви знімаєте? Так, я знаю, що буде кілька фототехнологій, які дійсно хочуть бути рукою, але чи можемо ми визнати, що це патологічний стан, і що професіонали, зацікавлені в часі повороту та переважній більшості споживачів Вам це не подобається?
Тож вам потрібен новий датчик, набагато складніша електроніка навколо датчика, величезний файл зображень для прогнозованих необроблених даних (що вимагає великих карт і більше часу запису / повільнішої частоти кадрів) - все для збору даних, які будуть викинуті найбільше того часу, щоб ви могли час від часу знімати одноразові HDR-зображення, які потребують великого втручання людини в пост (або величезний стрибок у MV / AI). Можливо, ви могли б продати декілька з них, але я б очікував, що ринок буде виглядати набагато більше, як ринок середнього формату, ніж існуючий ринок 35 мм / APS-C. Тобто, ви продасте вибраній групі фотографів з високими підборами, яким або потрібні можливості з професійних причин, або для виконання образотворчого мистецтва, та небагатьом, хто отримує достатньо великий удар від післяобробки, щоб заплатити податок на технологію.