Чи застосовується коефіцієнт обрізання камери для збільшення макрознімок?


13

Якщо у мене є лінзи (або в моєму випадку подовжувачі), які дозволяли б збільшувати об'єктив 1: 1, чи тіло фактора посіву 1,5х робить це дійсно 1,5: 1?

Відповіді:


11

Я просто виберу це на фактичну відповідь, і відповідь "НІ", коефіцієнт врожаю не складає співвідношення 1,5: 1. Що зміниться - це співвідношення інформації на піксель, яке було б новим дійсним позначенням.

Чому? Так як співвідношення 1: 1 є позначення , наскільки великий об'єктив робить предмети на фокальній площині , що все , що площина є, то це оптичне позначення. Площа об'єкта розміром 2 см відображатиметься у вигляді 2 см у квадраті або на датчику FF, або на 1,5х датчику обрізання. Якщо запропонувати інакше, будь-який сенс відходить від позначення, оскільки кожен орган, на який ви його наділили, фактично надав би йому іншого значення. Співвідношення 1: 1 все ще є співвідношенням 1: 1 на 10D при 6MP або 5DmkII при 22MP або на 1,5x тіло врожаю при 18MP.

Це було б так, як говорити з плівкою, якби інша плівкова емульсія мала кращу здатність до розсмоктування, вона змінила б потужність збільшення об'єктива, або це зробило друк на більшому друку.


"Тема площею 2 см відображатиметься як квадрат 2 см на датчику FF або датчику обрізання 1,5x." Я думаю, що це має бути сформульовано як "2-сантиметровий квадратний предмет буде виведено як квадрат 2см у колі проектованого зображення". Проекція призначена для кола зображення, а не для конкретного датчика, і різний розмір датчика буде захоплювати різну кількість цього кола зображення. Через обрізання APS-C цілком можливо, що ви фактично не "записуватимете зображення" повного об'єкта, як це було б з датчиком FF. Ось чому я додав у своїй відповіді випадок «свого роду».
jrista

1
Я не погоджуюся, властивості "сенсора / плівки" не мають значення, і там, де об'єкт 2 см падає на датчик, крім точки. Згадка про те, що об'єкт розміром 2 см може бути частково на сенсорі / плівці, є точкою, тому припускаючи, що тема, про яку ми говоримо, повністю на сенсорі / плівці робить відповідь більш зрозумілою. Погода або не все або частина предмета робить його на сенсор / плівку, не впливає на співвідношення, яке було записано на, і тому не має значення.
Шизам

Я думаю, що ти пропустив мою думку. Збільшити 1: 1 можна лише на мінімальній відстані фокусування . Це означає, що ви проектуєте певне коло зображення об'єкта, і немає альтернативних варіантів кадрування для розміщення різних розмірів датчика. Якщо ви проектуєте об'єкт розміром 2 см на 2 см на коло зображення, датчик FF в кінцевому підсумку фіксує менше деталей повного об'єкта, де APS-C фіксує більше деталей частини об'єкта. Якщо ви перекройте FF, щоб він відповідав APS-C, ви більше не проектуєте коло зображення 1: 1, оскільки ви перебуваєте за межами MFD об'єктива.
jrista

1
Так, в той час, як ми вчора ми обговорювали це в чаті, з'ясувалося, що ти постійно підтримуєш FoV, а я не був, що призвело до певної плутанини. Але знову ж таки, оскільки я інтерпретую питання з чисто оптичної точки зору ("дозволити об'єктиву збільшувати 1: 1"), FoV не має значення, як і щільність пікселів датчика. Тож я думаю, що ми обидва праві в межах власної інтерпретації питання.
Шизам

9

Я думаю, що відповідь - так і ні. Технічно кажучи, коло зображення, спроектоване об'єктивом, дорівнює 1: 1, і ваш датчик фіксує меншу частину центру цього кола ... обрізаючи його. Це відповідає формулі збільшення:

M = (d i - f) / f

Де d i - відстань від лінзи до датчика, а f - фокусна відстань. Коефіцієнт посіву або розмір датчика не враховуються при розрахунку збільшення об'єктива. З цієї точки зору, чисто оптична перспектива ... відповідь - ні.

Тепер, коли ви розподіляєте мегапікселі та нативний розмір друку на речі, відповідь, ймовірно, "начебто". Якщо у вас сенсор APS-C і FF з однаковою кількістю мегапікселів, остаточне немасштабне "збільшення" зображення в друкованому вигляді виявиться більшим для APS-C з двох причин. По-перше, він запаковує більше мегапікселів у менший простір, по-друге, більша кількість мегапікселів являє собою меншу частину зображення (вузьке поле зору), що збільшує видиме збільшення. Ви можете зробити більш масштабний друк меншої частини предмета за допомогою APS-C, ніж ви могли б з FF.


1
Я вважав, що позначення 1: 1 - це ментація як специфікація. лише для зображення об'єкта на плівці / датчику і не має значення щодо розміру дисплея. Таким чином, відповідь на це питання буде "НІ", об'єкт площею 2 см буде спроектований на будь-який датчик з максимальною площею 2 см. ні?
Шизам

1
@Shizam - Ти маєш рацію, але в такому сенсі і Джон. Коефіцієнт обрізання не так важливий, як роздільна здатність самого датчика. Датчик FF з тією ж щільністю пікселів не надасть менше інформації, ніж APS-C в одиниці площі, але той, який має меншу щільність, буде. Сказавши це, існують інші фактори, такі як межі дифракції, глибина різкості тощо. Отже, він не ріжеться і не сушиться, і ви не можете просто застосувати до нього множник 1,5 за відсутності цієї інформації.
Джон Каван

@Shizam: @John Cavan добре повторив мою думку. Я справді просто намагався сказати, що це не так просто, як просте "НІ", і в той же час це не "ТАК". Це щось середнє, і це залежить від того, як ви дивитесь на предмет. Якщо ви дивитесь на це з чисто оптичної точки зору ... то так, ви маєте рацію. Площа 2 см проектується розміром 2 см на площині зображення, незалежно від того, наскільки велике середовище зображення. Однак ... це дивиться на це з оптичної точки зору ....;)
jrista

3
Це може бути корисно розглядати це як випадок цифрового збільшення. Будь-який датчик відбирає вибірку зображення. Коефіцієнт обрізання стосується того, яка частина зображення відібрана. Розміри пікселів говорять нам про дозвіл вибірки. Більш чітка роздільна здатність рівнозначна збільшенню - до точки. Ця точка визначається якістю оптики та f / стоп.
whuber

1
@yeap: Припустимо "рідний" розмір друку або перегляд зображення на екрані або в друкованому форматі у вихідному розмірі пікселя. Я думаю, що також можна безпечно припустити будь-який з двох стандартних екранів DPI, 72 або 96. Без будь-яких змін зображення має значення лише статистика датчиків. Щодо актуальності ... Я не згоден з вашим твердженням. Ми не робимо знімки для їх перегляду на камеру, а також не робимо знімки з «наскільки великими є сенсор». Ми робимо фотографії, щоб переглянути їх ... на екрані чи в друку. Тому я думаю, що остаточний розмір і вміст цього зображення НЕ мають значення, коли говорити про збільшення.
jrista

3

Гаразд, після розмови з Шизамом у чаті, я думаю, що я збираюся заступитись із цим питанням.

Дійсно, це питання семантики. Найчастіше вживане визначення 1: 1 означає, що розмір об'єкта - це розмір зображення на датчику. При меншому датчику об'єкт, таким чином, буде меншим. Але це все-таки 1: 1 дійсно за визначенням, яке я застосував. Це виглядатиме так, як зображення 1: 1.6, якби повністю створена камера була зроблена на одне і те ж зображення. Якби розмір пікселів на повній камері кадрів був однаковим, то зображення виглядало б абсолютно однаково. Якщо пікселі були більшими на повному кадрі (найімовірніше), то роздільна здатність зображення буде трохи вище на датчику обрізання, але все одно виглядатиме так само, як якщо б воно було обрізане. Дійсно, що відбувається, коли ви використовуєте датчик обрізання, - це те, що ви викидаєте зовнішні краї камери з повним обрамленням, але окрім цього, все інше залишається тим самим.

Мінімальна фокусна відстань залишатиметься точно такою ж, як на зрізаному датчику, BTW.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.