Я беру курс на проектування комп'ютерної системи, і мій професор сказав нам, що в цифрових системах звичайні напруги, що використовуються для позначення цифрового 0 і цифрового 1, змінювалися протягом багатьох років.
Мабуть, ще в 80-х роках 5 V використовували як "високий", а 1 V використовували для позначення "низького". Нині "високий" - 0,75 В, а "низький" - близько 0,23 В. Він додав, що найближчим часом ми можемо перейти до системи, де 0,4 В позначає високу, а 0,05 В - низьку.
Він стверджував, що цих значень стає все менше, щоб ми могли знизити енергоспоживання. Якщо це так, то чому ми намагаємося взагалі встановити "низький" на будь-яку позитивну напругу? Чому б ми просто не встановили його на справжнє напруга 0 В (нейтральне від ліній електропередач, я думаю)?