Мене бентежить питання, чому ми дбаємо про різні уявлення про позитивний та негативний нуль.
Я туманно згадую читання тверджень про те, що наявність негативного нульового представлення є надзвичайно важливим у програмуванні, яке включає складні числа. У мене ніколи не було можливості писати код із складними числами, тому я трохи не здивований, чому це так.
Стаття Вікіпедії про цю концепцію не особливо корисна; це лише робить неясні твердження про підписаний нуль, роблячи певні математичні операції простішими у плаваючій точці, якщо я правильно розумію. У цій відповіді перераховано пару функцій, які поводяться по-різному, і, можливо, щось можна зробити з прикладів, якщо ви знайомі з тим, як вони можуть бути використані. (Хоча конкретний приклад складних квадратних коренів виглядає невірно, оскільки два числа математично рівноцінні, якщо я не маю непорозуміння.) Але я не зміг знайти чіткого твердження про те, з якою проблемою ви могли б потрапити, якби її не було. Більше математичних ресурсів мені вдалося відзначити, що між математикою немає різниці між ними, а стаття у Вікіпедії, здається, дозволяє припустити, що це рідко можна побачити поза обчисленням, окрім опису меж.
То чому в обчислювальних цінах є цінним мінус нулем? Я впевнений, що мені просто щось не вистачає.
sqrt(-1+0i) = i
і sqrt(-1-0i) = -i
, хоча я одягнений з належним синтаксисом для деяких мов програмування, я вважаю. Я редагую, щоб бути більш зрозумілим.