Ich bin verwirrt darüber, warum uns unterschiedliche Darstellungen für positive und negative Nullen wichtig sind.
Ich erinnere mich vage an die Behauptungen, dass eine negative Nullrepräsentation bei der Programmierung mit komplexen Zahlen extrem wichtig ist. Ich hatte noch nie die Möglichkeit, Code mit komplexen Zahlen zu schreiben. Deshalb bin ich ein wenig ratlos darüber, warum dies der Fall ist.
Der Wikipedia-Artikel zum Konzept ist nicht besonders hilfreich. es macht nur vage Behauptungen über eine vorzeichenbehaftete Null, was bestimmte mathematische Operationen im Gleitkomma einfacher macht, wenn ich es richtig verstehe. In dieser Antwort werden einige Funktionen aufgelistet, die sich unterschiedlich verhalten. Wenn Sie mit deren Verwendung vertraut sind, können Sie möglicherweise auf die Beispiele zurückgreifen. (Obwohl das spezielle Beispiel der komplexen Quadratwurzeln geradezu falsch aussieht, da die beiden Zahlen mathematisch äquivalent sind, es sei denn, ich habe ein Missverständnis.) Aber ich konnte keine klare Aussage darüber finden, in welche Schwierigkeiten Sie geraten würden, wenn sie nicht da wären. Je mehr mathematische Ressourcen ich finden konnte, umso mehr konnte ich feststellen, dass es aus mathematischer Sicht keine Unterscheidung zwischen beiden gibt, und der Wikipedia-Artikel legt den Schluss nahe, dass dies außerhalb des Rechnens, abgesehen von der Beschreibung von Grenzen, nur selten vorkommt.
Warum ist eine negative Null beim Rechnen wertvoll? Ich bin sicher, ich vermisse nur etwas.
sqrt(-1+0i) = i
und sqrt(-1-0i) = -i
, obwohl es für einige Programmiersprachen die richtige Syntax hat, glaube ich. Ich werde bearbeiten, um es klarer zu machen.