Der Computer-Wissenschaftler Dr. James Anderson hat ein 1200 Jahre altes Problem gelöst: Die Division durch Null oder anders ausgedrückt: Das Problem mit dem Nichts. Daran hatten sich schon Newton und Pythagoras die Zähne ausgebissen.
Anderson führt dazu eine neue Zahl ein: Nullity. Sie liegt außerhalb der natürlichen Zahlen, die von minus Unendlich über Null nach plus Unendlich reichen.
Der Bericht enthält ein Video, in dem der Wissenschaftler die Lösung an die Tafel schreibt. Die Kommentare unter dem Artikel zweifeln aber an dem Sinn, scheinbar hat kaum jemand verstanden, wie das funktioniert.
Quelle: BBC
Programmieren - alles kontrollieren 4.936 Themen, 20.625 Beiträge
Sie liegt außerhalb der natürlichen Zahlen, die von minus Unendlich über Null nach plus Unendlich reichen.
Nein, bei den natürlichen Zahlen handelt es sich um die Menge der positiven ganzen Zahlen, je nach Definition incl. oder excl. 0. Unendlich ist da nicht mit drin, auch nicht bei den rellen Zahlen...
Ansonsten bin ich da auch erstmal sehr skeptisch: Schon Unendlich ist zum Rechnen nicht mehr zu gebrauchen, "Nullity" scheint mir auf den Ersten Blick was in der Richtung Unendlich + (-Unendlich) zu sein :-\
Was die Gefährliche Division durch Null in Programmen angeht: Sowas sollte eigentlich nicht passieren und wenn doch sollte man diesen Fall zumindest abfangen...
Borlander
Nein, bei den natürlichen Zahlen handelt es sich um die Menge der positiven ganzen Zahlen, je nach Definition incl. oder excl. 0. Unendlich ist da nicht mit drin, auch nicht bei den rellen Zahlen...
Ansonsten bin ich da auch erstmal sehr skeptisch: Schon Unendlich ist zum Rechnen nicht mehr zu gebrauchen, "Nullity" scheint mir auf den Ersten Blick was in der Richtung Unendlich + (-Unendlich) zu sein :-\
Was die Gefährliche Division durch Null in Programmen angeht: Sowas sollte eigentlich nicht passieren und wenn doch sollte man diesen Fall zumindest abfangen...
Borlander