Stellen Sie sich vor, die alten Römer wären bereits vor den Amerikanern im ersten bemannten Raumschiff zum Mond geflogen. Der Countdown wäre, verglichen mit der realen Aktion, um eine Stelle betrogen.
Und sähe auch wesentlich uneleganter aus: X, IX, VIII,VII,VI,V,IV,III, II, I ... Und: Es gäbe nach unserem heutigen Empfinden gar kein ordentliches Startsignal, weil es unter den römischen Ziffern keine "Null" gibt.
Die Null, wie wir sie heute kennen und nutzen, existiert erst seit dem 5. Jahrhundert. Sie wurde erstmals in Indien verwendet. Wie auch die Zahlzeichen unseres heutigen Dezimalsystems: 1,2,3,4,5,6,7,8,9 (die gab es allerdings schon lange vor der Null in Indien).
In Europa stand man dem "Nichts als Zahl" skeptisch gegenüber
Das Revolutionäre an den indischen Zahlzeichen inklusive Null war: mit ihnen konnte man auch große Zahlen schnell und übersichtlich schreiben. Auch das Rechnen war so wesentlich einfacher als mit den römischen Zahlzeichen.
Der Kniff dabei: das Stellenwertsystem. An der Stellung einer Zahl kann man exakt ihren Wert erkennen. Verwechslungsgefahr ausgeschlossen. 107 (ein mal hundert, null mal zehn und sieben mal eins) ist eindeutig als "höherwertig" zu erkennen als 17 (ein mal zehn und sieben mal eins).
Im 11. Jahrhundert kam die Null über den vorderen Orient nach Europa (daher die Bezeichnung "arabische Ziffern"). Allerdings stand man dort dem "Nichts als Zahl" erst einmal skeptisch gegenüber. Zu ungewohnt war der Umgang damit. Man wollte die Null sogar verbieten.
Leonardo Fibonacci führte die Null in Italien ein
Erst dem italienischen Mathematiker Leonardo von Pisa (auch Fibonacci genannt), gelang es, die indisch-arabischen Zahlen mitsamt der Null in Mitteleuropa einzuführen.
Allerdings sollte es noch bis zum Ende des Mittelalters dauern, bis die Null dann auch als völlig gleichberechtigte Zahl anerkannt wurde.
(Erstveröffentlichung 2006, letzte Aktualisierung 13.01.2020)
Quelle: SWR