In this brilliant follow-up to his landmark international bestseller, The Universal History of Numbers, Georges Ifrah traces the development of computing from the invention of the abacus to the creation of the binary system three centuries ago to the incredible conceptual, scientific, and technical achievements that made the first modern computers possible. Ifrah takes us along as he visits mathematicians, visionaries, philosophers, and scholars from every corner of the world and every period of history. We learn about the births of the pocket calculator, the adding machine, the cash register, and even automata. We find out how the origins of the computer can be found in the European Renaissance, along with how World War II influenced the development of analytical calculation. And we explore such hot topics as numerical codes and the recent discovery of new kinds of number systems, such as "surreal" numbers.
Adventurous and enthralling, The Universal History of Computing is an astonishing achievement that not only unravels the epic tale of computing, but also tells the compelling story of human intelligence-and how much further we still have to go.
The original in French might be good, but the English translation seems like they simply published the translator's first draft. References point to a different organization of the material entirely; translator's notes appear in the middle of the text and duplicate what the author himself wrote; and (from my point of view, very importantly), the title includes "to the quantum computer", but there is NOTHING AT ALL about quantum computing in the book!
Das Werk „Histoire universelle des chiffres“ von Georges Ifrah (1947 - 2019) beleuchtet die faszinierende Entwicklung von Zahlensystemen, die von rudimentären prähistorischen Zählmethoden bis hin zur hochentwickelten digitalen Logik moderner Computer reicht. Ifrah zeigt dabei, dass die Geschichte der Zahlen nicht nur eine Abfolge technischer Fortschritte, sondern ein Spiegel der gesamten Menschheitsentwicklung ist. Der evolutionäre Pfad der Mathematik ist durch mehrere bahnbrechende Erfindungen gekennzeichnet, darunter die Nutzung der menschlichen Anatomie für Zahlbasen, die Einführung von Stellenwertsystemen durch antike Zivilisationen und schließlich die revolutionäre Entdeckung der Null in Indien. Ohne diese schrittweisen, oft kulturell weit verstreuten Fortschritte wäre die moderne arithmetische Effizienz – und damit die Grundlage für Algebra, Wissenschaft und Computertechnologie – undenkbar.
Die Evolution der Zahlensysteme
Die Reise begann mit einfachen prähistorischen Praktiken, bei denen die frühen Menschen Kerben in Knochen oder Holz, Kieselsteine oder Knoten als Zählhilfen verwendeten. In diesen archaischen Spuren, wie dem berühmten Ishango-Knochen, erkennt Ifrah die ersten Zeichen eines abstrakten Denkens. Während die Sumerer und Babylonier das bahnbrechende Sexagesimalsystem (Basis 60) etablierten, das auf dem Stellenwertprinzip beruhte, nutzten andere Kulturen wie die Ägypter und Römer weiterhin additive, nicht-positionelle Systeme, die sich kaum für komplizierte Rechnungen eigneten. Der wichtigste Schritt in der Antike war die Erfindung des Stellenwertsystems (Basis 60) durch die Sumerer (um 3200 v. Chr.), auch wenn es zunächst unter dem Mangel eines echten Nullzeichens litt.
Die Erfindung des Ziffernsystems
Das moderne Ziffernsystem, das als Hindu-Arabisches Dezimalsystem bekannt ist, kann nicht einer einzelnen Kultur zugeschrieben werden, sondern ist das Ergebnis der Kombination verschiedener Entwicklungen. Während die Babylonier zwar einen Platzhalter (ein Doppelkeil-Symbol) für leere Stellen kannten, waren es die indischen Gelehrten (etwa im 5. Jahrhundert n. Chr.), die das Dezimal-Stellenwertsystem mit einem eigenständigen numerischen Zeichen für die Null (śūnya) erfanden. Unabhängig davon entwickelten auch die Mayas ein Vigesimal-Stellenwertsystem (Basis 20), das ebenfalls ein eigenes Nullzeichen (dargestellt durch eine leere Muschel oder einen Samen) enthielt. Diese Gleichzeitigkeit von Ideen über Kontinente hinweg unterstreicht Ifrahs zentrale These: dass mathematische Innovationen universelle Ausdrucksformen menschlicher Kreativität sind.
Die Überlegenheit indischer Zahlen
Die universelle Überlegenheit der indischen Ziffern resultiert aus ihrer einzigartigen Kombination von zwei Schlüsselelementen: dem Dezimalsystem (Basis 10) und dem konzeptuellen Stellenwertprinzip mit der Null. Diese Fusion eliminierte die Mehrdeutigkeit früherer Systeme und ermöglichte eine unvergleichliche Vereinfachung arithmetischer Operationen. Ifrah betont, dass diese indische Errungenschaft den größten einzelnen mathematischen Fortschritt in der Geschichte darstellte und die Grundlage für die moderne Algebra und höhere Mathematik legte. Ifrah würdigt diesen Moment als den wahren Beginn der „universellen Sprache der Zahlen“, in der sich Rationalität, Abstraktion und kulturelle Tiefe vereinen.
Der Ursprung in der Anatomie
Ein Großteil der frühen Zahlbasen entstand direkt aus der menschlichen Anatomie, nämlich den Extremitäten. Das am weitesten verbreitete Dezimalsystem (Basis 10) basiert auf den zehn Fingern der Hände. Das Vigesimalsystem (Basis 20) entstand, indem sowohl die Finger als auch die zehn Zehen in den Zählprozess einbezogen wurden. Auch andere Basen (2, 3, 4, 5, 60) wurden in historischen Zählmethoden verwendet. Ifrah interpretiert diese scheinbar banale Tatsache poetisch als „mathematische Anthropologie“ – der menschliche Körper selbst wird zur ersten Rechenmaschine.
Das Geheimnis des Ishango-Knochens
Der Ishango-Knochen ist ein wichtiges archäologisches Artefakt aus Afrika und ist über 20.000 Jahre alt. Seine Bedeutung liegt in den darauf vorhandenen gruppierten Kerben, welche die frühesten bekannten Belege für mathematische Praktiken darstellen. Forscher interpretieren die Kerbgruppen als Hinweise auf komplexe arithmetische Muster, möglicherweise die erste arithmetische Kenntnis überhaupt. Die Kerben lassen sich in Reihen mit Summen von 60, 48 oder Ziffern wie 11, 13, 17 und 19 unterteilen, was auf Gruppierung, Multiplikation (z. B. 9er- und 11er-Reihen) und sogar die Kenntnis von Primzahlen hindeutet. Ifrah sieht in diesem Fund ein Symbol für den Ursprung des abstrakten Denkens – ein Beweis dafür, dass Mathematik nicht nur eine Wissenschaft, sondern eine Form des frühen Bewusstseins war.
Die Rolle von Gottfried Wilhelm Leibniz
Im 17. Jahrhundert leistete Gottfried Wilhelm Leibniz zwei entscheidende Beiträge: Er entwickelte mechanische Rechenmaschinen wie seine Maschine von 1671. Von weitreichenderer Bedeutung war jedoch seine konsequente Verfechtung des Binärsystems (Basis 2), das nur die Ziffern 0 und 1 nutzt. Leibniz sah das Binärsystem nicht nur als praktisch, sondern auch als philosophisch rein, indem er 1 mit Gott und 0 mit dem Nichts assoziierte. Seine theoretische Vorarbeit wurde durch die Boolesche Algebra im 19. Jahrhundert verfeinert und bildet heute die unabdingbare Grundlage für alle modernen digitalen Computer. In dieser Linie erkennt Ifrah die logische Kontinuität zwischen der metaphysischen Symbolik Leibniz’ und der binären Architektur heutiger Computer – die Null und die Eins als letztes Echo jahrtausendealter Denkbewegungen.
Die fundamentale Bedeutung der Null
Die Null (śūnya) ist fundamental, da sie es als eigenständiger numerischer Wert ermöglichte, ein vollständiges Positions-Schreibsystem zu schaffen. Zuvor verwendeten Kulturen entweder additive Systeme, die keine komplexen Rechnungen zuließen, oder unvollkommene Positionssysteme (wie das frühe babylonische), die mangels einer Null mehrdeutig blieben. Durch die Null, die nicht nur eine „leere Stelle“ markiert, sondern selbst einen Wert hat, wurde die Darstellung jeder Zahl eindeutig, was die Grundlage für die gesamte effiziente Arithmetik und die nachfolgende Entwicklung der Algebra darstellt. Ifrah deutet diese Erfindung als eine der größten intellektuellen Revolutionen der Menschheitsgeschichte – die Entdeckung des Nichts als Zahl, des Abgrunds als Grundlage von Ordnung.
Fazit:
„Histoire universelle des chiffres“ ist mehr als eine Geschichte der Zahlen – es ist eine Geschichte des menschlichen Geistes. Ifrah verbindet philologische Akribie, mathematische Präzision und anthropologische Weite zu einer Erzählung, die zeigt, dass das Zählen immer auch Denken bedeutet. Von den Kerben des Ishango-Knochens bis zum Binärcode des Computers führt er eine Linie, die ebenso intellektuell wie poetisch ist. Wer dieses Werk liest, begreift: Zahlen sind keine Erfindung der Mathematik – sie sind eine Erfindung der Menschheit.
The stuff on the history of computation is great and informative, but the last leg on information theory comes completely out of left field and was a big snooze. It’s also strange that this was written in the 90s and yet all advancements since like 1972 were ignored. I get that it isn’t a book exclusively about the history of digital computers, but it would have been nice to go beyond the passing mention of microprocessors and 6 pages on pocket calculators after the EDVAC.
This book is translated from Ifrah's original French to English by E.F. Harding. The translation is excellent, very readable, with many additional translator's notes inserted to provide useful or interesting background information.
Ifrah does an excellent job covering the hisorical record of computing, starting with an excellent overview on the history of writing and of numbers. He clearly states what is based on the history record, what is theorized from it, and what is pure speculation (at present). He covers number systems throughout the world and explains the advantages each had over others, arguing why certain ones "survived" the rest. Ifrah is a good storyteller, making the subject much more interesting and important that I expected. He covers a lot of ground in a relatively short book (410 pages for the entire span of history).
The book is at times a bit technical, which could be a turnoff to the general public. The math and the theories are not present as too difficult, brought up to show their relevance in computation and not the more "heavy" mathematics. The translator's notes made it easier to read, and the more difficult parts I did not understand were not a serious hindrance to the rest of the book.
One thing I would like to highlight: Ifrah illustrates that systems of representation and communication (such as Indo-Arabic numerals, binary code, the abacus) have been extremely important in the history of mathematics and the history of civilization. For example, the abacus made calculation of relatively large numbers possible, as did the adoption of the decimal system (we take for granted today, doing calculations in fourth grade that the best in the world could not do even 500 years ago; could you imagine counting pebbles instead of using an abacus, or writing out "345 and 2/10 and 6/100 and 8/1000" instead of "345.268" every time?). Likewise, it was only when they attempted computers with binary (its simplicity and its special properties) instead of base 8 or 10 that allowed the possibility of modern computers. If any of the above sounds interesting, then this book is definitely worth checking out.
Not a book for the speed reader. Herman Meville wrote "Moby Dick" as the encyclopedia of whaling and George Ifrah has writtn this work as the encyclopedia of computing. Starting with systems of counting in prehistory he takes an interested reader through a sysematic history of computing actvity, theory and technology. When done a reader truly feels a sense of gaining knoweledge not to mention one of sheer accomplishment. A book worthy or reading just so that you can say that you did it.