die macht der computermodelleBernd Simeon

Springer; 1. Aufl. 2023 Edition (11. April 2023); Taschenbuch; 214 Seiten; 27,29 €

ISBN-10: ‎3662662981
ISBN-13: ‎978-3662662984

Der Autor dieses Buches ist Professor an der TU Kaiserslautern und forscht und lehrt mit dem Schwerpunkt „Entwicklung und Analyse von Computermodellen“. Der Mathematiker hat hier ein Buch vorgelegt, das für alle – auch ohne mathematische Vorkenntnisse – eine anschauliche Einführung gibt, wie solche Modelle funktionieren. Er vermeidet fast vollständig mathematische Formelsprache, benennt zwar die zugehörigen Fachbegriffe, erklärt diese jedoch stets in allgemeinverständlicher Sprache. Für weiter gehende Informationen werden im Text Literatur und Internet-Verweise genannt.

„Der Begriff der Computermodelle steht für all das, was sich mit mathematischen Modellen und Algorithmen beschreiben, erkunden, verstehen und letztlich vorhersagen lässt.“ Dafür gibt Bernd Simeon Beispiele aus vielen Anwendungsbereichen.

Industrieroboter sind mit ihren präzise eingestellten Programmen längst millionenfach für bestimmte Fertigungsschritte in der Industrie im Einsatz. An autonom agierenden Robotern hingegen, die auch auf unvorhergesehene Ereignisse angemessen reagieren können, forschen Wissenschaftler immer noch. Deren Bewegungen werden im Computermodell durch Differentialgleichungen gesteuert. Ohne diese zu notieren, demonstriert der Autor mit grafischen Methoden, wie man die Lösung einer solchen Gleichung finden kann. Er veranschaulicht das an einem Fluss, auf dem ein kleiner Papierball fortbewegt wird und ermittelt daraus dessen Bahnkurve in der Strömung zeichnerisch. Diese schrittweise Konstruktion mit einem Richtungsfeld kann man selbst nachvollziehen (der Autor fordert dazu auf) und die Lösungskurve durch einen Streckenzug annähern. Diese Art der Darstellung gilt für viele Abschnitte im Buch: die speziellen Fachtermini werden genannt, deren Bedeutung aber anschaulich und allgemein verständlich beschrieben.

Das gilt auch für die Navier-Stokes-Gleichungen, eines der sieben Milleniumsprobleme. Sie treten in vielen Anwendungen auf: sie sind nämlich das mathematische Modell des Strömungsverhaltens von vielen Flüssigkeiten und Gasen. Dazu müssen Näherungsverfahren entwickelt werden, da keine exakten analytischen Lösungen für diese komplizierten Anwendungsfälle bekannt sind. Es ist einleuchtend, dass sie eine wichtige Rolle bei der Wetter-Prognose spielen, die Kenntnisse über die Luftströmungen voraussetzen. In der Meteorologie sind Computermodelle zur Wettervorhersage schon sehr früh eingesetzt worden: John von Neumann hat sich schon kurz nach dem zweiten Weltkrieg mit Hilfe eines der ersten Universalrechner ENIAC „an die numerische Lösung der Navier-Stokes-Gleichungen herangetraut“. Für die Wetterprognosen gibt es längst bessere Modelle und Algorithmen, aber trotz der heute viel größeren Datenbasis und der neuen Hochleistungs-Hardware stoßen sie an Grenzen. Warum eine langfristige Vorhersage unsicher ist, beschreibt der Autor auch: die von dem Meteorologen Edward Lorenz entdeckte Eigenschaft des mathematischen Chaos macht das prinzipiell unmöglich.

Weitere wichtige Bereiche werden behandelt, die ohne Computermodelle gar nicht denkbar wären: Raumfahrt und Astronomie, Finanzwirtschaft und Medizin. Durch die Covid19-Pandemie wurden in den Medien in den drei vergangenen Jahren Ergebnisse von Computermodellen weit verbreitet und manche Frauen und Männer, die sie produziert haben, sind als Modellierer in Fernsehsendungen vielen bekannt geworden. In diesem Abschnitt kommen schließlich doch noch mathematische Gleichungen (SIR-Modell) vor. An den nur grafisch dargestellten Lösungen diskutiert der Autor grundsätzliche Probleme solcher Modelle und bemängelt „die oftmals katastrophale Datenlage“, die unsichere Startwerte für die Simulationen liefern.

Die hier vom Verfasser geübte Kritik gilt auch für andere Bereiche, wie etwa die Finanzwirtschaft: er spricht von einem „Paradox des blinden Vertrauens“ – es „wuchs die Erwartungshaltung an die Computermodelle, obwohl die dahintersteckende Mathematik für viele Menschen, einschließlich der meisten Entscheidungsträger, undurchschaubar ist“. Aber auch für für Fachleute einer Disziplin ist es eine Gefahr, zu Fehlschlüssen zu kommen, er schreibt „… was mit der heutigen Software möglich ist, und das, was man in strengem Sinn verstanden hat, klafft immer weiter auseinander“. Bernd Simeon spricht von einer Krise der Modelle. Diese Bedenken gelten für ihn auch auf dem Gebiet der lernenden Modelle der KI. Er erklärt wesentliche Grundlagen neuronaler Netze und das Potential dieser Technik und stellt fest, dass es einen Trend gibt, „die klassische physikalisch orientierte Modellbildung und die neuronalen Netze miteinander zu verknüpfen“. Aber er konstatiert, dass auch hier selbst für die Wissenschaftler „Verstandenes nicht Schritt mit dem Machbaren“ hält.

So erklärt sich auch der Untertitel dieses Buches. Die Frage, ob Computermodelle „Quellen der Erkenntnis oder digitale Orakel“ sind, zieht sich als ein Leitfaden durch das Buch. Das macht es zu einer spannenden und nachdenkenswerten Lektüre. Zudem auch noch zu einer unterhaltsamen: der Verfasser erzählt nebenbei immer wieder von Kolleginnen und Kollegen aus vielen Ländern, mit denen er Probleme und Lösungen diskutiert und zusammengearbeitet hat. Dabei erfährt man auch manche Interna aus der Wissenschaftswelt, von Kongressen und Forschungseinrichtungen, wie etwa dem Robotik-Labor an der TU Darmstadt oder dem Fraunhofer-Institut für Techno- und Wirtschaftsmathematik in Kaiserslautern.

Resension: Hartmut Weber (Kassel)