Leseecke

99 Schnittpunkte

99 schnittpunkte

99 Schnittpunkte
Beispiele - Bilder - Beweise

Hans Walser
Verlag: Edition am Gutenbergplatz Leipzig; 2. Auflage (14. Februar 2012), 188 Seiten, 18,50 €

ISBN-10: 3937219951
ISBN-13: 978-3937219950

Drei Geraden in der Ebene haben in der Regel keinen gemeinsamen Schnittpunkt, und wenn doch, ist das ein Indiz dafür, dass es sich um eine besondere Situation handelt. Viele Leserinnen und Leser erinnern sich gewiss aus dem Geometrieunterricht daran, dass die drei Seitenhalbierenden eines Dreiecks sich in einem Punkt schneiden, nämlich dem Schwerpunkt des Dreiecks. (Zumindest die älteren Semester können das; die Jüngeren haben möglicherweise keinen Geometrieunterricht mehr gehabt.)

In seinem Büchlein „99 Schnittpunkte“ beschreibt der Autor 99 Konstruktionen, bei denen mehrere Geraden oder Kurven überraschenderweise einen gemeinsamen Schnittpunkt besitzen. Das Buch hat drei Teile, von denen der erste eine allgemeine Einführung mit einigen Beispielen ist. Im Hauptteil werden, jeweils durch drei Skizzen und ohne Worte, 99 erstaunliche Schnittpunktkonstellationen vorgestellt; zum Beispiel diese:

99 Schnittpunkte walser Mit freundlicher Genehmigung des Verlags.

Der abschließende dritte Teil bringt einige mathematische Erläuterungen und Begründungen zu den Konstruktionen des zweiten Teils. Der Autor war als Gymnasiallehrer und in der Ausbildung von Lehramtskandidaten tätig und verfügt daher über einen reichen Fundus an geometrischen Beispielen. Liebhaber der Geometrie werden sich an seinem Buch erfreuen.

Rezension: Dirk Werner (FU Berlin)

Algorithmik für Einsteiger

algorithmik für Einsteiger

Algorithmik für Einsteiger

Armin P. Barth
Springer Spektrum; Auflage: 2., überarb. Aufl. 2013 (24. Oktober 2013), 24,99 €

ISBN-10: 3658022817
ISBN-13: 978-3658022815

Gleich vorweg: Uneingeschränkt empfehlenswert ist dieses Lehrbuch für die vom Verlag genannte Zielgruppe, nämlich für Lehrer, Studierende und Gymnasialschüler der Fächer Mathematik und Informatik.

Die Auswahl der Inhalte und ihre Präsentation sind sehr gelungen.

Die Darstellung erfolgt tatsächlich strikt unter dem Motto „für Einsteiger“. So ist es sehr motivierend, dass die einzelnen Abschnitte stets mit einem Überblick über das Folgende eingeleitet werden und auf diese Weise den Leser auf die Inhalte der kommenden Seiten vorbereiten. Sehr hilfreich dürfte es auch sein, dass die Beweise – nicht wie von Autoren der mathematischen Eleganz wegen oft möglichst knapp gehalten – sondern sehr ausführlich und mit erläuternden Zwischenbemerkungen versehen sind. Auch Definitionen fallen nicht unmotiviert vom Himmel, sie werden vielmehr vorbereitet, bevor sie ihre endgültige Form erhalten. Dazu dienen auch immer wiederkehrende kurze Absätze, die die Aufforderung „Zum Nachdenken“ in der Überschrift tragen, und den Leser – auch mit zusätzlichen Informationen – zum Innehalten und selbständigen Nachdenken anleiten wollen.

Nach einführenden Bemerkungen zum Algorithmus-Begriff und seiner historischen Entwicklung im ersten Kapitel (25 Seiten) werden im zweiten wichtige Algorithmen vorgestellt, u. a. der euklidische Algorithmus, ein Primzahltest, die „Türme von Hanoi“ (mit einer ausführlichen Beschreibung der Funktionsweise der Rekursion), einfache (langsame) Sortieralgorithmen, der Dijkstra-Algorithmus zum Durchlaufen von Graphen und aus der Kryptologie der RSA- und ein Zero-Knowledge-Algorithmus (70 Seiten).

Das dritte Kapitel zum Thema „Effizienz von Algorithmen“ erläutert die Landausche Symbolik der O-Schreibweise, führt als Beispiel des divide-and-conquer-Prinzips das schnelle Sortierverfahren von Hoare vor und bringt eine Einführung in die Komplexitätstheorie (40 Seiten). Gerade hier werden die Beweise sehr übersichtlich und ausführlich dargestellt.

Das vierte Kapitel ist den Turing-Maschinen gewidmet (35 Seiten). Hier werden zunächst einige Programme für diese detailliert hergeleitet, bevor die universelle Turing-Maschine beschrieben wird. Die Diskussion der Church-Turing-These beschließt diesen Abschnitt.

Das letzte Kapitel (40 Seiten) – überschrieben mit „Grenzen des Formalisierens“ – führt zum einen die Entdeckung vor, dass es nicht-berechenbare Funktionen und damit Probleme gibt, die prinzipiell nicht von Computern gelöst werden können (neben dem bekannten Halteproblem werden auch weitere Beispiele vorgestellt). Zum anderen wird hier ausführlich auf die Komplexitätstheorie und die P-NP-Problematik der „schwierigsten Probleme der Welt“ eingegangen.

Jedes Kapitel endet mit einer Vielzahl von Aufgaben unterschiedlichen Schwierigkeitsgrades (für einige sind im Anhang Lösungen angegeben) sowie einer Literaturliste.

Rezension: Hartmut Weber (Uni Kassel)

An Introduction to Benford's Law

an introduction to benfords law

An Introduction to Benford's Law

Arno Berger, Theodore P. Hill

Verlag: Princeton University Press 2015. 256 Seiten 69,68 €
Sprache: Englisch

ISBN-10: 0691163065
ISBN-13: 978-0691163062

Es ist bemerkenswert, dass der von Timothy Gowers herausgegebene, über tausend Seiten dicke „Princeton Companion to Mathematics“ nicht das Benfordsche Gesetz zitiert: In dem aus rund 2500 Stichworten bestehenden Index kommt dieses höchst eigenartige, zuerst von Simon Newcomb entdeckte und mehr als 50 Jahre später im Jahre 1938 vom Physiker Francis Benford wieder aufgefundene Phänomen nicht vor. Es handelt sich bei ihm um eine Gesetzmäßigkeit in der Verteilung der Ziffernstrukturen von Zahlen und galt Gowers und seinen Mitautoren wohl eher als ein empirisches denn als ein mathematisches Gesetz: In vielen Datensätzen aus dem Bereich der Bevölkerungsstatistik, der Finanzbuchhaltung, der Messwerte quantitativ bestimmter Größen sowie aus anderen Bereichen zeigt sich nämlich, dass die Anfangsziffern der Daten nicht gleichverteilt sind, sondern dass die Ziffer 1 als Anfangsziffer signifikant öfter vorkommt als die anderen Ziffern, zum Beispiel mehr als dreimal so häufig wie die Anfangsziffer 4 und sogar mehr als sechsmal so häufig wie die Anfangsziffer 9. Genauer kann man Newcombs und Benfords Beobachtungen in ihrer einfachsten Version so formulieren: Eine Folge positiver Dezimalzahlen heißt Benfordfolge, wenn die Häufigkeit, mit der die Ziffer z als Anfangsziffer eines Folgenelements unter den ersten n Folgegliedern aufscheint, bei n → ∞ gegen lg(z + 1) − lg z konvergiert. Dabei bezeichnet lg in dieser Differenz den Briggschen Logarithmus zur Basis 10. Der empirische Befund von Newcomb und Benford besagt, dass bei Datensätzen, die sich über mehrere Zehnerpotenzen hinweg erstrecken, erstaunlich viele Benfordfolgen auftauchen.

Mit dem schönen Buch „An Introduction to Benford’s Law“ gelingt den Autoren Arno Berger und Theodore P. Hill, das Benfordsche Gesetz in das Gefüge der Mathematik so einzubinden, dass alle künftigen Ausgaben des „Princeton Companion to Mathematics“ an ihm nicht mehr vorübergehen werden können. Das Buch ist in konziser Sprache verfasst, alle Beweise werden klar und verständlich geführt, alle Definitionen werden mit guten Motivationen gerechtfertigt und punktgenau formuliert, die Bedeutung der hergeleiteten Sätze wird anhand zahlreicher und einleuchtender Beispiele und Gegenbeispiele hervorgehoben und die vielen farbig aufbereiteten Tabellen und Skizzen bereichern den Text außerordentlich. Teile des Buches sind interessierten Laien zugänglich, vieles in ihm wird mit Grundkenntnissen aus der Maßtheorie gut verstanden, nur an einigen Stellen wird tieferes Fachwissen vorausgesetzt, wobei sich die Autoren nicht scheuen, auf noch unbeantwortete Fragen und offene Probleme hinzuweisen.

Nach einer knappen historischen Einleitung bereiten die Autoren den maßtheoretischen Rahmen vor, innerhalb dessen sie nicht nur Benfordfolgen, sondern auch Funktionen und Zufallsvariablen beschreiben können, die dem Benfordschen Gesetz folgen. Sie untersuchen sodann die für das Benfordsche Gesetz eigentümliche Skaleninvarianz, sowie die Basis- und Summeninvarianz, und sie wenden sich danach eindimensionalen dynamischen Systemen, Differentialgleichungen, Produkten von Matrizen, Markoffketten, Differenzengleichungen und verwandten Themen zu, die mit dem Benfordschen Gesetz in Verbindung gebracht werden können. Im vorletzten Kapitel wird überdies ein sehr interessanter Zugang zum Benfordschen Gesetz aufgezeigt, der von den Spuren der formalen Maßtheorie mit ihren Sigmaalgebren abweicht und Mengenalgebren in den Blick nimmt, bei denen keine abzählbaren, sondern nur endlichen Vereinigungen und Durchschnitte zugelassen sind. Das letzte Kapitel ist den vielfältigen Anwendungen des Benfordschen Gesetzes gewidmet.

Der Haupsatz des Buches von Berger und Hill ist der Satz 4.2, in dem eine Folge positiver Dezimalzahlen genau dann als Benfordfolge erkannt wird, wenn die Folge der Briggschen Logarithmen dieser Dezimalzahlen modulo eins gleichverteilt ist. Dieser zentrale Satz schlägt die Brücke zwischen dem Benfordschen Gesetz und der von Hermann Weyl erfundenen Theorie der Gleichverteilung von Zahlen modulo eins. Dass die Potenzen von zwei, von drei und von vielen anderen Basen, so auch von π, hingegen natürlich nicht die Potenzen von zehn, Benfordfolgen sind, folgt hieraus unmittelbar. Ebenso schnell ergibt sich aus den Binetschen Formeln für die Fibonacci-Zahlen, dass die aus ihnen gebildete Folge dem Benfordschen Gesetz gehorcht.

Fast genau hundert Jahre, nachdem Weyl seine bahnbrechende Arbeit zur Gleichverteilung von Zahlen modulo eins verfasst hatte, zeigt nun das beeindruckende Buch von Berger und Hill, wie zukunftsweisend die damalige Arbeit Weyls war, die selbst bereits viele Aspekte der Theorie der Gleichverteilung vorwegnahm, welche später von Johannes van der Corput, Leopold Fejér, Edmund Hlawka und vielen anderen erarbeitet wurden. Berger und Hill bringen manche von ihnen wieder in einem neuen Kontext zur Sprache. Selbst die Tatsache, dass so erstaunlich viele empirische Datensätze dem Benfordschen Gesetz gehorchen, spiegelt sich in einem metrischen Satz in §7 der Arbeit von Weyl wider, wobei er – für einen konstruktiven Mathematiker typisch – anmerkt, dass er „freilich glaube, dass man den Wert solcher Sätze, in denen eine unbestimmte Ausnahmemenge vom Maße 0 auftritt, nicht eben hoch einschätzen darf“.

Quelle: Springer Verlag, Mathematische Semesterberichte, Oktober 2015, Band 62, Heft 2
Mit freundlicher Genehmigung des Verlags

Rezension: Rudolf Taschner (Wien)

Basisbuch Analysis

analysis 1

Basisbuch Analysis

George B. Thomas, Maurice D. Weir, Joel Hass

Pearson Studium; Auflage: 12 (1. September 2012), Hardcover, 464 Seiten, 24,95 €

ISBN-10: 3868941746
ISBN-13: 978-3868941746

Der bekannte englische Koch Jamie Oliver beschreibt in einem seiner Bücher sein Anliegen so: „I still believe in the two things that resulted in my name of the Naked Chef: using the bare essentials of your larder and stripping down restaurant methods to the reality of home.“ Das Basisbuch Analysis setzt eine ähnliche Philosophie in der Welt der Mathematik um.

Die Geschichte dieses Buchs geht bis ins Jahr 1951 zurück, als die erste englischsprachige Auflage erschien. „Der Thomas“ ist ein an vielen amerikanischen Universitäten benutztes Lehrbuch zur Differential- und Integralrechnung („Calculus“) für Studierende der Mathematik, Ingenieur- und Naturwissenschaften, das als eher anspruchsvoll gilt. Im Laufe der Zeit ist es von diversen Koautoren fortgeschrieben worden, und nun gibt es diesen Text auch auf Deutsch, und zwar in einer Vollversion in zwei Bänden und einer abgespeckten Version, die sich mit einer Einführung in die Differential- und Integralrechnung begnügt.

Letztere ist das Basisbuch Analysis, das nun besprochen werden soll. Es richtet sich an Studierende, „denen die Beschäftigung mit der ‚Schulmathematik‘ während ihres Abiturs bereits Probleme bereitete“ (Vorwort), die jedoch in ihrem Studienfach (man mag an Biologie oder Geowissenschaften denken) mathematische Fertigkeiten benötigen, die über das heutige Schulwissen hinausgehen. Für diese Zielgruppe ist das Material hervorragend aufbereitet. Neue Begriffe werden in der Regel zuerst intuitiv vorgestellt und danach mathematisch rigoros erklärt. Generell ist das Buch sehr reichhaltig mit detailliert durchgerechneten Beispielen zu allen Themen bestückt. Die Lesefreundlichkeit wird durch einen flüssigen Stil (hier sind auch die Übersetzerinnen zu loben) und eine angenehme, durchgehend mehrfarbig gestaltete Typographie unterstützt.

Inhaltlich deckt sich das Basisbuch im Wesentlichen mit dem Schulbuch, das ich vor über 40 Jahren benutzt habe (selbst die Definition des Logarithmus als Stammfunktion von 1/x ist die gleiche!). Es geht also um Funktionen, Grenzwerte, Stetigkeit, Differenzierbarkeit, das Riemannsche Integral und Integrationstechniken. Die Autoren bemühen sich, einerseits durch viele Beispiele den Stoff zu motivieren und andererseits mit mathematischer Strenge zu argumentieren. Daher werden einige Begriffe und Aussagen zweimal betrachtet, einmal intuitiv und einmal rigoros; das ist zum Beispiel beim Grenzwertbegriff und bei der Kettenregel so.

Der Anspruch der Autoren ist, „die Studenten zu ermutigen, über das Pauken von Formeln hinaus die vorgestellten Konzepte zu verallgemeinern.“ Natürlich können nicht alle Sätze begründet werden. Aber es wird leider nicht klar gemacht, warum Ergebnisse als Glaubenssatz ohne Erklärung formuliert werden. Zum Beispiel hätte man die Tatsache, dass Extremalstellen im Innern Nullstellen der Ableitung sind, bequem mit den Mitteln des Buchs erklären können, andererseits liegt die Integrierbarkeit stetiger Funktionen sicherlich jenseits des in einem solchen Lehrbuch Möglichen; beide Aussagen stehen aber unkommentiert als Lehrsätze ohne Begründung da. Dann bleiben also oft doch nur Formeln ...

Bei allen Meriten des Buchs findet man als professioneller Leser einige wenige Schwachpunkte. So wird einige Male an den Zwischenwertsatz appelliert, der im Buch gar nicht auftaucht; manchmal wird dieser Satz irrtümlich auch als Mittelwertsatz bezeichnet. Die Einführung der Differentiale halte ich für absolut unverständlich, erst recht für Nebenfachstudenten, die schon im Abitur Probleme mit der Mathematik hatten. Schließlich hätte es sich angeboten, die im deutschen Sprachraum üblichen Notationen zu verwenden, etwa arcsin x statt sin-1 x.

Trotz dieser Kritikpunkte, die für die eigentliche Zielgruppe nebensächlich sein dürften, bleibt das Fazit eines sehr gut gemachten Lehrbuchs für Nebenfachstudenten, die mit seiner Hilfe (die nötige Energie vorausgesetzt) die ersten Schritte jenseits einer bloß formelorientierten Mathematikausbildung gehen können. Dazu trägt noch eine interaktive Lernsoftware bei, für deren Demoversion jedem Buch ein Zugangscode beiliegt.

Rezension: Dirk Werner (FU Berlin)

Berühmte Aufgaben der Stochastik

berühmte aufgaben der stochastik

Berühmte Aufgaben der Stochastik
von den Anfängen bis heute

Rudolf Haller, Friedrich Barth
Verlag: Oldenbourg Wissenschaftsverlag (1. September 2013), 79,95 €

ISBN-10: 3486728326
ISBN-13: 978-3486728323

Die Anfänge der Wahrscheinlichkeitsrechnung als mathematischer Disziplin sind vorrangig in Berechnungen von Chancenverhältnissen und „gerechten“ Spieleinsätzen zu finden, wie sie verstärkt ab der Mitte des 17. Jahrhunderts auftraten. Der mathematische Begriff der Wahrscheinlichkeit wurde allerdings erst um ca. 1700, insbesondere in Jakob Bernoullis „ars conjectandi“ (1713) manifest. Die kombinatorische Bestimmung von „Möglichkeiten“ hatte bereits eine wesentlich längere Tradition, jedoch scheinen im allgemeinen das Aristotelische Dogma von der Unberechenbarkeit des Zufalls und die immer wieder propagierten Verbote von Glücksspielen die substantielle Beschäftigung mit entsprechenden Problemen stark behindert zu haben.

Bis heute haben konkrete Aufgaben die Weiterentwicklung von Konzepten und algebraischen sowie analytischen Methoden der Stochastik motiviert. Insofern bilden Wahrscheinlichkeitsrechnung und Statistik innerhalb der mathematischen Teilgebiete einen Bereich, der in besonderer Weise mit seinen inner- wie außermathematischen Anwendungen in Wechselwirkung steht.

Das Buch „Berühmte Aufgaben der Stochastik“ von Friedrich Barth und Rudolf Haller greift gerade diesen Aspekt auf. Beide Autoren sind Verfasser mehrerer gymnasialer Unterrichtswerke, besonders des auch für einführende Hochschulkurse empfehlenswerten „Stochastik-Leistungskurs“ (1. Aufl. München 1983), der zusammen mit dem zugehörigen Lösungsbuch immer noch im Handel ist. Eine Besonderheit dieses Lehrbuchs ist der reiche Fundus an historischen Problemstellungen, insbesondere aus der Zeit zwischen ca. 1650 und ca. 1750, die auch den Kernbestandteil des neuen Buchs bilden.

Die einzelnen „berühmten Aufgaben“ werden in der Regel in der chronologischen Reihenfolge ihres ersten Auftretens vorgestellt. Gemäß Inhaltsverzeichnis sind es ca. 140 Probleme, die meist noch in verschiedenen Ausprägungen und Lösungsansätzen erläutert werden. Der Hauptanteil des Buchs betrifft den Zeitraum bis ca. 1750. Natürlich werden die „klassischen“ Aufgabenstellungen genau diskutiert: Das bereits in älteren Quellen behandelte, aber erst im Briefwechsel zwischen Pascal und Fermat gelöste Problem über die gerechte Aufteilung des Spieleinsatzes bei vorzeitigem Spielabbruch, die von Huygens formulierten 5 Probleme, darunter das über die Ruinwahrscheinlichkeit eines Spielers, die Berechnung von Lebenserwartungen. Auch Nikolaus Bernoullis „Petersburger Problem“ von 1713 wird ausführlich vorgestellt. Es betrifft die paradoxe Situation eines simplen Spiels, das mit überwältigender Wahrscheinlichkeit nach einer geringen Zahl von Durchgängen beendet ist, jedoch trotzdem eine unendliche Gewinnerwartung aufweist und damit nach den üblichen Regeln einen unendlichen Spieleinsatz verlangt. Daneben findet man eine Vielzahl von Würfelproblemen, wie sie bereits in der ihrer Zeit weit vorauseilenden Schrift „De Vetula“ (ca. 1250) berührt worden sind. Zutreffenderweise setzt das Buch aber schon bei uralten Zufallsexperimenten und den damit verbundenen Anzahlbestimmungen ein. Der Leser lernt die in der Antike weit verbreiteten Astragaloi – das sind die Sprungbeine von Paarhufern, die vier unterschiedlich wahrscheinliche Seitenflächen aufweisen – als Zufallsgeräte samt ihrem Einsatz für Orakel kennen. Überhaupt bietet das Werk eine Vielzahl von ebenso interessanten wie lehrreichen kulturhistorischen Bezügen. Für die eher „moderneren“ Zeiten stehen, um nur einige Themen zu nennen, das inverse Schließen aufgrund der Bayesschen Formel, verschiedenste Urnenexperimente, darunter auch das der berühmten Pólya-Urne, aber auch einige sehr interessante Paradoxa, wie etwa das „pairwise-worst-best-paradox“ von Colin Blyth. Dass das notorische Ziegenproblem keine Berücksichtigung findet, ist wahrhaftig kein Mangel.

Die historischen Lösungsansätze werden im Detail erklärt und, falls der Situation angemessen, mit modernen Methoden verglichen. Dabei genügt die Auswahl der Aufgaben dem Prinzip der Zugänglichkeit mit möglichst elementaren, vorrangig kombinatorischen, Mitteln. Somit ist das Buch bereits für Oberstufenschüler und mathematische Laien mit Grundkenntnissen lesbar. Manche der verzwickten kombinatorischen Betrachtungen sind aber auch für den mathematisch Gebildeten eine Herausforderung. In diesem wahrlich nicht einfachen Rahmen ist den Autoren in aller Regel eine sehr durchsichtige und verständliche Darstellung gelungen. Durch die Beschränkung auf elementare Problemstellungen wird allerdings die Repräsentativität der Aufgaben für den gleichzeitigen Entwicklungsstand der Stochastik spätestens ab Laplace wesentlich eingeschränkt. Asymptotische Betrachtungen bei großen Fallzahlen, wie sie bereits im 18. Jahrhundert einsetzten und bei Laplace zu einem wesentlichen Element der Wahrscheinlichkeitsrechnung wurden, fehlen fast vollständig, ebenso wie statistische Aufgabenstellungen im engeren Sinne.

Trotz des historischen Zugangs handelt es sich bei den „berühmten Aufgaben“ nicht um ein eigentlich mathematikgeschichtliches Werk. Die Autoren legen den Schwerpunkt ihres Interesses eher in die Variabilität von Lösungsmethoden als in konzeptionelle Entwicklungen. Tatsächlich liegt jedoch ausgerechnet die Genese des mathematischen Wahrscheinlichkeitsbegriffs mitten in einer von dem Buch besonders ausführlich erfassten Periode. Dieser Tatsache hätte man vielleicht stärker Rechnung tragen sollen. Trotzdem ist das vorliegende Werk eine gute Basis auch für historische Untersuchungen, wenn es durch geeignete Quellen ergänzt wird. Auch wenn die Originalliteratur jeweils explizit aufgeführt und zum großen Teil im Internet in digitalisierter Form zugänglich ist, könnte in systematischerer Weise auf Sammelwerke, Übersetzungen und Kommentare hingewiesen werden. Fehlende Seitenangaben bei Zeitschriftenaufsätzen erschweren ebenfalls die weiterführende Lektüre.

Leider weist das Buch von Barth und Haller eine recht erhebliche Zahl an Flüchtigkeitsfehlern, Schreibfehlern sowie kleineren Ungereimtheiten oder auch Redundanzen auf. Trotz der insgesamt sehr guten Ausstattung und reichen Illustrierung genügen Text- wie auch Formelsatz nicht professionellen Anforderungen. Andererseits bietet das Buch eine ausgezeichnete Basis für verschiedenste Unterrichtszwecke, etwa als Arbeitsgrundlage für stochastische Arbeitsgemeinschaften und Seminare ab der gymnasialen Oberstufe, als Fundus für Übungen zu Stochastikvorlesungen, zum problemorientierten Selbststudium der elementaren Kombinatorik, als Interpretationshilfe für historische Originalquellen. Aufgrund der vielenVorzüge möchte man daher den „berühmten Aufgaben“ eine gute Verbreitung wünschen.

Quelle: Springer Verlag, Mathematische Semesterberichte, April 2015, Band 62, Heft 1
Mit freundlicher Genehmigung des Verlags

Rezension: Hans Fischer (Eichstätt)