Leseecke

Computational Commutative Algebra 2

computational commutative algebra 2

Computational Commutative Algebra 2

M. Kreuzer, L. Robbiano
Springer Verlag, Boston, 2005, 53,45 €

ISBN 3-540-25527-3

Vorliegendes Buch ist definitiv der zweite und letzte Band der Trilogie Computational Commutative Algebra, wie die beiden Autoren am Ende der Einleitung bezeugen. Es enthält die Kapitel 4 bis 6 des Werkes sowie Anhänge zur Benutzung von CoCoA und mit Anregungen zur weiteren Lektüre.

Kapitel 4 ist dem Homogenen Fall gewidmet. Es beginnt mit Abschnitten über Homogenisierung und projektive Varietäten. Dann werden eingehend homogene Ideale, die Berechnung homogener Gröbnerbasen sowie homogene Radikalideale (mit Zugehörigkeitstest) behandelt. Weitere zentrale Themen sind minimale homogene Präsentationen und graduierte freie Auflösungen bis hin zur Berechnung von Betti-Zahlen (in Tutorial 63).

Kapitel 5 ist mit Hilbertfunktionen überschrieben. Hier wird zunächst der Nutzen von Hilbertfunktionen graduierter Moduln erläutert und dann gezeigt, wie diese berechnet werden können. Dabei wird bereits in Tutorial 69 auf die Möglichkeit Hilbert-gesteuerter Gröbnerbasenberechnung eingegangen. Daran schließen sich Verfahren zur Berechnung der Dimension und des Hilbertpolynoms graduierter Algebren an. Im zweiten Teil des Kapitels kehren die Autoren zum affinen Fall zurück. Neben Verfahren zur Bestimmung von Hilbertfunktion und Krulldimension affiner Algebren werden Algorithmen zur Berechnung des Transzendenzgrads und zur Noether-Normalisierung vorgestellt. Abschließend wird die Existenz einer Primärzerlegung in Noetherschen Ringen bewiesen (sowohl im nichthomogenen wie im homogenen Fall) und es werden Algorithmen zu deren Berechnung skizziert (in Tutorial 79).

In Kapitel 6 sind Weitere Anwendungen zusammengestellt. Hierzu gehören unter anderem Torische Ideale und Hilbertbasen, endliche Punktmengen und die Cayley-Bacherach-Eigenschaft (in Tutorial 88), Symmetriebetrachtungen und Randbasen, Filtrierungen und Tangentialkegel sowie SAGBI-Basen.

Die Stärke dieses zweiten Bandes der Computational Commutative Algebra liegt in den vielen Übungsaufgaben und den 55 gut ausgearbeiteten und zum Teil umfangreichen Tutorials, worauf schon in der obigen Inhaltsangabe hingedeutet wurde. Diese bilden eine Brücke von den theoretischen Grundlagen zu aktuellen Algorithmen und Berechnungen. Insbesondere die Tutorials sind hervorragend zum Experimentieren mit CoCoA sowie zum Selbststudium geeignet und bilden eine reichhaltige Fundgrube für Übungen und Praktika zur Computeralgebra.

Mit über 500 Seiten ist dieser zweite Band unerwartet dick geworden, wozu zum Einen der durch Zitate, Sprüche und fiktive Gespräche aufgelockerte Schreibstil und zum Anderen auch eine gelegentlich allzu große Liebe zum Detail beiträgt. Trotz des großen Umfangs sind einige der auch regelmäßig in Vorlesungen behandelten Grundaufgaben der kommutativen Algebra nicht berücksichtigt worden. Hierzu zähle ich z. B. die Berechnung des Radikals eines Ideals (auch im höherdimensionalen Fall) und der Normalisierung eines Integrit ätsbereichs. Weiter könnte man in einem so umfangreichen Werk auch noch Algorithmen zur Aufblasung oder allgemeiner zur Desingularisierung vermuten. (Letztere sind nur in Tutorial 95 kurz gestreift worden.) Vielleicht wird hiermit künftig doch noch die in der Einleitung angesprochene Trilogie komplettiert.

Rezension: B. Heinrich Matzat (Heidelberg) aus Computeralgebra-Rundbrief, Nr. 38 - März 2006

 

Computeralgebra

computeralgebra

Computeralgebra
Eine algorithmisch orientierte Einführung

W. Koepf
Springer Verlag, Berlin, Heidelberg, New York, 515 Seiten, 2006, 39,95 €

ISBN 3-540-29894-0

Es fällt schon auf, dass der Springer-Verlag in recht kurzem zeitlichen Abstand zu dem Buch von M. Kaplan (ISBN 3-540-21379-1) ein weiteres einführendes Lehrbuch mit gleichem Titel und gleicher Aufmachung auf den ja insgesamt nicht sehr reichhaltig bedienten Markt deutschsprachiger Literatur bringt. Da drängt sich ein Vergleich auf, zumal es bei der Themenauswahl naturgemäß große Überschneidungen, aber auch deutliche Unterschiede gibt. Auch wenn dies keine vergleichende Rezension ist, werde ich im Folgenden auch andeuten, was diese beiden Texte voneinander unterscheidet.

Der Untertitel des Koepfschen Buches, Eine algorithmisch orientierte Einführung, erstaunte mich: Wie könnte eine Einführung in die Computeralgebra anders als algorithmisch orientiert sein? Nun, das Vorwort ist dazu ein wenig deutlicher (”Die Präsentation ist mehr algorithmisch als algebraisch orientiert.“), und beim Durchblättern des Textes wird dann schnell klar, was damit gemeint ist: Im Jargon amerikanischer Verlage würde man das als einen hands-on approach bezeichnen. Wie das Buch von Kaplan ist der vorliegende Text aus Vorlesungen des Verfassers hervorgegangen, wobei er zwei vierstündige Vorlesungen wiedergibt, eine einführende mit den ”unverzichtbaren Grundlagen“ (das macht die ersten neun Kapitel, vom Umfang her etwa zwei Drittel des Buches aus) und eine weiterführende, die in drei Kapiteln drei spezielle Themen darstellt. In diesen Vorlesungen und den dazugehörigen Übungen wird intensiv mit Mathematica gearbeitet, und dieses praktische Tun und Demonstrieren wurde in den Text eingewoben. Ein beträchtlicher Teil des Textes besteht aus Mathematica-Kommandos, -Programmen und -Sitzungen, die zum unmittelbaren Nachvollziehen, zum Experimentieren und zum Weiterentwickeln einladen. So sieht man, anders als bei Kaplan und anderen Texten, keinen Pseudocode für die behandelten Algorithmen. Auf die Wahl von Mathematica werde ich weiter unten noch einmal eingehen. Hier möchte ich nur darauf hinweisen, dass auf der Web-Seite des Autors diese Programme als Worksheets auch in Maple und MuPAD verfügbar sind.

Die genannten Vorlesungen, auf denen dieses Buch beruht, wenden sich an Studierende unterschiedlicher Studiengänge (Diplom-Mathematik und Lehramt Mathematik, Bachelor Computational Mathematics und Informatik), also einen Hörerkreis mit unterschiedlichen mathematischen Voraussetzungen, gerade auch im Bereich der Algebra. Daher müssen die benötigten Begriffe, Techniken und Resultate in diesen Vorlesungen bereitgestellt werden, und das ist auch in diesem Buch wiedergegeben. Auch wenn nicht viel vorausgesetzt wird – der Autor selbst stuft da Texte wie den von M. Kaplan und das bekannte Buch von J. v. z. Gathen und J. Gerhard als deutlich anspruchsvoller ein – und alle Beweise geführt werden, sollte man sich nicht täuschen: Dies ist kein stringenter Algebra- oder Arithmetik-Kurs mit algorithmischen Zutaten! Hier steht die Algorithmik der Computeralgebra im Vordergrund und der begriffliche Apparat wird auf das Nötige und Elementare beschränkt. Um das an Beispielen zu verdeutlichen: Selbst einfachste gruppentheoretische Fakten (Struktur zyklischer Gruppen, Satz von Lagrange, multiplikative Struktur der Restklassenringe der ganzen Zahlen, Eulersche -Funktion) werden nicht explizit erörtert. Der Begriff des Homomorphismus wird nicht instrumentalisiert, das ”Rechnen mit homomorphen Bildern“ (Geddes/Czapor/Labahn, v. z. Gathen/Gerhard, Kaplan) also auch nicht als ein Paradigma der Computeralgebra formuliert. So kommt die Technik der modularen Arithmetik nur in einer eher bescheidenen Version zum Zuge, und die begriffliche Einordnung, der ”höhere Standpunkt“, kommt zu kurz, wenn er z. B. bei Themen wie der diskreten Fouriertransformation oder dem Hensel- Lifting durchaus hilfreich wäre. Man kann es auch so sehen: Wer sich ernsthaft mit Computeralgebra auseinandersetzen möchte, sollte durch das vorliegende Buch zu intensiver Beschäftigung mit der algorithmischen Algebra motiviert werden.

Was ist nun in dem Buch? Im ersten Kapitel werden anhand von Mathematica-Kommandos einige typische Eigenschaften von Computeralgebrasystemen demonstriert. Das zweite Kapitel geht sehr knapp und exemplarisch auf einige Aspekte der Mathematica-Programmierung ein. Vorsicht – die durchgängige Verwendung von Mathematica bedeutet nicht, dass dieser Text eine Einführung in das System Mathematica oder dessen Programmierung bietet! Hierfür muss man sich unbedingt noch mit einschlägiger Literatur versorgen und/oder die Hilfefunktionen ausgiebig konsultieren. Mathematica als Programmiersprache erlaubt viele verschiedene Programmierstile (prozedural, funktional, regelbasiert), die, vermischt angewendet, zusammen mit den vielen eingebauten ”hohen“ Konstrukten von Mathematica schnell zu kompakten, aber schwer lesbaren Programmen führen können. Nun sind hier die Programme kaum je länger als 20 Zeilen, da ist das noch kein Problem. Einem attraktiven Aspekt von Mathematicas Programmiersprache, dem pattern matching, wird hier und in der Folge einige Aufmerksamkeit geschenkt. Die Übersetzung mit ”Mustererkennung“ halte ich in diesem Zusammenhang allerdings für unglücklich; besser wäre es, von ”Musterabgleich“ zu sprechen. Das dritte Kapitel behandelt einige grundlegende Aspekte der Arithmetik ganzer Zahlen, bis hin zur eindeutigen Faktorzerlegung. Das Faktorisierungsproblem wird, im Gegensatz zum Buch von M. Kaplan, nur am Rande erwähnt. Das folgende Kapitel ist mit ”Modulare Arithmetik“ überschrieben, behandelt aber nur – schon etwas halbherzig, s. o. – die Restklassenringe von Z mit Chinesischem Restsatz, kleinem Satz von Fermat (aber nicht dem Satz von Euler) und Primzahltests bis zum Miller- Rabin-Verfahren. Etwas irritierend ist die Bezeichnung Zp für den Restklassenring modulo p auch dann, wenn p keine Primzahl ist. Diesen hat der Autor aber für die Zwecke dieses Buchs nicht wirklich im Visier. So kommt es, dass in den ergänzenden Bemerkungen zum vierten Kapitel das p im ersten Absatz eine beliebige natürliche Zahl ist, im zweiten aber eine Primzahl, ohne dass das gesagt wird. Ein kleiner Lapsus, sicher, aber auch eine Andeutung, dass die algebraische Seite vielleicht doch etwas ausführlicher dargestellt werden sollte. Das fünfte Kapitel gibt einen ganz knappen Einblick in Fragestellungen der (Quellen- und Kanal-) Codierung und der Public-Key-Kryptographie – mit einem Spielbeispiel der Reed-Solomon-Codes und dem RSA-Verfahren als Hinweise für Anwendungsbereiche der Computeralgebra. Das ist übrigens die einzige Stelle in diesem Buch, an der über den engeren Bereich der Computeralgebra hinaus geblickt wird. Der Polynomarithmetik wird dann in den folgenden drei Kapiteln breiter Raum gewährt. Den Grundlagen im sechsten Kapitel folgt ein Kapitel zu algebraischen Zahlen und zur Konstruktion und Struktur endlicher Körper. Das wird dann fortgeführt und angewendet zur Beschreibung der Polynomfaktorisierung über Z mittels Polynomfaktorisierung über Zp und Hensel-Lifting. Der erste, einführende Teil des Buches wird abgeschlossen durch ein Kapitel über Vereinfachung und Normalformen, das sich i.W. auf Normalformen für Polynome und trigonometrische Polynome beschränkt. Hier steht man vor dem Dilemma, dass die tatsächlichen Vereinfachungsstrategien der Computeralgebrasysteme in der Regel nicht offen zugänglich sind, sich also Theorie und Praxis nicht so ohne Weiteres in Bezug bringen lassen.

Die letzten drei Kapitel des Buches geben den zweiten Teil des Vorlesungszyklus wieder, bei dem der Autor auch seinen eigenen Forschungsinteressen Raum gibt. Verdienstvoll ist ein Kapitel über formale Potenzreihen, ein in der (Lehrbuch-)Literatur eher vernachlässigtes Thema. Hier steht der sogenannte holonome Fall im Mittelpunkt, also Funktionen/Folgen, die durch lineare Differentialgleichungen/Differenzengleichungen mit rationalen Funktionen als Koeffizienten dargestellt werden können. Die Stichworte algebraische, hypergeometrische, implizite Funktionen sollen andeuten, dass sich hier ein reichhaltiges und aktuelles Anwendungsgebiet für Methoden der Computeralgebra in der Analysis auftut. Ähnliches gilt auch für die algorithmische Summation und Integration, denen die beiden letzten Kapitel gewidmet sind. Hier ist die Computeralgebra nicht nur Mittel zum Zweck, sondern hat auch durch ihre Möglichkeiten und Methoden der mathematischen Duchdringung wesentliche Impulse verliehen. Bei der Summation wird der hypergeometrische Fall, mit den Namen von Sister Celine, B. Gosper und D. Zeilberger verbunden, einigermaßen ausführlich dargestellt. Dies geht wesentlich weiter als der entsprechende Abschnitt im Buch von Kaplan. Der interessierte Leser sollte damit in der Lage sein, in aktuelle Publikationen einzusteigen. Bei der Integration wird der klassische Fall der Integration rationaler Funktionen bis hin zu den Methoden von Rothstein/Trager und Rioboo behandelt, also etwa wie bei Geddes/Czapor/Labahn (dieses Thema fehlt bei Kaplan völlig). Klarerweise stellt dieser zweite Teil an das mathematische Verständnis höhere Anforderungen als der erste, nicht nur von der rein technischen Seite, sondern der Leser sollte auch einen gewissen analytischen Erfahrungshintergrund (Funktionentheorie, spezielle Funktionen, konkrete Summations- und Integrationsprobleme) mitbringen, um die dargestellte Entwicklung schätzen zu können.

Was in diesem Buch nicht zu finden ist? Auf die Behandlung von Themen wie Gröbnerbasen, Gitterreduktion, elliptische Kurven, ganzzahlige Faktorisierung, Differentialgleichungen, ... hat der Autor wohlweislich verzichtet; auch so ist der Umfang zweier Semester gut ausgefüllt. Die mathematischen Anforderungen müsste man von Anfang an höher ansiedeln, und es gibt ausgezeichnete spezielle Literatur dazu.

Noch ein paar Bemerkungen zu speziellen Aspekten des Buchs: Die Darstellung mathematischer Sachverhalte ist, bis auf einige wenige ”Ausrutscher“, korrekt und sollte für das Zielpublikum durchweg gut verständlich sein. Mathematisch Interessierte werden hier und da Zusammenhänge vermissen – so stehen in den Übungen zum dritten Kapitel euklidischer Algorithmus und Kettenbruchentwicklung nebeneinander, ohne dass die Verbindung gezogen wird. Oder im zweiten Kapitel: Da fällt eine ”schnelle“ Rekursion für die Fibonacci-Zahlen quasi vom Himmel; dass sich dahinter das allgemeine Prinzip der schnellen Exponentiation (iteriertes Quadrieren und Multiplizieren, alias russische Bauernexponentiation) verbirgt, anwendbar auf alle Folgen, die einer linearen Rekursion mit konstanten Koeffizienten genügen, bleibt verborgen. An solchen Stellen ist der Dozent gefragt.

Algorithmen werden, wie schon betont, nur als Mathematica-Code dargestellt. In den meisten Fällen werden auch Aussagen zur Komplexität (Laufzeit) gemacht, wobei nur uniforme (aber nicht auch logarithmische) Komplexität betrachtet wird, also die Anzahl der Elementar-Operationen, unabhängig von der Größe der Operanden. Das kann beim Rechnen über Z oder Polynomringen irreführende Aussagen ergeben. Gerade der beliebte Algorithmus für die ”schnelle“ Exponentiation liefert hierfür ein schlagendes Beispiel. Über Aspekte des Aufbaus von Computeralgebrasystemen (Datenstrukturen, Speicherung, Auswertungs- und Simplifikationsstrategien) erfährt man nur durch gelegentliche Andeutungen etwas, aber das wäre auch eher Gegenstand anderer Lehrveranstaltungen.

Jedes Kapitel enthält einen Abschnitt ”Ergänzende Bemerkungen“. Gerade im Hinblick auf die Tatsache, dass eine Vorlesung naturgemäß nur ein gerafftes Bild geben kann, empfinde ich diese Ergänzungen als zu ”mager“ geraten. Hier könnte man mit ein wenig mehr Platz mehr attraktive Hinweise für interessierte Leser geben. Zwei Ergänzungen meinerseits zu den Kapiteln 10 und 11: Zum holonomen und hypergeometrischen Themenkreis gibt es außer der erwähnten eigenen des Autors eine ganze Reihe weiterer Implementierungen, über die man sich auf der Seite Combinatorial Software and Databases unter http://igd.univ-lyon1.fr/˜slc/ orientieren kann. Insbesondere die Arbeiten von F. Chyzak (INRIA) mit Mgfun wären hier einen Hinweis wert. Was das Summations-Analogon des Risch-Algorithmus betrifft, also den Algorithmus von Karr, der ganz am Ende von Kapitel 11 kurz angesprochen wird, so hat sich hier in den letzten Jahren durch die Arbeiten von C. Schneider (RISC Linz) enorm viel getan – gerade auch im Hinblick auf die Implementierung.

Insgesamt bezieht das vorgelegte Buch seinen Reiz aus dem unmittelbaren Arbeiten mit einem Computeralgebrasystem. Wenn dieser praktische Zugang dazu führt, dass die Studierenden animiert und neugierig werden auf ein tieferes Verständnis, hat er seine Berechtigung, auch wenn einige problematische Seiten gesehen werden sollten. Die ausschließliche Verwendung von Mathematica zur Formulierung von Algorithmen kann den Blick für eine abstraktere Sicht von Algorithmen erschweren. Abstraktion kann (oder sollte wenigstens) ein Mittel der effizienteren Durchdringung komplexer Sachverhalte sein. Das gilt auch für die algebraische Seite der Medaille. Was nun die Verwendung von Mathematica im Speziellen angeht, so begründet der Autor seine Entscheidung dafür mit der besseren Benutzer-Oberfläche im Vergleich zur Konkurrenz. Das mag mit den neuen Versionen von Maple und MuPAD kein ganz so kräftiges Argument mehr sein, aber ”Oberfläche“ hat in diesem Zusammenhang noch eine andere Bedeutung: Es ist bei Mathematica in der Regel nicht sichtbar oder erfahrbar, was unter der Oberfläche eigentlich abläuft – ganz im Gegensatz zu Maple. Der Autor ist sich dieses Nachteils durchaus bewusst, vieles bleibt eben ”Betriebsgeheimnis“. Ich selbst ziehe in dieser Situation die Offenheit von Maple der Oberfläche von Mathematica vor, aber das ist eine Entscheidung, die auch noch von anderen Parametern (Verfügbarkeit, Lizenzen) beeinflusst wird.

Rezension: Volker Strehl (Erlangen) aus Computeralgebra-Rundbrief, Nr. 39 - Oktober 2006

Reelle Zahlen

reelle zahlen

Reelle Zahlen
Das klassische Kontinuum und die natürlichen Folgen

Oliver Deiser
Springer Verlag (2008), 560 Seiten, 2.Aufl., 200,00 €

ISBN: 3-5407-9375-5

Als Hochschullehrer gebe ich mir in den Anfängervorlesungen für werdende Mathematiker alle Mühe, den Studierenden den Aufbau des reellen Zahlsystem nahe zu bringen. Dazu folge ich dem Cantorschen Verfahren der Fundamentalfolgen, weil es sich bei der Behandlung reeller Folgen und dem Grenzwertbegriff als natürlich anbietet. Wir rechnen im Hörsaal dann tatsächlich etwa eine Woche lang mit Äquivalenzklassen von Cauchy-Folgen, bis wir dann schließlich die reellen Zahlen als „verstanden“ akzeptieren. So weit, so gut. Spätestens in den Prüfungen merke ich dann schmerzlich, wie wenig von dieser Idee offenbar verstanden wird. Fragen wie: „Sie stehen auf einer rationalen Zahl und im Abstand ε > 0 ist ein Zaun um Sie gezogen. Wie viele weitere rationale Zahlen finden Sie in Ihrem eingezäunten Garten?“ sorgen häufig für Konfusion und ich habe bis jetzt wohl so ziemlich alle möglichen Antworten zu hören bekommen, von „gar keine“ bis „überabzählbar viele“. Dies macht mich umso mehr betroffen, als ich an Richard Dedekinds Alma Mater lehre, dessen Arbeiten erstmals eine saubere Begründung des Zahlbegriffs und des reellen Zahlkörpers ermöglichten. Ich will damit sagen, dass ein Buch wie das vorliegende keinesfalls anachronistisch genannt werden kann; im Gegenteil, es scheint mir ein dringendes Desiderat in der modernen Lehrbuchliteratur zu sein, was nun befriedigt wird.

Oliver Deiser hat sein Buch in zwei große Abschnitte gegliedert, einen über das klassische Kontinuum und das zweite über Folgenräume. Zu Beginn des Buches findet sich eine didaktisch äußerst gelungene kurze Einführung in die Themen des Buches und – auf wenigen Seiten – eine Zusammenfassung der verwendeten mathematischen Notationen und Begriffe (das „Vokabular“, wie Deiser es treffend nennt). Der erste Abschnitt liefert eine sehr umfassende Darstellung aller relevanten Aspekte der reellen Zahlen, wobei Deiser, wie gewohnt, sich nicht nur an den historischen Entwicklungen orientiert, sondern auch zahlreiche historische Bemerkungen einfließen lässt. Über die inkommensurablen Strecken und der Irrationalität der Quadratwurzel gelangt der Autor zum Begriff der algebraischen und der transzendenten Zahlen und nimmt sogleich die Diskussion des Mächtigkeitsbegriffes in Angriff. Sehr schön werden mehrere Konstruktionsmöglichkeiten der reellen Zahlen in ihrem historischen Kontext vorgestellt. Im verbleibenden Teil des ersten Abschnitts bespricht Deiser Inhalte und Maße und kommt mit Hilfe einer Diskussion Euklidischer Isometrien auf die Grenzen des Messens zu sprechen, die im Banach-Tarski-Paradoxon ihren Höhepunkt finden. Im zweiten Abschnitt über Folgenräume wird der Baireraum der Menge aller Folgen natürlicher Zahlen und der Cantorraum aller unendlichen 0-1-wertigen Folgen (d.i. eigentlich die Potenzmenge (N), die aber mit dem obigen Folgenraum identifiziert werden kann) eingeführt. Ganz wesentlich geht es Deiser um die Beziehungen dieser drei Strukturen untereinander – Kontinuum, Baire- und Cantorraum. So untersucht er unter topologischen Aspekten Abbildungen des Baireraumes auf den Cantorraum. Wieder spielt auch die Maßtehorie eine wichtige Rolle und so wird das Lebesgue-Maß auf dem Cantorraum konstruiert um universell messbare Mengen, magere Mengen und Nullmengen zu charakterisieren. Über den Begriff der Wohlordnung und der Rekursion werden die konstruktiblen reellen Zahlen identifiziert und das Zornsche Lemma wird mit Hilfe der transfiniten Rekursion bewiesen. Eine kurze Diskussion irregulärer Mengen leitet zu unendlichen Zweipersonenspielen über. Der Zusammenhang zwischen Zahlen und Spielen ist wohl nicht besser darstellbar zu machen als in John Horton Conways berühmtem ONAG7, aber Deiser macht seine Sache nicht schlecht. Borelmengen und projektive Mengen schließen den zweiten Abschnitt ab.

Oliver Deiser hat wieder ein hervorragend lesbares Lehrbuch vorgelegt, das man nur uneingeschränkt empfehlen kann. Im Gegensatz zu anderen Autoren geht es Deiser ganz offenbar nicht darum, durch überzogene Abstraktion den Eindruck von Wissenschaftlichkeit zu erzeugen, sondern er will verständlich erklären und dabei die mathematische Exaktheit nicht preisgeben. Das ist ihm in diesem Buch wieder außerordentlich gelungen. An diesem Buch werden nicht nur Studierende ihren Geist schärfen können, sondern auch Experten werden (gerade im zweiten Abschnitt) ihre Freude haben. Es ist eines derjenigen Bücher, das ich jedem ernsthaft an Mathematik interessierten Menschen nur wärmstens empfehlen kann.

Rezension: Thomas Sonar, Braunschweig

Quelle: Springer Verlag, Mathematische Semesterberichte, September 2008, Band 55, Heft 2, S. 251
Mit freundlicher Genehmigung des Verlags

 

 

Mengen - Relationen - Funktionen

mengen relationen funktionen

Mengen - Relationen - Funktionen
Eine anschauliche Einführung

Lehmann, Schulz
Teubner, 208 Seiten, 2016, 4. Aufl. , 19,99 €

ISBN: 3-6581-4398-3

Beurteilung

Das Buch ist eine elementar gehaltene Einführung wichtiger Grundbegriffe der Mathematik. Im Interesse von Lesbarkeit und Schulnähe wurde nicht immer Vollständigkeit der Darlegung angestrebt.
Der Inhalt des Buches stellt einerseits eine Vorbereitung auf weitere mathematische Studien, speziell in der Algebra, Geometrie und in der Analysis, andererseits findet man einen Überlick über den mathematischen Hintergrund für große Teile des Mathematikstudiums.
Die gewählte Form der Darstellung unterscheidet sich von anderen zu diesem Thema vorliegenden Büchern durch das nahezu vollständig realisierte Zwei-Seiten-Konzept. Die Theorie wird fortlaufend auf der linken Seite dargestellt. Auf der rechten Seite finden sich jeweils zugehörige Beispiele, Übungen und stoffliche Ergänzungen. Dies hat den Vorteil, dass Bezüge zwischen Theorie und zugehörigen Beispielen unmittelbar deutlich werden.
Am Ende des Buches finden sich Lösungen und Lösungshinweise zu den Aufgaben.

 

Inhalt

  1. Mengen
    • Der Begriff der Menge
    • Das Prinzip der Mengenbildung
    • Zum Stufenaufbau der Mengenlehre
    • Das Prinzip der Mengengleichheit
    • Endliche und unendliche Mengen
    • Logische undd mengentheoretische Zeichen
    • Mengenalgebra
  2. Relationen
    • Der Begriff der n-stelligen Relation
    • Zweistellige Relationen in einer Menge
    • Spezielle Relationen
  3. Funktionen
    • Der Begriff der Funktion
    • Funktionen als spezielle Relationen
    • Ausblick auf Funktionen, die mehrstellig oder zweistellig sind
    • Binäre Operationen
    • Kapriolen der Null
    • Nullstellen von Funktionen
    • Monotone Funktionen
    • Eindeutige Funktionen
    • Gerade und ungerade Funktionen
    • Periodische Funktionen
    • Potenzfunktionen
    • Ganzrationale Funktionen
    • Rationale Funktionen
    • Winkelfunktionen
    • Operationen mit Funktionen
    • Beschränkte Funktionen
    • Maximum und Minimum
    • Funktionale Charakterisierungen einiger Funktionen
    • Ausblick auf Funktionen als Abbildungen
  • Lösungen
  • Literatur
  • Namen- und Sachverzeichnis

 

Mathematisch denken

mathematische denken

Mathematisch denken
Mathematik ist keine Hexerei

John Mason, Leone Burton, Kaye Stacey
Oldenbourg Verlag, 212 Seiten, 4. Aufl., 24,80 €

ISBN: 3-486-57854-5

Beurteilung

Das Buch beschäftigt sich mit der prinzipiellen Arbeitsweise der Mathematik und möchte aufzeigen, wie man mit ganz beliebigen Aufgabenstellungen umgeht, sie erfolgreich bearbeitet und aus der Bearbeitung Erfahrungen für andere Problemstellungen ableitet.
Das Buch ist nicht konzipiert, um es von vorne bis hinten durchzulesen, sondern soll eine Anregung zum eigenen Arbeiten sein.
Die behandelte Thematik wird immer wieder durch begleitende Beispiele und Problemstellungen illustriert. Dabei wird empfohlen, wenn man ein Problem nicht lösen kann, eben nicht einfach weiter zu lesen, sondern weiter aus verschiedenen Perspektiven darüber nachzudenken. Auch gibt es häufig Hinweise, wie z.B. sich erst einmal Spezialfälle zu veranschaulichen (und dann zu versuchen auf allgemeine Lösungen zu schließen), sich nochmals die gegebenen Voraussetzungen anzusehen (Setzt man vielleicht stillschweigend viel mehr voraus und behindert so die eigenen Lösungsansätze?) und mit Lösungen kritisch umzugehen (Gilt die Lösung vielleicht nur in bestimmen Spezialfällen und nicht immer?).
Auch wenn man trotz allem zu keiner Lösung gelangt wird man durch die Versuche und die nachgelesenen Erklärungen des Lösungsweges viel für spätere Aufgaben lernen (zumindest, wenn man sich wirklich ernsthaft mit dem Problem beschäftigt hat). Ziel des Buches ist es ja gerade nicht Ergebnisse zu produzieren, sondern Erfahrungen zu erwerben, mathematische Konzepte auf Problemstellungen anwenden zu können.
Gerichtet ist das Buch primär an Schüler und Studenten, die mathematische Probleme angehen möchten, es ist aber auch allen anderen Interessierten herzlichst empfohlen.

Inhalt

  1. Das Anpacken von Problemen
    • Betrachten Sie Spezialfälle
    • Verallgemeinerungen
    • Machen Sie sich Notizen!
    • Rückblick und Vorausschau
  2. Arbeitsphasen
    • Die drei Phasen
    • Die Planungsphase
    • Die eigentliche Durchführung
    • Die Rückblick-Phase
    • Zusammenfassung
  3. Überwindung von Schwierigkeiten
    • Die Ausgangslage
    • Zusammenfassung
  4. Das Aufstellen von Vermutungen
    • Was versteht man unter Aufstellen von Vermutungen?
    • Vermutungen: Das Rückgrat jeder Lösung
    • Wie kommen die Vermutungen zustande?
    • Das Aufdecken von Gesetzmäßigkeiten
    • Zusammenfassung
  5. Erklären und Beweisen
    • Strukturen
    • Die Suche nach Strukturen
    • Wann hat man eine Vermutung bewiesen?
    • Wie wird man sein innerer Feind?
    • Zusammenfassung
  6. Haben Sie immer noch Schwierigkeiten?
    • Die Reduzierung auf eine präzise Fragestellung und der Prozess intensiven Nachdenkens
    • Spezialisieren und Verallgemeinern
    • Stillschweigende Annahmen
    • Zusammenfassung
  7. Die Entwicklung eines inneren Ratgebers
    • Die Aufgaben des inneren Ratgebers
    • "Schnappschüsse" von Gefühlszuständen
    • Arbeitsbeginn
    • Wie man sich engagiert
    • Der eigentliche Denkvorgang
    • Beharrlichkeit
    • Einsichten
    • Seien Sie skeptisch
    • Nachbearbeitung
    • Zusammenfassung
  8. Wie erfindet man Fragen?
    • Ein Spektrum von Aufgaben
    • Einige "fragwürdige" Umstände
    • Beobachtungen
    • Was steht dem Stellen von Fragen im Weg?
    • Zusammenfassung
  9. Wie man in die mathematische Denkweise hineinwächst
    • Wie man seine mathematische Denkweise verbessern kann
    • Wie provoziert man mathematisches Denken?
    • Wie man das mathematische Denken fördern kann
    • Der Nutzen der mathematischen Denkweise
    • Zusammenfassung
  10. Aufgaben
    Anhang
  • Literaturverzeichnis
  • Aufgabenverzeichnis
  • Stichwortverzeichnis