Total berechenbar?
Wenn Algorithmen für uns entscheiden
Christoph Drösser
Carl Hanser Verlag GmbH & Co. KG (14. März 2016)
Taschenbuch, 256 Seiten, 17,90 €
ISBN-10: 3446446990
ISBN-13: 978-3446446991
Christoph Drösser, der bekannte Wissenschaftsredakteur der Wochenzeitung DIE ZEIT, beschreibt in diesem Buch Verfahren und Methoden, die in Computerprogrammen, in Apps, in den sozialen Netzwerken, ja in jeder beliebigen Software stecken und damit heute den computer-bestimmten Teil unseres Alltags beeinflussen.
Im einführenden Kapitel wird der Begriff des Algorithmus erläutert und an solch klassischen Beispielen wie der Multiplikation zweier Zahlen sowie des Sortierens von Mengen erklärt. Bei letzteren stellt er langsame Verfahren (Sortieren durch Auswahl – ‚selection sort‘ – und durch Einfügen –‚insertion sort‘) und einen schnellen Algorithmus (‚quicksort‘) vor und geht dabei auf den Begriff der Effizienz ein.
Im Weiteren werden eine Vielzahl von Algorithmen besprochen, die sich grob in zwei Typen einteilen lassen. Zum einen solche, die nur auf objektiven mathematischen Grundlagen beruhen, zum anderen solche, in denen auch subjektiv ausgewählte Annahmen und Voraussetzungen in das Programm eingehen.
Zu den ersteren gehören:
- die in Routenplanern implementierten Suchalgorithmen, die die optimale Verbindung in einem Verkehrsnetz zwischen Start und Ziel finden (der Dijkstra- und der A*-Algorithmus werden vorgestellt)
- Verschlüsselungsverfahren, die für sichere Übertragung von z. B. Mails und Finanzaktionen benötigt werden (Diffie-Hellman-Verfahren und RSA)
- Komprimierungsverfahren für Text (Huffman), Bild (jpg), Musik (mp3) und Video
(hier werden die Eigenschaften von verlustfreier und verlustbehafteter Kompression besprochen) - im Anhang werden nur kurz noch einige mathematische Verfahren angedeutet, u. a. euklidischer und Simplex-Algorithmus sowie fehlerkorrigierende Verfahren (Hamming-Code)
Diese Algorithmen werden sehr anschaulich und gut verständlich an Hand von Beispielen erläutert und zeigen, wie sehr moderne Verfahren der diskreten Mathematik – von den Nutzern unbemerkt – heute in unseren alltäglich verwendeten Geräten enthalten sind.
Zur zweiten Kategorie rechne ich u. a.
- das Suchverfahren ‚page rank‘ der Suchmaschine von Google
- „Empfehlungsalgorithmen“, wie man sie z. B. bei Amazon erleben kann
- der sogenannte ‚Newsfeed‘ von Facebook
- Prognose-Verfahren, z. B. über die Kreditwürdigkeit von Personen oder beim Computer-Handel an Börsen
Die allgemeinen Grundlagen dieser Algorithmen sind bekannt. Im Gegensatz zu denen der ersten Kategorie sind aber die genauen Voraussetzungen und – teilweise auch noch häufig wechselnden – Annahmen Firmengeheimnis und damit selbst für den fachlich vorgebildeten Nutzer nicht voll durchschaubar. Dies hat weitreichende – auch gesellschaftspolitische – Konsequenzen.
Als Beispiel dafür nenne ich den ‚Newsfeed‘ von Facebook (ich habe keinerlei Erfahrungen damit) und zitiere Drösser: „Für 30 Prozent der US-Bürger ist Facebook heute die wichtigste Nachrichtenressource. ... Wie kommt dieser Newsfeed zustande? Natürlich durch einen Algorithmus. Für viele Nutzer ist das überraschend, sie glauben, dass die Nachrichten dort so hineinfließen, wie sie erstellt werden. Aber damit wären die meisten überfordert. ... Facebook muss all diese Geschichten in eine Reihenfolge bringen. ... Facebook entscheidet also, was ich zu sehen bekomme und was nicht, und wie wir sehen werden, hat das weitgehende Folgen politischer und publizistischer Natur. ... Je aktiver man auf Facebook ist, je mehr man klickt, kommentiert und weiter teilt, um so mehr trainiert man den Algorithmus auf seine eigenen Präferenzen. ... Damit bestreitet Facebook, eine auswählende Instanz zu sein, und gibt jegliche Verantwortung an den einzelnen User zurück.“
Damit ist das Problem der „Filterblase“ angesprochen: Jeder ist in der Gefahr (oder ist es vielleicht auch der eigene Wunsch?) nur noch Informationen zu erhalten, die Tag für Tag die eigene Weltsicht bestätigen.
Ähnlich kritische Anmerkungen macht Drösser bei anderen Algorithmen der zweiten Kategorie. Er beschreibt zwar die Vorteile, die solche Verfahren haben können, weist aber auch immer wieder auf die Nachteile hin, die mit diesen verbunden sind. Es ist ein Verdienst dieses Buches, dass man sich nach dessen Lektüre dieser Gefahren eher und deutlicher bewusst werden kann. Er schließt sein Buch mit acht Thesen, deren Botschaft man zusammenfassen kann: Algorithmen sind nicht objektiv, sie können negative Wirkungen haben (auch wenn die von den Autoren nicht intendiert waren), sie ersetzen nicht den politischen Diskurs und es muss in der Gesellschaft entschieden werden, was Algorithmen dürfen und was nicht.
Rezension: Hartmut Weber (Kassel)