Auf dem (auch sonst sehr interessanten) YouTube-Kanal von Edmund Weitz (<a href="https://www.youtube.com/c/WeitzHAWHamburg">https://www.youtube.com/c/WeitzHAWHamburg</a>) gibt es sei Mitte Januar ein Video "ChatGPT und die Mathematik" mit zahlreichen lustigen Antworten der Künstlichen Intelligenz auf mathematische Fragen. Er berichtet dort zum Beispiel, wie ChatGPT als Produkt von 2792478 und 4107069 das Ergebnis 11518659440462 ausgibt - richtig wäre 11468899826982 gewesen - und dann auf die Nachfrage "Wie bist Du auf die Antwort gekommen?" behauptet "Ich habe die Zahlen einfach miteinander multipliziert."

Die Umformung von <code>\(latex \frac{(a^4)^7}{a^7}\)</code> führt es immerhin zu einem richtigen Ergebnis, auch wenn dabei sinnlose und im drittletzten Term auch falsche (und völlig überflüssige) Umformungen vorkommen.
<a href="https://scienceblogs.de/mathlog/files/2023/04/IMG_0961.jpeg"><img src="https://scienceblogs.de/mathlog/files/2023/04/IMG_0961-1024x249.jpeg" alt="" width="1024" height="249" class="alignnone size-large wp-image-19468" /></a>

Auf die Wissensfrage "Kannst Du mir drei bekannte Mathematiker aus der DDR nennen?" bekommt man diese Antwort:
<a href="https://scienceblogs.de/mathlog/files/2023/04/IMG_0962.jpeg"><img src="https://scienceblogs.de/mathlog/files/2023/04/IMG_0962-1024x516.jpeg" alt="" width="1024" height="516" class="alignnone size-large wp-image-19469" /></a>

 

Künstliche Intelligenzen geben auf gleiche Fragen nicht immer gleiche Antworten. (Fragt man Siri "Wie heißt Du?", dann antwortet sie "Ich heiße Siri." Stellt man die Frage einige Minuten später erneut, so antwortet sie "Ich heiße Siri, aber das wußtest Du ja schon.") Während ChatGPT bei der Multiplikation von 2792478 und 4107069 auch bei der zweiten Nachfrage dasselbe falsche Ergebnis liefert, gibt es auf die Frage nach Mathematikern aus der DDR im zweiten Versuch eine ganz anderen, freilich genauso falsche und sinnlose Antwort:
<a href="https://scienceblogs.de/mathlog/files/2023/04/IMG_0963.jpeg"><img src="https://scienceblogs.de/mathlog/files/2023/04/IMG_0963-1024x511.jpeg" alt="" width="1024" height="511" class="alignnone size-large wp-image-19470" /></a>

Andererseits kann ChatGPT die primitiven 24-ten Einheitswurzeln mit einer wirklich guten (eher zu ausführlichen) Begründung bestimmen, es antwortet korrekt auf die Fangfrage "If 12 is the square root of a<sup>2</sup>, then a is 12, right?", es löst mit ausführlicher und korrekter Begründung die Gleichung <code>\(latex \Vert a+35i\Vert=37\)</code>, kennt das kleinste nicht mit Zirkel und Lineal konstruierbare regelmäßige Polygon, und gibt eine lehrbuchmäßige Begründung für die Nichtentknotbarkeit der Kleeblattschlinge:
<a href="https://scienceblogs.de/mathlog/files/2023/04/IMG_0965.jpeg"><img src="https://scienceblogs.de/mathlog/files/2023/04/IMG_0965-1024x477.jpeg" alt="" width="1024" height="477" class="alignnone size-large wp-image-19471" /></a>

Die Ungleichheit zwischen 3987<sup>12</sup>+4365<sup>12</sup> und 4472<sup>12</sup> begründet es nicht durch eine Rechnung, sondern mit „Fermat's Last Theorem“ - allerdings mit einigen irreführenden Addenda, in denen es von "Ausnahmen" spricht. Auf Nachfrage bekommt man dann diese in jeder Hinsicht falsche Antwort:
<a href="https://scienceblogs.de/mathlog/files/2023/04/IMG_2468.jpeg"><img src="https://scienceblogs.de/mathlog/files/2023/04/IMG_2468-1024x484.jpeg" alt="" width="1024" height="484" class="alignnone size-large wp-image-19472" /></a>

Das ganze Video auf https://youtu.be/medmEMktMlQ

Um einen Kommentar zu verfassen, müssen Sie sich einloggen bzw. kurz als Gast registrieren.