Einer meiner Lieblings-Mental-Load-Reduction-Hacks mit ChatGPT ist tatsächlich Wochenpläne für Mahlzeiten erstellen zu lassen oder neue Koch- und Backrezepte auszuprobieren. Gerade bei Kochrezepten rettet mir ChatGPT das ein oder andere Essen, weil mein müder Kopf, zusammen mit einer unzureichend ausgestatteten Speisekammer und etwaigen Resten im Kühlschrank leider mehr Ratte als Ratatouille ist.
Aber warum kann das eigentlich funktionieren? Was kann dabei funktionieren und wo hat dieses mobile Küchenlexikon eventuell seine Grenzen? Das erklärt der Apfelkuchen im Beitragsbild.
Ein LLM, kurz für Large Language Model, basiert auf Texten. Welche Texte die Entwickler bei OpenAI zum Training genommen haben, ich weiß es nicht, aber in meiner naiven Weltvorstellung ist das LLM, auf dem ChatGPT fußt, durch das weite Internet-Meer geschwommen und hat einfach mal alle Texte, die es finden konnte, wie Plankton verspeist. Und wenn es eine Art von Blogs gibt, die super populär sind, dann sind es Kochblogs. Privatpersonen haben sie, Lebensmittelhersteller und -verkäufer haben sie, und Chefkoch bietet wahrscheinlich die größte deutschsprachige Rezeptsammlung im Internet.
[Kleiner Schmunzler am Rande: hier meckert ChatGPT, dass ich doch bitte darauf hinweisen möge, dass die Texte natürlich kuratiert, also ausgewählt, sind und nicht, dass das ganze Internet als Text verschlungen worden ist.]
Was heißt das für das LLM? Die Texte waren da, die Texte sind wahrscheinlich, denn das Kreieren neuer Rezepte macht ChatGPT richtig gut, auch verarbeitet worden in irgendeiner Art und Weise und weil es so viele Texte über die korrekte Zubereitung von Omas Apfelkuchen und auch Eierpfannkuchen gibt, ist die Wahrscheinlichkeit ziemlich hoch, dass ihr auf die Frage „Welchen Kuchen sollte ich zum Familienbesuch am Sonntag machen?“ die Antwort bekommt „Apfelkuchen in Variante XYZ“.
[Ich teste das mal. ChatGPT enttäuscht nicht und bietet mir auf Platz 1 der Klassiker „Apfelkuchen mit Streuseln“ an. Platz 2: Marmorkuchen (Gugelhupf). Platz 3: Zitronenkuchen (Kastenform). Platz 4: Klassischer Käsekuchen.]
Warum schreibe ich schon wieder einen Text von und über Apfelkuchen? Weil dieses Beispiel einer der wichtigsten Wirkungsweisen von LLMs richtig gut aufzeigt: LLMs errechnen (nicht raten, nicht denken), welche Antwort am wahrscheinlichsten die richtige ist. Um das zu können, also zu rechnen, sind sie auf die Datenbasis angewiesen, die ihnen zu Grunde liegt. Wenn das Internet voll mit Apfelkuchen-Rezepten ist und in so ziemlich jedem dritten Beitrag betont wird, dass Apfelkuchen eben der Klassiker und das Allround-Rezept ist, dann, stark vereinfacht gesagt, errechnet das LLM bei meiner Frage „Welchen Kuchen sollte ich für einen Familienbesuch backen?“ ohne weitere Einschränkungen, dass die wahrscheinlichste Kombination von Wörtern, Silben und Satzzeichen „Klassiker mit hoher Akzeptanz: 1. Apfelkuchen mit Streuseln“ ist.
Kurzfassung: Viele Texte über Apfelkuchen ➜ Große Datenmenge „Apfelkuchen“ für LLMs ➜ bekommt in der Ausgabe eine höhere Wahrscheinlichkeit ➜ Vorschlag im Beispiel eher Apfel- als Birnenkuchen
Warum jetzt dieser lange Apfelkuchen- und Datengrundlage-Exkurs? Weil es im umgekehrten Fall eine Relevanz hat, wenn auf einmal Nischenthemen gefragt sind. Beim Backen fällt es schon auf: Der Apfelkuchen wird als wahrscheinlicher als der Birnenkuchen gewertet. Das heißt, der Birnenkuchen wird mir gar nicht vorgeschlagen. Ist halt in der großen Datenmenge weniger wahrscheinlich. Um an ein Rezept für Birnenkuchen zu kommen, muss ich entweder
- aktiv nach Birnenkuchen fragen oder
- meinen Chatbot (ChatGPT, Gemini, LeChat) aktiv dazu auffordern, nicht das wahrscheinlichste Beispiel herauszusuchen.
Beides keine Probleme (nur mehr Aufwand), aber wichtig zu wissen: häufig ist die erste Ausgabe des Chatbots eine Mischung aus Faulheit und dem Zugriff auf relativ undifferenzierte Mainstream-Antworten. Und das bitte nicht falsch verstehen: ich liebe Apfelkuchen.
Der Spaß mit der Mathematik bei Mengenangaben in Rezepten
Was ihr hoffentlich aus dem Artikel mitgenommen habt ist, dass grundsätzlich die Möglichkeit besteht, z.B. ChatGPT als Koch- und Backbuch zu benutzen. Aber, was mir noch viel wichtiger ist, dass die App auch etwas faul ist und im ersten Versuch eher das ausgibt, was „alle“ (also die Mehrheit) sagen würde.
Für wen das passt: gut. Für alle anderen gilt, weiterbohren oder die Frage (=Prompt) an den Chatbot präziser und genauer stellen. Und das mit einem übermüdeten Mütter-Gehirn.
Eine letzte Sache, die mir beim Kochen und weniger beim Backen aufgefallen ist: ChatGPT kann immer noch nicht gut rechnen. Wichtig: das soll das Programm auch gar nicht können.
Denn was es als LLM macht, ist ja: Wörter in kleinere Einheiten (=Token) aufbrechen ➜ Einheiten in Zahlen umwandeln ➜ mit diesen umgewandelten Zahlen Wahrscheinlichkeiten berechnen ➜ das Ergebnis wieder in zusammenhängenden Text umwandeln.
In diesem Ablauf sind in der Frage „wie viel sind 5 Eier mal 3 Eier, wenn mir 2 Eier runtergefallen sind“ die Zahlen 5, 3 und 2 ebenfalls „Sinn“-Einheiten, die in eine mathematische Einheit umgerechnet werden. Falls der Kopf raucht, kein Problem.
Wichtigste Sache: Für Berechnungen braucht es einen Taschenrechner, kein LLM. Da steckt im Namen Großes (Large) Sprach (Language) Modell (Modell) und nicht wundersame Taschenrechner-Maschine.
Genug Technik. Warum schreibe ich das hier, wenn ich doch eigentlich von Kochen und Backen mit Chatbots (=ChatGPT, Gemini, LeChat) schreibe? Weil die Maßangaben mit Vorsicht zu genießen sind. Beim Backen von Standardrezepten sind die Angaben, wenig überraschend, stabil.
Bei Kochen von möglicherweise ausgefallenen glutenfreien Bowls mit Ersatzprodukten, die man eben noch so in der Speisekammer hat, kann es schon mal vorkommen, dass man die Reisportion für fünf Erwachsene kocht, aber die Röstzwiebeln nur für einen halben Hot Dog reichen würden. Das heißt auch hier gilt: ChatGPT zum Beispiel ist in vielen Marketing-Belangen wie der Thermomix für’s Kochen: er vereinfacht und macht Text schneller zugänglich.
Aber anders als der Thermomix wurden zumindest ChatGPT, Gemini und LeChat nicht dafür konzipiert, gute Rezepte zu zaubern. Ihr Ziel: Texte kreieren, die nicht von Menschen verfasste Texte zu unterscheiden sind. Egal, ob der Inhalt faktisch richtig oder totaler Nonsense ist. Denn das Modell ist, heute zumindest, nicht in der Lage Faktizität selbst zu überprüfen.
Insofern: Fröhliches Backen!

