Das Kind hat wieder eine besondere Phase und du denkst dir: Alle nutzen ChatGPT, warum nicht auch ich, um zu erfahren, wie wir diese emotionale Entwicklungsklippe umschiffen? Statt verschiedene Familienportale wie familienportal.nrw, eltern.de oder rund-ums-baby.de zu durchforsten oder sich in Blogs zu verlieren, kann das doch eigentlich ChatGPT regeln? Eventuell auch Gemini oder LeChat. Alles kein Problem?
Viel trifft auf wenig: LLMs mögen Inhalte, die häufig wiederholt werden
Schon im vorherigen Beitrag „Generative KI und Kochen: Eine große Liebe?“ ging es darum, wie LLMs, stark vereinfacht gesprochen, ihre Antworten errechnen. Für viele ist ja Mathe eins dieser abschreckenden Fächer in der Schule, deswegen verbildlicht vielleicht ein weniger mathematisch-wirkendes Beispiel besser, wie generative KI ihre Antworten errechnet. Nämlich ein wenig so wie der 16-jährige Teenie im Hormonchaos, der beim Thema „Coolness“ und „was angesagt ist“ eben nach dem geht, was alle machen und vor allem alle erzählen. In den 2000ern war es zum Beispiel dieser Gedankengang hier: Super tiefe Hüfthosen sind der letzte Schrei? Trägt jeder, darüber redet jeder und dann muss es wohl relevant sein. Oder aktuell die Gen Alpha-Sprache: keine gebeugten Verben? Weglassen von Satzteilen? Reden alle drüber, muss relevant sein. Das crazy.
LLMs rechnen damit, was am wahrscheinlichsten ist und was am meisten erwähnt wird, ist die wahrscheinlich richtigste Antwort. Dabei wird auch der Kontext berücksichtigt. Säugling schläft schlecht, weil er 6 Monate ist? Schlafregression, vielleicht noch Überreizung, aber bei wenigen Informationen bekommst du nur die häufigsten Antworten.
Bei mehr Informationen heißt das leider nicht, dass das auch an irgendeiner Stelle schon mal belegt gewesen wäre. Je nachdem wie heiß euer LLM, egal ob ChatGPT, Gemini oder LeChat, ist, kann es auch mal richtig kreativ werden. Aber was machst du, wenn dein Kind schlecht schläft, weil es vielleicht eine Erkältung ausbrütet oder ernsthafteres Ungemacht im Anflug ist? Auf Chatty hören und denken „Das ist nur eine Phase“. Dabei wäre Rat und Tat an anderer Stelle, z.B. bei Hebammen, Kinderärztinnen oder Familienbegleiterinnen, zu suchen die bessere Wahl. Vor allem, wenn es um Nischenthemen geht und du bereits als Standardtipps ausprobiert hast.
Datenschutz: Weiß deine Anwendung bald mehr als Google über dich?
Das bringt mich zu meinem nächsten Punkt. Und da bin ich richtig langweilig und spießig. Datenschutz. Hört sich einfach erstmal schwer und sperrig an, aber…weißt du, was mit deinen Daten passiert? In vielen KI-Tools gibt es einen Passus, der sinngemäß lautet „Ihre Daten werden zu Trainingszwecken genutzt“. Jetzt bin ich nicht so egozentriert, dass ich glaube, dass die privaten und persönlichen Informationen von mir einen relevanten Einfluss auf die Datenbasis des LLMs hat. Aber was ist, wenn Teile der Daten als Teile eines Datenpakets mal verkauft werden? Was ist, wenn doch eine Schnittstelle unsicher ist und deine persönlichen Probleme im familiären Bereich eventuell einem breiteren Publikum zur Verfügung stehen? Oder deine persönliche Krankengeschichte, die du eigentlich nur deinem Chatbot erzählt hast, bei deiner Krankenkasse aufschlägt?
Ja, vielleicht aktuell noch eher Verschwörungstheorie als brutale Wirklichkeit. Aber alleine die Integration von ChatGPT und deinen Shopping Portalen macht es spannend. Wurdest du früher nur von gut gemachter Werbung im Internet verfolgt, wird sie dir vielleicht zukünftig in einem seriös-wirkenden Umfeld mit einer vertrauten und zuverlässigen Stimme gar nicht mehr als Werbung und Beeinflussung vorkommen. Und dann erhältst du vielleicht Empfehlungen, die darauf beruhen, was ChatGPT, Gemini oder LeChat über dich „wissen“, d.h. welche Daten die Anwendungen bereits über dich sammeln und verarbeiten konnten. Ein Szenario wie bei George Orwell.
Kreativität trifft Theorie: Interessiert sich ChatGPT für die Wahrheit?
Und wie schon oben kurz angesprochen: generative KI soll vor allem menschenähnliche Textgebilde produzieren. D.h. es soll sich anhören, anfühlen und lesen wie ein von Menschen generierter Text. Sie müssen aber nicht wahr oder richtig sein. Das Ziel ist nicht, die wahrscheinlich richtigste Antwort zu geben. Das Ziel ist es eine möglichst nicht mehr von menschlichem Output zu unterscheidende Antwort zu geben. Was es fast schon wieder menschlich macht, denn auch wir Menschen geben durchaus falsche Antworten. Ich zum Beispiel vorhin auf die Frage, wer die Chips gegessen hat. Laut mir war es ein Wichtel.
Lieber auf Nummer sicher gehen: vertrauensvoll zum Kinderarzt oder zur Familienberatung
Zusammengefasst ist es eher ein heißes Eisen statt mit Kinderärzten, Hebammen oder der Familienberatung zu sprechen, seinen Frust, seinen Ärger oder auch einfach nur seine Ängste bei einem Chatbot abzuladen. Ich verstehe den Impuls: lange Wartezeiten bei Ärzten, ein zerrüttetes Vertrauensverhältnis zu einem Arzt oder einer Hebamme, die Scham davor, dass deutlich wird, dass man als Mutter Schwierigkeiten hat und Hilfe mit den eigenen Kindern benötigt. All das kenne ich aus meinem direkten Umfeld. Aber ein unkontrollierte Softwareanwendung, deren Existenzzweck es ist, schöne, menschenähnliche Texte zu erschaffen, kann nicht ohne Check der Quellen oder gerne auch dem Abgleich mit schönen Mütter-Handbüchern die Lösung sein.

