Warum wir der KI nicht das Denken überlassen sollten

mit Ada Rhode

Darum geht's in dieser Folge

In dieser Folge geht es um die Frage, wie verlässlich generative KI wirklich ist und warum sie so überzeugend wirkt. Mediendozentin Ada Rhode erklärt, wie Sprachmodelle technisch funktionieren, weshalb sie kein Verständnis von Wahrheit haben und welche Rolle unser eigenes Denken dabei spielt. Im Mittelpunkt steht die Frage, wie wir KI sinnvoll als Unterstützung nutzen können, ohne Urteilsfähigkeit und kritisches Denken aus der Hand zu geben.

Foto: privat

Ada Rhode ist TÜV-zertifizierte KI-Trainerin, Zukunftsdesignerin, Journalistin und Mediendozentin. Sie bildet seit über 20 Jahren Studierende im digitalen Journalismus aus und stärkt mit Vorträgen, Workshops und Online-Angeboten KI- und Medienkompetenz für Demokratie.

Ada Rhode auf LinkedIn

KI klingt klug, denkt aber nicht

Viele Menschen haben beim Lesen von KI-Antworten das Gefühl, mit einem denkenden Gegenüber zu sprechen. Genau hier setzt ein zentrales Missverständnis an. Sprachmodelle wie ChatGPT verstehen weder Inhalte noch Bedeutung. Sie berechnen Wahrscheinlichkeiten für Wortfolgen und erzeugen daraus Texte, die für uns logisch und stimmig klingen. Unser Gehirn interpretiert diese Kohärenz automatisch als Kompetenz.

Ada Rhode bringt es im Gespräch auf den Punkt: „Das Sprachmodell selbst weiß nichts. Es erzeugt schöne Texte auf Basis von Wahrscheinlichkeiten.“ Die Herausforderung liegt also weniger in der Technik selbst als in unserer Wahrnehmung. Weil die Sprache so plausibel klingt, überschätzen wir schnell die inhaltliche Verlässlichkeit der Antworten.

"Das Sprachmodell selbst weiß nichts. Es erzeugt schöne Texte auf Basis von Wahrscheinlichkeiten."
Ada Rhode

Warum Halluzinationen kein Fehler sind

Wenn KI falsche Fakten erfindet oder Quellen erdichtet, wird oft von Bugs oder Fehlfunktionen gesprochen. Tatsächlich verhält sich das System genauso, wie es konstruiert wurde. Es ist darauf trainiert, immer eine Antwort zu liefern, auch dann, wenn die Datenlage dünn oder widersprüchlich ist. Ein Eingeständnis von Nichtwissen ist technisch nicht vorgesehen.

Ada Rhode sagt dazu: „Wenn die Datenlage dünn ist, wird die KI trotzdem eine Antwort geben – und dann halluziniert sie.“ Diese sogenannten Halluzinationen sind deshalb kein Ausnahmefall, sondern ein systemimmanentes Merkmal. Die Modelle haben kein Konzept von Wahrheit, sondern nur von sprachlicher Wahrscheinlichkeit. Umso wichtiger ist es, Antworten nicht ungeprüft zu übernehmen.

KI als Denkpartner, nicht als Ideengeber

Sinnvoll eingesetzt, kann KI ein hilfreicher Sparringspartner sein. Entscheidend ist dabei die Reihenfolge. „Der erste Aufschlag muss von uns kommen”, sagt Ada Rhode. „Erst denken, dann die KI nutzen, um Perspektiven zu erweitern.“ Wird die KI zu früh eingesetzt, entsteht schnell generischer, austauschbarer Output ohne eigene Perspektive. 

Besonders gut funktioniert KI dort, wo sie Strukturen anbietet, alternative Blickwinkel aufzeigt oder Feedback gibt. Kreative Substanz, Haltung und Zielsetzung lassen sich jedoch nicht delegieren.

Vier praktische Empfehlungen für den KI-Alltag

Erst selbst denken, dann die KI nutzen

Der wichtigste Grundsatz im Umgang mit KI lautet: Der erste Gedanke sollte immer vom Menschen kommen. Wer die KI sofort nach Lösungen fragt, bekommt häufig generische Antworten. Besser ist es, eigene Ideen, Thesen oder Fragestellungen zu formulieren und die KI anschließend als Reflexionshilfe oder Sparringspartner einzusetzen.

Antworten grundsätzlich hinterfragen

KI klingt überzeugend, hat aber kein Verständnis von Wahrheit. Deshalb sollten Ergebnisse nie ungeprüft übernommen werden – insbesondere bei Fakten, Zitaten oder komplexen Zusammenhängen. Ein kurzer Realitätscheck, etwa durch Gegenrecherche oder Quellenprüfung, ist entscheidend für einen verantwortungsvollen Einsatz.

KI für Struktur und Perspektiven nutzen

Ihre Stärke liegt nicht im Ersetzen menschlicher Kreativität, sondern im Ergänzen. KI eignet sich besonders gut, um Strukturen, Frameworks oder alternative Blickwinkel aufzuzeigen. So kann sie helfen, blinde Flecken zu erkennen oder Gedanken weiterzuentwickeln, ohne die inhaltliche Kontrolle abzugeben.

Komplexität bewusst zulassen

Nicht jede Frage hat eine eindeutige Antwort. KI neigt dazu, Mehrdeutigkeit glattzubügeln und klare Aussagen zu liefern. Ein reflektierter Umgang bedeutet, genau hier aufmerksam zu bleiben, Widersprüche auszuhalten und sich bewusst zu machen, dass einfache Antworten oft eine verkürzte Realität abbilden.

Medienkompetenz als gesellschaftliche Aufgabe

KI verstärkt Entwicklungen, die bereits durch Social Media bekannt sind. Narrative verbreiten sich schneller, Gegendarstellungen haben es schwerer und Komplexität wird oft zugunsten einfacher Erklärungen reduziert. Medienkompetenz bedeutet deshalb heute mehr als Quellenkritik. Für Ada Rhode umfasst sie die Fähigkeit, Ambivalenzen auszuhalten und unterschiedliche Perspektiven mitzudenken.

„Wir müssen ein Gespür dafür bekommen, welche Narrative kursieren“, sagt sie. In einer Welt, in der KI Inhalte filtert, verdichtet und neu formuliert, wird genau diese Kompetenz zur Schlüsselqualifikation. Für Einzelne ebenso wie für die Gesellschaft insgesamt.

Jetzt Episode hören auf:

wvgw
Wirtschafts- und 
Verlagsgesellschaft
Gas und Wasser mbH
Josef-Wirmer-Str. 3
53123 Bonn

Tel.: +49 228 9191-40

Mo – Do: 8:00 – 17:00 Uhr
Fr: 8:00 – 14:00 Uhr

KAI.news: alle 14 Tage in Ihrem Postfach

Künstliche Intelligenz verändert Gesellschaft und Unternehmen. Unser Newsletter hilft Ihnen, diese Entwicklung einzuordnen – ohne Hype und Techniksprech, aber mit klarem Fokus auf Ihre Praxis. 

Jetzt hier kostenlos abonnieren und immer auf dem Laufenden bleiben.