
NEWS – Dezember 2025
KI: Wer denkt da eigentlich?
Künstliche Intelligenz klingt nach objektiver Technik – doch jede KI lernt von uns Menschen. Bedeutet das, dass sie auch Meinungen oder sogar Vorurteile haben kann? Und wer trägt dann die Verantwortung für das, was sie sagt oder entscheidet? Wenn Maschinen plötzlich Meinung zeigen, wird klar: die digitale Welt ist nie ganz neutral.

Autor: Stephan Scharinger
Künstliche Intelligenz ist längst keine Science-Fiction mehr. Sie beantwortet Fragen, schreibt Texte, filtert Beiträge in deinem Social-Media-Feed – und hilft dir vielleicht sogar beim Lernen. Doch je mehr wir uns auf smarte Maschinen verlassen, desto wichtiger wird eine Frage: Wie neutral ist KI eigentlich – und wer bestimmt, was sie uns zeigt oder sagt?
Hinter jeder KI stehen nämlich Menschen, Unternehmen und ganze Industrien, die viel Geld und Aufwand in ihre Entwicklung stecken. Dabei geht es nicht nur um Technik, sondern auch um Macht, Daten und Einfluss – darüber, wie wir denken, was wir glauben und worüber wir sprechen. Gleichzeitig profitieren wir als Nutzer enorm: KI kann unseren Alltag erleichtern, kreative Ideen fördern und komplexe Aufgaben vereinfachen.
Aber mit den Chancen wachsen auch die Gefahren. Wenn Algorithmen entscheiden, was „wichtig“ ist, können Meinungen verzerrt oder Interessen unsichtbar werden. Deshalb ist es wichtig, zu verstehen, wie KI funktioniert – und wie wir sie bewusst, kritisch und selbstbestimmt nutzen können.

Was sich die Macher von KI erhoffen
KI zu entwickeln ist teuer. Große Unternehmen investieren Milliarden, um Maschinen immer klüger zu machen. Nicht nur die Technik, sondern auch die Daten sind kostbar – und KI braucht beides zum Lernen. Je mehr Informationen ein System bekommt, desto „besser“ kann es später arbeiten. Genau hier beginnt ein wichtiges Spannungsfeld: Wer Daten von Millionen Menschen besitzt, kann damit nicht nur die KI „füttern“, sondern hat auch enorm viel Macht.
Wer KI entwickelt, gestaltet daher indirekt mit, wie wir die Welt wahrnehmen. Algorithmen entscheiden, welche Inhalte wir zuerst sehen, welche Themen Aufmerksamkeit bekommen und welche eher verschwinden. Damit prägen sie Trends, Meinungen und sogar politische Diskussionen – oft, ohne dass wir es merken.
Viele KI-Systeme sind nicht kostenlos, auch wenn sie oft so wirken. Sie werden über Daten, Werbung oder Abo-Modelle finanziert. Nutzer*innen sollen möglichst lange dranbleiben – und dabei möglichst viel über sich preisgeben. Die Frage lautet also nicht nur: „Was kann KI für uns tun?“, sondern auch: „Was tun wir (unbewusst) für sie?"
Was uns Nutzer*innen bewusst sein sollte
Wie oft und wofür verwendest du KI in deinem Alltag? Sie hilft uns beim Schreiben, Übersetzen und Lernen. Sie navigiert uns durch eine fremde Stadt oder unterstützt uns beim Erstellen und Bearbeiten von Bildern.
Bei all diesen Vorteilen ist aber auch Vorsicht angesagt: Wenn wir KI blind vertrauen, übernehmen wir schnell einseitige Informationen oder lassen uns von manipulativen Mechanismen lenken – zum Beispiel durch personalisierte Werbung oder voreingenommene Antworten. Und das größte Problem dabei ist: Wir merken oft gar nicht, dass wir Meinungen übernehmen, sondern halten die KI-Antworten für objektive Wahrheiten.
Schreibe ein KI-Tagebuch
Wo begegnet mir künstliche Intelligenz?
o Beobachte eine Woche lang, wann und wo du KI nutzt – beim Schreiben, Scrollen, Musik hören, Einkaufen oder Lernen. Notiere jedes Mal kurz: Welche Aufgabe erledigt die KI? und Wie beeinflusst sie meine Entscheidung oder Meinung?
o Am Ende der Woche kannst du dein Protokoll auswerten: In welchen Momenten ist KI hilfreich? Wo lenkt sie dich vielleicht, ohne dass du es merkst?
o Vergleicht eure Ergebnisse in der Klasse.
Wenn Algorithmen Vorurteile lernen
Künstliche Intelligenz klingt objektiv – aber sie kann Vorurteile übernehmen, ohne es zu merken. Ein bekanntes Beispiel ist die Gesichtserkennung: Forschende fanden heraus, dass KI-Systeme von großen Tech-Firmen dunklere Hautfarben viel schlechter erkannten als helle. Bei weißen Männern lag die Fehlerquote fast bei null, bei dunkelhäutigen Frauen dagegen bei bis zu 35 Prozent.
Das passiert nicht, weil die KI absichtlich unfair ist, sondern weil sie mit einseitigen Daten trainiert wurde – mit zu vielen weißen Gesichtern und zu wenig Vielfalt. Wenn die KI fast nur helle Gesichter im Training hatte, lernt sie: „So sieht ein typisches Gesicht aus.“ Dadurch erkennt sie dunklere Gesichter schlechter. Das nennt man Bias – ein technisches Vorurteil. Die KI hat das nicht wie ein Mensch „im Kopf“, aber ihr Verhalten ist trotzdem verzerrt und benachteiligt bestimmte Gruppen.
Wenn solche Programme etwa bei Polizei oder Flughäfen eingesetzt werden, kann das ernste Folgen haben: Menschen werden verwechselt, falsch verdächtigt oder ungerecht behandelt. KI ist also nur so fair wie die Daten, aus denen sie lernt.

Mündig bleiben im Zeitalter der Maschinen
KI kann unser Leben bereichern – aber sie verlangt, dass wir aufmerksam bleiben. Neutralität ist nichts, was einfach so passiert. Es ist eine Haltung, die wir selbst einnehmen müssen. Wer versteht, wie KI funktioniert, kann besser entscheiden, wem und wann er vertraut. Denn am Ende gilt: Nicht die Maschine denkt – wir tun es. Und wir sind selbst verantwortlich dafür, wie wir mit dem umgehen, was uns die KI ausgibt.
Gerade deshalb ist digitale Mündigkeit so wichtig: Wer Fragen stellt, Dinge überprüft und kritisch bleibt, behält die Kontrolle – auch in einer Welt voller Algorithmen. KI wird unsere Zukunft stark beeinflussen. Doch wie sie das tut, hängt davon ab, wie bewusst wir sie nutzen. Wenn wir Menschen selbst die Verantwortung übernehmen, kann sie ein Werkzeug für mehr Wissen, Gerechtigkeit und Kreativität werden.
Projektidee 1: Wie neutral sind KI-Antworten?
Bildet vier (oder mehr) Gruppen und stellt einer KI (z. B. ChatGPT) ähnliche Fragen zum Thema „KI und Lernen“, aber mit unterschiedlichen Formulierungen – etwa positiv, kritisch, neutral oder provokant. Die Fragen könnten so lauten:
- Gruppe A fragt: „Welche Vorteile hat KI in der Schule?“ (positiv)
- Gruppe B fragt: „Welche Probleme kann KI in der Schule verursachen?“ (kritisch)
- Gruppe C fragt: „Soll KI im Unterricht verboten werden?“ (provokant)
- Gruppe D fragt: „Wie verändert KI das Lernen?“ (neutral)
Vergleicht anschließend die Antworten:
Welche Unterschiede fallen euch auf? Welche Wörter oder Perspektiven wiederholen sich? Und: Wie stark hängt das Ergebnis, das euch die KI liefert, schon von eurer Fragestellung ab?
So entdeckt ihr, dass Neutralität bei KI keine Selbstverständlichkeit ist.
Projektidee 2: Interview mit einer KI
Wähle eine KI (z. B. ChatGPT, Google Gemini oder Perplexity) und mache ein Interview mit ihr. Stelle ihr die folgenden Fragen:
- Hallo KI, ich habe einige Fragen an dich. Wenn ich dich etwas frage, bist du dann immer neutral – oder spiegelst du die Meinungen der Menschen, die dich trainiert haben?
- Woher weiß ich, dass deine Antworten stimmen – und wann sollte ich lieber selbst weiterrecherchieren?
- Welche Gefahren siehst du, wenn Menschen zu viel Vertrauen in KI setzen?
- Wie gehst du mit Themen um, bei denen es unterschiedliche Meinungen gibt – etwa bei brisanten politischen Themen?
- Was können junge Menschen tun, um KI sinnvoll und selbstbestimmt zu nutzen?
Vergleicht anschließend die Antworten der KI in der Klasse:
Welche Antworten klingen überzeugend? Hat die KI versucht, einer Frage auszuweichen? Wo habt ihr gemerkt, dass die KI menschliche Sichtweisen übernimmt?
Übrigens: Ich – Autor dieses TOPIC-Beitrags – habe ChatGPT gerade selbst interviewt. Hier kannst du nachlesen, welche Antworten mir das Programm gegeben hat und ob sie mit deinen Antworten übereinstimmen.


