Informationen analysieren, Daten verarbeiten, Muster erkennen – im digitalen Raum kommt Künstliche Intelligenz (KI) unterschiedlich zum Einsatz. Sie kann auch helfen, Desinformation zu erfassen. Nicht immer ist es leicht, diese irreführenden oder manipulativen Informationen und Nachrichten einzuordnen. Mit dem Projekt DisCoBoard soll eine KI-basierte Software – ein Dashboard – entwickelt werden, um Schülerinnen, Schüler und Lehrkräfte genau darin zu unterstützen. Mit dem digitalen Werkzeug lassen sich Nachrichten überprüfen und durch automatisierte Analysen besser einschätzen. Wie die Anwendung letztlich aussieht, wird mit Jugendlichen ab 14 Jahren erarbeitet.
"Jugendliche und junge Erwachsene sind besonders gefährdet, Desinformation im digitalen Raum zu begegnen. Sie sind viel in sozialen Medien unterwegs und nutzen diese auch, um sich zu informieren", sagt Dr. Jonas Fegert, Leiter des House of Participation am FZI Forschungszentrum Informatik. Hier wird DisCoBoard nicht nur als eine digitale Anwendung entwickelt, die Desinformation erkennen kann. Es entsteht auch ein pädagogisches Lernkonzept zur kritischen Medienkompetenz, das den Unterricht zum Thema Desinformation im digitalen Raum ergänzen kann.
Desinformation wahrnehmen und reflektieren
"Bei Desinformation geht es nicht allein um die Faktizität der Informationen, sondern auch um den Vorsatz, Konsumierende bewusst zu manipulieren", sagt Dr. Carolin Stein, ehemalige Abteilungsleiterin am FZI Forschungszentrum Informatik. Daher kann Desinformation durch unterschiedliche Ansätze erkannt werden. Einerseits etwa mit dem sogenannten Fact-Checking-Ansatz. Hier werden die Fakten der Information anhand verschiedener Quellen überprüft. Andererseits ist es möglich, die absichtliche Manipulation einer Information zu erkennen. "Das kann sich durch bestimmte Muster in der Sprache zeigen, die die Verbreitenden verwenden", so Stein weiter. "Desinformation arbeitet häufig mit bestimmten linguistischen Stilmitteln, zum Beispiel mit einem speziellen Vokabular oder der Vereinfachung komplexer Zusammenhänge. Häufig kommen auch Emotionalisierung oder überspitzte Formulierungen zum Einsatz, um die Aufmerksamkeit der Lesenden zu gewinnen." Sind den Lesenden solche sprachlichen Merkmale bekannt, können sie Desinformation besser erkennen.
Auf eben diesem sprachlichen Ansatz liegt der Projektfokus. "Wir überprüfen keinen Wahrheitsgehalt von Information, sondern unser KI-System hat gelernt, welche Sprachmuster Indikatoren für Desinformation sind", sagt Fegert. Dieses Wissen soll die KI dann an die Schülerinnen und Schüler weitergeben.
Mit DisCoBoard entsteht so ein Lernkonzept und digitales Werkzeug, um junge Menschen spielerisch und praxisnah für das Thema zu sensibilisieren. "Damit das aber funktioniert, ist es wichtig, dass wir das Projekt gemeinsam mit Jugendlichen umsetzen", ergänzt Stein.
DisCoBoard
Die Abkürzung DisCoBoard steht für die englischen Begriffe Disinformation, Co-Creation
und Dashboard. Im Projekt entwickeln Schülerinnen, Schüler und Lehrkräfte mit einem Team des FZI Forschungszentrum Informatik ein KI-basiertes Dashboard, um Desinformation im digitalen Raum zu erkennen.
In zwei Partnerschulen in Baden-Württemberg und Brandenburg sind daher verschiedene Workshops geplant, von Prototyping-Sessions bis zu Hackerthons, in denen die Schülerinnen und Schüler ihre Ideen und Anforderungen für DisCoBoard konkretisieren. Gleichzeitig lernen sie mehr über die Themen Desinformation, KI und Software-Entwicklung. Ziel ist es, in den ersten drei Projektjahren einen einsatzfähigen Prototypen von DisCoBoard zu entwickeln. Im letzten, vierten Projektjahr geht es dann in den Praxisbetrieb, in dem das begleitende pädagogische Lernkonzept mit Lehrkräften, Multiplikatorinnen und Multiplikatoren evaluiert wird. Während der gesamten Projektlaufzeit erhalten diese bereits Zugänge zu den von Schülerinnen und Schülern getesteten Materialien sowie den wissenschaftlichen Erkenntnissen des Projekts.
Es gibt viele Wege, um Desinformation zu erkennen. Jeder für sich allein genommen, kann aber fehlerhaft sein. Deshalb lernen die Jugendlichen möglichst viel darüber, um so zu einer guten Einschätzung zu kommen, ob sie mit Desinformation konfrontiert sind.
Herausforderungen im Projekt erkennen
Eine Herausforderung im Projekt: Sprache ist dynamisch. "Sprache verändert sich ständig und ist abhängig vom Kontext", so Stein. "Eine Nachricht ist beispielsweise in einem Messengerdienst wie WhatsApp anderes gestaltet als in einem Social-Media-Post auf Instagram oder einem Blog-Eintrag." Es können also sprachliche Anpassungen auftauchen, die die Software vielleicht nicht sofort erkennt, daher müssen die Schülerinnen und Schüler die KI-Ergebnisse auch reflektieren.
"KI-gestützte Tools wie DisCoBoard können nur ein Teil der Lösung im Umgang mit Desinformation sein", sagt Fegert weiter. "Es braucht eine Vielzahl unterschiedlicher Initiativen und Maßnahmen. Letztlich leisten alle ihren kleinen Beitrag für die Demokratie und den Schutz des demokratischen Diskurses – analog und digital."
DeFaktS
Im FZI-Vorgängerprojekt DeFaktS wurde bereits eine Künstliche Intelligenz trainiert, um Desinformation über charakteristische Faktoren und Stilmittel zu erkennen. Die Nutzenden haben dabei über sogenannte Explainability features einen Einblick in die KI-Logik erhalten: Warum kommt die KI zur Einschätzung, dass es sich um Desinformation handelt?
kuKI
Im Projekt kuKI wird eine kulturalisierungssensible KI-Assistenz entwickelt, die Desinformation in mehrsprachigen Öffentlichkeiten systematisch erfasst und analysiert. Im Fokus stehen insbesondere deutsch-, russisch- und türkischsprachige Informationsräume, in denen sich Desinformation häufig entlang sprachlicher und kultureller Kontexte unterschiedlich manifestiert.
-----
Veröffentlicht im März 2026 / Verfasst im September 2025
Rubrik
Aus der Praxis