Text: Jörg Burbach
Bild: ChatGPT (Prompt: Björn Brückerhoff)
Die digitale Transformation der Gesellschaft hat den Konsum von Informationen revolutioniert und führte zu ganz unterschiedlichen Nutzungsszenarien der unterschiedlichen Generationen. Fragt man ältere Menschen nach Tik-Tok, zucken die vielleicht mit den Achseln. Genauso googlen junge Menschen heute nicht mehr im Internet – sie suchen wieder. Inmitten dieser Revolution steht die Medienkompetenz – die Fähigkeit, Medieninhalte kritisch zu bewerten, zu verstehen und verantwortungsvoll zu nutzen.
Künstliche Intelligenz (KI) bietet in diesem Kontext immense Potenziale, um die Medienkompetenz in den verschiedensten Bereichen zu fördern. KI kann dabei unterstützen, Fake News zu erkennen, kritisches Denken zu schulen, den Schutz der Privatsphäre zu gewährleisten, kreative und bildungsfördernde Mediennutzung zu ermöglichen, Cybermobbing zu bekämpfen und den bewussten Medienkonsum zu fördern. Ebenso kann sie zur Inklusion beitragen, indem sie Barrieren abbaut und den Zugang zu digitalen Inhalten für Menschen mit besonderen Bedürfnissen erleichtert.
Verstehen und Erkennen von Fake News durch KI
Die Flut an digitalen Informationen birgt die Gefahr der Verbreitung von Fake News, was die öffentliche Meinungsbildung erheblich beeinflussen kann. Eine der größten Herausforderungen in der digitalen Welt besteht darin, zwischen glaubwürdigen und unglaubwürdigen Inhalten zu unterscheiden (Münch, 2019). KI bietet hier ein mächtiges Werkzeug, um Nutzern dabei zu helfen, Desinformationen zu erkennen und ihre Medienkompetenz zu stärken.
KI-gestützte Fact-Checking-Tools wie Google Fact Check, Snopes oder das Correctiv arbeiten daran, Nachrichteninhalte manuell oder automatisch zu analysieren und auf ihre Richtigkeit hin zu überprüfen. Diese Systeme sind in der Lage, Nachrichten in Echtzeit zu überprüfen, indem sie sie mit verifizierten Informationen aus vertrauenswürdigen Quellen abgleichen. Die Nutzer profitieren von diesen Technologien, da sie schnell erkennen können, ob eine Nachricht glaubwürdig ist oder nicht. Dies fördert das kritische Denken und schult die Fähigkeit, Medieninhalte bewusst und reflektiert zu bewerten. Eine wichtige Voraussetzung ist natürlich, dass die entsprechenden Plattformen als zuverlässig und integer wahrgenommen werden.
Zusätzlich tragen KI-basierte Algorithmen, die auf sozialen Plattformen eingesetzt werden, zur Erkennung von Desinformation bei. Diese Algorithmen analysieren die Verbreitung von Nachrichten, erkennen ungewöhnliche Muster oder die Beteiligung von Bots und markieren verdächtige Inhalte. Auf diese Weise werden Nutzer vor potenziell irreführenden Inhalten gewarnt, was ihnen ermöglicht, fundierte Entscheidungen zu treffen. Der Einsatz von KI in diesem Bereich trägt somit dazu bei, das Bewusstsein für die Qualität von Informationen zu schärfen und fördert eine reflektierte Mediennutzung.
Förderung des kritischen Denkens durch algorithmische Transparenz
KI-basierte Empfehlungsalgorithmen bestimmen schon heute, welche Inhalte Nutzern auf Plattformen wie YouTube, Netflix oder sozialen Netzwerken angezeigt werden. Diese Algorithmen sind in der Lage, das Verhalten der Nutzer zu analysieren und personalisierte Inhalte zu empfehlen oder Werbung anzuzeigen. Während dies zu einem persönlicheren Medienerlebnis führen kann, birgt es gleichzeitig die Gefahr, dass Nutzer in sogenannten „Filterblasen“ gefangen werden, in denen sie vor allem Inhalte sehen, die ihre bestehenden Ansichten bestätigen. Dies kann das kritische Denken beeinträchtigen, indem es alternative Perspektiven ausblendet.
Die Forderung nach algorithmischer Transparenz zielt darauf ab, den Nutzern Einblicke in die Funktionsweise dieser Algorithmen zu geben. Plattformen beginnen bereits, zu erklären, warum bestimmte Inhalte empfohlen werden, und ermöglichen es den Nutzern, ihre Präferenzen anzupassen. Dies fördert kritisches Denken, da die Nutzer besser verstehen können, wie ihre Sicht auf die digitale Welt durch algorithmische Entscheidungen geformt wird und beeinflusst werden kann. Die Fähigkeit, die Funktionsweise von KI-Systemen zu hinterfragen, ist ein zentraler Bestandteil moderner Medienkompetenz.
Zusätzlich spielen personalisierte KI-basierte Lernplattformen eine wichtige Rolle in der Förderung des kritischen Denkens. Diese Plattformen passen Lerninhalte individuell an den Fortschritt der Nutzer an und ermöglichen es, gezielt auf Wissenslücken einzugehen. Im Kontext der Medienkompetenz können solche Plattformen eingesetzt werden, um Nutzern beizubringen, wie sie Informationen bewerten, Quellen überprüfen und Desinformationen erkennen. Die Fähigkeit, Medieninhalte zu hinterfragen und kritisch zu analysieren, wird durch diese personalisierten Lernumgebungen gestärkt.
Schutz der Privatsphäre und Datensicherheit durch KI
Der Schutz der Privatsphäre und die sichere Nutzung von Daten steht im Mittelpunkt der digitalen Welt. Viele Menschen sind sich jedoch der Risiken, die mit der Speicherung und Verarbeitung ihrer Daten verbunden sind, nicht bewusst. Künstliche Intelligenz bietet hier verschiedene Möglichkeiten, den Schutz der Privatsphäre zu gewährleisten und das Bewusstsein für den Umgang mit persönlichen Daten zu stärken.
KI-gestützte Tools zur Datenanalyse ermöglichen es den Nutzern etwa, genau nachzuvollziehen, welche Informationen von digitalen Diensten über sie gesammelt werden und wie diese Daten verwendet werden. Datenschutz-Tools wie „Ghostery“ oder „MyData“ bieten Einblicke in die Aktivitäten von Websites und machen die Datenerfassung transparenter. Indem Nutzer nachvollziehen können, welche Daten sie preisgeben, können sie fundierte Entscheidungen über ihre digitale Privatsphäre treffen – als Ergebnis sollte eine bewusste und reflektierte Nutzung digitaler Dienste entstehen.
Zusätzlich können Privacy-Management-Systeme, die auf KI basieren, komplexe Datenschutzeinstellungen automatisieren und an die individuellen Bedürfnisse der Nutzer anpassen. Diese Systeme bieten optimierte Einstellungen für den Schutz der Privatsphäre, ohne dass die Nutzer sich intensiv mit technischen Details auseinandersetzen müssen. Dies erleichtert es den Nutzern, ihre Privatsphäre zu schützen, und trägt gleichzeitig zur Medienkompetenz bei, indem es sie in die Lage versetzt, datenschutzbewusste Entscheidungen zu treffen.
Kreative und bildungsfördernde Nutzung von Medien durch KI
KI eröffnet auch neue Möglichkeiten in der kreativen Medienproduktion und der Bildungsförderung. Im Bereich der Content Creation ermöglicht es KI den Nutzern, eigene Inhalte zu erstellen, ohne über die notwendigen technischen Kenntnisse zu verfügen. Bildgeneratoren wie DALL-E oder Midjourney und Textgeneratoren wie die GPT-Modelle bieten einfache Möglichkeiten, visuelle und textliche Inhalte zu erstellen. Diese Technologien senken die Barrieren für kreative Ausdrucksformen und fördern das mediale Verständnis, da Nutzer lernen, wie KI-Algorithmen Inhalte erstellen.
Darüber hinaus spielen KI-gestützte Lernplattformen eine wichtige Rolle in der Förderung von Medienkompetenz. Personalisierte Lernumgebungen passen sich an die individuellen Bedürfnisse der Lernenden an und bieten maßgeschneiderte Bildungsinhalte. Dies ist besonders wertvoll, um Medienkompetenz gezielt zu fördern, da die Lernenden auf ihrer jeweiligen Wissensbasis abgeholt werden können. Solche Plattformen ermöglichen es Nutzern, ihre Fähigkeiten in der Informationsbewertung und im kritischen Denken gezielt zu entwickeln.
Zusätzlich kann KI bei der Analyse und Vereinfachung komplexer Medieninhalte helfen. Nachrichtenartikel oder wissenschaftliche Texte sind für Laien zuweilen schwer zugänglich, da sie Fachsprache oder komplizierte Strukturen enthalten. KI-gestützte Systeme zur Medienanalyse können wichtige Informationen extrahieren und diese in einer verständlicheren Form aufbereiten. Dies fördert das Verständnis komplexer Inhalte und trägt zur Entwicklung einer reflektierten Medienkompetenz bei.
Bekämpfung von Cybermobbing und Online-Hass durch KI
Cybermobbing und Online-Hass sind weit verbreitete Phänomene, die das soziale Klima in digitalen Räumen negativ beeinflussen. KI kann eine Schlüsselrolle bei der Erkennung und Bekämpfung solcher schädlichen Inhalte spielen. Algorithmen zur Spracherkennung, die auf maschinellem Lernen basieren, analysieren Texte, Kommentare und andere Inhalte auf sozialen Plattformen und identifizieren potenziell beleidigende oder gefährliche Inhalte. Plattformen wie X (ehemals Twitter) oder Facebook nutzen solche Systeme bereits, um Hassrede und Mobbing frühzeitig zu erkennen und zu entfernen.
Darüber hinaus können KI-basierte Systeme zur Moderation von Inhalten eingesetzt werden, um verdächtige Beiträge automatisch zu filtern und an menschliche Moderatoren weiterzuleiten. Diese automatisierten Systeme entlasten Moderatoren und verbessern die Effizienz bei der Bekämpfung von Cybermobbing und Online-Hass. Gleichzeitig fördern sie die Medienkompetenz der Nutzer, indem sie das Bewusstsein für die Wirkung von Sprache und Verhalten in digitalen Räumen schärfen. Zur Medienkompetenz gehört aber natürlich auch, markierte Inhalte als möglicherweise gefälscht zu erkennen, z. B. durch Konsultation der Quelle.
KI kann auch als Präventionswerkzeug eingesetzt werden, um Nutzer, insbesondere Jugendliche, über die Gefahren von Cybermobbing aufzuklären. Interaktive Lernprogramme, die auf KI basieren, können den Nutzern helfen, die Dynamik von Cybermobbing zu verstehen und Strategien zu entwickeln, um sicher im digitalen Raum zu agieren. Diese Schulungen fördern eine respektvolle und verantwortungsvolle Nutzung von Medien und tragen zur Entwicklung eines sicheren digitalen Umfelds bei.
Bewusster Medienkonsum durch KI
Die enorme Menge an digitalen Inhalten, die heute verfügbar ist, stellt eine Herausforderung für den bewussten Medienkonsum dar. KI-Algorithmen, die auf maschinellem Lernen basieren, können dabei helfen, den Medienkonsum der Nutzer zu analysieren und Empfehlungen für einen ausgewogeneren und gesünderen Umgang mit Medien zu geben. Die bereits genannten Empfehlungsalgorithmen von Netflix oder YouTube könnten jedoch auch darauf ausgelegt werden, den Nutzern abwechslungsreichere und ausgewogenere Inhalte zu empfehlen, um ihren Horizont zu erweitern – also das Gegenteil des ursprünglichen Sinns der Algorithmen zu forcieren.
Zusätzlich können KI-gestützte Tools wie „RescueTime“ oder „Moment“ den Medienkonsum überwachen und Nutzern Empfehlungen geben, wie sie ihre Mediennutzung reduzieren oder bewusster gestalten können. Diese Tools helfen dabei, digitale Überlastung zu vermeiden und einen gesünderen Umgang mit digitalen Inhalten zu fördern.
Inklusion und Barrierefreiheit durch KI
KI spielt eine große Rolle bei der Förderung der Inklusion, indem sie Barrieren für Menschen mit Behinderungen abbaut und ihnen den Zugang zu digitalen Inhalten erleichtert. Automatische Untertitelung von Videos, Sprachsynthese und Screenreader sind nur einige der KI-gestützten Technologien, die Menschen mit Hör- oder Sehbehinderungen helfen, an der digitalen Welt teilzuhaben. Solche Tools verbessern nicht nur den Zugang zu Informationen, sondern fördern auch die Medienkompetenz, indem sie den Nutzern ermöglichen, eigenständig digitale Inhalte zu konsumieren und zu erstellen.
Sprachbasierte Assistenten wie Alexa, Siri oder der Google Assistant bieten bereits eine gute Möglichkeit, digitale Geräte durch Sprache zu steuern. Diese Systeme erleichtern Menschen mit körperlichen Einschränkungen die Interaktion mit digitalen Medien und tragen zur digitalen Teilhabe bei. Auch Übersetzungstools, die auf maschinellem Lernen basieren, fördern die globale Kommunikation und erleichtern den Zugang zu mehrsprachigen Medieninhalten.
Zusammenfassung
Künstliche Intelligenz bietet enorme Potenziale zur Förderung der Medienkompetenz. Von der Erkennung von Fake News über die Förderung des kritischen Denkens und des Datenschutzes bis hin zur kreativen Nutzung von Medien, der Bekämpfung von Cybermobbing und der Inklusion – KI unterstützt Nutzer dabei, sich in der komplexen digitalen Welt sicher und bewusst zu bewegen. Trotz der zahlreichen Vorteile müssen jedoch auch die ethischen und gesellschaftlichen Herausforderungen bedacht werden. KI-Systeme sollten transparent, fair und inklusiv gestaltet sein, um das Vertrauen der Nutzer zu gewinnen und die Medienkompetenz nachhaltig zu fördern. Wenn KI-Technologien verantwortungsvoll eingesetzt werden, können sie einen großen und wichtigen Beitrag zur Bildung einer reflektierten, kompetenten und verantwortungsbewussten digitalen Gesellschaft leisten.
Jörg Burbach
Prof. Jörg Burbach ist Professor für Game Design an der IU Internationale Hochschule mit Schwerpunkt Entwicklung und Games History. In Vorträgen erzählt er seinem Publikum von den Vorzügen von Retrogames und was von ihnen für die moderne Spieleentwicklung gelernt werden kann. Seit 2015 leitet er mit Ducks on the Water sein eigenes Studio für Spiele, Apps und Konzepte. Auf seiner Webseite bloggt er zu Technik, KI und Spielen.
Website | LinkedIn | ResearchGate | DOTW GmbH