Die geplanten Wahlen im Jahr 2024 und die anhaltenden politischen Umbrüche werden mit einem zunehmend fragmentierten, politisierten und dezentralen Medienumfeld einhergehen. Darüber hinaus wetteifern viele Künstler darin um die Vorherrschaft. Auch mangelndes Vertrauen in staatliche Institutionen und Spaltungen haben durch gesellschaftliche Krisen zugenommen. Die Unzufriedenheit steigt, autonome Institutionen erodieren und der Populismus nimmt zu. Darüber hinaus ist neben all diesen Dynamiken auch der KI-Aspekt zu berücksichtigen. Durch diese Konvergenz der Krisen ist die Demokratie der EU und Deutschlands gefährdet.
KI-gestützte Kampagnenstrategien
Die Social-Media-Welt verändert sich dramatisch, mit rund fünf Milliarden Nutzern. Auf den Erfolg von TikTok oder den Verkauf von Twitter folgen viele Neulinge, die sehr schnell bekannt werden. Benutzer aus allen politischen Richtungen wechseln zu kleineren alternativen Plattformen oder zum Fediverse, einem dezentralen Netzwerk verknüpfter Social-Media-Sites, darunter Rumble, Truth Social, Mastodon, Threads und Blue Sky. Dieses Phänomen wird als „große Dezentralisierung“ bezeichnet. Infolgedessen besetzen immer mehr Menschen einzigartige Online-Bereiche. Echokammern, das heißt algorithmisch erzeugte, ummauerte Blasen, die Menschen in ihren eigenen ideologischen Blasen einschließen, verschärfen die immer größer werdende Kluft. Selbst zwischen den Generationen vergrößert sich dadurch die Kluft. Supranationale Institutionen wie die UN und die EU sowie einzelne Nationen wie Deutschland und die NATO können proaktiver auf geopolitische Störungen reagieren. Sie müssen zulassen, dass Narrative, die von Gefahrenakteuren verbreitet werden, die Informationsbühne überholen, wie es nach dem Angriff auf Israel der Fall war. Um eine Lücke zu verhindern, die zur Meinungsverfälschung genutzt werden könnte, sollten Ersatzpläne für die aktive Teilnahme auf Plattformen vorhanden sein. Die Taten der „Swifites“ sind ein aktuelles erfolgreiches Beispiel dafür, sich bestimmten Erzählungen zu widersetzen, um Algorithmen auszutricksen.
Wählerengagement und Personalisierung
Das politische Umfeld in Deutschland könnte sich im Jahr 2024 durch die US-Präsidentschaftswahl, das EU-Parlament sowie Landtagswahlen in Thüringen, Sachsen und Sachsen-Anhalt verändern. Sie weiß auch, dass Deutschland, ähnlich wie bei der fast zwei Jahre alten Doppelgänger-Kampagne, zum Ziel von Wahleinmischungen in Form von Desinformationsmanipulationen werden wird. Im Einklang mit unseren demokratischen Idealen muss sie die starke Informationsintegrität in Deutschland und der EU verteidigen, indem sie Angriffe auf unsere Herzen und Gedanken abwehrt. Dem Auswärtigen Amt gebührt Anerkennung für die Veröffentlichung der jüngsten Entdeckung von 50.000 gefälschten Konten. Vertrauensbildung erfordert Transparenz. Die Zunahme von durch künstliche Intelligenz (genAI) generierten gefälschten Inhalten, die gezielt verbreitet werden, um die öffentliche Meinung zu beeinflussen, ist ein Wendepunkt im Kampf um die Integrität der Informationsumgebung. Da vertrauenswürdige Informationen die Grundlage für sachkundige Perspektiven und daher für eine demokratische Debatte notwendig sind, ist es zwingend erforderlich, dass Gruppen zusammenarbeiten, um Methoden zu entwickeln, die die Integrität des Informationsraums schützen.
Ethische Überlegungen und Regulierung
Die USA, die EU und Deutschland sind sehr erfreut darüber, wie wichtig die Integrität des Informationsraums ist. Allerdings werden sie sowohl durch lokale als auch internationale Akteure mit unterschiedlichen Zielen ernsthaft bedroht, etwa politische Parteien, Populisten, digitale Söldner, staatliche Bürokratie und nichtstaatliche Akteure, die durch finanzielle oder politische Anreize motiviert sind. Die Mehrzahl der Angriffe weist auf ein hohes Maß an verhaltenswissenschaftlicher und kognitionspsychologischer Kompetenz hin. Bedrohungsakteure sind äußerst geschickt darin, Menschen zu manipulieren, indem sie ihnen eine Fülle von Material zur Verfügung stellen, das ihre Vorurteile berücksichtigt. Der Zugriff auf genAI fördert Einflussmethoden und -strategien und erhöht die Überzeugungskraft von Beiträgen, die synthetisches Material verwenden. Eine geringe Anzahl von Anweisungen des Benutzers senkt die Kosten für die Erstellung komplexer synthetischer Inhalte erheblich. Eine neue Studie des Europäischen Auswärtigen Dienstes zu Interventionen zur Manipulation ausländischer Informationen besagt, dass sie, weil sie bereits wirksame Taktiken stärken, einen Fortschritt im Werkzeugkasten der Bedrohungsakteure darstellen. Aber das ist nicht das, was die Einflussbemühungen von heute einzigartig macht.
Die Rolle der KI bei der Wahlsicherheit
Das Problem, das angegangen werden muss, sind anhaltende, professionalisierte, geheime und geheime Einflussoperationen. Der Schwerpunkt muss auf koordinierten Bemühungen zur Beeinflussung des Zustands unseres Informationsökosystems liegen. Jüngste wirksame Aufdeckungsbemühungen, wie etwa die 40.000 gefälschten Konten auf Weitere Beispiele sind die 600.000 einsatzbereiten betrügerischen Konten auf Facebook oder die Entdeckung von 50.000 betrügerischen Konten auf X, die derzeit in Deutschland Desinformationsoperationen durchführen. Zu den bemerkenswerten möglichen Bedrohungen gehören GenAI-Bots, die die Fähigkeit haben, direkt und eins zu eins mit Zielgruppen zu interagieren. Es ist allgemein bekannt, dass Einfluss durch soziale Bindungen vermittelt wird und mit menschlichen Emotionen verbunden ist. Genau aus diesem Grund verfügen Influencer über eine so enorme Macht, die sich in der Fähigkeit niederschlägt, Menschen zu mobilisieren. Es wäre sehr schwierig, einen solchen Bot als entscheidenden Faktor zu identifizieren, da er nur über Direktnachrichten interagieren kann. Ein solcher Bot könnte Beziehungen nutzen, um Vorurteile zu bewältigen, die Relevanz von Problemen zu beeinflussen und während der bevorstehenden Wahlen heimlich Ideen zu fördern. Obwohl Forscher diese Art von Bots, die bei Einflussoperationen eingesetzt werden, noch nicht entdeckt haben, werden sie irgendwann in Einflussportfolios enthalten sein.
Ethische KI-Governance
Auch wenn in Wahljahren wie diesem Hassreden, politische Fehlinformationen und offensichtliche Lügen im Internet noch schlimmer werden, sind diese Themen keineswegs neu. Bots oder automatisierte Social-Media-Konten haben die Verbreitung von absichtlich falschem Material, einschließlich Gerüchten und anderen Arten von Fehlinformationen, erheblich erleichtert. Allerdings produzierten die Wahl-Bots, die frühere Wahlsaisons heimgesucht hatten, häufig schlecht geschriebene und grammatikalisch falsche Aussagen. Angesichts der zunehmenden Zugänglichkeit riesiger Sprachmodelle (künstliche Intelligenzsysteme, die Texte generieren) befürchten mehrere Experten, dass automatisierte Social-Media-Konten bald immer glaubwürdiger werden könnten. Eine kürzlich in PNAS Nexus veröffentlichte Studie prognostiziert, dass generative KI häufiger von Desinformationskampagnen, Internet-Trollen und anderen „schlechten Akteuren“ eingesetzt wird, um bei Wahlen falsche Informationen zu verbreiten. Darin prognostizieren Experten, dass künstliche Intelligenz (KI) im Jahr 2024 zur nahezu täglichen Verbreitung schädlicher Inhalte auf Social-Media-Plattformen beitragen wird, basierend auf „früheren Studien zu Cyber- und automatisierten Algorithmus-Angriffen“. Die möglichen Auswirkungen, so die Autoren der Studie, könnten Auswirkungen auf die Ergebnisse der Wahlen in mehr als 50 Ländern in diesem Jahr haben, darunter den Vereinigten Staaten und Indien.
Transparenz und Verantwortlichkeit
Technologieunternehmen unternehmen Schritte, um die Integrität von Wahlen zu unterstützen. Zu den vielversprechenden Bemühungen zur Identifizierung und Authentifizierung digitaler Informationen gehören Wasserzeichen, Inhaltsherkunft und verbesserte Nutzungsbestimmungen für Kampagnen. Ihre Wirksamkeit ist jedoch begrenzt, da sie mit einfachen Methoden wie dem Anfertigen von Screenshots umgangen werden können. Es ist wichtig, über starke Methoden zur Identifizierung von gefälschtem Material zu verfügen, was eine ständige Innovation erfordert. Wenn es um synthetische Inhalte geht, werden Social-Media-Seiten als Verbreitungsvektor bezeichnet. Um den weit verbreiteten Missbrauch von GenAI-Material auf Plattformen zu bekämpfen, ist eine multimodale Strategie notwendig. Die Durchsetzung eines stärkeren Mandats für die Identifizierungsinfrastruktur ist von entscheidender Bedeutung, ebenso wie die Suche nach einem sorgfältigen Gleichgewicht zwischen der Wahrung der Privatsphäre der Benutzer und der Stärkung des Vertrauens. Die Hürden für die Plattformanmeldung müssen erhöht werden, um die Nutzung gefälschter Konten für Einflussaktivitäten zu verhindern. Es sollte notwendig sein, zusätzliche digitale Nudging-Mechanismen zu integrieren, um Menschen dazu zu bringen, sich moralisch und verantwortungsvoll mit KI-generiertem Material auseinanderzusetzen.
Deutschland, die EU und die NATO
Die Umsetzung von Richtlinien, die potenzielle genAI-gestützte Einflussoperationen angehen, erfordert eine wirksame Gesetzgebung. Es ist von entscheidender Bedeutung, dass das Gesetz über digitale Dienste europaweit erfolgreich umgesetzt wird, um den Datenzugriff zu gewährleisten und die Bemühungen zur Plattformerkennung zu verbessern. Um den an Einflussoperationen beteiligten Bedrohungsakteuren mehr Kosten und Risiken aufzubürden, muss Deutschland auch anpassungsfähigere und kreativere asymmetrische Techniken einsetzen. Dies beinhaltet den Abbau von Plattformen, die Durchsetzung geltender Strafgesetze, die Einführung von Flugverbotslisten und Bußgeldern sowie die Einschränkung des Zugangs zu westlichen Geldern. Angesichts der zunehmenden Dezentralisierung und Fragmentierung des Social-Media-Ökosystems müssen Plattformen und Technologieunternehmen die Zusammenarbeit erzwingen. Die Schaffung von Repositorien für den Informationsaustausch wäre ein entscheidender erster Schritt, um effizientere und koordiniertere Versuche zu ermöglichen, den Missbrauch von genAI zu stoppen.
Abschluss
Zusammenfassend lässt sich sagen, dass Influencer heute als verlässliche Quellen gelten und häufig ein größeres Publikum und Vertrauen genießen als offizielle staatliche Konten und traditionelle Medien. Durch die Zusammenarbeit mit ihnen erhalten Sie maßgeschneiderten Zugang zu bestimmten Bevölkerungsgruppen und verbessern die Verbreitung sachlicher Informationen bei geopolitischen Unruhen. Untersuchungen zu Fehlinformationen bei vergangenen Wahlen haben ergeben, dass Bots insgesamt schädliche Inhalte in sozialen Medien verbreiten, Online-Gespräche beeinflussen und das Vertrauen untergraben können. Früher wiederholten Bots lediglich Nachrichten, die von einer Person oder einem Computer erstellt wurden. Mit dem Aufkommen großer Sprachmodelle (LLMs) können Bots nun jedoch Texte erzeugen, die für Menschen plausibel klingen. Viele Wissenschaftler fragen sich, ob KI-Erkennungsprogramme, die Text nach Hinweisen auf die Beteiligung eines großen Sprachmodells scannen, in der Lage sind, von KI erstellte Informationen genau zu identifizieren. Auch das Anbringen eines Wasserzeichens für solche Inhalte oder die Integration von Filtern und Sicherheitsmaßnahmen in die KI-Modelle selbst reichen nicht aus.