Künstliche Intelligenz: Warum Deepfake auch ein Thema für die Jugendsozialarbeit ist

Der Begriff Deepfake ist ein Wort, das aus Deep Learning und Fake zusammengesetzt ist und beschreibt ein mit Hilfe von Künstlicher Intelligenz (KI) erstelltes Bild oder Video, das authentisch wirkt, es aber nicht ist. Ursprünglich wollte man mit Deepfakes Kunst- und Anschauungsobjekte schaffen. Mittlerweile werden Deepfakes aber immer häufiger als Mittel zur Diskreditierung, Manipulation und Propaganda eingesetzt. Politik und Pornografie sind eng mit dem Phänomen verwoben. Die methodische Anwendung bedeutet für den ein oder die andere einen Freizeitspaß, für Opfer von mittels KI erstellten Videos können Deepfakes einem (politischen) Rufmord gleichkommen oder Suizidgedanken auslösen. Michael Herkendell, Referent für Fachliches Controlling und Projektmanagement bei der Bundesarbeitsgemeinschaft Katholische Jugendsozialarbeit (BAG KJS) e. V., verdeutlicht in seinem Beitrag, warum ein seit den 10er-Jahren durch die Medien geisternder Begriff in der Jugendsozialarbeit besonderer Beachtung bedarf.

Mitte der 90er Jahre überraschte uns ein Mitschüler mit einem besonderen Ausdruck aus seinem 24 Nadeldrucker. Mit Hilfe seines 386er PCs und des bis dahin nur Insidern bekannten Programms Adobe Photoshop hatte er auf den Körper einer nackten Frau den Kopf unserer Geschichtslehrerin gesetzt. Trotz der schlichten Qualität war die Freude der versammelten Schülerschaft groß und wir waren schwer beeindruckt.

In diesem Zusammenhang von Deepfake zu sprechen wäre vielleicht vermessen, da es sich lediglich um eine sehr einfache Art des „face-swapping“ gehandelt hat. Dennoch ergeben sich in der Rückschau bereits in diesem hier aufgeführten persönlichen Beispiel Fragestellungen, die heute, mit der sehr viel performanteren Technik, weitaus relevanter sind.

In den vergangenen Tagen machte im Zusammenhang mit Deepfake vor allem ein Unternehmen auf sich aufmerksam. Hierbei handelt es sich um MyHeritage, ein Unternehmen, das bis dahin vor allem dafür bekannt war, Hobby-Genealog*innen dabei zu unterstützen, einen Stammbaum zu erstellen – in der Hoffnung, zumindest in der Vergangenheit auf interessantere Persönlichkeiten zu stoßen, als jene die alljährlich um den Weihnachtsbaum sitzen.

MyHeritage verfügt seit wenigen Tagen über eine Funktion, mit der sich Fotos von Verstorbenen, aber auch Portraits und Gesichter von Statuen animieren lassen. Dabei ist die Qualität der Animationen ebenso gut wie erschreckend. Wobei man sich zudem noch vor Augen führen muss, dass die Erstellung der animierten Bilder über ein handelsübliches Smartphone funktioniert.

Natürlich ist MyHeritage nicht die einzige Deepfake App, bereits vor wenigen Wochen sorgte Reface dafür, dass sich der Traffic in den Familien WhatsApp-Gruppen weltweit erhöhte und Videos verschickt wurden, in denen sich die Oma ihren Traum erfüllte und als Kaiserin Sissy zu sehen war, während die Väter animiert als Rambo in die virtuelle Schlacht zogen.

Menschen werden herabgewürdigt oder diskreditiert

Doch während die oben aufgeführten Beispiele höchsten etwas Grusel oder Heiterkeit auslösen, steckt hinter Deepfake ein weitaus größeres Problem. Deepfake hat das Potential Menschen, insbesondere Frauen und Mädchen, sexuell herabzuwürdigen und unsere Demokratie zu destabilisieren.

So haben bereits text- und bildbasierte Fehlinformationen, die über Facebook und WhatsApp in Sri Lanka, Myanmar und Indien geteilt wurden, dazu geführt, dass es zu Ausschreitungen und sogar zu Morden kam. Die weitaus „überzeugenderen“ Deepfake Videos könnten eine solche Entwicklung noch verstärken.

Welche Auswirkungen die Möglichkeiten dieser Technik auf die Politik haben kann, zeigt ein Beispiel aus Gabun. Im Jahr 2018 befand sich Gabun in einer politischen Krise. Präsident Ali Bongo trat aufgrund einer Krankheit lang nicht mehr in der Öffentlichkeit auf. Dies führte zu Spekulationen über seine Gesundheit und seine Fähigkeit, das Amt des Präsidenten weiter auszuführen. Um die Situation zu beruhigen, veröffentlichte die Regierung ein Video. Das veröffentlichte Video erregte von Seiten der Opposition jedoch den Verdacht eine Fälschung zu sein, was die Instabilität nur noch vergrößerte und schließlich zum Versuch eines Militärputsches führte. Während es sich bei dem Video von Ali Bongo um ein reales Video handelte, wurde die Sprecherin des Repräsentantenhauses, Nancy Pelosi Opfer eines Deepfake Videos. Es zeigt sie, wie sie angeblich angetrunken und lallend eine Rede hält. Besonders pikant war, dass hochrangige Republikaner, darunter Trump-Berater Rudy Giuliani, das Video auf Twitter teilten.

Diese Beispiele zeigen auf, dass sowohl reale Ereignisse, mit dem Verweis darauf, es handele sich um Deepfake, diskreditiert werden können als auch entsprechend manipulierte Videos erhebliche Auswirkungen haben können. Bereits durch die Möglichkeit, diese Technik einzusetzen, kann das Vertrauen in Informationen schwinden und der notwendige politische Diskurs so beschädigt werden. Dies Belegt auch die Antwort der Bundesregierung auf eine kleine Anfrage der FDP-Fraktion vom 2. Dezember 2019:

„Deep Fakes können eine große Gefahr für Gesellschaft und Politik darstellen, wenn sie dazu genutzt werden, die öffentliche Meinung zu manipulieren und den politischen Prozess gezielt zu beeinflussen. Mit dem Themenkomplex Desinformation beschäftigen sich im Auswärtigen Amt verschiedene Arbeitseinheiten unter der Federführung der Steuerungsgruppe Strategische Kommunikation und ebenfalls die Beauftragte der Bundesregierung für Kultur und Medien sowie das Bundesministerium der Justiz und für Verbraucherschutz.“

Gefahren für den demokratischen Diskurs

Neben den Gefahren für den demokratischen Diskurs, sind durch Deepfake vor allem Mädchen und Frauen durch sexuelle Ausbeutung und Herabsetzung gefährdet.  96 Prozent aller Deepfakes sind pornografisch, nahezu 100 Prozent davon zeigen Frauen. Während zu Beginn der Deepfake Technologie vor allem weibliche Prominente in pornografische Videos eingefügt wurden, sind mittlerweile auch Frauen betroffen, die nicht berühmt sind. Einzige Voraussetzung dafür ist ausreichendes Bildmaterial, das oft z. B. auf Social-Media-Profilen zu finden ist. Dabei verletzen pornografische Deepfakes die Persönlichkeitsrechte der Betroffenen und können tiefgreifenden persönlichen Schaden anrichten. Sie können auch als Grundlage für Erpressungen, Verleumdungen oder andere strafrechtlich relevante Handlungen dienen. Deepfake-Rachepornografie bedroht somit die persönliche Integrität der betroffenen Frauen und die Gleichberechtigung der Frauen in einer digitalen Gesellschaft.

Augen auf in der Jugendsozialarbeit

Die Jugendsozialarbeit ist daher gut beraten diese Entwicklungen genau zu beobachten, wenn sie ihrem Anspruch genügen will, demokratiebildend, empowernd und aufklärerisch zu wirken. Allerdings sind nicht alle Fachkräfte in der Jugendsozialarbeit gleichsam technikaffin, trotz des vermehrten Einsatzes von Messenger Diensten, Videokonferenzen und Cloudplattformen. Das technisch-medial Verständnis ist ebenso ausbaufähig wie das Interesse an digitalen Anwendungen. Zudem sind viele Einrichtungen und Träger aktuell noch mit der internen digitalen Transformation beschäftigt, was personelle und finanzielle Ressourcen bindet.

Mit der Folge, dass Fort- und Weiterbildungen aus zeitlichen Gründen oder persönlicher Interessenlage nicht besucht werden. Dabei ist es insbesondere für die Zielgruppe der Jugendsozialarbeit wichtig, kompetente Ansprechpartner*innen zu haben.

Wie muss ich reagieren, wenn ein Mädchen in ein pornografisches Video eingefügt und nun von den Mitschüler*innen und dem sozialen Umfeld gemobbt wird? Wie reagiere ich darauf, wenn Jugendliche Deepfake-Videos für real halten und wie erkenne ich sie überhaupt?

Die Technik ist gerade einmal ein paar Jahre alt und es ist davon auszugehen, dass die Entwicklungen in den kommenden Jahren weitere Verbesserungen mit sich bringen werden. Dazu wird auch gehören, dass das Erstellen von Deepfake-Videos auch für den „normalen“ Nutzer immer einfacher wird. Es ist daher nur eine Frage der Zeit, bis antiliberale und antidemokratische Videos massenhaft auf den sozialen Plattformen auftauchen.

Gleichzeitig schreitet die technische Entwicklung voran und es wird neue Apps, mit neuen Funktionen und Möglichkeiten geben. Umso wichtiger ist es daher, dass die Jugendsozialarbeit jetzt nicht den Anschluss verliert und weiter abgehängt wird. Dafür muss die Jugendsozialarbeit neue und alte Netzwerke, gerade im Bereich der Politischen Bildung und der Medienpädagogik, ausbauen und festigen. Zudem müssen die politischen Verantwortlichen endlich den erkennbaren Willen zeigen, das Engagement der Jugendsozialarbeit in der Auseinandersetzung mit digitalen Räumen auch finanziell zu unterstützen.

Versöhnlich ist aber, dass mit Deepfake auch ganz wunderbare Projekte umgesetzt werden können, wie Das Dalí-Museum in Florida beweist. https://thedali.org/exhibit/dali-lives/

Diese Projekte offenbaren auch die positiven Möglichkeiten von Deepfake und die kreativen Potentiale, die in dieser Technik stecken.

Links zum Thema

https://www.lmz-bw.de/aktuelles/aktuelle-meldungen/detailseite/erkennen-was-wahr-und-richtig-ist-unterrichtsmaterial-zu-fake-news-und-deepfake/

https://www.newsweek.com/richard-nixon-deepfake-apollo-disinformation-mit-1475340

https://futurism.com/the-byte/deepfake-trump-epstein-didnt-kill-himself

https://www.washingtonpost.com/opinions/2020/09/10/deepfakes-are-coming-american-democracy-heres-how-we-can-prepare/

https://www.kas.de/de/einzeltitel/-/content/die-gefahr-von-deep-fakes-fuer-unsere-demokratie

https://www.govtech.com/products/Deepfakes-The-Next-Big-Threat-to-American-Democracy.html

Quelle: Michael Herkendell (BAG KJS)

Ähnliche Artikel

Ablehungskultur für Menschen auf der Flucht

Das europäische Parlament hat zuletzt seinen Beitrag geleistet, die Außengrenzen der Europäischen Union noch stärker als bisher abzuriegeln. In allen europäischen Nationalstaaten sind Geflüchtete nicht

Skip to content