Digitale Teilhabe und Regulierung von KI

Die digitale Transformation hat durch generative KI einen enormen Schub erfahren. Während die Jugendarbeit noch für die digitale Teilhabe aller jungen Menschen streitet, entstehen enorme Herausforderung für die Entwicklung junger Menschen und die demokratische Gesellschaft, weil Informationen durch KI generiert und manipuliert werden können. Ein Blick auf aktuelle Debatten.

BDKJ fordert mehr digitale Teilhabe

Der Bund der Deutschen Katholischen Jugend (BDKJ) beschloss zuletzt die Position: „Digitale Teilhabegerechtigkeit für junge Menschen“. Kinder und Jugendliche haben durch Menschen- und Kinderrechte den Anspruch auf Schutz, Förderung und Teilhabe. Gefordert wird deswegen, dass junge Menschen in ihrer Vielfalt an einer digitalen Welt gleichberechtigt teilnehmen können. Konkret fordert der BDKJ unter anderem, dass sowohl technische und materielle als auch soziale, politische und rechtliche Voraussetzungen geschaffen werden müssen. Digitale Teilhabe müsse bei Sozialleistungen und insbesondere im Bürger*innengeld angemessen berücksichtigt werden. Ebenso sei eine niederschwellige Unterstützung bei der Einrichtung, sicheren Bedienung, Wartung und Reparatur von digitalen Endgeräten notwendig.

„Die meisten jungen Menschen sind in der Lage, den digitalen Raum für ihre Interessen und Bedürfnisse zu nutzen. Allerdings sind digitale Angebote nicht immer zuverlässig, sondern teilweise irreführend oder manipulativ“, heißt es in der Position, mit der ein Link auf die aktuellen Entwicklungen im Bereich der KI gesetzt wird, ohne dass Künstliche Intelligenz als Schlagwort in der Position vorkommt. Gefordert wird ein Zugang zu vertrauenswürdigen und altersgerecht aufbereiteten Informationen. Außerdem müssen Akteur*innen der außerschulischen Bildung wie pädagogische Fachkräfte, ehrenamtliche Jugendleiter*innen und andere durch entsprechende Angebote der Fort- und Weiterbildung qualifiziert werden, um junge Menschen in ihre digitale Mündigkeit zu begleiten und unterstützen. Das kostet Geld, entsprechend folgt die Forderung, dass Förderprogramme wie beispielsweise der Kinder- und Jugendplan des Bundes (KJP) entsprechend auf digitale Maßnahmen erweitert werden muss.

Sichere digitale Räume

Die Chancen zum Austausch, zur Vernetzung und zum gesellschaftlichen Diskurs sind durch digitale Räume größer und vielfältiger geworden. „Insbesondere erweitern sie die Möglichkeiten für junge Menschen, ihre Meinungen zu äußern und zu teilen, und so zum Beispiel politische Debatten mitzugestalten“, heißt es in der BDKJ-Position. Die Kehrseite der Medaille: Hassrede und (intersektionale) Diskriminierung führen dazu, dass sich Personen aus den Diskursen zurückziehen. „Insbesondere Mädchen, Frauen und andere marginalisierte Gruppen werden so aus digitalen Diskursräumen verdrängt. Auf diese Weise werden sie von demokratischer Teilhabe systematisch ausgeschlossen“, stellt der BDKJ fest und fordert: „Im Internet müssen zielführende und konstruktive Debatten über gesellschaftlich relevante Themen möglich sein. Dazu braucht es auch professionell moderierte Foren und Räume. Hassrede und persönliche Angriffe dürfen in diesen Räumen keinen Platz finden und müssen konsequent gelöscht werden.“ Digitale Gewalt, Hasskriminalität und Beleidigungen seien zu verfolgen und zu bestrafen. Spezialisierte Beratungsstellen und -angebote für Opfer sollten sowohl juristisch als auch psychologisch Unterstützung anbieten. Melde- und Beschwerdesysteme auf Plattformen allein reichen nicht, die Anbieter müssen zu kurzen Reaktionszeiten gezwungen werden, um so genannte Safer Spaces zu schaffen.

KI und Jugendmedienschutz

Aus der Perspektive des Jugendmedienschutzes blickte nicht nur die Bundeszentrale für Kinder- und Jugendschutz (BzKJ) auf das Thema KI – zuletzt in einem BzKJAKTUELL. Die Kommission für Jugendmedienschutz (KJM) beauftragte das Institut für Europäisches Medienrecht (EMR) mit einem Gutachten: Die Forschenden untersuchten, wie Risiken rechtzeitig durch Gesetzesänderungen minimiert werden könnten und arbeiteten heraus, dass bereits im Erzeugungsprozess von KI reguliert und die KI-Anbieter*innen in die Pflicht genommen werden sollten.

Generative KI erobert immer schneller immer mehr Lebensbereiche. Vielfach mit positiven Effekten, mitunter auch mit negativen. KI-generierte Inhalte, Bilder oder Videos tragen beispielsweise immer stärker zu einer Desorientierung bei – vor allem von Minderjährigen. Sie befördern zudem die Polarisierung der Gesellschaft in einer bedenklichen Weise auf ein demokratisches Miteinander. „KI ist nicht nur eine Herausforderung für die Meinungsbildung von Kindern und Jugendlichen, sondern auch für die Demokratie. Mit Blick auf die schnelle technologische Entwicklung ist zügiges Handeln gefragt“, sagt Dr. Jörg Ukrow, geschäftsführendes Vorstandsmitglied des EMR.

Zentral sei, dass KI-Systeme explizit in den Geltungsbereich des Jugendmedienschutzes aufgenommen werden sollten. Mehr noch: Der Jugendmedienschutz-Staatsvertrag der Länder (JMStV), das Jugendschutzgesetz des Bundes (JuSchG) sowie der Digital Services Act (DSA) in der EU müssten dringend mit Blick auf die schnelle Entwicklung von KI regelmäßig evaluiert werden – und zwar in kürzeren Abständen als bisher. These der Forschenden: Der zunehmende Einsatz von generativer KI wird wahrscheinlich die negativen Auswirkungen von Desinformation auf die Informationsintegrität und eine mit den Grundwerten der EU und des Grundgesetzes vereinbare öffentliche Debatte zusätzlich verstärken.

Selbst wenn im Einsatz generativer KI wurzelnde Desinformation schnell entlarvt werde, trage sie dennoch zu einem verfallenden Informationsraum bei, der Desorientierung bei Minderjährigen befördert, heißt es im Gutachten. Diese Entwicklung könne das öffentliche Vertrauen nicht zuletzt auch Minderjähriger in demokratische Prozesse untergraben und damit der Gemeinschaftsverträglichkeit der Persönlichkeitsentwicklung von Kindern und Jugendlichen erhebliche Hindernisse bereiten.

Aufgaben für die Jugendsozialarbeit

Daraus lässt sich auch eine Aufgabe für die Jugendsozialarbeit ableiten. Denn die Auswirkungen von KI-generierten Desinformationen werden sich voraussichtlich verstärken, weil Qualität und Quantität der über generative KI erzeugten Inhalte die Fähigkeit von Beobachtenden, Moderierenden oder Regulierungsbehörden übersteigen dürfte, warnen die Forschenden. Für die Qualifizierung von Fachkräften in der Jugendsozialarbeit kann das bedeutet: Es braucht Strategien und Wissen, Desinformation zu erkennen, zu entlarven und Medienkompetenz im Umgang mit Inhalten bei jungen Menschen zu stärken.

Regulatorischer Rahmen der EU

Herausfordernd ist laut Gutachten zudem ein Dilemma: Daten Minderjähriger sind sehr sensibel und unbedingt zu schützen. Zugleich werden aber genau solche Daten zum Anlernen der KI benötigt, damit sie altersgerecht funktioniert und Altersdiskriminierung innerhalb der KI vermeidet.

Das Europäische Parlament will deswegen vor allem sicherstellen, dass die in der EU eingesetzten KI-Systeme sicher, transparent, nachvollziehbar, nicht diskriminierend und umweltfreundlich sind. Der AI-Act ist weltweit der erste Versuch staatlicher Regulierung von künstlicher Intelligenz. Die EU teilt die Anwendung Künstlicher Intelligenz im Gesetz in vier Risikogruppen ein: je höher das Risiko, desto strenger die Regeln.

Während der Einsatz von KI etwa in der industriellen Produktion bei technischer Optimierung von Prozessen eher unbedenklich ist (u. a. Sortiervorgänge), bedeutet KI in Bildung, Verkehr oder Medizin bereits ein höheres Risiko. Ein unannehmbares Risiko sieht die EU unter anderem darin, wenn KI beispielsweise zur Echtzeit-Gesichtserkennung im öffentlichen Raum verwendet wird.

Die Devise der EU lautet: Richtig ist nicht allein, was technisch möglich ist. KI muss vertrauenswürdig sein.

Quellen: BDKJ, Fachkräfteportal, KJM, Europäisches Parlament

Ähnliche Artikel

Ablehungskultur für Menschen auf der Flucht

Das europäische Parlament hat zuletzt seinen Beitrag geleistet, die Außengrenzen der Europäischen Union noch stärker als bisher abzuriegeln. In allen europäischen Nationalstaaten sind Geflüchtete nicht

Skip to content