Gastbeitrag von Steffi Lemke: "Wie wir Künstliche Intelligenz transparent, nachvollziehbar und überprüfbar machen können"

26.05.2023
Bundesministerin Steffi Lemke
Im Gastbeitrag im Handelsblatt erläutert Steffi Lemke, warum die EU-Regulierung vor allem vor vier Gefahren der KI schützen sollte.

KI-Systeme revolutionieren viele Lebensbereiche, bergen aber auch erhebliche Risiken. Die EU-Regulierung sollte vor allem vor vier Gefahren schützen, fordert Steffi Lemke.

Wir erleben derzeit einen technologischen Umbruch vergleichbar mit der industriellen Revolution. Künstliche Intelligenz hält Einzug in immer mehr Lebensbereiche. KI-Systeme können Texte produzieren, Musik komponieren, Bilder erstellen, menschliche Stimmen imitieren oder bei der Diagnose von Hautkrebs helfen. Und auch im Umweltschutz kann KI unterstützen: Mithilfe von KI können Abfälle präziser getrennt, die Auswirkungen von Starkregen simuliert oder Vorschläge für einen klimaresistenten Wald erarbeitet werden.

Die technologische Entwicklung ist rasant, viele Einsatzmöglichkeiten noch gar nicht erschlossen. Gleichzeitig zeigt sich schon jetzt, dass KI neben ihren großartigen Fähigkeiten auch erhebliche Gefahren mit sich bringt. Dementsprechend wächst auch das Bewusstsein dafür, dass wir Regeln für den Einsatz von Künstlicher Intelligenz brauchen. Die EU ist dabei - anders als die USA - schon sehr weit. Die Verhandlungen über eine KI-Verordnung sind in vollem Gange.

Die EU leistet damit echte Pionierarbeit. Ziel ist es, dass Aufsichtsbehörden und Rechtsprechung mit einer rasanten technologischen Entwicklung Schritt halten können, um die Rechte der Menschen zu schützen.

KI-Systeme sind so gut wie die Daten, mit denen wir sie füttern

Ich setze mich dafür ein, dass der neue Rahmen folgende Schutzfunktionen erfüllt:

  1. Schutz vor Diskriminierung KI-Systeme sind immer nur so gut wie die Daten, mit denen wir sie füttern. Wenn KI-Systeme beispielsweise mit Daten trainiert wurden, die Diskriminierungen, Hassrede oder Vorurteile enthalten, werden diese reproduziert. KI kann zudem Ungleichheiten verstärken und bestimmte Bürgerinnen und Bürger diskriminieren, zum Beispiel bei der Kreditvergabe oder der Personalauswahl. Um Missbrauch und Fehlentwicklungen zu vermeiden, brauchen KI-Systeme Qualitätsanforderungen, zum Beispiel in Bezug auf die Trainingsdaten. Solche Systeme müssen nachvollziehbar oder überprüfbar gestaltet und überwacht werden.
  2. Schutz vor Falschinformationen Chatbots wie ChatGPT "verstehen" nicht, was sie äußern. Sie geben nur Resultate aus, bei denen die Wahrscheinlichkeit hoch ist, dass eine bestimmte Zeichenfolge als passende Antwort verstanden wird. Es kommt daher immer wieder vor, dass diese KI-Systeme Aussagen herbeifabulieren. Die "Washington Post" berichtete jüngst, dass ChatGPT einen Rechtsprofessor zu Unrecht der sexuellen Belästigung beschuldigte. Als angeblicher Beleg wurde ein Zeitungsartikel angeführt, der gar nicht existierte. Anbieter von KI-Systemen wie ChatGPT sollten verpflichtet werden, ehrverletzende Falschinformationen und Ähnliches zu verhindern, auf Verlangen der Betroffenen zu korrigieren und nicht weiter zu verbreiten. KI-Systeme wie ChatGPT werden darauf trainiert, besonders überzeugend zu wirken. Man kann solche Sprachtechnologien deshalb auch dafür nutzen, Verschwörungsmythen zu verbreiten oder aggressive Verkaufsstrategien zu erzeugen, die gezielt vulnerable Personengruppen ansprechen. Die Systeme können auf diese Weise auch die demokratische Meinungsbildung und den gesellschaftlichen Diskurs manipulieren. Solchen negativen Entwicklungen müssen Anbieter und Gesetzgeber vorbeugen - mit Informationen und klaren Transparenzregeln. Es muss klar sein, wann und wo KI-Systeme zum Einsatz kommen.
  3. Schutz vor Intransparenz Ist ein Bild, ein Text, ein Video von Menschen oder einer KI produziert? Werden KI-Systeme eingesetzt, sollte dies gekennzeichnet und für die Verbraucherinnen und Verbraucher klar sichtbar gemacht werden. Und sie sollten Informationen darüber erhalten, für welchen Zweck die KI-Systeme trainiert wurden, welches Fehlerpotenzial und welche Ungenauigkeit das einzelne System aufweist. Diese Informationen sind notwendig, wenn Verbraucherinnen und Verbraucher sich gegen Rechtsverletzungen vor Gericht wehren wollen. Verbraucherverbände sollten durch Kollektivklagen die Einhaltung von Qualitätsanforderungen überprüfen können.
  4. Schutz vor überbordenden ökologischen Folgen Digitale Technologien haben einen erheblichen ökologischen Fußabdruck, insbesondere durch den Energie- und Ressourcenverbrauch von Rechenzentren oder Übertragungsnetzen. Hier brauchen wir zunächst mehr Transparenz: Anbieter von KI-Systemen sollten verpflichtet werden, Angaben zur Nachhaltigkeit ihrer Systeme zu machen. Das schafft die Möglichkeit, die negativen ökologischen Effekte von KI-Systemen einzudämmen. Die derzeit in der EU verhandelte KI-Regulierung bietet uns die Chance, unsere europäischen Werte, unsere umwelt-, verbraucher- und gesellschaftspolitischen Errungenschaften in einer Gegenwarts- und Zukunftstechnologie zu verankern. Nutzen wir diese Chance - gestalten wir diese technologische Revolution zum Nutzen von Mensch und Umwelt.
26.05.2023 | Medienbeitrag Ministerium | Berlin
https://www.bmuv.de/IV10613
  • Fotogalerie Videogalerie

    Mediathek

    Das Ministerium in Bildern

  • Fotogalerie Videogalerie Interviews

    Online-Tagebuch

    Aus der täglichen Arbeit des Ministeriums

  • Newsletter

    Newsletter

    Meldungen per E-Mail empfangen

Wege zum Dialog

Gute Politik für Umweltschutz und Verbraucherschutz gelingt, wenn sie gemeinsam gestaltet wird. Schreiben Sie uns oder beteiligen Sie sich an unseren Dialogangeboten.