KI übersetzt mit Vorurteilen

Technik & Games

Die Künstliche Intelligenz (KI) ist bereits Teil unseres Alltags. Smartphones, Smart Homes und Smart Cities begleiten unser Leben. Auch in Rekrutierungsverfahren, medizinischen Diagnosen und Gerichtsurteilen kommen KI-Systeme zum Einsatz. Ist das überhaupt positiv? Darüber gehen die Meinungen auseinander. Wichtig ist vor allem eins: Es gibt Risiken. Hier erfährst du, was es uns bringt und wieso wir vielleicht bei automatischen Übersetzungen einmal mehr aufpassen müssen.

Zukunft von KI: Killerroboter oder Nirvana?

Viele Forscher malen schwarz: Bald werden Roboter selbstständig und löschen die ganze Menschheit aus. Nun, das ist vielleicht etwas pessimistisch, aber wir müssen die Auswirkungen auf unsere Gesellschaft sicherlich berücksichtigen. Optimistischere Prognosen gehen davon aus, dass KI bis 2030 15 Billionen US-Dollar zur Weltwirtschaft beitragen wird. Was das bedeutet? Soziales Nirvana für uns alle!

MEHR AUS DEM WEB

KI-Systeme verstärken soziale Verzerrungen

Schon immer haben wir mit sozialen Unterschieden zu kämpfen. KI-Systeme trägt verstärkt dazu bei. Du brauchst Beispiele?

  • Automatisierte Übersetzungen liefern sexistische Ergebnisse.
  • Bilderkennung mit KI stuft dunkelhäutige Menschen als Gorillas ein.
  • Werden polizeiliche Daten zur Verhaftung mit einem KI-System automatisiert und bisher haben die Polizisten Ausländer diskriminiert, so diskriminiert das System denselben Typ Mensch.

Solche Fälle sind verheerend und entstehen dadurch, dass die Systeme mathematische Modelle verwenden, die große Mengen an menschlichen Daten verwenden. Sind diese sozial verzerrt, so werden diese Vorurteile zwangsläufig wiedergegeben. Soziales Ungleichgewicht wird verstärkt. 

Klares Beispiel: verzerrte Übersetzungen verhindern – geht das?

Alle modernen maschinellen Übersetzungssysteme (z.B. Google Translate) sind auf Satzpaare geschult. Dabei gibt es viele geschlechtsspezifische Verzerrungen. Im Allgemeinen sind 70 Prozent der geschlechtsspezifischen Pronomen in Übersetzungsmaschinen männlich, während nur 30 Prozent weiblich sind. Hochrechnungen sagen, dass KI über eine Milliarde von sexistisch übersetzten Aussagen produziert. Diese müssten alle aus dem Datensatz entfernt werden, wenn wir verhindern wollen, dass das System diskriminierende Sätze ausspuckt. Klingt einfach? Wenn eine Person nur fünf Sekunden damit verbringen würde, jeden der falsch übersetzten Sätze in den Trainingsdaten zu lesen, würde es 159 Jahre dauern – Tag und Nacht, ohne Pause.

Gibt es eine Lösung?

Schade, dass es bisher nicht klappt. Wenn KI-Technologien nämlich weniger voreingenommen wären als wir, so könnten sie uns helfen, unsere eigenen Vorurteile zu erkennen und zu bekämpfen.
Wir sollten sicherlich darauf hinarbeiten, dass die KI-Systeme unsere Vorurteile aufdecken. KI-Entwickler müssen sich demnach intensiv mit den sozialen Folgen, der von ihnen erstellen Systeme befassen. Sie unterschätzen wohl, was daraus alles werden kann.

MEHR AUS DEM WEB

© MAN ON A MISSION. All rights reserved | |

Was sagst du? Klicke auf die Emoji!

cool

Cool

haha

Haha

want

Ich will

wow

Wow

angry

Wütend

  • ´
    ´
    ´
    ´
    ´