PARIS, FRANCE - JUN 22, 2017: Chinese Chengdu Aircraft Industry Group (CAIG) Wing Loong II  military UAV drone showcased at the Paris Air Show 2017.

Autonome Waffen mit Künstlicher Intelligenz: eine Gefahr für uns Menschen?

Big Stories

Die Mischung klingt auf jeden Fall so. Künstliche Intelligenz (KI) und autonome Waffen sind eine gefährliche Kombination, die für uns Menschen in Zukunft zur Gefahr werden könnte. Weltweit konnten sich bisher nur 22 Länder für eine Unterstützung des Verbots autonomer Waffen, deren Entwicklung, Herstellung und Verbreitung entscheiden. Seit 5 Jahren setzt sich „StopKillerRobots“ für einen Bann derartiger Waffensysteme ein. Die KI wird immer intelligenter und mit Erreichen der Singularität könnten sich KI-Waffen zu einer Gefahr für die Menschheit entwickeln. Das Video am Artikelende hält spannende Infos bereit.

Was sind autonome Waffensysteme?

Autonome Waffensysteme sind selbstständig agierende Waffen, die über eine eigene Künstliche Intelligenz (KI) verfügen und selbst Ziele auswählen können. Heutige Systeme wie zum Beispiel Drohnen handeln teilautonom, die schlussendliche Entscheidung über die Auswahl der Ziele trifft der Mensch. Vollautonome Waffen existieren heute schon, hier trifft die KI die Entscheidung über einen Angriff auf ein Ziel vollautomatisch. Hier sieht die Gründerin der Kampagne „StopKillerRobots“, Mary Wareham, die größte Gefahr und fordert das Festlegen einer Grenze. Diese Grenze soll die schlimmsten Entwicklungen von KI-Waffen unterbinden.

MEHR AUS DEM WEB

Ungenaue Grenzen und Definitionen

Bei den autonomen Waffen sind die Grenzen unklar, so wählt die KI bei US-Drohnenangriffen zum Beispiel die Ziele aus und der Drohnenpilot entscheidet per Knopfdruck, ob es mit den Bordwaffen zerstört werden soll oder nicht. Eine Handvoll Länder verfasste bereits Beschreibungen was unter tödlichen selbstständigen KI-Waffen zu verstehen ist, erklärte Mary Wareham im Februar gegenüber Heise Online in einem Interview. Die norwegische Regierung definiert ein derartiges System als ein Waffensystem, welches ein Ziel sucht, erkennt und angreift, um zu töten, ohne Einmischung eines Menschen von außen. Die USA und andere Länder haben vergleichbare Beschreibungen für autonome Waffen entwickelt.

Deutsche zum Großteil gegen KI-Waffen

Nach einer Studie sind 65 Prozent der Deutschen gegen den Einsatz selbstständig agierender Waffen, die per KI gesteuert werden. Ein kleiner Prozentsatz von 15 Prozent befürwortet hingegen solche Waffen. Gegen den Einsatz von KI-Waffen gibt es vor allem moralische Bedenken, hier ist vor allem Pakistan zu nennen. Pakistan verwies in diesen Zusammenhang auf Wettrüsten, Instabilität und Weiterverbreitung von solchen Waffensystemen. Moralische Fragen über intelligente Maschinen, die Menschen töten stehen im Raum und müssen von allen Nationen klar beantwortet werden.

Hardliner wollen Verbot verhindern

Die Hardliner, die sich mehr oder weniger gegen ein Verbot aussprechen sind Russland, die USA, Großbritannien und ein paar weitere Länder. Sie sprechen sich zwar nicht klar gegen ein Verbot aus, sondern sind noch nicht so weit, um über ein rechtlich verbindliches Verbot zu reden Weltweit haben sich mittlerweile 25.0000 Wissenschaftler dafür eingesetzt KI-Waffen zu verbieten und haben dystopische Szenerien entworfen. Sie streben danach, den Einsatz der KI für autonome Waffen zu verhindern. Das Militär möchte der künstlichen Intelligenz die öden, riskanten und unliebsamen Aufgaben überlassen. Ein Terminator auf dem Schlachtfeld? Das Verbot wird neben Wissenschaftlern von Prominenten wie Elon Musk oder dem kürzlich verstorbenen Astrophysiker Stephen Hawking, Unternehmen, Rechtsexperten und Religionsführern unterstützt. Die Politik und die Arbeitsgruppen in Genf hingegen arbeiten sehr langsam, obwohl die Zeit drängt und es nicht mehr lange dauern wird, bis vollständig eigenständig handelnde KI-Waffen einsatzbereit sind. Politische Entscheidungen mit Einbeziehung der Wissenschaft, Bürger, der Waffenlobby und dem Militär müssen bei der angestrebten Ächtung getroffen werden. Zur Zeit besteht kein akutes Risiko, da noch niemand, zumindest offiziell, an vollautomatischen tödlichen Systemen arbeitet, berichtet Vincent Boulanin, der beim Friedensforschungszentrum SIPRI arbeitet. Wenn die KI die Singularität erreicht, also ein eigenes Bewusstsein entwickelt und uns Menschen überlegen wird, wächst die Gefahr einer Bedrohung durch autonome Waffen und Maschinen. Der Mensch sollte die Waffenkontrolle haben und nicht ein Computer.

Autonome Waffensysteme:

MEHR AUS DEM WEB

Was sagst du? Klicke auf die Emoji!

Cooles Smily von Man On A MissionCool
Lachendes Smily von Man On A MissionHaha
Ich will Smily von Man On A MissionIch will
Wow Smily von Man On A MissionWow
Wütendes Smily von Man On A MissionWütend

© MAN ON A MISSION. All rights reserved | |

  • Hier sind fünf Gründe, warum wir den Klimawandel leugnen
    Mysteriöses Signal deutet auf ein neues Sternensystem hin
    Forscher finden ein Material, das CO2 in organische Materie umwandelt
    Reise nach Tschernobyl: Folgen des Unfalls heute
    Steigende Temperaturen: In Amerika entsteht ein Ring aus Feuer