Diese Website verwendet Cookies. Cookies helfen uns bei der Bereitstellung unserer Dienste. Durch die Nutzung unserer Dienste erklären Sie sich damit einverstanden, dass wir Cookies setzen. Bei uns sind Ihre Daten sicher. Wir geben keine Ihrer Analyse- oder Kontaktdaten an Dritte weiter! Weiterführende Informationen erhalten Sie in der Datenschutzerklärung.
Subtitle "Afrikaans" was produced by machine.Subtitle "አማርኛ" was produced by machine.Subtitle "العربية " was produced by machine.Subtitle "Ārāmāyâ" was produced by machine.Subtitle "azərbaycan dili " was produced by machine.Subtitle "беларуская мова " was produced by machine.Подзаглавието "България" е създадено от машина.Subtitle "বাংলা " was produced by machine.Subtitle "བོད་ཡིག" was produced by machine.Subtitle "босански" was produced by machine.Subtitle "català" was produced by machine.Subtitle "Cebuano" was produced by machine.Subtitle "ગુજરાતી" was produced by machine.Subtitle "corsu" was produced by machine.Podtitul "Čeština" byl vytvořen automaticky.Subtitle "Cymraeg" was produced by machine.Subtitle "Dansk" was produced by machine.Untertitel "Deutsch" wurde maschinell erzeugt.Subtitle "Untertitel" was produced by machine.Subtitle "Ελληνικά" was produced by machine.Subtitle "English" was produced by machine.Subtitle "Esperanto" was produced by machine.El subtítulo "Español" se generó automáticamente.Subtitle "Eesti" was produced by machine.Subtitle "euskara" was produced by machine.Subtitle "فارسی" was produced by machine.Subtitle "Suomi" was produced by machine.Le sous-titre "Français" a été généré automatiquement.Subtitle "Frysk" was produced by machine.Subtitle "Gaeilge" was produced by machine.Subtitle "Gàidhlig" was produced by machine.Subtitle "Galego" was produced by machine.Subtitle "Schwizerdütsch" was produced by machine.Subtitle "هَوُسَ" was produced by machine.Subtitle "Ōlelo Hawaiʻi" was produced by machine.Subtitle "עברית" was produced by machine.Subtitle "हिन्दी" was produced by machine.Subtitle "Mẹo" was produced by machine.Subtitle "Hrvatski" was produced by machine.Subtitle "Kreyòl ayisyen " was produced by machine.Subtitle "Magyar" was produced by machine.Subtitle "Հայերեն" was produced by machine.Subtitle "Bahasa Indonesia " was produced by machine.Subtitle "Asụsụ Igbo " was produced by machine.Textun"Íslenska" var framkvæmt vélrænt.Sottotitoli "Italiano" sono stati generati automaticamente.Subtitle "日本語" was produced by machine.Subtitle "Basa Jawa" was produced by machine.Subtitle "ქართული" was produced by machine.Subtitle "қазақ тілі " was produced by machine.Subtitle "ភាសាខ្មែរ" was produced by machine.Subtitle "ಕನ್ನಡ" was produced by machine.Subtitle "한국어" was produced by machine.Subtitle "कोंकणी語" was produced by machine.Subtitle "کوردی" was produced by machine.Subtitle "Кыргызча" was produced by machine.Subtitle " lingua latina" was produced by machine.Subtitle "Lëtzebuergesch" was produced by machine.Subtitle "Lingala" was produced by machine.Subtitle "ພາສາ" was produced by machine.Subtitle "Lietuvių" was produced by machine.Subtitle "Latviešu" was produced by machine.Subtitle "fiteny malagasy" was produced by machine.Subtitle "te reo Māori" was produced by machine.Subtitle "македонски јазик" was produced by machine.Subtitle "malayāḷaṁ" was produced by machine.Subtitle "မြန်မာစာ " was produced by machine.Subtitle "Монгол хэл" was produced by machine.Subtitle "मराठी" was produced by machine.Subtitle "Bahasa Malaysia" was produced by machine.Subtitle "Malti" was produced by machine.Subtitle "ဗမာစာ " was produced by machine.Subtitle "नेपाली" was produced by machine.Subtitle "Nederlands" was produced by machine.Subtitle "Norsk" was produced by machine.Subtitle "chiCheŵa" was produced by machine.Subtitle "ਪੰਜਾਬੀ" was produced by machine.Subtitle "Polska" was produced by machine.Subtitle "پښتو" was produced by machine.Subtitle "Português" was produced by machine.Subtitle "Română" was produced by machine.Subtitle "Язык жестов (Русский)" was produced by machine.Субтитры "Pусский" были созданы машиной.Subtitle "Kinyarwanda" was produced by machine.Subtitle "सिन्धी" was produced by machine.Subtitle "Deutschschweizer Gebärdensprache" was produced by machine.Subtitle "සිංහල" was produced by machine.Subtitle "Slovensky" was produced by machine.Subtitle "Slovenski" was produced by machine.Subtitle "gagana fa'a Samoa" was produced by machine.Subtitle "chiShona" was produced by machine.Subtitle "Soomaaliga" was produced by machine.Subtitle "Shqip" was produced by machine.Subtitle "србски" was produced by machine.Subtitle "Sesotho" was produced by machine.Subtitle "Basa Sunda" was produced by machine.Undertext "Svenska" är maskinell skapad.Subtitle "Kiswahili" was produced by machine.Subtitle "தமிழ்" was produced by machine.Subtitle "తెలుగు" was produced by machine.Subtitle "Тоҷикй" was produced by machine.Subtitle "ภาษาไทย" was produced by machine.Subtitle "ትግርኛ" was produced by machine.Subtitle "Tagalog" was produced by machine.Subtitle "Türkçe" was produced by machine.Subtitle "татар теле" was produced by machine.Subtitle "Українська " was produced by machine.Subtitle "اردو" was produced by machine.Subtitle "Oʻzbek" was produced by machine.Subtitle "Tiếng Việt" was produced by machine.Subtitle "Serbšćina" was produced by machine.Subtitle "isiXhosa" was produced by machine.Subtitle "ייִדיש" was produced by machine.Subtitle "Yorùbá" was produced by machine.Subtitle "中文" was produced by machine.Subtitle "isiZulu" was produced by machine.
kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV не носи отговорност за некачествен превод.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV nenese žádnou odpovědnost za chybné překlady.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV übernimmt keine Haftung für mangelhafte Übersetzung.kla.TV accepts no liability for inadequate translationkla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV no se hace responsable de traducciones incorrectas.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV n'assume aucune responsabilité en cas de mauvaise traduction.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV nem vállal felelősséget a hibás fordításértkla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV tekur enga ábyrgð á áræðanleika þýðingarinnarKla.TV non si assume alcuna responsabilità per traduzioni lacunose e/o errate.Kla.TV は、不適切な翻訳に対して一切の責任を負いません。kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV не несет ответственности за некачественный перевод.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.Kla.TV tar inget ansvar för felaktiga översättningar.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.
Autonome Waffen - die letzte Bastion der globalen Finanzelite muss fallen!
Nach offizieller Statistik der US-Armee sterben aktuell mehr US-Soldaten durch Selbstmord als durch Feindeinwirkung. Der Mensch ist keine „Killermaschine“ – autonome Waffensysteme jedoch schon. Die künstliche Intelligenz tötet ohne Gewissensbisse. Macht das diese Technik für globale Kriegstreiber zunehmend attraktiv? Friedensaktivisten schlagen Alarm …
[weiterlesen]
Autonome Waffen entscheiden und handeln mit Hilfe künstlicher Intelligenz eigenständig, ohne menschliche Einwirkung. Sie sind derzeit zwar noch in der Entwicklung, halten aber bereits jetzt schon die Weltgemeinschaft in Atem. Um was genau geht es und was ist das Problem?
Autonome Waffen, auch Killerroboter genannt, gelten als die „dritte Revolution in der Kriegsführung“. Denn genau wie einst die Erfindung von Schießpulver und Kernwaffen verändern autonome Waffensysteme die Art der Kriegsführung radikal. Autonome Waffen sind selbständig agierende Systeme. Sie sind so programmiert, dass sie mit Hilfe künstlicher Intelligenz und ohne menschliche Kontrolle Ziele identifizieren und angreifen können. Es kann sich um unbemannte Drohnen handeln, aber auch um Schiffe, Panzer, Raketenwerfer, Roboter und andere Waffen. Noch sind vollständig autonome Waffensysteme mit lernfähiger künstlicher Intelligenz offiziell nicht fester Bestandteil der Armeen dieser Welt.
In Genf werden seit 2014 von den Vereinten Nationen Gespräche geführt, in denen 75 Nationen über ein Verbot tödlicher autonomer Waffensysteme verhandeln, um Killerroboter zu reglementieren. Eine Einigung ist unrealistisch, weil einige Staaten eigene Interessen verfolgen. Nach Angaben von Friedensaktivisten sind 26 Staaten für ein Verbot solcher Waffen, darunter Österreich und alle Entwicklungsländer. China habe sich für ein Verbot des Einsatzes ausgesprochen. Die USA sind dem Vernehmen nach völlig gegen Beschränkungen der Entwicklung. Auch in Deutschland gibt es Unternehmen, die an dieser Entwicklung beteiligt sind und damit den internationalen Rüstungswettlauf weiter anheizen.
Doch warum sind autonome Waffen so sehr begehrt, z.B. vom US-Militär? Ein Blick auf die rasant zunehmende Selbstmordrate und die verheerende psychische Verfassung unter den US-Soldaten beantwortet die Frage anschaulich: Nach offizieller Statistik der US-Armee sterben aktuell mehr US-Soldaten durch Selbstmord als durch Feindeinwirkung. Sie können sich mit den so genannten „humanitären“ Kriegen, die in Wahrheit nichts anderes als machtstrategische Angriffskriege sind, kaum noch identifizieren und leiden aufgrund der grausamen Kriegsführung, auch gegen die Zivilbevölkerung, unter lebenslangen Gewissensnöten. Kriegsveteranen geben in Scharen ihre Verdienstorden zurück, weil sie sich der Kriegshandlungen schämen und tiefe Reue zeigen. Auch Drohnenpiloten, die quasi vom Schreibtisch aus wie bei einem Computerspiel töten und aufgrund der Distanz zum Kampfgeschehen zu weniger Mitgefühl neigen, sind nach wenigen Jahren „verschlissen“. Jahrzehntelange psychologische Studien haben zudem ergeben, dass Soldaten im Gefecht größtenteils gar nicht auf die feindlichen Soldaten, sondern bewusst danebenschießen.
Das macht deutlich, dass der Mensch von seiner Grundgesinnung her keine „Kriegsmaschine“ ist. Weltweite Friedensbewegungen und -kundgebungen unterstreichen diese Tatsache.
Für machtbesessene Kriegstreiber und die dahinterstehenden globalen Fädenzieher müssen daher autonome Waffensysteme, sprich Killerroboter, her, die fehlerfrei und kompromisslos funktionieren – ohne zu hinterfragen, ohne Mitgefühl, ohne Gewissen, nicht zuletzt auch als Schutz vor aufgebrachten Menschenmassen. Denn immer mehr Menschen durchschauen die globalen Zusammenhänge und sind nicht länger gewillt, sich ausbeuten und instrumentalisieren zu lassen. Dass sich die Kontrolle über das gesamte Geldsystem, alle Regierungen, Länder und deren Ressourcen in den Händen einiger weniger Familien befindet, wird die Menschheit auf Dauer nicht hinnehmen wollen.
Friedensaktivisten aller Art und jeder Nationalität schlagen deshalb Alarm: Die Entwicklung autonomer Waffensysteme müsse weltweit verboten werden. Mehr als 2.500 Forscher und 176 Organisationen auf dem Gebiet der Künstlichen Intelligenz haben bereits eine freiwillige Selbstverpflichtung unterzeichnet, nicht an autonomen tödlichen Waffensystemen zu forschen. Mit ihrer Unterschrift verpflichten sich die Teilnehmer, „es weder zu unterstützen noch dabei mitzuwirken, dass autonome tödliche Waffen entwickelt, produziert, gehandelt oder eingesetzt werden“. Viele große Namen fehlen allerdings. So unterzeichneten weder Google noch die Google-Holding Alphabet die Selbstverpflichtung; auch Boston Dynamics – Hersteller berühmter Robotermodelle – findet sich bislang nicht auf der Liste. Ebenso fehlen einschlägige Rüstungskonzerne. Ziel der Aktivisten ist es darum, weit über den Kreis der Unterzeichner hinaus Wirkung zu entfalten, indem die Aufmerksamkeit der breiten Öffentlichkeit auf die Gefahren autonomer Waffen gelenkt wird.
Wie verheerend effektiv autonome Waffen bereits handeln können, zeigt ein Kurzfilm namens "Slaughterbots", zu Deutsch „Schlachtroboter“. Das US-amerikanische Future of Life Institute (FLI), das sich zum Ziel gesetzt hat, existenzielle Risiken für die Menschheit zu minimieren, veröffentlichte das Video am 12. November 2017. Innerhalb weniger Wochen wurde es millionenfach angeklickt. Dies gibt in fiktiver Form einen abschreckenden Vorausblick, wie zum Beispiel Systemkritiker oder unerwünschte ethnische Gruppen im Handumdrehen liquidiert werden können. Fazit: Stoppt diese Technik!
Hier nun einige Auszüge aus dem Video:
Piloten unserer Kunden haben im vergangenen Jahr fast 3.000 Präzisionsschläge durchgeführt, und wir sind über die Maßen stolz darauf. Es erlaubt dir, die bösen Jungs von den guten zu trennen. Es ist eine große Sache. Aber wir haben etwas viel Größeres. Deine Kinder haben wahrscheinlich eines davon, oder? Nicht ganz.
Ein Teufelskerl von Pilot? Nein. Diese Fähigkeit ist rundum KI – Künstliche Intelligenz. Es fliegt sich selbst. Sein Prozessor kann hundertmal schneller reagieren als ein Mensch. Die stochastische Bewegung ist in einem Anti-Scharfschützen-Modus. Genau wie jedes andere mobile Gerät heutzutage hat es Kameras und Sensoren. Und genau wie deine Handys und Social Media Apps funktioniert auch bei ihm die Gesichtserkennung. Hier drin sind drei Gramm Spezialsprengstoff. Und so funktioniert es.
Hast du das gesehen? Dieser kleine Schuss genügt, um eine Schädeldecke zu durchschlagen und alles dahinter zu zerstören. Man sagt immer, nicht Waffen, sondern Menschen würden Menschen töten. Nun, sie tun es eben nicht. Sie werden emotional, gehorchen den Befehlen nicht, schießen absichtlich daneben. Lasst uns daher mal sehen, wie hier die Waffen die Entscheidungen treffen. Jetzt vertrau mir – das waren alles böse Jungs. Das war ein Luftangriff von chirurgischer Präzision. Es ist eines aus einer ganzen Reihe von Produkten. Als Schwarm programmiert können diese Dinger in Gebäude, Autos und Züge dringen, können Menschen und Kugeln ausweichen und so ziemlich jede Gegenmaßnahme durchkreuzen. Sie können nicht aufgehalten werden. Nun, ich sagte: Das ist groß. Warum? Weil wir groß denken. Schau mal: ein 25-Millionen-Dollar-Auftrag kauft ihnen das hier. Genug, um eine halbe Stadt zu töten, die üble Hälfte. Nuklear ‒ das ist Schnee von gestern. Schalte deinen gesamten Feind aus – und das praktisch risikofrei. Charakterisiere ihn einfach, lass den Schwarm los und ruh dich aus. Das alles kannst du heute schon haben.
Dumme Waffen schlagen dort ein, wohin du sie richtet. Intelligente Waffen verarbeiten Daten. Wenn du deinen Feind mit Hilfe von Daten finden kannst – selbst schon mit einem hashtag – kannst du eine böse Ideologie genau dort treffen, wo sie beginnt.
Dieser Kurzfilm ist mehr als nur eine Spekulation. Er zeigt die Ergebnisse der Integration und Miniaturisierung von Technologien, die wir bereits haben. Ich bin Stuart Russell, Professor für Informatik in Berkeley. Ich arbeite seit mehr als 35 Jahren an Künstlicher Intelligenz (KI). Ihr Potenzial zum Wohle der Menschheit ist enorm, auch in der Verteidigung. Aber es wird verheerend für unsere Sicherheit und Freiheit, Maschinen darüber entscheiden zu lassen, Menschen zu töten. Tausende meiner Kollegen sind sich darin einig. Wir haben noch die Möglichkeit, diese Zukunft, die Sie gerade vor Augen geführt bekommen haben, zu verhindern, aber das Zeitfenster zum Handeln schließt sich schnell!
Sendungstext
herunterladen
15.11.2018 | www.kla.tv/13354
Autonome Waffen entscheiden und handeln mit Hilfe künstlicher Intelligenz eigenständig, ohne menschliche Einwirkung. Sie sind derzeit zwar noch in der Entwicklung, halten aber bereits jetzt schon die Weltgemeinschaft in Atem. Um was genau geht es und was ist das Problem? Autonome Waffen, auch Killerroboter genannt, gelten als die „dritte Revolution in der Kriegsführung“. Denn genau wie einst die Erfindung von Schießpulver und Kernwaffen verändern autonome Waffensysteme die Art der Kriegsführung radikal. Autonome Waffen sind selbständig agierende Systeme. Sie sind so programmiert, dass sie mit Hilfe künstlicher Intelligenz und ohne menschliche Kontrolle Ziele identifizieren und angreifen können. Es kann sich um unbemannte Drohnen handeln, aber auch um Schiffe, Panzer, Raketenwerfer, Roboter und andere Waffen. Noch sind vollständig autonome Waffensysteme mit lernfähiger künstlicher Intelligenz offiziell nicht fester Bestandteil der Armeen dieser Welt. In Genf werden seit 2014 von den Vereinten Nationen Gespräche geführt, in denen 75 Nationen über ein Verbot tödlicher autonomer Waffensysteme verhandeln, um Killerroboter zu reglementieren. Eine Einigung ist unrealistisch, weil einige Staaten eigene Interessen verfolgen. Nach Angaben von Friedensaktivisten sind 26 Staaten für ein Verbot solcher Waffen, darunter Österreich und alle Entwicklungsländer. China habe sich für ein Verbot des Einsatzes ausgesprochen. Die USA sind dem Vernehmen nach völlig gegen Beschränkungen der Entwicklung. Auch in Deutschland gibt es Unternehmen, die an dieser Entwicklung beteiligt sind und damit den internationalen Rüstungswettlauf weiter anheizen. Doch warum sind autonome Waffen so sehr begehrt, z.B. vom US-Militär? Ein Blick auf die rasant zunehmende Selbstmordrate und die verheerende psychische Verfassung unter den US-Soldaten beantwortet die Frage anschaulich: Nach offizieller Statistik der US-Armee sterben aktuell mehr US-Soldaten durch Selbstmord als durch Feindeinwirkung. Sie können sich mit den so genannten „humanitären“ Kriegen, die in Wahrheit nichts anderes als machtstrategische Angriffskriege sind, kaum noch identifizieren und leiden aufgrund der grausamen Kriegsführung, auch gegen die Zivilbevölkerung, unter lebenslangen Gewissensnöten. Kriegsveteranen geben in Scharen ihre Verdienstorden zurück, weil sie sich der Kriegshandlungen schämen und tiefe Reue zeigen. Auch Drohnenpiloten, die quasi vom Schreibtisch aus wie bei einem Computerspiel töten und aufgrund der Distanz zum Kampfgeschehen zu weniger Mitgefühl neigen, sind nach wenigen Jahren „verschlissen“. Jahrzehntelange psychologische Studien haben zudem ergeben, dass Soldaten im Gefecht größtenteils gar nicht auf die feindlichen Soldaten, sondern bewusst danebenschießen. Das macht deutlich, dass der Mensch von seiner Grundgesinnung her keine „Kriegsmaschine“ ist. Weltweite Friedensbewegungen und -kundgebungen unterstreichen diese Tatsache. Für machtbesessene Kriegstreiber und die dahinterstehenden globalen Fädenzieher müssen daher autonome Waffensysteme, sprich Killerroboter, her, die fehlerfrei und kompromisslos funktionieren – ohne zu hinterfragen, ohne Mitgefühl, ohne Gewissen, nicht zuletzt auch als Schutz vor aufgebrachten Menschenmassen. Denn immer mehr Menschen durchschauen die globalen Zusammenhänge und sind nicht länger gewillt, sich ausbeuten und instrumentalisieren zu lassen. Dass sich die Kontrolle über das gesamte Geldsystem, alle Regierungen, Länder und deren Ressourcen in den Händen einiger weniger Familien befindet, wird die Menschheit auf Dauer nicht hinnehmen wollen. Friedensaktivisten aller Art und jeder Nationalität schlagen deshalb Alarm: Die Entwicklung autonomer Waffensysteme müsse weltweit verboten werden. Mehr als 2.500 Forscher und 176 Organisationen auf dem Gebiet der Künstlichen Intelligenz haben bereits eine freiwillige Selbstverpflichtung unterzeichnet, nicht an autonomen tödlichen Waffensystemen zu forschen. Mit ihrer Unterschrift verpflichten sich die Teilnehmer, „es weder zu unterstützen noch dabei mitzuwirken, dass autonome tödliche Waffen entwickelt, produziert, gehandelt oder eingesetzt werden“. Viele große Namen fehlen allerdings. So unterzeichneten weder Google noch die Google-Holding Alphabet die Selbstverpflichtung; auch Boston Dynamics – Hersteller berühmter Robotermodelle – findet sich bislang nicht auf der Liste. Ebenso fehlen einschlägige Rüstungskonzerne. Ziel der Aktivisten ist es darum, weit über den Kreis der Unterzeichner hinaus Wirkung zu entfalten, indem die Aufmerksamkeit der breiten Öffentlichkeit auf die Gefahren autonomer Waffen gelenkt wird. Wie verheerend effektiv autonome Waffen bereits handeln können, zeigt ein Kurzfilm namens "Slaughterbots", zu Deutsch „Schlachtroboter“. Das US-amerikanische Future of Life Institute (FLI), das sich zum Ziel gesetzt hat, existenzielle Risiken für die Menschheit zu minimieren, veröffentlichte das Video am 12. November 2017. Innerhalb weniger Wochen wurde es millionenfach angeklickt. Dies gibt in fiktiver Form einen abschreckenden Vorausblick, wie zum Beispiel Systemkritiker oder unerwünschte ethnische Gruppen im Handumdrehen liquidiert werden können. Fazit: Stoppt diese Technik! Hier nun einige Auszüge aus dem Video: Piloten unserer Kunden haben im vergangenen Jahr fast 3.000 Präzisionsschläge durchgeführt, und wir sind über die Maßen stolz darauf. Es erlaubt dir, die bösen Jungs von den guten zu trennen. Es ist eine große Sache. Aber wir haben etwas viel Größeres. Deine Kinder haben wahrscheinlich eines davon, oder? Nicht ganz. Ein Teufelskerl von Pilot? Nein. Diese Fähigkeit ist rundum KI – Künstliche Intelligenz. Es fliegt sich selbst. Sein Prozessor kann hundertmal schneller reagieren als ein Mensch. Die stochastische Bewegung ist in einem Anti-Scharfschützen-Modus. Genau wie jedes andere mobile Gerät heutzutage hat es Kameras und Sensoren. Und genau wie deine Handys und Social Media Apps funktioniert auch bei ihm die Gesichtserkennung. Hier drin sind drei Gramm Spezialsprengstoff. Und so funktioniert es. Hast du das gesehen? Dieser kleine Schuss genügt, um eine Schädeldecke zu durchschlagen und alles dahinter zu zerstören. Man sagt immer, nicht Waffen, sondern Menschen würden Menschen töten. Nun, sie tun es eben nicht. Sie werden emotional, gehorchen den Befehlen nicht, schießen absichtlich daneben. Lasst uns daher mal sehen, wie hier die Waffen die Entscheidungen treffen. Jetzt vertrau mir – das waren alles böse Jungs. Das war ein Luftangriff von chirurgischer Präzision. Es ist eines aus einer ganzen Reihe von Produkten. Als Schwarm programmiert können diese Dinger in Gebäude, Autos und Züge dringen, können Menschen und Kugeln ausweichen und so ziemlich jede Gegenmaßnahme durchkreuzen. Sie können nicht aufgehalten werden. Nun, ich sagte: Das ist groß. Warum? Weil wir groß denken. Schau mal: ein 25-Millionen-Dollar-Auftrag kauft ihnen das hier. Genug, um eine halbe Stadt zu töten, die üble Hälfte. Nuklear ‒ das ist Schnee von gestern. Schalte deinen gesamten Feind aus – und das praktisch risikofrei. Charakterisiere ihn einfach, lass den Schwarm los und ruh dich aus. Das alles kannst du heute schon haben. Dumme Waffen schlagen dort ein, wohin du sie richtet. Intelligente Waffen verarbeiten Daten. Wenn du deinen Feind mit Hilfe von Daten finden kannst – selbst schon mit einem hashtag – kannst du eine böse Ideologie genau dort treffen, wo sie beginnt. Dieser Kurzfilm ist mehr als nur eine Spekulation. Er zeigt die Ergebnisse der Integration und Miniaturisierung von Technologien, die wir bereits haben. Ich bin Stuart Russell, Professor für Informatik in Berkeley. Ich arbeite seit mehr als 35 Jahren an Künstlicher Intelligenz (KI). Ihr Potenzial zum Wohle der Menschheit ist enorm, auch in der Verteidigung. Aber es wird verheerend für unsere Sicherheit und Freiheit, Maschinen darüber entscheiden zu lassen, Menschen zu töten. Tausende meiner Kollegen sind sich darin einig. Wir haben noch die Möglichkeit, diese Zukunft, die Sie gerade vor Augen geführt bekommen haben, zu verhindern, aber das Zeitfenster zum Handeln schließt sich schnell!
von hm.
https://www.sueddeutsche.de/digital/killerroboter-warum-autonome-waffen-wohl-nicht-verboten-werden-1.4108994
https://www.heise.de/newsticker/meldung/Autonome-Waffen-mit-KI-Auf-dem-Weg-zur-Schlachtfeld-Singularitaet-4027249.html
http://derwaechter.org/hochgeruestete-us-armee-zeigt-sich-voellig-wehrlos-gegen-neuen-feind
https://www.spektrum.de/news/tausende-ki-forscher-geloben-verzicht-auf-waffenentwicklung/1579178
https://en.wikipedia.org/wiki/Future_of_Life_Institute
https://en.wikipedia.org/wiki/Slaughterbots
https://derstandard.at/2000068137922/Slaughterbots-Kurzfilm-warnt-vor-autonomen-Killerrobotern