Happy Scribe Logo

Transcript

Proofread by 0 readers
Proofread
[00:00:01]

SWR 2 wissen.. Die künstlich intelligente Gesellschaft, der automatisierte Krieg.

[00:00:13]

Von Jan Bösche Computerfirmen, Krieg, Maschinen töten. Die Idee ist nicht neu. Die Angst davor auch nicht. Die Menschen erschaffen ihre eigenen Henkers aus Geiz, Gier oder Unachtsamkeit. Frankensteins Monster richtet sich gegen seinen Schöpfer. Im Film Matrix wendet sich künstliche Intelligenz gegen die Menschheit.

[00:00:49]

Die Computer übernehmen die Weltherrschaft und degradieren die Menschen zu Batterien, die mit einer simulierten Wirklichkeit bei Laune gehalten werden.

[00:00:58]

Die Matrix, in der sie glauben zu leben, das Böse in den Terminator filmen, ist eine selbst lernende Software, die alle Waffensysteme steuert. Den Versuch abzuschalten, interpretiert die Software als Angriff und versklavt die Menschheit.

[00:01:23]

In der Vergangenheit dienten diese Szenarien dazu, Kinobesuchern einen Schauer über den Rücken laufen zu lassen. Nun gibt es aber selbstfahrende Autos. mitdenkende Computerprogramme und Kampfdrohnen, die über Tausende Kilometer ferngesteuert fliegen. Die große Sorge ist Wird in den Laboren schon an einem Terminator geschraubt? Wie weit sind wir entfernt von Kriegen? Die Roboter führen für uns gegen uns. Wer entscheidet über Leben und Tod? Ein Mensch oder eine Maschine? Black einheimst. Science fiction Realität. Fiction hat unser Bild geprägt, was Roboter in der Zukunft leisten können.

[00:02:06]

Und das Bild ist überwiegend düster, bemerkt Paul Chéri.

[00:02:12]

Das ist abhängig von der Kultur. Wenn ich mit Kollegen aus Südkorea oder Japan rede. Die haben einen anderen Blick auf Robotik, weil es eine andere Popkultur gibt. In vielen Shows dort sind Roboter die Helden. Ein Kollege fragte mich Warum baut er nicht einfach keine bösen Roboter, sondern gute Roboter?

[00:02:32]

Paul Cherry ist der Experte in Washington, wenn es um autonome Waffensysteme geht. Auch er benutzt die Bilder von Kampfroboter aus der Literatur, weil er ohnehin immer darauf angesprochen wird. Paul Chéri arbeitet am Center for a New American Security, einer von vielen Think Tanks in Washington, die sich mit Verteidigungspolitik beschäftigen. Viele Führungskräfte hatten mal Regierungs Jobs. Geld kommt unter anderem von den Rüstungskonzern. Shelby hat ein Buch über die Entwicklung von Kampfroboter geschrieben Army of Man, das von Befürwortern und Gegnern zitiert wird.

[00:03:11]

Ich erinnere mich sehr genau an den Moment, als mir auffiel, wie Roboter die Kriegsführung verändern. Ich war im Irak, als die US-Truppen dort aufgestockt wurden. 2007. Es war eine harte Zeit, sehr gewalttätig.

[00:03:28]

Cherry war Soldat, Aufklärer und seiner Einheit warteten auf Bomben in Schärfer, die sich um einen Sprengsatz auf der Straße vor ihnen kümmern sollten. Schließlich kamen sie mit einem großen, gepanzerten Fahrzeug.

[00:03:42]

Ich erwartete einen großen Entschärfung. Panzer und dicke Schutzanzüge. Es kam ein kleiner Roboter. Das war die Erleuchtung für mich.

[00:03:51]

Lasst den Roboter die Bombe entschärfen! Wenn man darüber nachdenkt.

[00:03:55]

Es gibt viele Dinge im Krieg, die sehr gefährlich sind. Es macht Sinn, Roboter dafür zu haben.

[00:04:03]

Was können Roboter in der Armee leisten? Welche Chancen, welche Risiken gibt es? Diese Fragen beschäftigen ihn seit seiner aktiven Militärzeit. Vorbei ist, dass er Krieg selbst miterlebt hat, unterscheidet ihn von den Experten, die am grünen Tisch über neue Technologien nachdenken.

[00:04:23]

Eines, was ich im Irak und in Afghanistan erlebt habe und was mein Denken über autonome Waffen jetzt beeinflusst, ist das Chaos und das Durcheinander eines Krieges.

[00:04:33]

Ich war in Gefechten, in denen Leute schießen, und du weißt nicht, wer auf dich schießt.

[00:04:39]

Freund oder Feind?

[00:04:43]

Ich schaute durch den Sucher und sah jemanden in Uniform, Freund oder Feind, der in gestohlenen Uniformen oder Freunde unterwandert von Milizen.

[00:05:00]

Krieg ist immer grausam. Schnelle Entscheidungen, viele Fälle. Die Frage ist, ob Roboter in diesem Chaos eine Hilfe sein können. Und wenn, wie weit sie gehen sollen?

[00:05:12]

Ronald Arkin ist Professor an der Georgia Tech Hochschule in Atlanta. Er forscht seit Ende der 80er Jahre an Robotern und künstlicher Intelligenz.

[00:05:24]

Mir wurde in den vergangenen 15 Jahren klar, dass diese Technologie erwachsen wird, sich in andere Gebiete ausbreitet.

[00:05:34]

Wir müssen die Verantwortung übernehmen für mögliche Einsätze.

[00:05:42]

Unter den zivilen Forschern, die sich mit künstlicher Intelligenz beschäftigen, ist Arkin eine Ausnahme.

[00:05:47]

Viele Wissenschaftler weigern sich, an militärischen Konzepten zu arbeiten. Proteste bei Google führten zum Beispiel dazu, dass das Unternehmen Verträge mit dem Pentagon aufkündigte.

[00:06:00]

Viele Leute in meinem Forschungsbereich zeichnen ein Schreckensszenario, wenn es um die Folgen solcher Systeme geht. Einige glauben, dass es um die nächste Generation von präzise gesteuerter Munition geht und, wenn man sie richtig einsetzt, die Zahl an getöteten Zivilisten reduziert werden kann.

[00:06:18]

Das ist eine Hoffnung. Block 2 2 Schon vor über 2000 Jahren schrieb der chinesische General Sunny, Geschwindigkeit sei das Wesen des Krieges. Und schon immer nutzten Menschen ihren Erfindergeist, um schneller zu sein als der Gegner Steinschleudern, Kanonen, das erste schnell Feuer. Geschütz im amerikanischen Bürgerkrieg.

[00:06:46]

Maschinengewehre im Ersten Weltkrieg. Automation machte die Waffen schneller. Aber ohne einen Soldaten am Abzug passierte nichts. Paul Chéri erklärt Die Realität ist Seit dem Zweiten Weltkrieg gibt es Formen von Automation in Waffen. Im Zweiten Weltkrieg gab es die ersten ziel. suchenden Geschosse, Torpedos mit Sensoren, die feindliche Schiffe aufspüren konnten und zum Beispiel dem Geräusch der Schiffsschraube folgen konnten. Mit der Zeit wurde die Technologie in Präzision gelenkte Munition eingebaut. Genutzt von Armeen überall auf der Welt. Viele davon sind sogenannte Schießen und Vergessen Waffen.

[00:07:29]

Einmal abgefeuert, kann man sie nicht mehr aufhalten, da es keine menschliche Kontrolle. Aber die Autonomie ist sehr. Ein Irrtum kann nicht mehr korrigiert werden. Manche Systeme bekommen Koordinaten als Zielvorgaben, andere denken mit und können das einmal ausgewählte Ziel verfolgen. Flugabwehr Systeme nutzen solche Technik, zum Beispiel das deutsche mantis System, das auch Drohnen oder Raketen im Nahbereich abwehren kann. Israel benutzt ein System mit dem Namen HWP. Es ist eine sogenannte herumliegende Waffe. Einmal gestartet, streift sie durch das Zielgebiet, bis sie eine Radarsysteme entdeckt, das sie dann angreift.

[00:08:15]

Damit haben die Waffen Entwickler die Grenze erreicht Die Grenze zu voll autonomen, selbstständig handelnden Systemen ist die entscheidende Frage Ist die Rolle von offensiven autonomen Waffen oder vollwertigen autonomen Waffen, deren Betrieb nicht mehr von Menschen in Echtzeit überwacht werden kann?

[00:08:35]

Das eröffnet ein neues Feld. Wir haben schon einige wenige Beispiele gesehen, aber solche Waffen sind noch nicht in großer Menge von den Armeen eingesetzt worden.

[00:08:48]

Probleme schon jetzt, wenn Schnelligkeit entscheidend ist und moderne autonome Waffen diese Schnelligkeit liefern, müssten die Militärs begeistert sein, sie einzusetzen. Wenn man Kerrys Interviews im Pentagon glaubt, ist das nicht immer der Fall. Er schreibt von kulturellem Widerstand bei vielen Entscheidungsträgern. Ein Grund dafür Viele Militärs trauen den Maschinen nicht, wünschen sich mehr Kontrolle, nicht weniger. Die Systeme, die schon im Einsatz sind, machen Fehler manchmal tödlich. Zum Beispiel die Patriot Luftabwehrraketen im Irak-Krieg.

[00:09:28]

Es gab zwei Vorfälle zu Beginn des Irak-Krieges 2003, als das US Patriot Luftabwehr System zwei eigene Flugzeuge abschoss. Dafür gab es viele Gründe.

[00:09:38]

Probleme, die bei Tests aufgefallen waren, wurden nicht korrigiert. Die Patriots Systeme hatten Zeichen falsch gedeutet und darum feindliche Raketen vermutet. Dabei sind das erst halbautomatische Systeme, die den Soldaten Arbeitsschritte abnehmen. Aber am Ende muss jemand auf den Auslöser drücken. Was passiert aber, wenn die Maschinen selbst entscheiden, wann sie den Auslöser betätigen?

[00:10:08]

Das ist die Herausforderung mit jeder Technologie. Besonders Automation.

[00:10:13]

Es gibt keine Möglichkeit, alle Unfälle zu vermeiden. Was passiert aber als nächstes?

[00:10:19]

Ist ein Mensch involviert, der schnell eingreifen kann, der die Kontrolle übernehmen kann? Oder werden wir sehen, wie die Dinge außer Kontrolle geraten?

[00:10:30]

Das ist das besorgniserregender Szenario. Es gibt einen Unfall, und das Waffensystem macht immer weiter.

[00:10:37]

Kein Mensch kann eingreifen. Das führt zur Katastrophe.

[00:10:49]

Autonome Systeme sind das neue Invalid der Rüstungsindustrie. Keine neue Entwicklung kommt ohne aus. In einem Werbevideo vom Rüstungskonzern Lockheed Martin heißt es Was auch immer die Mission ist das Team. Autonomie ist überall. Sie ermöglicht Menschen und Maschinen, das zu tun, was sie am besten können vom Ozean bis zum Weltall. Realisieren wir eine neue Vision für Autonomie komplett integriert, vertrauenswürdig, verlässlich. Lockheed Martin glaubt an eine Zukunft, die von Autonomie angetrieben wird. Die Menschen in Sicherheit, die Welt sicherer macht und Leute nach Hause bringt.

[00:11:35]

Immer und überall. Zu sehen sind Schiffe, selbst fliegende Hubschrauber, Unterwasser, Drohnen und eine Soldatin, die ihren Sohn auf dem Arm hält. Es ist ein neuer Wettlauf entstanden. Alle großen Militär Nationen arbeiten mehr oder weniger offen an autonomen Systemen, die immer weniger menschlichen Einfluss benötigen oder erlauben. Das Pentagon gibt nur einen Bruchteil seines riesigen Etats dafür aus. Es sind aber trotzdem mehrere Milliarden Dollar. Es gibt zahlreiche Forschungsprojekte, zum Beispiel Drohnen, Schwärme, die sich automatisch untereinander abstimmen, wie sie ihr Ziel am besten erreichen.

[00:12:17]

Der Drohnen Pilot steuert nicht mehr direkt, sondern gibt nur noch Befehle. Es gibt selbstfahrende Boote, die feindliche U-Boote aufspüren können. Drohnen, die ihre Mission fortsetzen können, auch wenn die Verbindung zur Heimatbasis abgerissen ist. Estnische und auch russische Entwickler arbeiten an selbstfahrenden Kettenfahrzeuge, die zu Panzern hochgerüstet werden können. Rüstungsexporte, Paul Chérie.

[00:12:47]

Die meisten Länder, die sich diese Technologien anschauen mögen, sagen Es ist das Risiko nicht wert. Es gibt so viele rechtliche und ethische Probleme, es kann zu Unfällen kommen. Wir wollen das nicht riskieren.

[00:12:58]

Das Problem ist Länder haben Armeen, weil sie anderen Ländern nicht trauen.

[00:13:07]

Darum laufen viele Forschungen im Verborgenen ab. Russland oder China lassen sich überhaupt nicht in die Labore schauen. Die USA geben Auskünfte zumindest über ihre Forschung an Teilautonomie Systemen. Das entspricht der offiziellen Linie des Pentagon. Menschen sollen weiter eingebunden sein. Entscheiden über Leben und Tod.

[00:13:30]

Eine Herausforderung besteht darin. Es gibt keine Klarheit, wohin sich die Dinge in Zukunft entwickeln.

[00:13:37]

Führungskräfte im Pentagon haben gesagt, sie wollen, dass immer ein Mensch einbezogen ist bei Entscheidungen über Leben und Tod. Aber das ist keine gesetzliche Vorgabe.

[00:13:46]

Es ist eine Absichtserklärung.

[00:13:49]

Es ist eine Ansage der Führungskräfte. Aber die offiziellen Richtlinien geben sogar noch mehr Spielraum.

[00:13:56]

Der frühere stellvertretende Verteidigungsminister Robert Work sprach von einem Terminator. Problem. Was sollen die USA tun, wenn andere solche Waffen entwickeln? Borg hatte in seiner Zeit im Pentagon die Entwicklung autonomer Systeme vorangetrieben, damit die USA ihren Vorsprung in der Militär Entwicklung nicht verlieren. Erst kürzlich hat das US-Militär seine erste Strategie für künstliche Intelligenz vorgelegt. Es geht darum, alle Bereiche zu prüfen, in denen sie hilfreich sein könnte von der Aufklärung bis hin zur Wartung.

[00:14:35]

Wenn dein Gegner Systeme konstruiert, die einen Geschwindigkeitsvorteil bringen wird. Das ist eine Entwicklung wie auf dem Aktienmarkt.

[00:14:45]

Wir haben gesehen, wie Geschwindigkeits Handel entwickelt wurde. Aktien werden in Millisekunden gehandelt, so schnell können Menschen nicht reagieren. Wenn man damit spielen will, kann man nicht sagen Wir benutzen keine Maschinen. Man muss Automation benutzen.

[00:15:01]

Wir haben Unfälle an der Börse gesehen, die Flash crashes. Das ist eine Sorge.

[00:15:12]

Flash crashes Plötzliche Kurseinbrüche an den Börsen, weil Algorithmen große Mengen an Aktien abstoßen. Fürs Militär wären das Flash automatisierte Systeme, die sich gegenseitig hochschaukeln, Raketen starten, Zivilisten angreifen und niemand kann sie stoppen. Andererseits Wie viele Kriege werden von Menschen gestartet, die scheinbar niemand stoppen kann? Wie viele Zivilisten von Soldaten getötet? Absichtlich oder irrtümlich?

[00:15:47]

Das Argument? So grausam Kriege auch sind Es gibt Regeln, teilweise schon Jahrhunderte alt. Da geht es zum Beispiel um den Schutz von Zivilisten oder die Betreuung von Verletzten. Der Forscher Ronald Arkin aus Atlanta sagt, solche Regeln könne man auch autonomen Systemen Kampfroboter beibringen.

[00:16:17]

Ich glaube, dass solche Systeme Menschen übertrumpfen können, menschliche kerniger, wenn es darum geht, internationales Menschenrecht einzuhalten.

[00:16:26]

Sie würden keine Gräueltaten ausführen. Sie machen weniger Fehler als Menschen.

[00:16:31]

Besonders, wenn diese von Emotionen wie Zorn, Angst oder Frust geleitet werden.

[00:16:40]

Die Maschinen können konservativer agieren, vorsichtiger bei Zielen sein als Menschen.

[00:16:50]

Wir müssen anerkennen, dass Menschen auf dem Schlachtfeld höchst fehlbar sind.

[00:16:54]

Sie machen Fehler, begehen manchmal auch Kriegsverbrechen oder Gräueltaten.

[00:17:01]

Akin spricht nicht von hochgradig vernetzten Systemen, die, einmal gestartet, einen kompletten Krieg führen. Ihm geht es um spezialisierte Roboter, die im Kriegseinsatz bestimmte Aufgaben erfüllen und dafür die nötigen Regeln programmiert bekommen.

[00:17:20]

Wir wollen nicht ganze moralische Argumentationen in den Maschinen nachbauen. Das ist so schnell nicht möglich, wenn überhaupt.

[00:17:34]

Wir schauen uns begrenzte Situationen an, zum Beispiel, wenn es darum geht, ein Gebäude zu sichern oder Scharfschützen auszuschalten.

[00:17:43]

Umstände, in denen die Gesetze begrenzter und leichter anzuwenden sind.

[00:17:57]

Wir bitten die Beschränkungen in die Systeme ein, und im Labor können die Systeme das internationale Menschenrecht einhalten.

[00:18:08]

Ronald Akan gilt in Diskussionen als Befürworter von autonomen Systemen, die auch selbstständig auf den Auslöser drücken. Also genau die Grenze überschreiten, die so umstritten ist. Entscheidend ist für ihn aber die dienende Funktion, die solche Roboter einnehmen sollen.

[00:18:29]

Ich denke, die Militärs wollen solche Systeme mit den Truppen auf den Weg schicken wie Hunde oder Maultiere oder andere Dinge in der Vergangenheit, die den Soldaten halfen, ihre Mission zu erfüllen.

[00:18:46]

Es gibt viele Gründe, warum das so bleiben sollte. Wir müssen sicherstellen, dass wir den Horror des Krieges verstehen, und darum brauchen wir eine menschliche Präsenz auf dem Schlachtfeld.

[00:18:59]

Er will die Diskussion versachlichen. Darum gefallen ihm Begriffe wie Kampfroboter oder Killer Maschinen nicht. Er spricht lieber von tödlichen autonomen Waffensystemen.

[00:19:12]

Es geht darum, Pathos, Angst und Emotionen aus der Diskussion zu nehmen. Wenn man über Ethik spricht, sollte das auf Vernunft und nicht auf Angst basieren. Kampfroboter erinnert an den Terminator und Konzepte, die reine Science-Fiction sind. Es muss realitätsnah sein.

[00:19:37]

Wir müssen über die möglichen Konsequenzen dieser Arbeit sprechen und wo das hinführen soll.

[00:19:44]

Eine Regulierung, wofür ich plädiere. Oder mehr letze.

[00:19:54]

Wir müssen miteinander reden und nicht die ängste der breiten öffentlichkeit schüren durch Begriffe wie Killer, Roboter.

[00:20:05]

6. Können wir Robotern Regeln beibringen, damit sie auf dem Schlachtfeld die besseren Soldaten sind? Mary Wehrhahn kann über die Idee nur lachen.

[00:20:25]

Niemand hat das bisher geschafft und es ist fraglich, ob es in der Zukunft möglich sein wird.

[00:20:32]

Es ist wahrscheinlicher, dass wir die dummen autonomen Waffen haben, bevor es die richtig Klugen gibt, die all diese Unterscheidungen meiden.

[00:20:42]

Darum wollen wir, das jetzt präventiv etwas getan wird.

[00:20:48]

Mary WWM koordiniert die Kampagne zum Stopp von Ciller Robotern. Dazu gehören fast 90 Nichtregierungsorganisationen in 50 Ländern. Es geht um eine globale Koalition. Das Ziel Die Staaten sollen einen internationalen Vertrag gegen solche autonomen Waffen verabschieden, sagt, es gehe um einen vorbeugenden Bann.

[00:21:14]

Es gibt viele Beispiele, wie Autonomie in Waffensysteme integriert werden kann. Was uns die meisten Sorgen bereitet, ist die volle Autonomie beim Auswählen und Sammeln von Zielen. Im Hinblick darauf denke ich nicht, dass wir jetzt schon irgendetwas Kampfroboter nennen können. Es geht wieder um die zentrale Frage Wer drückt auf den Auslöser? Wer entscheidet über Leben und Tod? Aus Sicht der Kampagne spricht nichts dagegen, dass die Armee in den Einsatz von autonomen Systemen prüfen.

[00:21:48]

Solange es nicht ums Töten geht, kann niemand in der Kampagne Rede davon, dass wir dem Militär Roboter oder autonome Systeme wegnehmen wollen. Wir hören viel von autonomen Systemen, die hilfreich sein können. Bei den schmutzigen, langweiligen, gefährlichen Aufgaben im Krieg Schiffe reinigen, Bomben entschärfen. Wir reden über einen fundamentalen Wandel in der Natur der Kriegsführung. Wenn wir Maschinen schicken und keine Menschen.

[00:22:20]

Es gehe um die moralische Frage eine Grenze, die überschritten werde, wenn Maschinen die Erlaubnis bekommen, ein menschliches Leben auszulöschen. Es gehe auch darum, dass solche Systeme später außerhalb des Militärs eingesetzt werden könnten von der Polizei oder an der Grenze. Mary WAM sieht die öffentliche Meinung auf ihrer Seite. Eine Umfrage ihrer Kampagne in 26 Ländern ergab, dass über 60 Prozent der Befragten gegen den Einsatz von Autonomen Ciller Robotern sind. Wehrheim verweist auf die Proteste von Google Ingenieuren und auf einen Brief, der von Tausenden Experten unterzeichnet wurde.

[00:22:59]

Mit dabei waren der Physiker Stephen Hawking, Tesla Chef Elon Musk und Apple Mitbegründer Steve Wozniak. Der Brief warnt vor einem Wettrüsten und fordert die Staaten auf, die Entwicklung solcher autonomen Waffensysteme zu verbieten.

[00:23:17]

Wir behaupten nicht, dass ein internationaler Vertrag alle möglichen Einsätze von voll autonomen Waffen verhindert. Besonders von nichtstaatlichen bewaffneten Gruppen, die internationale Gesetze nicht einhalten wollen. Wir denken aber, dass ein Verbot einfacher ist, weil es einfacher umgesetzt werden kann.

[00:23:37]

Die Vereinten Nationen versuchen genau das eine internationale Verständigung, wie es mit autonomen Waffensystemen weitergehen soll. Die Verhandlungen werden im Rahmen der Konvention über bestimmte konventionelle Waffen geführt, die sich schon um Landminen, Brand oder Laserwaffen gekümmert hat.

[00:23:57]

Seit 2014 gibt es jährliche Gesprächsrunden über autonome Waffensysteme. Mary WAM von der Kampagne zum Stopp von Ciller Robotern Wir waren angenehm überrascht, wie schnell die Regierungen eingestanden haben, dass das ein Problem ist und anfingen, darüber zu sprechen. Aber seitdem die Gespräche 2014 begannen, ist der Fortschritt langsam und die Ambitionen niedrig. Es gibt kein klares Ziel, auf das die Regierungen hinarbeiten. Es werden einfach die Fragen erkundet, die diese Waffensysteme aufwerfen.

[00:24:34]

Ein Problem in der Debatte ist, dass selbst grundlegende Dinge noch nicht einheitlich definiert sind.

[00:24:40]

Der Roboter Experte Ronald Arkin Nach sechs Jahren haben wir noch nicht einmal eine Definition, auf die sich alle einigen können, was eine tägliche autonome Waffe ist. Ob man eine Definition braucht oder ob man ohne weitermacht. Und was ist genau eine bedeutsame menschliche Kontrolle? Alle wollen, dass unkontrollierbare Waffensysteme wäre. Irre.

[00:25:08]

Aber was bedeutet das?

[00:25:10]

Jedes Mal den Abzug betätigen oder einen Befehl geben? Zum Beispiel ein Gebäude einzunehmen. Genau so, wie man es mit menschlichen Truppen tun würde. Diese Fragen müssen beantwortet werden.

[00:25:26]

Koda Koda. Wo stehen wir, wo stehen wir?

[00:25:31]

Die Richtung ist klar Je alltäglicher autonome Systeme werden, desto mehr wird das Militär sie auch einsetzen, wenn Autos klüger werden? Wer kann da verhindern, dass auch Panzer klüger werden? Das erklärt die Dringlichkeit von Kritikern wie Marry. Ich denke, die entscheidende Frage ist Warten wir auf die Opfer, warten wir auf das Blutbad, das von voll autonomen Waffen angerichtet wird. Oder handeln wir jetzt eine vorbeugende Waffenkontrolle, wie Deutschland und andere sagen, ein vorbeugender Bann von voll autonomen Waffensystemen?

[00:26:10]

Manchmal muss man einfach Gesetze schaffen, die sehr konkret auf das vorliegende Problem eigentlich. Was ist aber, wenn die Angst vor den Killer Robotern unbegründet ist? Wenn autonome Waffensysteme kein Blutbad anrichten? Wenn die Entwicklung gar nicht in diese Richtung geht, weil Krieg nicht abläuft wie in Science-Fiction-Filmen Paul Chérie.

[00:26:37]

Selbst wenn man von Kriegs Regeln und ethischen Fragen absieht. Ganz praktisch betrachtet, gibt es viele Dinge, die Maschinen heute nicht können. Menschen sind besser, sich an neue Umstände anzupassen, auf Dinge zu reagieren, die sie vorher noch nie gesehen haben. Maschinen sind furchtbar darin.

[00:26:54]

Das ist Teil der Kriegsführung. Der Feind wird anpassungsfähig sein, clever und Wege finden, sich in die Irre zu führen. Und das ist etwas, was Menschen auf jeden Fall besser als Maschine.

[00:27:09]

Vielleicht liegt es daran, dass Kriege etwas zutiefst Menschliches sind. Wir haben schon immer unsere Kreativität dazu eingesetzt, uns gegenseitig umzubringen. Vom Faustschlag über die Steinschleuder bis hin zum Marschflugkörper. Warum wollen wir uns vor den Maschinen schützen, wenn wir uns doch vor uns selbst schützen sollten? Die Welt verstehen jeden Tag SWR 2 Wissen, Manuskripte und weiterführende Informationen zu unserem Podcast und den einzelnen Folgen gibt es unter SWR 2 wissen. De.