Happy Scribe Logo

Transcript

Proofread by 0 readers
Proofread
[00:00:01]

SWR 2 wissen..

[00:00:05]

Die künstlich intelligente Gesellschaft mit Algorithmen von Eva Wolf an einer Straßenecke im Londoner Zentrum für Fußgänger. Hier muss es irgendwo sein, dass Institute of Strategic Dialogue, kurz Der genaue Ort wird erst in letzter Minute genannt. Wir veröffentlichen unsere Adresse nicht, steht in der Mail. Das Haus, ein normales Londoner Geschäftshaus, nur kein Hinweis auf das, kein Name am Klingelschild, keine am Briefkasten. Im vierten Stock sei das Büro, steht in der E-Mail. Wer an der vierten Klingel von unten läutet, hört zwar kurz seine Stimme durch die Sprechanlage, doch die Tür öffnet sich nicht.

[00:01:01]

Man kann sich mit anderen Menschen durch die Tür stehlen.

[00:01:05]

Diese schauen misstrauisch, aber auch im Treppenhaus. Keines der vielen Firmen Schilder deutet auf das Institut hin. Hinauf in den vierten Stock. Auch dort steht nichts an der Tür.

[00:01:19]

Doch dann öffnet Saeed Amano La Times. Es ist eine schwierige und gefährliche Arbeit. Wenn jemand extremistische Gruppen online konfrontiert, ist er realen Risiken ausgesetzt.

[00:01:35]

Wir als Organisation müssen vorsichtig sein. Wir müssen uns und unsere Mitarbeiter schützen, sowohl physisch als auch in Bezug auf ihre Sicherheit im Netz.

[00:01:46]

Der 50 jährige Londoner Muslim hat sich mit der Terrorgruppe Islamischer Staat angelegt, und dafür nutzt er künstliche Intelligenz. Die mittlerweile rund 50 Mitarbeiter des Londoner Thinktanks ASD untersuchen, wie Extremisten aus aller Welt die Algorithmen der sozialen Netzwerke nutzen, um ihre Botschaften zu verbreiten. Und sie erarbeiten Gegenmaßnahmen.

[00:02:15]

Zum Beispiel dieses Youtube-Video, in dem ein ehemaliger islamistischer Kämpfer aus Syrien junge Muslime in Europa anspricht und sie davor warnt, in den Krieg zu ziehen. Die Londoner Aktivisten nutzen künstliche Intelligenz, damit sich dieses Video besser verbreiten. Dabei werden sie finanziell unterstützt von verschiedenen Regierungsorganisationen, von Universitäten, Stiftungen und auch von Konzernen wie Google und Facebook. Das Internet hat unsere Kommunikation verändert, dass die künstliche Intelligenz verstärkt bestimmte Themen, polarisierende Inhalte werden bevorzugt. Andere Themen verschwinden in den Filter der sozialen Medien.

[00:03:08]

Das führt zur Radikalisierung. Populisten und Extremisten werden so erst groß.

[00:03:14]

Wie kann künstliche Intelligenz der Demokratie dienen, anstatt ihr zu amma? Nulla bittet in eine Ecke der Büroetage und erzählt, wie alles angefangen hat.

[00:03:29]

Als die Social-Media-Plattformen und ihre Algorithmen ausgefeilter wurden, haben Extremistengruppen angefangen, sich ihrer zu bedienen. Sie nutzten die Algorithmen der sozialen Netzwerke, um Menschen zu finden, die schwach waren und damit offen für Beeinflussung. Sie erstellten zielgerichtet Propaganda, die genau für diese Menschen, attraktiv für alle, um sie für ihre Zwecke zu rekrutieren.

[00:03:56]

Der Höhepunkt war 2014 erreicht, als der islamistische Staat IS Tausende Menschen in Europa für den Krieg in Syrien rekrutierte.

[00:04:05]

Die sozialen Netzwerke kamen dafür wie gerufen. Der IS suchte gezielt nach jungen Männern im Westen, die mit ihrer Identität haderten. Junge Muslime, die zwischen den Kulturen hängen und nicht so recht wussten, wo sie hingehören. Das Angebot des IS eine Gemeinschaft und eine Ideologie, für die sie kämpfen sollten.

[00:04:31]

Wenn man schaut, wie der IS, dann sieht man, dass die Propaganda Strategie sehr gezielt war. Sie setzen auf Algorithmen, um ihre Zielgruppen exakt zu identifizieren und sicherzugehen, dass ihre Botschaften ankommen.

[00:04:47]

Der IS hat die Werbestrategien kopiert wie Google und Facebook nutzen.

[00:04:54]

Aber es ist eine Sache, Konsumenten Produkte zu verkaufen und eine andere eine Ideologie zu verkaufen.

[00:05:02]

Die Algorithmen von Facebook und Co. belohnen radikale, polarisierende Inhalte. Die Folge Mehr Nutzer bekommen sie in ihrem Newsfeed auf der Facebook Startseite zu sehen.

[00:05:15]

Der Medienwissenschaftler Stefan Mohl von der Universität Lugano hält diese Entwicklung für gefährlich.

[00:05:22]

filterblase und Echo Kammann entstehen dadurch, dass wir in sozialen Netzwerken in allererster Linie mit Leuten verbunden sind, die sozusagen Gesinnungs, Genossinnen und Genossen sind. Soll heißen Wir kriegen von unseren Freunden, aber auch von den Algorithmen der Betreiber der sozialen Netzwerke, in allererster Linie Botschaften, Nachrichten, die sozusagen sich mit unserer eigenen Weltanschauung halbwegs decken.

[00:05:57]

Also werden sie bei den Grünen unterwegs sind. Dann kriegen sie vor allem aus dem öko und grünen Lager Mitteilungen. Und wenn Sie ein Banker sind, dann kriegen Sie ganz andere Nachrichten. Und auf die Art und Weise leben wir dann mehr als früher in getrennten Welten, also jeder sozusagen in seiner eigenen Echo, in seiner eigenen filterblase. Und das hat natürlich schon massive Folgen für die demokratische öffentlichkeit und ist, glaube ich, eine relativ gefährliche Entwicklung.

[00:06:32]

Der IS nutzte diese Mechanismen perfekt aus. Bei Ibrahim B. aus Wolfsburg zeigte das die erwünschte Wirkung. Der junge Mann ließ sich von der islamistischen Internet Propaganda überzeugen und als Kämpfer anwerben. Nach seinem Ausstieg aus der Terrororganisation erzählte er dem TV-Magazin Panorama, wie ihn die IS-Propaganda damals erreichen konnte.

[00:06:56]

Wir hatten mit Religion nichts zu tun, und dann kommt eine falsche Prediger, und plötzlich bringt viele Fragen mit Wie kannst du in Ruhe schlafen? Junge Muslime gerade verhungern oder Frauen vergewaltigt werden?

[00:07:23]

Und seine Mitstreiter vom. Esdie kannten viele ähnliche Fälle. Und beschlossen, den Spieß umzudrehen. Gemeinsam mit Jaxa, einer Tochterfirma von Google, planten sie eine Gegenkampagne. Schließlich fanden sie einen jungen Londoner Muslim, der selbst in Syrien gekämpft hatte und ausgestiegen war.

[00:07:44]

Er produzierte ein Video für die anstieß Kampagne, ergänzte Muslim.

[00:07:54]

Der ehemalige Kämpfer schildert seine Erfahrungen und warnt junge Männer davor, in den Krieg zu ziehen, da er selbst genau der Zielgruppe des IS entspricht, würde sein Video die betroffenen jungen Männer besonders authentisch ansprechen, so die Hoffnung des Eiskeller.

[00:08:19]

Wir mussten nun sicherstellen, dass die richtige Person und dafür haben wir uns angeschaut, wie der IS seine Zielgruppe erreicht. Sobald diese ein Video für eine bestimmte Zielgruppe hoch lud, produzierten wir auch eines für die gleiche Gruppe. Unser Video sollte diese Menschen erreichen, bevor der IS sie erreichte. Wir entwickelten also ein Targeting System, das mit Schlüsselwörtern arbeitete, wie es für Werbeanzeigen genutzt wird.

[00:08:46]

Wenn diese jungen Männer beispielsweise per Google suchten, wie sie nach Syrien reisen können, oder wenn sie bestimmte Suchbegriffe rund um den IS eingaben. Wenn diese Personen dann später Filme auf YouTube schauten, dann wurde ihnen unser Video empfohlen.

[00:09:03]

Das nutzt also die Algorithmen der sozialen Netzwerke und Suchmaschinen, um gegen Informationen in die filterblase der Extremisten zu schleusen.

[00:09:13]

Google unterstützte das Projekt unter anderem, indem es die Londoner Aktivisten bestimmte Werbe Funktionen kostenlos nutzen ließ. Und so bekamen mehr als 50 000 junge Männer, die im Jahr 2015 mittels Google nach Inhalten des IS suchten, auf der Videoplattform YouTube Gegenpropaganda serviert, ungefragt. Der Erfolg spornte an. sodass die Initiative eine ganze Serie von Videos gegen den IS produzierte und deren Verbreitung mit künstlicher Intelligenz ankurbelt.

[00:09:49]

Eines der Videos war sogar so konkret auf die Propaganda des IS zugeschnitten. Wir haben Sie Zeile für Zeile widerlegt, dass der IS schließlich selbst eine Antwort auf dieses Video produzierte, das zeigt, wie sehr sie sich bedroht fühlten.

[00:10:04]

Aber ist das nicht Manipulation? Ist das nicht genau das, was immer wieder an Google, Facebook und Co. kritisiert wird? Dass diese mittels Algorithmen und künstlicher Intelligenz Nutzer ausspähen und sie schließlich so genau kennenlernen, dass sie sie in schwachen Momenten mit der richtigen Ansprache erreichen?

[00:10:25]

Darf man diese zumindest fragwürdige Technik für das Gute nutzen?

[00:10:31]

Man nulla findet ja. Das ASD hat ein globales Netzwerk namens You Can gegründet, um dieses Wissen weiterzugeben. Es schult die Jugendlichen darin, wie sie ihre Ideen im Netz mit Hilfe künstlicher Intelligenz pushen können.

[00:10:50]

Solange diese Tools existieren, sollten Menschen sie für gute und sie nicht nur den Leuten überlassen, die Produkte verkaufen wollen. Oder noch schlimmer die Gesellschaft manipulieren wollen.

[00:11:02]

Das Jugend Netzwerk wuchs schnell auf mehr als 1000 Menschen an. Es gibt Trainings, Labore in allen europäischen Ländern und auch außerhalb Europas, zum Beispiel in Indien, Ruanda, Kenia, Indonesien oder Malaysia.

[00:11:18]

Mehr als 30 Millionen Nutzer sind täglich auf YouTube aktiv. Bis heute wurden dort mehr als fünf Milliarden Videos veröffentlicht. Mehr als 80 Prozent der Nutzer kommen von außerhalb der USA. Menschen aller Altersstufen informieren sich hier über Politik.

[00:11:37]

Zwei Drittel der Millennials bevorzugen laut Zahlen von YouTube den Internetdienst vor klassischen Fernsehsendern. Die Macht des Angebots ist unübersehbar.

[00:11:48]

Chefin Sascha Hawley Cheek hat den Think Tank ASD 2007 gegründet. Sein Erfolg könnte jetzt wieder die Gegenseite auf den Plan rufen. Es drohe eine weitere Eskalation, sagt sie.

[00:12:07]

Meine Angst ist, dass wir jetzt Mobilisierung in einem Maßstab erleben, wie wir es niemals zuvor gesehen haben internationale Mobilisierung von extremen Bewegungen, von Hass, Gruppen. Was einst kleine, zerstreute, einzelne, lokale, nationalistische Gruppen waren, arbeitet jetzt auf der Basis außerordentlich gut koordinierte internationale Bewegung.

[00:12:34]

Wir erleben gerade eine extrem wichtige Zeit in der Geschichte.

[00:12:38]

Wir sehen den Aufstieg von sogenanntem kumulative Mainstream Extremismus.

[00:12:44]

Und wir müssen unbedingt neue Strategien entwickeln, um auf jene Tools zu antworten, die extremistische Gruppen jetzt in großem Stil verwenden.

[00:12:53]

Wir haben es gegründet, um Forschungsstrategie zu kombinieren.

[00:13:00]

Wer verstehen will, was es mit diesem kumulativen Mainstream Extremismus auf sich hat, muss nur einen Blick in den Besprechungsraum neben Hawley Büro werfen.

[00:13:10]

Dort sitzen drei junge Mitarbeiter und schauen gebannt einen Youtube-Star an. Ein Mann steht in einer Fußgängerzone, um ihn herum ist alles in Bewegung. Menschen eilen vorbei, aber er steht still und sehr aufrecht. Er trägt einen weißen Kragen, sonst schwarze Kleidung. Wer bist du? Fragt ein Sprecher. Schließlich kommt er ins Bild. Ein Mann im Jackett, mit Krawatte und kurzen dunklen Haaren. Es gehe nicht um den Namen, sagt er, sondern um die Verbindung.

[00:13:46]

Zu einer Kultur werde oft gesagt, dass es darum gehe, sich als Amerikaner, Brite, Deutscher oder einer anderen europäischen Nationalität einer Sammlung von Abstraktionen und Schlagworten zu widmen. Demokratie, Freiheit, Toleranz, Multikulturalismus. Aber eine auf Freiheit basierende Nation sei nur ein weiterer Ort, um einkaufen zu gehen. Es klingt harmlos, was dieser Richard Spencer da sagt und auch der Name der Organisation, die hinter dem Video steckt, klingt fast schon offiziell und demokratisch.

[00:14:28]

Doch das National Policy Institute ist ein rassistischer Think Tank aus dem US-Bundesstaat Virginia. Spencer ist ihr Gründer. Die drei jungen Leute im Büro diskutieren, wieso dieser Film so erfolgreich ist. Weit über rechtsextreme Kreise hinaus. Mit dabei ist Clovis, Projektmanagerin beim Eistee. Die junge Historikerin aus London hat an der Universität Cambridge Programmieren und Datenanalyse gelernt. Mit ihrer Ausbildung könnte sie jeden Job haben. Doch sie will die Demokratie im Internet verteidigen.

[00:15:08]

Der Film nutzt keine extremistische Rhetorik. Bisher sahen wir häufig, dass Propaganda sehr spezifisch zugeschnitten war auf jene, die bereits mit rechten Inhalten sympathisierten. Aber dank der Tools der sozialen Netzwerke erzielen Extremisten jetzt mit weniger expliziten Inhalten auf ein neugieriges Publikum, ohne eindeutig rassistische Begriffe oder Bilder zu benutzen.

[00:15:33]

Künstliche Intelligenz, die rassistische Propaganda auf YouTube identifizieren soll, hat ein Problem damit, so etwas zu finden. Denn es fehlen die entsprechenden Schlagworte. Solche Inhalte rutschen durch für jedes Thema.

[00:15:50]

Auf YouTube wird man dank der Empfehlung Algorithmen zu immer ernsteren und extremeren Versionen dieses Themas geschickt. Die Rechten wissen jetzt also, wie man diese Plattformen nutzt, um Menschen durch eine Art Filter zu schleusen, der zu immer radikaleren, gefährlicheren Inhalten führt.

[00:16:07]

Sie müssen nur ein Mainstream Publikum dazu bekommen, auf ihre Einstiegs Videos zu klicken.

[00:16:14]

Wie man hineingezogen wird, hat Chloé an ihrer eigenen Internetnutzung erfahren.

[00:16:22]

Sobald du so eine Forschung anfängst und rechte Inhalte im Netz suchst, ist dein gesamter Newsfeed in kurzer Zeit mit rechten Inhalten gefüllt.

[00:16:33]

Und wenn du einen neuen Facebook oder YouTube Account eröffnet und anfängst, nach bestimmten Keywords oder Menschen zu suchen, siehst du, wie schnell du in eine komplette Welt mit diesen Inhalten geführt wirst.

[00:16:47]

Trotz derartiger Alltagserfahrungen stellen Forscher inzwischen immer wieder die Frage, ob es filterblase und Echo Kãmmern tatsächlich gibt. Mehrere Studien haben gezeigt, dass diese Blasen zumindest nicht so dicht sind, wie der Name vermuten lässt. Der Datenjournalismus Michael Kreil, ebenso wie Forscher an der University of Oxford sowie der Universität Hildesheim zeigten, dass Nutzer sozialer Medien auch Inhalte sahen, die nicht ihrer Meinung entsprechen.

[00:17:17]

Medienforscher Stefan Mohl betont, wie schwer die Mechanismen der sozialen Netze zu erforschen sind.

[00:17:24]

Wir müssen uns klar machen, dass die filterblase nicht alle ganz so dicht sind wie diejenigen, die sie zunächst beobachtet haben, wie die das vermutet haben und zum Teil auch belegt haben. Wir müssen uns auch vorstellen, dass dieses Universum von Facebook ja inzwischen so groß ist, dass man auch nicht so richtig verallgemeinern kann.

[00:17:47]

Sie stecken möglicherweise viel weniger in einer filterblase als ich. Da aber niemand mehr wir Forscher nicht mehr kontrollieren können, welche Informationen wohin gespielt werden. Der einzige, der das weiß, ist möglich. Facebook entsteht da eine unsägliche Macht, Einfluss auszuüben.

[00:18:09]

Dazu kommt die Bedrohung durch Desinformation. Auch das haben Studien in letzter Zeit immer wieder gezeigt. Lügen verbreiten sich in den sozialen Medien besonders schnell und weiter als wahre Meldungen. Die Algorithmen bevorzugen die gefälschten oder frei erfundenen Nachrichten, weil die Nutzer häufiger darauf klicken und sich intensiver damit beschäftigen, ob Trump Präsident geworden ist und ob der Brexit passiert. Weil die Algorithmen im Spiel waren, werden wir mit letzter Gewissheit vermutlich nie beantworten können. Wir können nur sehen, dass beide Entscheidungen sehr knapp ausgegangen sind.

[00:18:51]

Und wenn eine Wahlentscheidung oder eine Abstimmung knapp ausgeht, heißt das eben, dass sehr wenige Stimmen den Ausschlag gegeben haben und dass man in einem so großen Land wie den USA oder auch in einem kleineren Land wie Großbritannien ein Teil der öffentlichkeit mit Desinformation manipulieren kann, halte ich jetzt schon für eine einigermaßen gesicherte Erkenntnis. Und sonst würden wir auch diejenigen, die dieses Geschäft betreiben, nicht doch zum Teil auch erheblich investieren?

[00:19:23]

Gemeint ist unter anderem Cambridge Analytiker, jene Firma, die sich auf die Fahnen schreibt, Trump zum Wahlsieg verholfen zu haben. Dafür beschaffte sich das Unternehmen eine riesige Menge an Daten von Facebook, die sie nicht ausreichend geschützt hatten. Anhand dieser Daten ließen sich die Vorlieben einzelner Nutzer erkennen, um diese zielgenau anzusprechen. Persönlichkeitsprofile von 87 Millionen Facebook-Nutzern sollen laut New York Times so zusammengekommen sein. Auch einige junge Mazedonier trugen wohl mehr aus Versehen zu Trumps Wahlsieg bei, weil sich mit falschen Nachrichten so schön Geld machen lässt.

[00:20:05]

Sie erfanden 2016 Meldungen über die amerikanische Politik und stellten fest Je unglaublicher je in Pharmazie waren, desto häufiger wurden sie angeklickt. Das belohnten die Algorithmen, sodass sich die Nachrichten bestens verbreiteten und die Werbeeinnahmen stiegen. Wer besser lügt im Netz, verdient mehr Geld als die Aktivistin.

[00:20:29]

Chloé ist überzeugt, dass die großen Internetkonzerne durchaus versuchen, Desinformation im Internet entgegenzuwirken. Zwar erbringen rasant verbreitete Lügen schnelles Geld, doch langfristig schaden sie dem Ruf. Und das könnte zu staatlicher Regulierung führen, einem Eingriff in ihr Geschäftsmodell, den die Internetkonzerne gerne verhindern würden. Schließlich sollen die Algorithmen dafür sorgen, dass Nutzer möglichst lange auf einer Seite bleiben. Denn damit steigen die Werbeeinnahmen der Businessmodell.

[00:21:04]

Diese Geschäftsmodelle sind die Crux des Problems. Aber ich denke, die Unternehmen haben anerkannt, dass sie eine wichtige Rolle spielen in diesem Zusammenhang. Sie haben vieles ausprobiert, manches hilft, manches nicht.

[00:21:19]

Facebook.

[00:21:22]

Facebook hat beispielsweise versucht, das Thema der Desinformation anzugehen. Sie haben ausprobiert, Inhalte zu markieren, die potenziell falsch sind. Aber es hat sich gezeigt, dass Menschen eher auf solche markierten Inhalte klicken. Ein Fünfjähriger musste Strafe bezahlen, weil er eine Geburtstagsparty verpasste. Ist das eine wahre Meldung oder eine frei erfundene, den Satz in seinen sogenannten Checker ein zu deutsch etwa Behauptungen überprüfen? Der amerikanische Informatiker stellt sein Projekt auf einer Konferenz in Berlin vor dem User Interface Software Technology Symposium.

[00:22:05]

Auf dem Bildschirm erscheint die Behauptung in großen Buchstaben, darunter ein Balken, teils grün gelb. Darüber steht protected correctness, sinngemäß vorhergesagte Richtigkeit.

[00:22:19]

Der grüne Teil des Balkens ist deutlich länger. Er steht für richtig, der gelbe Teil bedeutet falsch. Etwa zu einem Viertel könnte die Behauptung also auch falsch sein.

[00:22:32]

Doch vermutlich ist sie richtig, behauptet der kleine Checker versuchen einen Rahmen zu schaffen, indem sie spielerisch ihr Wissen über die Welt mit den automatischen Vorhersagen künstlicher Intelligenz verbinden können.

[00:22:48]

Mensch und Maschine können auf diese Weise hoffentlich gemeinsam besser schlussfolgern, als es jeder allein tun kann, sagt Max Julies und scrollt auf dem Bildschirm weiter nach unten.

[00:23:00]

Dort sind verschiedene Nachrichtenseiten aufgelistet, die über den Vorfall berichtet haben.

[00:23:05]

Parteirechte kleiner Junge muss Strafe zahlen, weil er nicht zur Geburtstagsparty kam, hat etwa die BBC vermeldet.

[00:23:13]

Daneben steht ein weiterer grün gelber Balken Reputation, also vorhergesagte Reputation.

[00:23:22]

Damit zeigt das System, für wie glaubwürdig es die jeweiligen Medien hält. Und wenn viele Glaubwürdige eine Nachricht melden, dann bewertet der kleine Checker sie ebenfalls als glaubwürdig. Vermelden hingegen viele weniger glaubwürdige newsseiten eine Meldung. Dann wird sie als eher falsch markiert. Doch damit ist die Sache noch nicht beendet.

[00:23:45]

Ganz im Gegenteil Wenn der Nutzer nicht damit einverstanden ist, was wir über die Glaubwürdigkeit einer Quelle sagen, kann er sie selbst an einem Regler verstellen. Wenn er beispielsweise sieht, dass ein Artikel von CNN stammt und dass wir diesen als glaubwürdig eingestuft haben, dann kann er trotzdem sagen CNN ist Fake News und den Regler auf unglaubwürdig stellen.

[00:24:11]

Menschen sind derzeit sehr skeptisch gegenüber klassischen Medien. Warum sollte also jemand einer Blackbox trauen, die entscheidet, ob eine Behauptung stimmt?

[00:24:21]

Nutzer können in unserem Tool die jeweiligen Original Artikel lesen und selbst entscheiden, ob sie einverstanden sind. Und Sie können in Echtzeit sehen, wie sich die Vorhersage ändert, wenn Sie etwas verändern. Das Modell ist total Transparenz.

[00:24:39]

Der Zugang ist spielerisch und führt zu verblüffenden Ergebnissen. Mit dem Claim Checker kann man sogar die eigene filterblase überprüfen.

[00:24:50]

Du kannst eingeben, dass du beispielsweise konservativen Medien mehr brauchst, und wir zeigen, wie sich das Ergebnis verändert. Du kannst dann sehen, wie du deine eigene Echo Kammer baust, wie Personalisierung aussieht.

[00:25:02]

Wenn du morgens aufwacht, kannst du dich fragen Wie würde die Welt aussehen, wenn ich liberaler wäre? Du kannst dann einfach den Regler anpassen und dabei zuschauen, wie die Welt dann anders aussieht.

[00:25:14]

Sie hat sich bewusst dafür entschieden, seinen Claim Checker so transparent wie möglich zu gestalten. Schließlich gibt es ein großes Misstrauen gegenüber undurchschaubarer künstlicher Intelligenz.

[00:25:29]

KI wird genutzt, um zu entscheiden, wie Kriminelle bestraft werden oder wer einen Kredit bekommt. Diese Systeme beeinflussen das Leben von Menschen, aber sind gleichzeitig undurchsichtig. Deshalb ist es wichtig, dass wir mehr über die Transparenz unserer Modelle nachdenken.

[00:25:49]

Eine der stärksten Verfechterin eines algorithmisch hat Transparenz und Gerechtigkeit ist Kate Crawford, Professorin an der New York University und Forscherin bei Microsoft Research. Wie viele große Konzerne unterhält auch Microsoft eine eigene Forschungsabteilung mit unabhängigen Wissenschaftlern.

[00:26:11]

Ich arbeite seit vielen Jahren an dem Problem, dass künstliche Intelligenz Ungleichheit und Diskriminierung verstärkt. Das Thema wurde lange als eine Randerscheinung und als unwichtig angesehen.

[00:26:25]

Aber dann hat sich etwas geändert.

[00:26:27]

In den vergangenen zwei Jahren haben wir einen enormen Wandel in der Branche erlebt, und dabei wird immer wieder deutlich, dass künstliche Intelligenz die Vorurteile der Menschen übernimmt. Schließlich lernt sie aus Daten und unseren Lebensäußerungen innerhalb der Informatik. Davon ist die Microsoft Forscherin überzeugt, werde sich dieses Problem gewiss nicht lösen lassen.

[00:26:53]

Wir müssen politische Entscheidungsträger ebenso einbeziehen wie Forscher aus den Bereichen Anthropologie, Geschichte, Soziologie und Philosophie.

[00:27:03]

Es geht um eine der wichtigsten gesellschaftlichen Fragen, die wir im Moment diskutieren können Wie wollen wir leben, und wie sollen unsere technischen Systeme dieser Vision dienen?

[00:27:19]

Die Welt verstehen jeden Tag SWR 2 Wissen, Manuskripte und weiterführende Informationen zu unserem Podcast und den einzelnen Folgen gibt es unter SWR 2 wissen. De.