falcoIAVoxeurop

Christopher Wylie: Wir müssen die KI regulieren, bevor sie uns reguliert

Der Whistleblower des Cambridge Analytica-Datenskandals äußert seine Besorgnis über KI-gesteuerte Überwachung und Entscheidungsfindung. Er weist auf die Risiken der Selbstregulierung durch die Tech-Giganten hin und betont die Bedeutung politischen Handelns sowie die Notwendigkeit eines globalen, systemischen Ansatzes zur Regulierung der KI.

Veröffentlicht am 18 Oktober 2023
Dieser Artikel ist unseren Abonnierenden vorbehalten

Schauen wir uns die nächsten fünf bis zehn Jahre an, in denen KI und Sensoren buchstäblich in alles integriert sein werden: Wir sehen einer Ära entgegen, in der Sie nach Hause kommen, im Wohnzimmer Ihren Fernseher einschalten, und während der Fernseher Sie beobachtet, spricht er mit dem Kühlschrank, dem Toaster, Ihrem Schlafzimmer, Ihrem Badezimmer, Ihrem Auto und Ihrem Briefkasten. Sie werden also in Ihrem privatesten Umfeld ständig beobachtet, und um Sie herum findet eine stille Unterhaltung statt. Im aktuellen wirtschaftlichen Kontext sollen Sie als Verbraucher optimiert werden.

Mit dieser Konversation zwischen den Geräten wird der Zweck verfolgt, dass diese Ihnen Dinge zeigen sollen, um Sie zu einem besseren Kunden zu machen. So werden Sie letztendlich Ihrer grundlegenden Handlungsfähigkeit beraubt, weil Entscheidungen für Sie getroffen werden, ohne dass Sie daran beteiligt sind.

Dies führt zu der wirklich grundlegenden Frage über das Menschsein in digitalen Räumen. In der Natur beeinflussen uns die Dinge, aber das Wetter oder die Tiere versuchen nicht, uns zu schaden. Aber wenn man in einer Stadt spazieren geht, in der die Stadt selbst darüber nachdenkt, wie sie einen optimieren kann, wird man zu einem Teilnehmer in einem Raum, der versucht, einem seine Entscheidungen zu diktieren. Wie können Sie freie Entscheidungen treffen, wenn die Stadt um Sie herum, die Gebäude um Sie herum, die Geräte um Sie herum – buchstäblich alles – versucht, mittels einer Vorauswahl zu bestimmen, was Sie sehen, um diese Entscheidung zu beeinflussen?

Christopher Wylie at the ZEG festival in Tbilisi, June 2023. | Photo: Gian-Paolo Accardo
Christopher Wylie auf dem ZEG-Festival in Tiflis, Juni 2023. | Foto: Gian-Paolo Accardo

Wie kommt man aus diesem Raum wieder heraus, wenn man einmal dort ist, wo man beobachtet wird? Wie können Sie Ihre Autonomie als Mensch ausüben? Das wird ganz einfach unmöglich. Wir müssen wirklich anfangen, darüber nachzudenken, was wir mit KI aufbauen, in was wir uns hineinbegeben, denn wenn wir diesen Raum einmal geschaffen haben, gibt es keinen Ausweg mehr.

Aus diesem Grund müssen wir die KI regulieren – und zwar schnell. Wenn wir uns anschauen, wie wir andere Sektoren regulieren, dann formulieren wir als erstes eine Reihe von Schäden, die wir vermeiden wollen. Bei Flugzeugen wollen wir nicht, dass sie abstürzen; bei Medikamenten wollen wir nicht, dass sie Menschen vergiften.

Es gibt eine Reihe von Schäden, von denen wir bereits wissen, dass die KI zu ihnen beiträgt, und die wir in Zukunft vermeiden wollen: z. B. Desinformation, Täuschung, Rassismus und Diskriminierung: Wir wollen keine KI, die zur Entscheidungsfindung mit rassistischen Vorurteilen beiträgt. Wir wollen keine KI, die uns betrügt. Der erste Schritt besteht also darin, zu entscheiden, was die KI nicht tun soll. Der zweite Schritt besteht darin, ein Testverfahren zu entwickeln, damit die Dinge, die wir verhindern wollen, tatsächlich nicht passieren.


Das Beste vom europäischen Journalismus jeden Donnerstag in Ihrem Posteingang!

Wir testen Flugzeuge auf mögliche Schwachstellen, damit sie nicht vom Himmel fallen. Wenn wir also nicht wollen, dass ein Algorithmus falsche Informationen verstärkt, müssen wir einen Weg finden, dies zu prüfen. Wie ist er aufgebaut?

Welche Art von Eingaben verwendet er, um Entscheidungen zu treffen? Wie verhält sich der Algorithmus in einem Testbeispiel? Das Durchlaufen eines Testprozesses ist ein sehr wichtiger Aspekt der Regulierung. Stellen Sie sich vor, die Entwickler stellen vor der Freigabe fest, dass ein von einer Bank verwendeter Algorithmus eine rassistische Verzerrung aufweist und beim Test an einer Versuchsgruppe mehr Hypotheken an hellhäutige als an dunkelhäutige Menschen vergibt. Wir haben das Risiko bewertet und können nun zurückgehen und den Algorithmus korrigieren, bevor er freigegeben wird.

Es ist relativ einfach, KI nach demselben Verfahren zu regulieren, das wir auch in anderen Branchen verwenden. Es geht um Risikominderung, Schadensbegrenzung und Sicherheit, bevor die KI für die Öffentlichkeit freigegeben wird.

Stattdessen erleben wir derzeit, dass Big Tech diese großen Experimente mit der Gesellschaft durchführt und erst im Laufe des Prozesses Erkenntnisse gewinnt. Facebook findet die Probleme nach und nach heraus und entschuldigt sich dann für sie. Dann wird entschieden, ob es sich für die betroffene Bevölkerung lohnt, das Problem zu lösen oder nicht. Gibt es einen Völkermord in Myanmar – kein großer Markt – wird Facebook nichts dagegen unternehmen, obwohl es sich um ein Verbrechen gegen die Menschlichkeit handelt. Facebook hat zugegeben, dass es sich keine Gedanken darüber gemacht hat, wie seine Empfehlungsmaschine in einer Bevölkerung mit einer Geschichte religiöser und ethnischer Gewalt funktionieren würde. Man kann von einem Unternehmen verlangen, dass es dies vor der Freigabe einer neuen Anwendung prüft.

Seit den 1980er Jahren und der Finanzialisierung der Wirtschaft haben uns die Akteure der Finanzwirtschaft gelehrt, dass sich hinter jeder Gesetzeslücke eine kurzfristige Gewinnmöglichkeit verbirgt. All das und mehr diskutieren wir mit unseren Investigativ-Journalisten Stefano Valentino und Giorgio Michalopoulos. Sie haben für Voxeurop die dunklen Seiten der grünen Finanzwelt aufgedeckt und wurden für ihre Arbeit mehrfach ausgezeichnet.

Veranstaltung ansehen >

Sie sind ein Medienunternehmen, eine firma oder eine Organisation ... Endecken Sie unsere maßgeschneiderten Redaktions- und Übersetzungsdienste.

Unterstützen Sie Journalismus, der nicht an Grenzen Halt macht.

Nutzen Sie unsere Abo-Angebote oder stärken Sie unsere Unabhängigkeit durch eine Spende.

Zum gleichen Thema