Analyse Künstliche Intelligenz und Datenschutz

Wie schützen wir unsere Daten im Zeitalter der künstlichen Intelligenz? 

Die EU möchte Vorreiter im Bereich der künstlichen Intelligenz werden. Doch das steht im Widerspruch mit ihrem Ziel, das Recht auf Privatsphäre zu schützen. Denn künstliche Intelligenz benötigt große Mengen an Daten. Eine neue EU-Regelung verspricht nun, beide Ziele miteinander zu vereinen - ob dies möglich ist, bleibt jedoch fraglich.

Veröffentlicht am 17 Februar 2022 um 14:15

Rückblick ins Jahr 2016: Donald Trump gewinnt die Präsidentschaftswahl in den Vereinigten Staaten und die Abstimmung über den Brexit besiegelt den Austritt Großbritanniens aus der EU. In beiden Kampagnen wird das von der britisch-amerikanischen Strategic Communication Laboratories Group gegründete Datenanalyse-Unternehmen Cambridge Analytica eingesetzt, was Daten von Millionen von Facebook-Nutzern gesammelt hat, um die Wahlwerbung zu personalisieren und die Entscheidungen zu beeinflussen. Nun fragen sich Millionen von Menschen, ob sie im digitalen Zeitalter etwas überaus wertvolles verloren haben: ihre Privatsphäre.

Zwei Jahre später füllen sich die E-Mail-Postfächer unzähliger Europäer mit Nachrichten von Unternehmen, die die Zustimmung zur weiteren Nutzung ihrer Daten einholen wollen. Ihr Ziel: Konformität mit der neuen Allgemeinen Datenschutzverordnung (DSGVO). Trotz einiger Unzulänglichkeiten wurde die Verordnung in anderen Ländern wie Brasilien und Japan zum Vorbild genommen und markierte den Beginn einer modernen Ära des Datenschutzes. 

Was jedoch zunächst als Triumph für die Privatsphäre gefeiert wurde, stellt heute ein Hindernis für das Streben nach digitaler Entwicklung in Europa dar, besonders in Bezug auf künstliche Intelligenz (KI). Kann die EU-Gesetzgebung angesichts dieser so undurchsichtigen Technologie noch die Privatsphäre seiner Bürger schützen?

Was ist wichtiger, Datenschutz oder Technologie?

KI-Systeme sind digitale Werkzeuge, die Algorithmen benutzt, um Zusammenhänge, Vorhersagen, Entscheidungen und Empfehlungen zu generieren. Aufgrund ihrer Fähigkeit, menschliche Entscheidungen zu beeinflussen, befindet sich die KI aktuell im Zentrum der Datentechnik.

Mit ihrer effizienten Form der Entscheidungsfindung hat die KI weltweit Auswirkungen. Staaten investieren immer mehr Geld in Technologien, im Sinne von Wladimir Putins Aussage aus dem Jahr 2017: „Wer die künstliche Intelligenz beherrscht, beherrscht die Welt.“ Die USA haben 2019 fast dreimal so viel Geld in KI investiert wie 2015. Japan investierte sogar 12-mal so viel wie im Jahr 2015.


„Wer die künstliche Intelligenz beherrscht, beherrscht die Welt.“ - Wladimir Putin


Das Gefühl der Dringlichkeit hat sich auch auf andere Bereiche übertragen, zum Beispiel auf den der digitalen Rechte in Europa. Die EU hat mit neuen Bestimmungen für mehr Datenschutz und weniger Monopolisierung der Big-Tech-Unternehmen reagiert, sowie Standards für eine sichere Speicherung privater Daten eingeführt. Doch die Fortschritte im Bereich der digitalen Rechte könnten den wirtschaftlichen Wohlstand des Kontinents in Gefahr bringen.

Bereits bei der Einführung der DSGVO im Jahre 2018 haben Unternehmen davor gewarnt, dass die Konformität mit den strengen Datenschutzbestimmungen die Entwicklung technologischer Innovationen behindern würde. Die häufigsten Argumente waren die komplizierte Umsetzung der Bedingungen sowie die Einschränkungen des Wettbewerbs und des Potenzials zur Gründung von sogenannten „Unicorn-Startups.“ Unicorn-Startups sind Neugründungen mit einem Gesellschaftskapital von mehr als einer Milliarde Dollar. Sie kommen meist in weniger regulierten Märkten vor.

Auf der anderen Seite wird in Brüssel argumentiert, dass der mehr als 500 Millionen Menschen umfassende EU-Markt aufgrund der garantierten politischen Stabilität und der wirtschaftlichen Freiheit auch weiterhin Investoren anziehen werde. Die EU-Kommissarin für Wettbewerb Margarete Vestagher hat in diesem Jahr hinzugefügt, dass die Kommission nur eingreifen würde, wenn die Grundrechte europäischer Bürger gefährdet seien.

Wie Datenschutz und KI vereinbar werden

Die Erfüllung der europäischen Datenschutzbestimmungen kann auch in der Entwicklung der künstlichen Intelligenzen zu einem Problem werden. KI-Systeme müssen mit großen Datenmengen trainiert werden, doch europäische Gesetze begrenzen die Datenspeicherung, -verbreitung und -nutzung der Unternehmen. Gäbe es diese Begrenzung hingegen nicht, würde die massenhafte Sammlung von Daten die Privatsphäre der Bevölkerung beeinträchtigen. Um einen Ausgleich zwischen beidem zu finden, lässt die DSGVO durch teilweise schwammige Formulierungen der Entwicklung von KI einen gewissen Spielraum. Hierüber informiert die Organisation für mehr Datenschutz European Digital Rights.

Wie zu erwarten war, beinhaltet dieses instabile Gleichgewicht heikle Grauzonen - zum Beispiel das Prinzip der Transparenz. Demnach ist eine Erlaubnis zur Nutzung persönlicher Daten erforderlich, und eine klare Information darüber, wie sie genutzt werden. Die Wahrung der Transparenz kann sich jedoch schwierig gestalten, wenn die Datenverarbeitung durch eine KI erfolgt.

Die Garantie der sogenannten „Explizität und Verständlichkeit“ wurde bereits von Unternehmen und KI-Entwicklern in den Fokus genommen. Damit soll sichergestellt werden, dass auch ein Laie das KI-System grundlegend verstehen und die Entscheidungsfindung nachvollziehen kann. Das ist keine leichte Aufgabe, denn viele der Systeme arbeiten als „Black Boxes“. Diese Bezeichnung ist eine in der Industrie oft genutzte Metapher für undurchsichtige Systeme, deren Entscheidungsmechanismen weder von den Entwicklern der Algorithmen noch von den Anwendern der empfohlenen Lösungen ganz verstanden werden.

Ein anderes Dilemma bildet das „Recht auf Vergessenwerden“. Dieses Recht gilt als eine wichtige Errungenschaft der DSGVO im Bereich der Privatsphäre und verpflichtet die Unternehmen dazu, die Daten einer Person zu löschen, sobald sie dies verlangt. Im Falle der künstlichen Intelligenzen kann das Unternehmen die Person zwar aus dem Datensatz löschen, der den Algorithmus trainiert. Doch die Spuren, die die persönlichen Daten bereits im System hinterlassen haben, bleiben. Ein gänzliches „Vergessen“ ist also unmöglich.

Sind neue EU-Bestimmungen die Lösung?

Obwohl es scheint, als wären Privatsphäre und Innovation zwei unvereinbare Prinzipien, ist noch nicht alles verloren. Im April hat die Europäische Kommission eine Verordnung zur Regulierung künstlicher Intelligenz verabschiedet. Trotz harter Kritik für die Positionierung - unter anderem für die Ablehnung eines Verbots von Gesichtserkennungssystemen - ist der Gesetzestext innovativ und verpflichtet Unternehmen dazu, die „Black Boxes“ zu öffnen und mehr Transparenz zu garantieren. Doch wie gewöhnlich sorgt ein Sieg auf Seiten des Datenschutzes für Verstimmung bei den Kritikern, die in Transparenzverpflichtungen eine Einschränkung der Innovation und eine Benachteiligung gegenüber den außereuropäischen Märkten sehen.

Als Ergänzung zu dieser Verordnung haben die EU-Institutionen im Oktober 2021 das Daten-Governance-Gesetz beschlossen, womit die Wiederverwendung von Daten reguliert und öffentliche Datenpools und -organisationen geschaffen werden, sodass Unternehmen in Europa trotzdem von den Innovationen profitieren können. Damit ist es ihnen möglich, die benötigten Daten aus diesen Räumen zu beziehen, anstatt sie von anderen Unternehmen anzukaufen oder durch moralisch streitbare Kanäle wie Online-Verfolgung zu sammeln. Dies ist eine bahnbrechende Idee, die die „Datenspende“ als Mittel zur Anreicherung der Pools erlaubt und durch die Daten jedoch keine Handelsartikel mehr sind.


Das Beste vom europäischen Journalismus jeden Donnerstag in Ihrem Posteingang!

Auf globaler Ebene konnte man sich zwar noch nicht auf eine gemeinsame Regelung bezüglich der KI einigen, doch die EU könnte mit einem für 2022 oder 2023 erwarteten Gesetz, das in allen 27 Mitgliedsstaaten gelten würde, eine Vorreiterrolle einnehmen. Dieses Gesetz soll eine Risikoeinstufung für KI-Systeme einführen. Künstliche Intelligenzen im Gesundheitssystem bekämen dann beispielsweise die Klassifikation „erhöhtes Risiko“, wodurch die Entwickler und Anwender der Systeme strengeren Regeln unterlegen wären. Organisationen wie das European Data Protection Board meinen zwar, dass die neue Regelung den Innovationen freie Bahn lassen würde. Doch seine tatsächliche Wirkung werden wir erst beurteilen können, wenn es auch die Problematiken der Transparenz und des Rechtes auf Vergessenwerden löst.

In Zusammenarbeit mit dem Panelfit-Projekt, das durch das EU-Programm Horizont 2020 unterstützt wird.

👉 Originalartikel auf El Orden Mundial

In Partnerschaft mit der European Data Journalism Network

Interessiert an diesem Artikel? Wir sind sehr erfreut! Es ist frei zugänglich, weil wir glauben, dass das Recht auf freie und unabhängige Information für die Demokratie unentbehrlich ist. Allerdings gibt es für dieses Recht keine Garantie für die Ewigkeit. Und Unabhängigkeit hat ihren Preis. Wir brauchen Ihre Unterstützung, um weiterhin unabhängige und mehrsprachige Nachrichten für alle Europäer veröffentlichen zu können. Entdecken Sie unsere drei Abonnementangebote und ihre exklusiven Vorteile und werden Sie noch heute Mitglied unserer Gemeinschaft!

Sie sind ein Medienunternehmen, eine firma oder eine Organisation ... Endecken Sie unsere maßgeschneiderten Redaktions- und Übersetzungsdienste.

Unterstützen Sie den unabhängigen europäischen Journalismus

Die europäische Demokratie braucht unabhängige Medien. Voxeurop braucht Sie. Treten Sie unserer Gemeinschaft bei!

Zum gleichen Thema