Normen, Werte, Handlungsempfehlungen Ethischer Umgang mit Big Data

Big Data ist für sich genommen nicht unethisch - allerdings muss auf den richtigen Umgang mit den vielen Daten geachtet werden.
Big Data ist für sich genommen nicht unethisch - allerdings muss auf den richtigen Umgang mit den vielen Daten geachtet werden.

Würden Kunden ihre Daten auch dann zur Verfügung stellen, wenn sie wüssten, was damit geschieht? Die SATW präsentiert in einer aktuellen Studie die ethischen Herausforderungen von Big-Data-Anwendungen und hat Empfehlungen für Politik und Unternehmen aufgestellt.

Wo wir sind, was wir tun und mit wem wir kommunizieren, wird heute routinemäßig von zahllosen Geräten erfasst. Dabei handelt es sich nicht um eine gezielte Überwachung, sondern um eine Grundeigenschaft digitaler Technologie. Zudem können Daten immer einfacher gespeichert und mit immer komplexeren Verfahren ausgewertet werden.

Um das Potenzial und die Herausforderungen von Big-Data-Applikationen zu ergründen, haben Wissenschaftler der HTW Chur im Auftrag der Schweizerischen Akademie der Technischen Wissenschaften eine Studie durchgeführt. Die Experten haben sich anderthalb Jahre lang mit Big Data an der Schnittstelle zwischen Unternehmen und Kunden befasst.

Dabei wurden acht ethische Normen und Werte herausgearbeitet, die für Big Data wichtig sind. Auffallend war insbesondere, dass die Ansprüche von Konsumenten und die Ansprüche von Unternehmen in einigen Punkten voneinander abweichen. Es müssen also die unterschiedlichen Interessen gegeneinander abgewägt werden.

Hier sind nun die acht Punkte aufgelistet, die die SATW im Umgang mit Big Data für beachtenswert hält:

  • Schutz der Privatsphäre: Der Schutz der Privatsphäre wird durch die Prinzipien der Datenminimierung und Speicherbegrenzung gewährleistet. Big-Data-Anwendungen stellen diesen klassischen Datenschutz jedoch in Frage. Gerechtfertigt ist ein Eingriff in die Privatsphäre allerdings nur mit einer informierten Zustimmung des Kunden.
  • Gleichheit und Nichtdiskriminierung: Eine Gefahr der Diskriminierung besteht beispielsweise bei individualisierten Preisen. Die Zahlungsbereitschaft des Kunden darf in die Preisgestaltung einfließen, solange unverschuldete Notlagen nicht ausgenutzt werden und keine Monopole entstehen. Problematisch ist, wenn die Kunden nicht wissen, ob und aufgrund welcher Kriterien sie diskriminiert werden.
  • Informationelle Selbstbestimmung: Jeder hat das Recht, selbst über das Erheben, Speichern, Verwenden und Weitergeben persönlicher Daten zu bestimmen. Für eine Verwendung der Daten braucht es eine explizite, informierte Zustimmung, das heißt eine Zustimmung nach erfolgter Aufklärung des Einzelnen. Problematisch wäre eine gezielte emotionale Manipulation durch Werbung, die eine informierte Zustimmung erschweren könnte.
  • Kontrolle der eigenen (digitalen) Identität: Die Kontrolle der eigenen digitalen Identität ist ein Spezialfall der informationellen Selbstbestimmung. Big-Data-Anwendungen machen es möglich, verschiedene Merkmale des Kunden zu einer digitalen Identität zu verdichten. Ethisch fragwürdig ist dies, wenn der Kunde davon nichts weiß und keine Fehler korrigieren kann.
  • Transparenz: Voraussetzung für die informierte Zustimmung ist die Transparenz. Eine Hürde sind die oft sehr umfangreichen und für den Laien schwer verständlichen Allgemeinen Geschäftsbedingungen. Jedoch haben Unternehmen den Anspruch, die Algorithmen, mit denen die Daten bearbeitet werden, geheim zu halten. Bei selbstlernenden Algorithmen gestaltet sich die Transparenz noch schwieriger.
  • Solidarität: Die Solidarität betrifft vor allem Versicherungen. Hier gilt oft das Verursacherprinzip: Eine Person darf Solidarität beanspruchen, wenn ihre Notsituation nicht selbstverschuldet ist. Die Versicherer laufen dabei Gefahr, gewisse Krankheiten bestimmten Verhaltensweisen zuzuschreiben und dabei genetische, soziale und umweltbedingte Faktoren außer Acht zu lassen.
  • Kontextuelle Integrität: Menschen geben in verschiedenen Lebensbereichen unterschiedliche Daten preis. Wenn die Verwendung dieser Daten nicht mehr der ursprünglichen Absicht entspricht, wird die kontextuelle Integrität verletzt – zum Beispiel, wenn Informationen aus dem Freundeskreis in individualisierte Preise einfließen.
  • Eigentums- und Urheberrecht: Sowohl der Kunde, der die Rohdaten generiert, als auch das Unternehmen, das sie bearbeitet und nutzbar macht, sollten aus ethischer Sicht dafür entschädigt werden. Inwiefern Datenströme unter das Urheberrecht fallen, ist aber bisher nicht geklärt.

Die Autoren der Studie kamen zusammenfassend zu dem Ergebnis, dass die ethischen Auswirkungen von Big Data über die Verletzung der Privatsphäre hinausreichen. Big Data ist nicht inhärent unethisch, allerdings sollte jede einzelne Anwendung auf ihre Auswirkungen hin überprüft werden.

Ein verantwortungsvoller Umgang mit Daten liegt auch im Interesse der Unternehmen, denn schließlich sind es die Kunden, die die Rohdaten liefern und Big-Data-Anwendungen damit erst möglich machen. Gehen die Unternehmen unethisch mit den Daten um, laufen sie Gefahr die gesellschaftliche Akzeptanz für ihre Tätigkeit zu verlieren.