Was Internet-Anbieter über uns wissen

Wie soll ein Hotelgast, der aus einem bundesweit bekannten Problemviertel stammt, wissen, dass ihm ein Hotelzimmer zu einem höheren Preis angeboten wird als jemandem aus einem bürgerlichen Viertel? Nicht immer sind es konkrete Daten zu einer bestimmten Person, die zu einer Benachteiligung führen können.

Wenn alle das nutzen, wird es schon nicht so schlimm sein – beim Handy- und Computergebrauch auf „Schwarmintelligenz“ zu setzen, ist nicht unbedingt eine gute Idee. „Denn wir wissen zum einen nicht, wer unsere Daten hat, wir wissen aber auch nicht, was über uns gewusst wird – und was mit diesem Wissen unternommen wird“, so die Frankfurter Datenrechtsexpertin Prof. Indra Spiecker in einem Beitrag im Wissenschaftsmagazin „Forschung Frankfurt“ der Goethe-Universität. Schwerpunktthema der gerade erschienenen jüngsten Ausgabe ist die digitale Transformation. Nur ein Zusammenspiel zwischen Rechtswissenschaft und Informatik, so die Direktorin der Forschungsstelle Datenschutz an der Goethe-Universität Frankfurt, könne Einzelne und bestimmte gesellschaftliche Gruppen vor Diskriminierung schützen.

Moderne Datenauswertung mithilfe künstlicher Intelligenz arbeite längst damit, so Spiecker, „den Einzelnen Gruppen zuzuordnen und ihn nach den Kriterien der Gruppe zu beurteilen. Auf dieser Basis werden dann Preise für Produkte je nach Zielgruppe variabel bestimmt.“

Dabei kommt es nicht immer zu einer „Diskriminierung im juristischen Sinne“, erklärt die Professorin für Öffentliches Recht, Informationsrecht, Umweltrecht und Verwaltungswissenschaften. Diskriminierung könne auch verdeckt erfolgen – indem Ersatzkriterien gewählt werden, die vordergründig in keinem Zusammenhang mit Zuordnungen wie Geschlecht, Rasse, Herkunft oder Religion stehen. Die aber denselben Effekt haben. Solche Ersatzkriterien sind mit Hilfe digitaler Technik leicht zu finden – aber von Datenschützern schwer aufzudecken. So liegt es nicht auf der Hand, dass die Vorliebe einer Fernsehzuschauerin für eine bestimmte Serie ihre Kreditwürdigkeit senkt. Der wirklichen Ursache für die Benachteiligung ist kaum auf den Grund zu kommen, rechtliche Schritte dagegen sind folglich unmöglich.

Rechtswissenschaftlerin Spiecker plädiert deshalb für ein „enges Zusammenspiel von Technologie und der Werteordnung des Rechts“: Es müssten technische Lösungen gefunden werden, die rechtlichen Anforderungen entsprechen. Und umgekehrt müssten rechtliche Anforderungen so formuliert werden, dass sie technische Lösungen akzeptieren könnten. Auch müsse vom konkreten Programmierer oder seinem Unternehmen mehr Verantwortung eingefordert werden.

Hat der Einzelne dennoch eine Chance, sich vor dem ungewollten Datenabfluss zu schützen? „Was immer hilft“, sagt Spiecker im Interview mit „Forschung Frankfurt“, „ist die Macht der Masse.“ Wer seinem Kind nicht beibringe, „google das mal“, als ob es keine alternativen Suchmaschinen gäbe, oder beim Fernsehkauf nicht nur „toll, internetfähig!“ ausrufe, sondern auch mal nachhake, wer denn sonst noch von den familiären Sehgewohnheiten erfahre, trage dazu bei, dass Märkte sich verändern. Jeder intelligente Nutzer, der sein Verhalten ändere, könne etwas bewirken.

Informationen: Goethe-Universität

Photo by Sai Kiran-Anagani on Unsplash