Privatsphäre und Big Data
Überwachung, Tracking, Scoring und Big Data - dies alles sind Schlagworte, die bei Internetnutzer*innen ein ungutes Gefühl hinterlassen. In der Auseinandersetzung mit diesen Themen und mit dem eigenen Umgang mit privaten Informationen können jedoch wichtige Denkprozesse angestoßen werden. Das Ziel ist der Erwerb einer digitalen Privatheitskompetenz.
Das Privacy Paradox – Die Diskrepanz zwischen Wissen und Handeln beim Datenschutz
Mit dem Begriff „Privacy Paradox“ wird das Phänomen beschrieben, dass Internetnutzer*innen den Schutz ihrer Privatsphäre zwar generell für wichtig halten, dies aber nicht unbedingt auf ihr Handeln übertragen. Es gibt einige mögliche Erklärungen für dieses paradoxe Verhalten. So könnte mangelndes Wissen über vorhandene Schutztechniken oder Probleme im Umgang mit diesen die Ursache sein. Oder aber das genaue Gegenteil: Eine digital sozialisierte Generation glaubt, die digitale Selbstdarstellung unter Kontrolle zu haben. Ein wesentliches Motiv könnte auch die starke Gewöhnung an den Komfort der digitalen Dienste und Geräte sein, die bis hin zur Abhängigkeit gehen kann. Vielleicht existiert aber auch grundsätzlich ein mangelndes Bewusstsein gegenüber den negativen Folgen der digitalen Datenpreisgabe.
„Ich habe doch nichts zu verbergen!“ - Ein Trugschluss mit Folgen
Sehr beliebt ist das Argument, man habe ja nichts zu verbergen und daher auch nichts zu befürchten. Doch das ist ein Irrtum. Es kann jedem schaden, wenn bestimmte private Informationen – wie z. B. über eine schwere Krankheit – öffentlich werden. Dabei wird auch unterschätzt, dass durch private Daten nicht unbedingt ein richtiges oder objektives Bild von einer Person vermittelt wird.
Das Bild, das andere so von einer Person gewinnen, kann also ganz anders aussehen als das Bild, das die betroffene Person selbst für korrekt hält. Außerdem ist vielen möglicherweise zu wenig bewusst, dass sie auch unschuldig ins Visier der Sicherheitsbehörden geraten können. Sie meinen, Überwachungsmaßnahmen träfen nur andere, etwa Terroristen.
Was können wir für besseren Datenschutz tun?
Wenngleich es zahlreiche Indizien für eine Krise der Privatheit gibt, besteht in den Diskussionen weitgehend Konsens darüber, Privatheit als besonderen Wert und kulturelle Errungenschaft einzustufen.
Um eine Balance zwischen den Errungenschaften der Digitalisierung und dem Schutz der Privatsphäre zu ermöglichen, möchten wir als ethische Handlungsempfehlung ein Vier-Punkte-Programm vorschlagen.
1. Digitale Selbstverteidigung
Folgende Fähigkeiten können für eine digitale Privatheitskompetenz stehen:
- die Reflexionsfähigkeit, warum private Daten als schützenswert einzustufen sind (ethische Kompetenz),
- das Wissen, wer private Daten zu welchem Zweck erhebt, verarbeitet und weitergibt (strukturelle Kompetenz),
- die Abschätzung der Folgen, die sich aus der Veröffentlichung privater Daten ergeben könnten (Risikokompetenz),
- das Wissen über Datenschutzrichtlinien und mögliche Schutzmaßnahmen (rechtliche und technische Kompetenz).
2. Politisches Engagement
Digitale Selbstverteidigung reicht alleine nicht aus, um den großen Datensammlern die Stirn zu bieten. Politisches Engagement und politische Partizipation (Demonstrationen, Petitionen, Bürgerrechtsbewegungen) sind wichtige Aspekte, um einen Bürgerwillen zu äußern.
3. Big-Data-Kodex
Grundsätzlich sind Datensätze weder gut noch schlecht. Unternehmen, Staat und öffentliche Organisationen sollten sich allerdings dazu verpflichten, bei der Datenerhebung den Grundsätzen Verhältnismäßigkeit, Informationsgleichheit und Informationsgerechtigkeit so weit als möglich gerecht zu werden. Ebenso sollte transparent gemacht werden, welche Algorithmen und Parameter bei der Datenerhebung zur Anwendung kommen.
4. Privacy by Design
Bereits bei der Entwicklung von neuen Technologien sollte eine wesentliche Anforderung sein, den Umfang der verarbeiteten schützenswerten Daten zu minimieren (Datensparsamkeit). Ebenso sollte den Nutzer*innen durch Voreinstellungen ermöglicht werden, sich auch ohne einschlägige IT-Kenntnisse weitgehend schützen zu können. Hierfür müsste eine verstärkte ethische Sensibilisierung der Entwickler*innen erfolgen, auch schon in der Ausbildung.