Um bei der Analyse und Auswertung von Datenbeständen die einschlägigen Datenschutzvorschriften sicher und vollumfänglich einhalten zu können, reicht eine einfache Anonymisierung der zugrundeliegenden Daten oftmals nicht aus. Abhilfe schafft das Konzept der sogenannten Differential Privacy (übersetzt: differenzieller Datenschutz), das statistische Analysen und Auswertungen von Daten unter gleichzeitiger Wahrung des individuellen Datenschutzes ermöglicht. Informationen werden dabei so verrauscht, dass keine Rückschlüsse auf einzelne Individuen gezogen, statistisch relevante Analysen und Auswertungen jedoch weiterhin durchgeführt werden können.

Das Konzept der Differential Privacy

Große Datenmengen und einschlägige Technologien, die zur Analyse von Big-Data-Speichern verwendet werden, bieten ein enormes Potenzial. So können Big-Data-Ressourcen beispielsweise in der Forschung und Entwicklung und in zahlreichen anderen Bereichen dazu genutzt werden, wichtige Erkenntnisse zu gewinnen, eventuelle Probleme zu identifizieren und – daraus abgeleitet – adäquate Lösungen zu finden. Zudem können sie für die Bereitstellung neuer technologiebasierter Dienste genutzt werden.

Da große Datenmengen jedoch häufig auch persönliche Informationen über einzelne Individuen enthalten, können berechtigte Bedenken hinsichtlich des Datenschutzes mögliche Nutzerinnen und Nutzer davon abhalten, auf potenziell wertvolle Datenbestände zuzugreifen. Häufig haben sich die in diesem Zusammenhang eingesetzten Maßnahmen zum Schutz der Privatsphäre als unzureichend erwiesen. So ist bereits seit langem bekannt, dass die einfache Anonymisierung von Datensätzen in Datenbanken ausgehebelt werden kann. Das Entfernen von personenbezogenen Daten – wie beispielsweise des Namens, der Adresse, der Telefonnummer oder der Sozialversicherungsnummer – reicht im Allgemeinen nicht aus, um die Identität einer Person, deren Daten in einer Datenbank gespeichert sind, vollständig zu verbergen.

Das Konzept der Differential Privacy wurde entwickelt, um diesem Problem des mangelnden individuellen Datenschutzes zu begegnen. Unerwünschte Identifizierungen von Individuen, deren persönliche Informationen in großen Datensätzen enthalten sind, werden verhindert, während gleichzeitig statistisch relevante Analysen und Auswertungen der Daten möglich sind.

Anwendungsmöglichkeiten von Differential Privacy

Ursprünglich von Microsoft entwickelt, um große Datenbestände in der Gesundheitsforschung zu analysieren, eröffnet Differential Privacy zahlreiche Anwendungsmöglichkeiten, beispielsweise im Rahmen der Produktentwicklung, der Prozessoptimierung oder der Durchführung langfristiger Studien.

Ein bekannter Anwender von Differential Privacy ist Apple: Differential Privacy wird dort bei der Erfassung von Nutzerdaten eingesetzt, damit einzelne Nutzerinnen und Nutzer von Apple-Diensten nicht mehr erkennbar sind. Konkret geht es darum, sicherzustellen, dass die Server von Apple keine eindeutigen personenbezogenen Daten erhalten, indem Gerätekennungen aus den Daten entfernt werden. [1]

Datenschutzkonforme Analysen von Datenbeständen können dabei helfen, Prozesse effizienter zu gestalten und Wettbewerbsvorteile auszubauen. Ein denkbarer Anwendungsfall ist beispielsweise die Analyse von mittels Differential Privacy verrauschter Kundendaten durch Personen, die üblicherweise keinen Zugriff auf persönliche Kundeninformationen erlangen dürfen. So könnte etwa ein Marketingspezialist Kundendaten einer Versicherung für die Erstellung einer neuen Werbekampagne analysieren. Ein weiteres Anwendungsbeispiel ist die Analyse von via Differential Privacy anonymisierter Bankkundendaten durch Unternehmen, die so die Einkommenssituation potenzieller Kunden ermitteln und damit ihr Produktportfolio zielgerichtet anpassen können.

Wir sind überzeugt, dass Differential Privacy zukünftig in zahlreichen Branchen eine wichtige Rolle spielen wird. Differential Privacy macht es überhaupt erst möglich, Daten umfassend und effizient zu verwenden sowie einen bisher nicht dagewesenen Nutzen zu generieren.

Der Differential-Privacy-Ansatz von Consileon

Das Konzept der Differential Privacy wird derzeit vorwiegend von großen US-Unternehmen wie Microsoft, Apple und Google vorangetrieben. Die dort verfolgten Differential-Privacy-Lösungen sind jedoch nur auf eine sehr große Anzahl von Individuen (> 100.000 Personen) und einfache Auswertungen ausgelegt.

Consileon hat einen neuen Ansatz der Differential Privacy erarbeitet, der die quantitative Genauigkeit erhöht und Analysen mit einer kleineren Anzahl von Individuen ermöglicht. Darüber hinaus sind auch komplexere Datenauswertungen möglich.

Sprechen Sie uns gerne unverbindlich an, wenn Sie mehr über unser Differential-Privacy-Konzept erfahren möchten oder einen konkreten Anwendungsfall in Ihrem Unternehmen sehen. Wir beraten Sie gerne!

[1] Apple, 2017 (Differential Privacy)