Spitäler sitzen auf riesigen Datensätzen, die sie derzeit nicht nutzen können, bedauert Medizinethikerin Buyx.

Foto: STANDARD/Newald

Medizin und Ethik in Einklang bringen: Alena Buyx.

Foto: Buyx

Wien – Um die Facebook-Datensätze von 50 Millionen Facebook-Userinnen und -Usern, die sich die Meinungsmacher von Cambridge Analytica kauften, wird es wieder leiser. Und leise wie bisher sammeln Google, Facebook und andere soziale Plattformen, Smartphone-Apps und Webseiten weiter die Daten ihrer Nutzer.

Werbekunden, ob kommerziell oder politisch, suchen die für ihre Botschaften und Produkte empfänglichsten Zielgruppen. Versicherungen wüssten nur zu gern, mit welchen Erkrankungen sie bei ihren Kunden rechnen müssen – um daran etwa die Höhe der Beiträge zu orientieren. Und Regierungen nutzen Big Data zur Überwachung der Bürger – bis hin zum Extrembeispiel China.

Wie weit darf die Verknüpfung von Daten gehen? Und wo liegt die Balance im Spannungsfeld zwischen Datensammeln für den medizinischen Fortschritt und Eingriff in die Privatsphäre von Individuen und Patienten? Mit diesen Fragen beschäftigt sich die deutsche Medizinethikerin Alena Buyx. Als Mitglied des Ethikrats berät sie die deutsche Bundesregierung, welche ethischen Implikationen als Nebeneffekte von Big-Data-Anwendungen auftauchen. Darüber spricht sie auch am 12. April bei der Konferenz Next M in Wien.

STANDARD: Welche Chancen identifizieren Sie im medizinischen Bereich durch die großflächige Verknüpfung von Daten?

Buyx: Konkret beginnt das gerade so richtig, etwa in der Forschung, also dass Forscher riesige, über die ganze Welt verstreute Datenmengen gemeinsam bearbeiten können. Dadurch lassen sich Fragestellungen viel schneller und präziser beantworten. Auf längere Sicht gehen wir auch davon aus, dass solche Datenmengen direkt mit dem Individuum in Bezug gesetzt werden können. So könnten wir in der klinischen Praxis viel präzisere Vorhersagen zu Krankheitsrisiken und genauere Informationen zu Krankheitsverläufen und Therapieoptionen bekommen. Also: personalisierte Vorhersagen, hoffentlich dann auch neue Therapieverfahren und diagnostische Verfahren. Das meiste ist aber noch im Experimentierstadium.

STANDARD: Und in diesem Stadium müssen sich die Behörden bereits die ethischen Grundsätze und das Reglement überlegen?

Buyx: Genau. Big Data ist im Leben von Menschen ja bereits sehr prävalent. Viele benutzen Facebook und haben ein Smartphone, und überall werden Daten gesammelt. Wenn Sie gestern an einem Staubsauger vorbeigegangen sind und heute beim Surfen im Internet eine Werbung für genau dieses Staubsaugermodell auftaucht, obwohl sie das vorher noch nie gesehen hatten, dann sind das Big-Data-Effekte. Wir sind bereits jetzt davon umgeben. Und eben weil unser Leben schon so durchdrungen ist, müssen wir innehalten und auch mit Blick auf die Gesundheit überlegen, was wir wollen und was nicht.

STANDARD: Was wollen wir nicht?

Buyx: Präzisere Krankheitsprognosen haben auch Nachteile. Je genauer wir wissen, wer wann eine bestimmte Krankheit haben wird, und je sicherer dieses Wissen wird, desto genauer wissen wir zum Beispiel auch, welche Patienten teuer sein werden. Das könnte durchaus das solidarische Fundament unserer Krankenversorgung angreifen. Da denkt man schon nach, ob und welche Big-Data Anwendungen man in welchen Bereichen möchte.

STANDARD: Manche würden bei Versicherungsleistungen durch die Finger schauen?

Buyx: Zum Beispiel – auch wenn das jetzt alles noch gesetzlich geschützt ist, weil wir in Europa gesetzliche Grundlagen für die Krankenversicherung haben. In den USA und etwa der Schweiz beginnt es aber bereits, dass Krankenkassen mit Big-Data-Anwendungen arbeiten möchten, um die Versicherten stärker zu stratifizieren. Ein anderer problematischer Aspekt sind Fehleranfälligkeiten und Qualitätsprobleme, die es bei Big Data immer noch gibt. Wir müssen dafür Sorge tragen, dass jene, die vielleicht irgendwo fälschlich kategorisiert werden, das nicht ihr Leben lang bleiben.

STANDARD: Heruntergebrochen auf Individuen könnte Big Data exakt die Versicherungsprämie festsetzen. Mit welchen Konsequenzen?

Buyx: Dystopisch gedacht: Big Data könnte dazu führen, dass einige Menschen gar nicht mehr versicherbar werden. Unternehmen versichern ja gegen unbekannte Risiken, das ist das Prinzip der Versicherungen. Und natürlich versuchen sie auch jetzt schon, etwa über Risikoscores, risikoadaptierte Prämien zu gestalten. Das ist ja durchaus legitim. Wenn sie aber über Big-Data-Algorithmen die klinischen Daten und alle anderen, die sie haben, vom Internetverhalten über Smartphone-Daten, Versicherungsdaten, am besten noch das durchsequenzierte Genom und so weiter, zusammenwerfen – dann werden Sie zumindest bei einigen Menschen mit an 100 Prozent grenzender Sicherheit wissen, welche Erkrankungen sie haben werden. Das nennt man hochprädiktive Risikoprofile. Und das macht jemanden kaum mehr versicherbar. So etwas wird noch nicht gemacht, daher eben dystopisch gesprochen, ist aber zumindest denkbar.

STANDARD: Oder es macht die Versicherung deutlich teurer?

Buyx: Auch wenn wir gar nicht von so hohen Wahrscheinlichkeiten reden, könnte es durch genauere, datenbasierte Stratifizierung bestimmte Gruppen geben, also Hochrisikogruppen, für die es deutlich teurer werden könnte. Durch Gentests wissen wir, dass bestimmte Menschen bestimmte Erkrankungen bekommen. Wir haben uns bereits vor 15 Jahren darüber gestritten, ob Versicherungen oder Arbeitgeber diese Informationen nutzen dürfen. Als Gesellschaft haben wir uns weitgehend dagegen entschieden. Jetzt bricht das über Big Data in einer ganz anderen Größenordnung wieder über uns herein. Diese Frage stellt sich deswegen aufs Neue, und verschärft.

STANDARD: Durch die gesetzlichen Regelungen wird dem ein Riegel vorgeschoben. Befürchten Sie, dass es dennoch einmal Usus wird?

Buyx: Ich glaube, dass es Bestrebungen geben wird, diese Methoden mehr zu nutzen. Im Deutschen Ethikrat haben wir eine Stellungnahme verfasst, die sich an den deutschen Gesetzgeber wendet, aber auch an die breite Öffentlichkeit. Wir empfehlen, dass man die hochprädiktiven Risikoprofile für die Einstufung von Patienten verbieten sollte. Derzeit sind unsere gesetzlichen Regelungen verlässlich, aber man weiß nicht, wie es in 20 Jahren ist und wen die Wähler wählen. Mir macht das durchaus Sorgen.

STANDARD: Ist der Unterschied zwischen den öffentlichen und den privaten Krankenkassen groß in der Frage, wer was darf?

Buyx: Die Privaten dürfen grundsätzlich mehr mit prädiktiven Mitteln arbeiten als die staatlichen, aber auch diese bemühen sich um eine Individualisierung von Risiken, etwa bei Boni oder Präventionsangeboten. Meist diskutiert wird aber, dass es von privaten Versicherungen großes Interesse gibt, wie man Big Data spezifischer nutzen kann, um die eigenen Versicherten noch besser zu charakterisieren. Hier könnte es notwendig sein, noch einmal gesetzlich nachzujustieren.

STANDARD: In den Empfehlungen des deutschen Ethikrats ist von Datensouveränität die Rede. Jeder sollte wissen können, was mit seinen Daten passiert. Ist das eine wichtige Leitlinie für Sie?

Buyx: Sehr. Datensouveränität bedeutet nicht, über alle Daten zu jedem Zeitpunkt in jedem Detail Bescheid zu wissen und alles zu jeder Zeit eigenhändig zu kontrollieren. Das können wir vergessen oder, wie die Engländer sagen würden: This ship has sailed. Das geht auch rein kognitiv nicht mehr, unsere Datenspuren sind einfach zu groß und komplex. Aber: Wir wollen die grundsätzliche Transparenz haben. Alles sollte möglichst von vornherein auf bestmöglichen Schutz der Privatheit ausgerichtet sein und so konfiguriert, dass wir überhaupt mitbekommen, dass wir Daten hinterlassen und Datennutzung zulassen. Apps etwa sollten so eingestellt sein, dass sie möglichst effektiven Datenschutz ermöglichen. Im Moment ist das aber oft genau umgekehrt.

STANDARD: Impliziert es das Recht auf Wissen?

Buyx: Wir sollen einfordern können, es zu wissen. Dass wir alles im Detail wissen müssen, das ist naiv. Die meisten Leute wissen auch nicht, wie genau die Elektrizität in ihren Häusern oder wie eine Spülmaschine funktioniert, aber, um im Bild zu bleiben: Ich möchte grundlegende Kontrolle über die Spülmaschine haben. Ich soll mich in einer von Big Data gesättigten Welt frei entfalten können und ich muss in den Strom von Daten erfolgreich eingreifen können, sofern ich das möchte.

STANDARD: Das betrifft etwa das Datensammeln der Krankenkassen?

Buyx: Das betrifft das gesamte Leben. Im Gesundheitsbereich bedeutet es, dass man Einwilligungskaskaden hat, die wir zum Teil aus der Forschung kennen. Und Krankenkassen sollten erhöhte Transparenz erbringen dazu, welche Daten sie sammeln und wofür. Insgesamt sollten Verträge so gestaltet sein, dass es zunächst einmal für die Datengeberin die beste Version ist. Das sollte voreingestellt sein. Wenn ich es dann erlaube, kann man das ändern. Im Moment ist das vielfach anders.

STANDARD: Schutz der Privatheit sollte zur Grundeinstellung transformiert werden?

Buyx: Genau. Das klingt nach nicht so viel, ist es aber. Kommerzielle Anbieter sind zunächst einmal darauf aus, möglichst viele Daten zu sammeln und zu nutzen. Das ist deren Businessmodell, und das ist in der Forschung teils auch nicht anders. Was Patienten durchaus regelmäßig etwa in der Klinik unterschreiben, geht in Richtung Maximum an sammelbaren Daten. Im Ethikrat haben wir formuliert, dass sich das zugunsten des Individuums drehen sollte, auch wenn dann kommerzielle und auch öffentliche Anbieter nicht maximale Nutzungsmöglichkeiten haben. Wir müssen da Kompromisse eingehen, um Chancen nutzen zu können, aber gleichzeitig Risiken zu mindern bzw. zu vermeiden. Big Data darf nicht zum ungezügelten Sturm werden, der uns alle verschlingt.

STANDARD: Also, soll es der expliziten Zustimmung jedes einzelnen bedürfen, um Daten zu sammeln?

Buyx: Das ist wiederum zu einfach. Wir sagen, dass die explizite Einwilligung der Goldstandard bleiben soll. Es ist aber einfach utopisch, dass wir bei allem jedes Mal zustimmen. Dafür werden zu viele Daten gesammelt. Wir wollen da nicht alles verbieten, denn es hat ja viel Potential. In der Medizin geht es etwa um die Sekundärnutzung medizinischer Daten. Krankenhäuser sitzen da schon heute auf riesigen Datensätzen, die sie zum Teil gar nicht benutzen dürfen. Das ist schade, da könnten wir medizinisch sehr viel lernen.

STANDARD: Es geht um die Balance?

Buyx: Genau, um die Balance zwischen Chancen und Risiken. Es gibt Möglichkeiten, weder 55-seitige Datenschutzerklärungen zu haben, noch per Laissez-Faire einfach alles freizugeben. Etwa das erwähnte Kaskadenmodell – da werden gerade clevere Entscheidungsoberflächen und Software entwickelt. Zwischen den Extremen gibt es also eine ganze Menge und es wird noch viel kommen.

STANDARD: Wie beurteilen Sie die Europäische Datenschutzverordnung, die kommen und den Datenschutz stärken soll?

Buyx: Ein Beispiel: Sekundärdatennutzung in der Medizin darf zukünftig unter bestimmten Umständen ohne Einwilligung erfolgen, wenn es ein hohes Forschungsinteresse gibt und Schäden für betroffene Individuen minimiert werden. Das wird in den Ländern aber unterschiedlich umgesetzt. Als Ethikrat glauben wir, dass wir hier über zusätzliche Einwilligungsmodelle nachdenken sollten, nämlich kaskadisch.

Gut an der Datenschutzverordnung insgesamt ist, dass sie die Position des datengebenden Individuums aufwertet. Sie geht durchaus in eine gute Richtung, auch wenn sie hier und da zu streng, dann wieder zu locker ist. Gerade auch deswegen müssen wir über die fundamentalen ethischen Werte nachdenken, wenn wir die Verordnung national umsetzen. Etwa wie wichtig ist uns Solidarität, oder was heißt Selbstbestimmung bei der Zustimmung.

STANDARD: Wie wichtig sind Bewusstseins- und Sensibilisierungsmaßnahmen, damit nicht jene auf der Strecke bleiben, die technisch nicht mitkönnen?

Buyx: Wir brauchen viel mehr Aufklärung und öffentlichen Diskurs. Vor allem auch Fortbildungen für jene, die beruflich mit Big Data zu tun haben. Und das sind sehr, sehr viele. Also in Unternehmen, Universitäten, der Politik usw. Meist gibt es eine IT-Abteilung, und alle denken die macht das schon irgendwie, aber das ist zu wenig. Auch die Auftraggeber oder die mit den Ergebnissen arbeiten, ohne selbst direkt im IT-Bereich zu sein, sollten geschult werden. Wir sehen da ein großes Kompetenzdefizit, das behoben werden muss. Wir schlagen etwa vor, digitale Nutzerkompetenz schon in der Schule deutlich stärker zu verankern. Gerade junge Menschen aus bildungsfernen Schichten nutzen das Internet am intensivsten und teils auch unkritisch. Um an sie frühzeitig heranzukommen, böte sich die Schule an.

STANDARD: Etwa in Form eines eigenen Schulfaches?

Buyx: Ein eigenes Schulfach halte ich nicht für den besten Weg, das sollte eine Querschnittsaufgabe für alle Fächer sein. Also sehr intensiv in die Lehrpläne integrieren, in verschiedene Schulfächer, denn das kann man unterrichten in Politik, in Gesellschaftskunde – aber warum nicht auch in Englisch, Erdkunde, Geschichte oder den Naturwissenschaften?

STANDARD: Gesellschaftlich geht der Trend immer mehr in Richtung Überwachungsstaat mit China als extremem Beispiel. Zieht Europa bald nach?

Buyx: Das wäre grässlich und solche Entwicklungen muss man sehr genau beobachten. Etwa die Idee von Scoring, also dass man als Bürger geranked und klassifiziert wird, je nachdem, wie "gesellschaftlich nützlich" man sich verhält. Das ist wirklich eine Dystopie. Hoffentlich sind wir in unseren liberalen Demokratien vor solchen Phänomenen gefeit, aber wer weiß. Genau deswegen müssen wir diese Debatten jetzt führen. Big Data hat eben auch das Potenzial, despotisch genutzt zu werden, denken Sie an gezielte politische Beeinflussung in sozialen Medien, die man ja auch staatlich betreiben kann. Da müssen wir wachsam bleiben.

STANDARD: Und das ist weniger eine technische Frage, denn möglich ist es ja, sondern eine gesellschaftliche, ethische Entscheidung, ob man das möchte?

Buyx: Ja, und natürlich auch eine politische Frage. (Oliver Mark, 4. 4. 2018)