Auf "Semiosis.at" ist ein Text erschienen, der davon berichtet, wie in Wien Triage-Entscheidungen erfolgen sollen. Triage bedeutet hier: Wenn es weniger Intensivbetten gibt als Patientinnen und Patienten, die intensivmedizinisch betreut werden müssen, muss entschieden werden, wer ein Bett bekommt und wer nicht (und damit wahrscheinlich stirbt). In aktuellen ärztlichen Schilderungen von der Situation derzeit in Wien liest sich das so:

Da die, die heute auf Intensivstationen liegen, sich vor Wochen angesteckt haben, und da wir in diesen Wochen keine zusätzlichen Maßnahmen ergriffen haben, um weitere Ansteckungen zu verhindern, werden die Auslastungszahlen auf den Intensivstationen voraussichtlich weiter steigen. Das, was da beschrieben wird, wird also — weiter verdichtete — Realität.

Triage, mindestens als Möglichkeit, also. Nicht irgendwo und irgendwann, sondern jetzt, mitten in Wien. Vielleicht hilft uns die Hoffnung, dass es nicht dazu kommen werde. Vielleicht auch nicht.

Zu den vielen ungelösten Rätseln dieser Pandemie gehört für mich, warum die Ages in ihrem aktuellen Dashboard immer noch davon schreibt, dass in Wien die Hälfte der Covid19-Intensivbetten noch gar nicht belegt seien. Ich kann/will das hier nicht beurteilen und hier auch keinen Text schreiben, dass es in Österreich nach über einem Jahr Pandemie noch immer an einer so buchstäblich existentiellen Stelle so unvereinbare Darstellungen gibt. Datenqualität, Zugang zu Daten, Umgang mit und Zugang zu epidemiologischen Daten ist ein anderes Thema.

Triage, mindestens als Möglichkeit, also

Triage bedeutet nicht nur, dass bei jemandem, der eine Intensivbehandlung benötigt, diese nicht begonnen wird, weil schon alle Betten belegt sind. Triage bedeutet auch, dass jemand, der bereits ein Intensivbett hat, dieses verlieren kann, weil jemand anderer es bekommen soll, der später kommt, aber priorisiert wird.

Triage ist, selbstverständlich, entsetzlich. Sie produziert schreckliche Dilemmata. Man kann diese in Ethikseminaren diskutieren und mindestens seit Kant darüber schreiben, man kann als Politikberatungsorgan wie die österreichische und die deutsche Ethikkommission dazu Empfehlungen abgeben: hier die österreichische, hier die deutsche. Man kann, am 24. März 2021, aus gegebenem Anlass, live an einer Veranstaltung des Deutschen Ethikrats zum Thema teilnehmen.

Und irgendjemand muss am Ende die Entscheidung treffen: Wer bekommt das Bett? Wen wirft man aus dem Bett? In dem "Semiosis"-Text steht, wie das (in Wien) (angeblich) gehen soll. Entscheidungsgrundlage, liest man, ist ein Konsenspapier medizinischer Fachgesellschaften. Diese führen, laut "Semiosis", zu einer konkreten Handlungsempfehlung in Wien.

In dieser Handlungsempfehlung wird verwiesen auf "ein spezifisches Scoring-System zur Prognose der in-hospital-mortality" und verlinkt auf eine — öffentlich zugängliche — Webseite. Auf dieser Webseite können "anonym" patientenspezifische Parameter (Alter, Vorerkrankungen, Geschlecht et cetera) durch den Intensivmediziner/die Intensivmedizinerin eingegeben werden. Nach dem Namen des Patienten wird hier selbstverständlich nicht gefragt, wohl aber nach seinen Eigenschaften. Am Ende wirft "das System" einen Punktewert, bezogen auf den Patienten aus. Man kann zwei Punktewerte vergleichen und danach "leichter" entscheiden, wer keine Intensivbehandlung bekommt. Auch Angehörige können Werte eingeben und derart Wahrscheinlichkeiten für das Überleben ihrer Verwandten errechnen lassen — und sich, vielleicht auch juristisch, auf die Verteidigung des Betts der Oma oder des Onkels vorbereiten.

System mit Ausnahmen?

Darf das — rechtlich, ethisch — sein? Das ist hier noch gar nicht das Thema. Das Thema ist: Auf diese — existentielle — Frage, wie wir rechtlich mit den Vor- und Nachteilen eines derartigen Systems umgehen, haben wir nach 50 Jahren Computereinsatz (auch) in der Medizin keine Antwort.

Es ist, datenschutzrechtlich gesehen schon nicht sicher, ob dieses System überhaupt personenbezogene Daten verarbeitet — sind die Angaben doch "anonym". Deswegen ist nicht gewiss, ob ein Betroffener hier gegenüber dem Systembetreiber überhaupt (datenschutzrechtliche) Betroffenenrechte geltend machen könnte. Ist man — auch — aufgrund der Systementscheidung tot, gibt es überhaupt keine datenschutzrechtlichen Ansprüche mehr, Datenschutzrecht schützt nur Lebende.

Wer entscheidet über die Intensivbettenvergabe?
Foto: APA/dpa-Zentralbild/Jens Büttner

Ob/wie eine Ärztin sich Haftungsrisiken aussetzt, wenn sie ein derartiges System einsetzt und dann dem System (zum Beispiel entgegen eigener ethischer Prinzipien) folgt, oder, im Gegenteil, einer solchen Entscheidung (wegen eigener ethischer Prinzipien) nicht folgt, ist ungewiss. Was aber gewiss ist, ist, dass ein solches System in der Programmierung Annahmen — auch ethisch motivierte — Annahmen über "die Welt" enthalten muss, die man bei bloßer Bedienung des Systems nicht sehen kann.

Mensch versus Maschine

Theoretisch sollte uns die DSGVO davor schützen, zum Objekt derartiger Entscheidungen gemacht zu werden. In Artikel 22 lesen wir: "Die betroffene Person hat das Recht, nicht einer ausschließlich auf einer automatisierten Verarbeitung — einschließlich Profiling — beruhenden Entscheidung unterworfen zu werden, die ihr gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt." Es muss also, immer noch, am Ende ein Mensch entscheiden.

Aber so einfach sind die Verhältnisse nicht. Denn, erstens: Auch bei genannter Website entscheidet am Ende ein Mensch. Das "System" dreht kein lebenserhaltendes System ab. Aber es schafft einen Anreiz für den behandelnden Arzt, dies zu tun, wenn die Oma, die das Bett hat, einen Wert von 18 hat und der neu aufgenommene Patient einen von vier (mehr Punkte bedeutet hier Schlechtes, anders als beim Fußball).

Und zweitens: Ist es überhaupt richtig — und wenn ja, unter welchen Voraussetzungen — dass ein subjektiv agierender Mensch ein derartiges "objektives" System "overrulen" kann? Ist es richtig(er), die Oma zum Objekt subjektiver Prognoseerwartungen und subjektiver ethischer Überzeugungen der behandelnden Medizinerinnen zu machen? Wie stellen wir hier sicher, dass eine medizinische Elite nicht subjektiven ethischen Regeln folgt, die (vielleicht) von der Mehrheit nicht getragen werden? Kommt es auf diese Mehrheit überhaupt an? Kommt es auf die individuellen Überzeugungen des betroffenen Patienten an?

Wollen wir das?

Auch darauf gibt die DSGVO keine zufriedenstellende Antwort. Abweichungen vom Verbot des Artikels 22 Absatz 1 DSGVO sind nämlich möglich. In diesen Fällen darf das System allein entscheiden. Dann, "wenn die Entscheidung für den Abschluss oder die Erfüllung eines Vertrags zwischen der betroffenen Person und dem Verantwortlichen erforderlich ist", dann, wenn, die betroffene Person ausdrücklich eingewilligt hat, und dann, wenn es nationales oder europäisches Recht gibt, das solche automatisierten Entscheidungen ausdrücklich erlaubt — und die Interessen der Betroffenen angemessen wahrt (Artikel 22 Absatz 2 DSGVO).

Wollen wir das? Wollen wir das — und wenn ja, wie — gesetzlich regeln? Es ist an der Zeit, auch diese Frage — endlich, und leider wieder einmal zu spät — (rechts)politisch zu diskutieren. Im Parlament.

Bis dahin könnte ich, wäre ich Rechtsanwalt der Ärztinnen und Ärzte, die heute in Wien vielleicht solche Entscheidungen treffen müssen, diesen aus haftungsrechtlicher Sicht nur einen zynischen Rat geben: Darüber, ob und wie ein derartiges System eingesetzt wird, mit niemandem reden. Schon gar nicht mit den Patientinnen, Patienten und deren Angehörigen. (Nikolaus Forgó, 24.3.2021)

Weitere Beiträge von Nikolaus Forgó