Laptop | © pixabay.com CCO
Ausland
Laptop | © pixabay.com CCO

Heftige Kritik an Facebook-Programm zu Suiziderkennung

Köln, 12.2.19 (kath.ch) Deutsche Ethikexperten kritisieren ein Programm von Facebook, das mit Hilfe künstlicher Intelligenz suizidgefährdete Nutzer erkennen will. Sie forderten am Montag schnelle gesetzliche Regelungen zum Umgang mit sensiblen Gesundheitsdaten. In jedem Fall müsse die Einwilligung der Betroffenen eingeholt werden.

«Wenn Facebook ohne Einwilligung seiner Kunden ein nicht wissenschaftlich gestütztes Screening zur Aufdeckung eines erhöhten Risikos für eine Selbsttötung einsetzt und dafür die Privatsphäre der Kunden verletzt, ist das ethisch nicht vertretbar», erklärte die Vorsitzende des Europäischen Ethikrates (EGE), Christiane Woopen. Das Soziale Netzwerk müsse sich an die wissenschaftlichen Standards für Screeningverfahren halten. Dazu gehöre der Nachweis, dass «das Screening mehr nutzt als schadet», so die Medizinethikerin an der Universität Köln.

Facebook-Mitarbeiter werden aktiv

Seit 2017 benutzt Facebook einen Algorithmus, um Suizide zu verhindern. Er scannt Beiträge und Kommentare auf verdächtige Hinweise und meldet Personen mit erhöhtem Suizidrisiko an einen Mitarbeiter. Dieser kann der betreffenden Person Hilfsangebote zukommen lassen oder sich an Behörden und Polizei wenden.

Vernetzt | © pixabay.com CCO

Die wissenschaftliche Leiterin der Stiftung Datenschutz in Leipzig, Anne Riechert, betonte, Daten zu religiösen oder weltanschaulichen Überzeugungen, Sexualleben und Gesundheit müssten besonders geschützt werden. Dies gelte gerade für Daten, die Ausdruck einer Notlage sein und deren Offenlegung den Betroffenen beschämen könnten. «Im Falle einer Einwilligung muss diese informiert und ausdrücklich erfolgen, was in der Praxis schwierig umzusetzen sein dürfte.»

Einwilligung unbedingt notwendig

Skeptisch äusserte sich auch der Paderborner Philosoph und Informatiker Tobias Matzner. Er forderte eine «unbedingte Einwilligung der Betroffenen, unabhängige Evaluation und öffentlich nachvollziehbare Kriterien. Nichts davon ist hier gegeben», sagte er. Laut Medienberichten evaluiere Facebook nicht einmal, ob die Alarme zutreffend waren.

«Fehlalarme haben schwerwiegende Folgen.»

Matzner betonte, Facebook arbeite mit Algorithmen und suche eine Art allgemeines Muster für Suizidgefahr. Damit könnten versehentlich auch Einträge ermittelt werden, die nichts mit Suizid zu tun haben. «Angesichts der Konsequenzen wie Polizeieinsätze, verunsicherte Freunde und Familie und der sozialen Stigmatisierung von Selbsttötungen, haben solche Fehlalarme schwerwiegende Folgen.»

Algorithmen | © pixabay.com CCO

Dass hier ein hehrer Zweck verfolgt werde, sollte nicht davon ablenken, dass «dies eine willkürliche Entscheidung der Firma ist, von der wir weder im Positiven noch im Negativen abhängig sein sollten», sagte er.

Beitrag zur öffentlichen Gesundheit?

Die Wissenschaftler äusserten sich zu einem Artikel im US-Wissenschaftsmagazin «Annals of Internal Medicine». Darin betonen zwei US-Wissenschaftler, dass Facebook einerseits einen Beitrag zur öffentlichen Gesundheit liefere und sich deshalb den Auflagen für klinische Forschung unterwerfen müsse. Generell begrüssten sie jedoch innovative Ansätze wie diesen, um Tode durch Suizid zu verhindern.

Eine Facebook-Sprecherin erklärte am Dienstag, die entsprechenden Tools kämen «bislang» in der EU nicht zur Anwendung. «Wir arbeiten seit mehr als zehn Jahren an dem Thema Suizidprävention und werden uns auch weiterhin mit Experten dazu austauschen, was für Menschen in derartigen Notsituationen hilfreich ist», fügte sie hinzu. Jeder Nutzer könne Inhalte melden, wenn jemand mit Suizid oder Selbstverletzung verbundene Inhalte poste. (kna)

Vernetzt | © pixabay.com CCO
Vernetzt | © pixabay.com CCO
Mobile phone | © pixabay.com CCO
Mobile phone | © pixabay.com CCO
Am Computer | © pixabay.com CCO
Am Computer | © pixabay.com CCO
"Gefällt mir" | © pixabay.com CCO
"Gefällt mir" | © pixabay.com CCO
News ›
Medienspiegel ›
Katholisches Medienzentrum