KI-Einsatz in der Psychiatrie: ein Game-Changer mit Ethikfragen

DAS WICHTIGSTE IM ÜBERBLICK

Die ethischen Aspekte des KI-Einsatzes bei der Diagnose und Behandlung psychischer Erkrankungen sind eine Frage von Leben und Tod. Künstliche Intelligenz hat nicht nur das Potenzial, die Diagnose und Behandlung von Patienten zu rationalisieren. Vielmehr besteht auch die Gefahr von Fehldiagnosen und Risiken für den Datenschutz.

Der Einsatz künstlicher Intelligenz (KI) zur Unterstützung von Patienten mit psychischen Erkrankungen ist ein ethisches Minenfeld.

Bei richtiger Anwendung kann KI zusammen mit maschinellem Lernen (ML) dazu beitragen, neue Therapien zu finden und die Behandlung von Patienten zu erleichtern. Wird sie jedoch falsch eingesetzt, kann dies zu Fehldiagnosen führen und hilfsbedürftigen Menschen die nötige Unterstützung vorenthalten.

Gleichzeitig gibt es einen Mangel an Fachpersonal im Bereich der psychischen Gesundheit. Nach einer Prognose der Weltgesundheitsorganisation (engl. World Health Organization, WHO) gab es im Jahr 2019 fast eine Milliarde Menschen mit einer psychischen Störung, und es besteht ein erheblicher Mangel an Beratern, Psychiatern und Psychologen, die Patienten unterstützen können.

Vor diesem Hintergrund entwickeln Softwareanbieter KI-basierte Apps und Chatbots wie Woebot und Wysa, die Nutzern bei leichten Symptomen wie Depressionen und Angstzuständen helfen. Mit diesen Chatbots können Patienten über ihre Emotionen sprechen und erhalten grundlegende Unterstützung und Anleitung von einem automatischen Agenten.

Auch wenn Studien zeigen, dass viele User diese Apps praktisch finden, sind sie nicht ohne Risiken. So hat Anfang dieses Jahres ein Mann in Belgien Selbstmord begangen, nachdem der KI-Chatbot Chai den Nutzer nach sechswöchigem Dialog dazu ermutigt haben soll, sich umzubringen.

In diesem Fall könnte der KI-Chatbot, der negative Antworten lieferte, dafür verantwortlich gewesen sein, dass sich die schutzbedürftige Person das Leben nahm.

KI und Psychiatrie: ethische Argumente im Mittelpunkt

Angesichts der Tatsache, dass beim Einsatz von KI im Gesundheitswesen so viel auf dem Spiel steht wie Leben oder Tod, müssen Mediziner, klinische Forscher und Softwareentwickler ein akzeptables Risiko für die Verwendung dieser Technologie festlegen.

Wenn ein Softwareanbieter z. B. einen Chatbot entwickelt, mit dem die Nutzer ihre Symptome besprechen können, sollten sie über klar definierte Leitplanken verfügen, um das Risiko einer KI-Halluzination zu verringern.

Zu den grundlegenden Schutzmechanismen könnten ein Haftungsausschluss und Live-Support von qualifizierten Spezialisten gehören, um eine zusätzliche Sicherheitsebene zu schaffen.

Jede Einrichtung, die KI zur Unterstützung von Nutzern zu implementieren plant, muss zunächst feststellen, ob der Einsatz künstlicher Intelligenz ein Risiko für schutzbedürftige Personen darstellt oder deren Zugang zu Behandlung oder Unterstützung beschleunigt.

Ein Forscher im Bereich der psychischen Gesundheit argumentiert: Künstliche Intelligenz hat ein immenses Potenzial, unsere Diagnose neu zu definieren und zu einem besseren Verständnis psychischer Erkrankungen beizutragen. Psychischer Erkrankungen einer Person … Technologien der künstlichen Intelligenz können möglicherweise bessere prädiagnostische Screening-Instrumente entwickeln und Risikomodelle ausarbeiten, um die Veranlagung eines Menschen für eine geistige Erkrankung oder die Möglichkeit einer solchen zu bestimmen.

Allerdings müssen Lösungen, die auf der Basis von KI psychische Erkrankungen diagnostizieren, auf qualitativ hochwertigen Trainingsdaten aufbauen, um die bestmögliche Genauigkeit zu gewährleisten. Jegliche Unrichtigkeiten im Datensatz könnten zu einer Fehldiagnose oder einer falschen Behandlung von hilfsbedürftigen Patienten führen.

Der Einsatz von KI in der Psychiatrie ist ein Bereich, in dem der Zweck die Mittel heiligt. Wenn durch KI der Zugang der Patienten zu Unterstützung vereinfacht und die Medikamentenentwicklung gestrafft werden kann, dann ist das ein positives Ergebnis.

Führt sie zu Fehldiagnosen, Falschinformationen oder hindert sie schutzbedürftige Menschen daran, Zugang zu klinischer Unterstützung zu erhalten, dann ist sie ein No-Go.

Gleichgewicht zwischen Datenschutz und Unterstützung

Eine der vielleicht wichtigsten Überlegungen in der ethischen Debatte über KI ist die Erhebung, Speicherung und Nutzung von Daten durch KI-Systeme, auf denen diese Lösungen basieren. Dazu gehört alles: von persönlichen Daten bis hin zu vertraulichen Emotions- und Verhaltensinformationen eines Menschen.

Klinische Forscher und Softwareanbieter, die Patientendaten verarbeiten, müssen zumindest sicherstellen, dass sie die ausdrückliche Zustimmung der betroffenen Personen haben.

Andernfalls müssen die Daten de-identifiziert oder anonymisiert werden, damit personenbezogene Informationen (engl. personal identifiable information, PII), elektronisch geschützte Gesundheitsdaten (engl. electronic protected health information, EPHI) und Krankenakten nicht an unbefugte Dritte weitergegeben werden.

Die Anforderungen hierfür können äußerst komplex sein, insbesondere wenn Vorschriften wie HIPAA strenge Datenschutzbedingungen für elektronische Gesundheitsinformationen vorsehen. Aber selbst die Anonymisierung kann entschlüsselt werden, wenn sie nicht angemessen geschützt ist.

Aus diesem Grund sind viele Anbieter äußerst vorsichtig bei der Auswahl der Daten, die sie für KI-Apps nutzen, um Compliance-Verpflichtungen zu vermeiden. Dies trägt zwar zum Schutz der Privatsphäre der Nutzer bei, verringert aber die Menge der insgesamt für die Verarbeitung verfügbaren Daten.

Letztlich gilt es, den Spagat zwischen dem Schutz der Anonymität von Patientendaten und der Einholung einer Zustimmung nach Aufklärung zu schaffen und dennoch genügend Daten zu sammeln, um hochwertige Erkenntnisse für die Behandlung und Diagnose zu gewinnen.

Fazit

Wenn die KI durchweg positive Ergebnisse für die Patienten liefert, dann wird sie sich als ein Werkzeug rechtfertigen, auf das die Ärzte im Bereich der psychischen Gesundheit zurückgreifen können.

Schon jetzt sieht man den Erfolg der KI bei der Diagnose und der Entwicklung von Therapien gegen Schizophrenie und bipolare Störungen. Sollte sich dieser Trend fortsetzen, wird die Angst vor Experimenten mit diesen Technologien in der Branche deutlich geringer sein.

Geraten dagegen mehr Chatbots in die Schlagzeilen, weil sie psychisch kranke Patienten nicht unterstützen, könnte dies die KI in diesem Sektor erheblich einschränken.

Da die moralischen Aspekte des Einsatzes von KI im Gesundheitswesen noch bestimmt werden müssen, liegt es an Forschern, Praktikern und Softwareanbietern, den Standard für die ethische Seite der KI-Entwicklung zu setzen.

Verwandte Begriffe

Tim Keary

Seit Januar 2017 arbeitet Tim Keary als freiberuflicher Technologie-Autor und Reporter für Unternehmenstechnologie und Cybersicherheit.