Wo finde ich es: Münzbewertung, Augenpads, Andouillewurst
Mar 07, 2023Fleisch
Mar 09, 2023Vor 125.000 Jahren jagten und schlachteten Neandertaler riesige Elefanten
Mar 11, 2023Vater macht postpartales „Heldensandwich“ für seine Frau: „Er ist ein echter Hingucker“
Mar 13, 2023Fangen Sie in diesen Seen in Mississippi riesige Sonnenbarsche
Mar 15, 2023KI-Ärzte werden die Gesundheitsversorgung besser und fürsorglicher machen
Niemand erwartet von einem Chatbot gefühlvolle Nettigkeiten. Sicher mittelmäßig geschrieben, zusammen mit einigen erfundenen Fakten und ein bisschen zufälligem Rassismus. Ich habe selbst über diese Nachteile der KI geschrieben.
Aber diese großen, neuen Chatbots können bekanntlich auch menschlich klingende Antworten auf Aufforderungen und Fragen generieren. Und in einem kürzlich durchgeführten direkten Test verschaffte diese Fähigkeit den Bots eine überraschende Überlegenheit bei einer der eigentlich menschlichsten aller Tätigkeiten: dem Dienst als Arzt.
Um den Test durchzuführen, nutzte ein Forscherteam der University of California in San Diego r/AskDocs, ein Reddit-Forum, in dem registrierte, verifizierte medizinische Fachkräfte medizinische Fragen von Menschen beantworten. Die Forscher wählten im Forum fast 200 repräsentative Fragen aus, von albern klingenden („Zahnstocher verschluckt, Freund sagte, ich werde sterben“) bis hin zu erschreckenden („Fehlgeburt einen Tag nach normalem Ultraschall?“). Anschließend speisten sie die Fragen in den virtuellen Schlund des Bots ChatGPT ein und ließen eine separate Gruppe von Gesundheitsexperten eine Blindauswertung der Antworten von KI und Ärzten durchführen.
Die Ergebnisse waren schockierend. Zum einen schnitt ChatGPT hinsichtlich der Nützlichkeit deutlich vor den menschlichen Ärzten ab. Fast ausnahmslos wurden die Chatbot-Antworten als drei- oder viermal so zuverlässig bewertet wie die der armen kleinen Menschen. Darüber hinaus zeigten die Bots nicht die beunruhigende Tendenz, Dinge zu erfinden, die sie unter anderen Umständen oft haben.
Aber hier kommt das Auffälligste: Die Chatbot-Antworten wurden im Durchschnitt siebenmal so einfühlsam bewertet wie die von Menschen. Sieben Mal! Sie haben genau das geboten, was Sie von Ihrem Arzt erwarten: Fürsorge und eine emotionale Verbindung. Es ist, als hätte der gefühllose Androide Mr. Data herausgefunden, wie er Dr. Crushers beruhigende Art am Krankenbett überzeugend nachahmen kann.
Zugegebenermaßen liegt die Messlatte dafür, menschliche Ärzte wegen ihrer Empathie zu schlagen, niedrig. Dennoch deutet die offensichtliche Leichtigkeit, mit der der Bot medizinische Probleme sowohl im Stil als auch im Inhalt lösen konnte, auf einen tatsächlichen, realen Einsatz dieser Dinge hin. Ich bin skeptisch, dass KI-Bots, die auf großen Sprachmodellen basieren, den Journalismus revolutionieren oder sogar die Internetsuche verbessern werden. Ich glaube, ich bin offen für die Idee, dass sie die Codierung von Software und die Analyse von Tabellenkalkulationen beschleunigen werden. Aber ich denke jetzt, dass Chatbots mit etwas Bastelei die Art und Weise, wie Menschen mit Gesundheitsdienstleistern und unserem kaputten medizinisch-industriellen Komplex interagieren, radikal verbessern könnten.
Der Zweck des Empathie-Experiments bestand nicht darin, zu zeigen, dass ChatGPT einen Arzt oder eine Krankenschwester ersetzen kann. Es sollte gezeigt werden, dass ein Chatbot eine Rolle bei der Bereitstellung von Pflege spielen kann. Unser gewinnorientiertes Gesundheitssystem stellt nicht genügend Ärzte und Krankenschwestern ein und erwartet von denen, die es einstellt, dass sie immer mehr Patienten am Fließband behandeln. Niemand mag es, außer den Leuten, die reich werden.
„Die Menschen haben keinen Zugang zur Gesundheitsversorgung und sind verzweifelt“, sagt John Ayers, Computerepidemiologe an der UC San Diego und Hauptautor der neuen Studie. Deshalb suchen sie in Foren wie r/AskDocs nach Antworten. „So machen das Patienten jetzt. Und die Ärzte haben sich nicht dafür angemeldet.“
Der Druck, auf diese Nachrichten zu antworten, ist enorm geworden. Die COVID-Pandemie beschleunigte den Fern-Online-Kontakt zwischen Ärzten und Patienten – und selbst im ersten Jahr der Pandemie verbrachten Ärzte laut Untersuchungen jeden Arbeitstag fast eine Stunde damit, ihre E-Mail-Postfächer zu bearbeiten. Wenn man noch den Umgang mit anderen elektronischen Krankenakten-Technokratien hinzufügt, kommt man am Ende zu einigen Ärzten, die jeden Tag die Hälfte ihrer Zeit diesem Hin und Her widmen. Es reicht aus, dass Versicherungen häufig die für die Beantwortung von Nachrichten aufgewendete Zeit in Rechnung stellen, was sie zu einer potenziellen Einnahmequelle macht, die über persönliche Interaktionen hinausgeht.
In früheren Studien wurde gefragt, ob Patienten und Ärzte diese Nachrichtensysteme gerne nutzen. Ayers untersuchte, ob das System tatsächlich funktioniert. „Wir haben echte Botschaften verwendet“, sagt er. „Das hat noch nie jemand gemacht.“ Das Ergebnis, basierend auf der Qualität der Interaktionen, war endgültig. „ChatGPT hat mit einem Erdrutschsieg gewonnen“, sagt Ayers. „Dieses Zeug ist wahrscheinlich für die Hauptsendezeit bereit.“
Aufgrund des anfänglichen Erfolgs des Bots ist Ayers bereit zu sehen, was er noch alles kann. „Wir wollen mit randomisierten, kontrollierten Studien beginnen, in denen man die Botschaften der Patienten anhand der Patientenergebnisse bewertet“, sagt er – nicht nur, ob die Botschaften zutreffend oder einfühlsam sind, sondern auch, ob sie dazu beitragen, dass die Menschen gesünder oder länger am Leben bleiben. Was wäre, wenn ein Chatbot jemandem, der sich von einem Herzinfarkt erholt, dabei helfen könnte, eine salzarme Diät einzuhalten, ihn an die Einnahme seiner Medikamente erinnern und seine Behandlung auf dem neuesten Stand halten könnte? „Eine Nachricht in diesem Fall könnte das Leben dieses Patienten retten“, sagt Ayers.
Trotz aller Versprechungen der Tech-Welt von Haustierrobotern und KI-Psychotherapeuten wirkt die Vorstellung eines fürsorglichen Chatbots immer noch destabilisierend – vielleicht sogar gefährlich. Niemand denkt, dass ChatGPT sich wirklich darum kümmert, genauso wenig wie sie glauben, dass es tatsächlich intelligent ist. Aber wenn unser aktuelles, kaputtes Gesundheitssystem es den Menschen unmöglich macht, sich umeinander zu kümmern, kann eine vorgetäuschte Fürsorge vielleicht echte Leben retten. Ein künstlich intelligenter Assistent ist vielleicht nicht menschlicher als menschlich, aber vielleicht doch menschlicher.
Spezialisierte KI-Systeme – keine dummen Chatbots – sind bereits ziemlich gut in der Diagnose. Sie sind bestens dafür ausgebildet, anhand spezifischer Testergebnisse eine Sache zu erkennen, beispielsweise einen Tumor oder eine Sepsis. Aber sie sind teuer und schwer zu bauen. Deshalb setzt das medizinische Establishment auf Chatbots als billigeres und allgegenwärtigeres Werkzeug. Dutzende Unternehmen arbeiten an Anwendungen, deren Einsatzmöglichkeiten von der Diagnose von Krankheiten bis hin zur Unterstützung bei der Bewältigung des Papierkrams reichen, der irgendwie in die Verantwortung von Ärzten und Patienten gleichermaßen übergegangen ist. Wenn Sie das Glück haben, krankenversichert zu sein, verfügt Ihre Versicherungsgesellschaft wahrscheinlich bereits über eine Art dummen Chatbot, mit dem Sie sprechen können, bevor Sie einen Menschen ans Telefon bringen können.
Wenn man Leute fragt, ob sie diese Idee mögen, antworten sie meistens nein. Sechzig Prozent der Amerikaner, die kürzlich vom Pew Research Center befragt wurden, gaben an, dass sie kein KI-System hätten, das ihre Beschwerden diagnostiziert oder Behandlungen vorschlägt. Aber sie werden es wahrscheinlich trotzdem bekommen. Erzählen Sie niemandem, dass ich das gesagt habe, aber vieles, was Gesundheitspersonal tut, ist bereits ein wenig formelhaft – zumindest auf der untersten Ebene, der Schnittstelle zum Patienten. Sie fühlen sich unwohl und rufen eine Beratungsstelle; Sie stellen voreingestellte Fragen, um zu entscheiden, ob Sie in die Notaufnahme gehen oder einfach ein Tylenol nehmen sollten. Das nennt man Triage. Oder wenn Sie elektronischen Zugriff auf Ihre Krankenakten haben, erhalten Sie möglicherweise die Ergebnisse einer neuen Reihe von Tests zurück und senden Ihrem Arzt eine E-Mail mit der Frage, was diese bedeuten. So oder so erwarten Sie nicht, dass Sie diese Begegnungen genießen werden. Sie sind oberflächlich. Sogar ein Roboter.
Wissen Sie, wer sehr gut in Roboterdingen ist? Roboter! Kürzlich zeigte ein Forscherteam aus Harvard Dutzende Beschreibungen von Gesundheitsproblemen drei Gruppen: Ärzten, Menschen ohne medizinische Ausbildung und ChatGPT. Sie baten jeden (und jedes Ding), die Krankheit zu diagnostizieren und dann Triage-Empfehlungen einzuholen.
Den Menschen, die keine Ärzte waren, wurde erlaubt, eine Internetsuche durchzuführen – was die Leute im Gesundheitswesen voller Angst „Dr. Google“ nennen. Aber selbst mit der Online-Unterstützung waren die ungeübten Menschen bei der Diagnose schrecklich. Da ist kein Schock. Aber wie die Forscher in einem aktuellen Preprint berichten – der also noch nicht von Experten begutachtet wurde –, war der Chatbot bei der Diagnose fast genauso gut (Ergebnis über 80 %) wie die menschlichen Ärzte (die über 90 % erzielten). Und bei der Triage hat ChatGPT etwas mehr als 70 % richtig gemacht. Das klingt im Vergleich zu den 91 % des Arztes mies, aber trotzdem! Dies ist ein Allzweck-Chatbot, fast so gut wie ein voll ausgebildeter Arzt.
Stellen Sie sich nun vor, dass Sie zu diesen Fähigkeiten die Art von alltäglichen, zeitaufwändigen Gesundheitsaufgaben hinzufügen würden, die Chatbots bewältigen können sollten – Dinge wie das Planen von Terminen, das Einholen einer vorherigen Genehmigung von der Versicherung und den Umgang mit elektronischen Krankenakten. „Das sind Aufgaben, für die niemand in die Medizin gegangen ist, und sie verursachen massive Kopfschmerzen, enorme Zeitverluste und sind körperlich und emotional anstrengend“, sagt Teva Brender, Assistenzärztin an der University of California in San Francisco. Vielleicht könnte ein Chatbot zumindest die Anfänge dieses bürokratischen Verkehrs generieren, zusammen mit allen E-Mails an Patienten. „Der Arzt könnte es überfliegen und sagen: ‚Ja, das ist richtig‘ und es abschicken“, sagt Brender.
Das scheint ein wahrscheinliches Szenario zu sein. Hochqualifizierte Chatbots werden mit Ärzten, Krankenschwestern und Arzthelfern zusammenarbeiten, um Menschen, die Pflege benötigen, einfühlsamer und umfassender zu antworten. Wie Ayers‘ Team im Jahr 2019 schrieb, sind Menschen so verzweifelt auf der Suche nach medizinischer Hilfe, dass sie Bilder ihrer eigenen Genitalien auf dem Subreddit r/STD posten, in der Hoffnung, eine genaue Diagnose zu erhalten. Das ist einfach unglaublich traurig und eine erschütternde Anklage gegen unser wirklich beschissenes und unmenschliches Gesundheitssystem.
In einem so schlechten System könnte KI tatsächlich eine Verbesserung sein. „Ein menschlicher Kliniker, der auf die Wissensbasis und die Verarbeitungsleistung von KI-Systemen zurückgreift, wird nur besser sein“, sagt Jonathan Chen, ein Arzt an der Stanford University School of Medicine, der sich mit KI-Systemen beschäftigt. „Es ist sehr wahrscheinlich, dass Patienten eine unvollständige medizinische Beratung durch automatisierte Systeme mit 24/7-Verfügbarkeit in Anspruch nehmen, anstatt monatelang auf einen Termin bei einem menschlichen Experten zu warten.“
Um diese KI-gesteuerten Systeme zu verbessern, arbeiten viele Leute – darunter auch das Team von Ayers – jetzt an kleineren Sprachmodellen, die genau auf medizinische Informationen abgestimmt sind. Der Reiz von ChatGPT besteht in seiner jetzigen Form darin, dass es sich um einen Generalisten handelt, der Input aus allem im Internet bezieht. Aber so schleichen sich Vorurteile und Fehlinformationen ein. Geben Sie diesen medizinischen Chatbots Zugriff auf die individuellen Krankenakten der Menschen, und sie könnten präzisere Ratschläge geben. „Wenn diese Technologie Zugriff auf elektronische Gesundheitsakten erhält, ist das der entscheidende Wendepunkt“, sagt Ayers.
Wenn Ihnen die Zukunft der KI-gestützten Gesundheitsberatung – inklusive Zugriff auf Ihre Krankenakten – Sorgen bereitet, kann ich Ihnen das nicht verübeln. Die schlechten Science-Fiction-Ergebnisse hier sind ziemlich dystopisch. Nach jahrelanger Arbeit verfügt die Food and Drug Administration immer noch nicht über einen Rahmen, der KI und maschinelles Lernen in medizinischen Geräten regulieren kann. Jemand muss alle Haftungsfragen im Zusammenhang mit Chatbot-Ratschlägen klären, insbesondere wenn diese schlecht sind. KI-Startups im Gesundheitswesen wollen die günstigsten Versionen mit dem größten finanziellen Erfolg, die nicht unbedingt die besten Ergebnisse für die Patienten bringen. Und wenn es einem Gesundheitsunternehmen gelingt, einen Chatbot mit modernster Medizin zu verfeinern, dann kann jedes Unternehmen dasselbe mit Homöopathie oder Duftkerzen erreichen – oder Impfgegner-Unsinn. Diese Chatbots verbreiten gefährliche Fehlinformationen, sowohl eloquent als auch einfühlsam.
„Das ist der schlimmste Fall“, sagt Greg Corrado, Leiter Health AI bei Google. „Die Leute aus dem Silicon Valley können das nicht isoliert tun.“ Das bedeutet, diese Systeme in Zusammenarbeit mit Gesundheitsexperten und nicht nur mit Führungskräften im Gesundheitswesen zu entwickeln, um sicherzustellen, dass sie privat und sicher sind und den Menschen tatsächlich helfen.
Es wird nicht einfach sein, aber es könnte notwendig sein. Leider ist unser Gesundheitssystem nicht darauf ausgelegt, jedem Menschen anständige menschliche Betreuer zur Verfügung zu stellen. Und bis sich das ändert, wäre es schön, Roboter zu haben, die uns helfen könnten, gesund zu bleiben. Wenn sie gleichzeitig simulieren können, dass sie sich um uns kümmern – vielleicht sogar besser als menschliche Ärzte –, wäre das immer noch eine nette Botschaft.
Adam Rogers ist leitender Korrespondent bei Insider.
Mit unserem Diskurs-Journalismus versucht Insider, die faszinierendsten Themen und Ideen des Tages zu erforschen und zu beleuchten. Unsere Autoren bieten zum Nachdenken anregende Perspektiven, die auf Analysen, Berichten und Fachwissen basieren. Weitere Diskursgeschichten finden Sie hier.
Lesen Sie weiter