Technologische Neuigkeiten, Bewertungen und Tipps!

Google AI wird Ärzte nicht ersetzen, sagt sein Chief Health Officer

Hinweis: Der folgende Artikel hilft Ihnen weiter: Google AI wird Ärzte nicht ersetzen, sagt sein Chief Health Officer

In einem aktuellen Interview erklärte Dr. Karen DeSalvo, Chief Health Officer von Google, dass die KI-Plattform des Unternehmens Bardeist ein „Werkzeug im Werkzeugkasten“ und kein Ersatz für Ärzte.

Die Anwendungsfälle für Künstliche Intelligenz in unserem täglichen Leben nehmen immer mehr zu und es gibt keinen Bereich, der mehr Ressourcen stärker benötigt als die Medizin. Google möchte in nicht allzu ferner Zukunft jedem einen Arzt in die Tasche stecken, mit einer Technologie, die auf Bard, Googles eigenem Large Language Model-Chatbot, basiert.

Es bestehen jedoch Bedenken, dass KI dazu genutzt werden könnte, ungenaue oder voreingenommene Entscheidungen zu treffen, die schwerwiegende oder lebensbedrohliche Folgen für Patienten haben könnten.

Könnten Ärzte durch KI ersetzt werden?

Kurz gesagt, nein. Ein hitziges Diskussionsthema, das immer wieder auftaucht, wenn es um KI geht, ist die Frage, ob sie es schaffen wird X- oder Y-Berufe obsolet. Zumindest für die absehbare Zukunft besteht Einigkeit darüber, dass Ärzte, Allgemeinmediziner, Radiologen und andere medizinische Berufe weiterhin dringend gesucht werden.

Dr. Karen DeSalvo, Googles Chief Health Officer und Leiterin der Gesundheitspolitik, die in der Obama-Regierung gearbeitet hat, sprach mit dem Guardian Australien vor kurzem auf einem Besuch im Land.

DeSalvo ging auf das Thema ein und erklärte: „Als Arzt muss ich manchmal sagen: ‚Oh mein Gott, da ist dieses neue Stethoskop in meinem Werkzeugkasten namens großes Sprachmodell, und es wird viele erstaunliche Dinge bewirken.‘ Aber es wird Ärzte nicht ersetzen – ich glaube, es ist ein Werkzeug im Werkzeugkasten.“
Eine große Frage, die sich Mediziner stellen, ist, ob sie „Ich weiß nicht“ sagen können, wenn sie mit einer Frage konfrontiert werden, zu deren Beantwortung sie nicht das Wissen haben. Sie fährt fort: „Ich bin der Meinung, dass es hier Potenzial gibt, und wir sollten mutig sein, wenn wir darüber nachdenken, welche potenziellen Einsatzmöglichkeiten darin bestehen könnten, Menschen auf der ganzen Welt zu helfen.“

Aber es dürfe niemals den Menschen bei der Diagnose und Behandlung von Patienten ersetzen, sagte sie und wies darauf hin, dass Bedenken hinsichtlich der Möglichkeit einer Fehldiagnose bestehen würden, da frühe LLMs anfällig für sogenannte „KI-Halluzinationen“ seien und Quellenmaterial entsprechend der Reaktion bereitstellen würden erforderlich.

Über 90 % Genauigkeit laut einer Studie

Die zweite Version von Googles Med-PaLM versuchte, einige der Mängel seines Vorgängers zu beheben, indem es Daten aus nicht englischsprachigen Ländern zugänglich machte und dabei half, Vorurteile in Bezug auf ethische und soziale Fragen zu überwinden.

In einem aktuellen Google Forschungsstudie veröffentlicht in NatureDie Studie ergab, dass das Med-PaLM-System in 92,9 % der Fälle Antworten generierte, die denen von Ärzten entsprachen.

Antworten, die als potenziell schädlich eingestuft wurden, wurden vom Med-PaLM in 5,8 % der Fälle erstellt, wobei die weitere Auswertung noch im Gange ist. Dieser kleine, aber dennoch beträchtliche Anteil schädlicher Reaktionen reicht aus, um darauf hinzuweisen, dass sich das Tool noch in einem frühen Stadium befindet und DeSalvo es als „Test- und Lernphase“ bezeichnet.

DeSalvos Gesamtaussichten waren jedoch positiv. Sie erklärte, wie das Tool dazu beitragen könne, das Macht- und Informationsgleichgewicht zwischen der medizinischen Industrie und der Öffentlichkeit neu zu regeln. Die Menschen sollten sich der Risiken dieser neuen Technologie bewusst sein, sie aber auch als Chance sehen, ihre Gesundheit selbst in die Hand zu nehmen.