Studie zeigt: ChatGPT bei Diagnose in der Notaufnahme so gut wie Ärzte
Obwohl das KI-Textprogramm ChatGPT nicht auf Medizin spezialisiert ist, stellt es laut einer am Mittwoch veröffentlichten Studie bei Patienten in der Notaufnahme mindestens genauso korrekte Diagnosen wie die Ärzte.
Nach Angaben der niederländischen Studienautoren übertraf der Chatbot, der Künstliche Intelligenz (KI) einsetzt, in einigen Fällen sogar die Arbeit der Ärzte - war aber gleichwohl fehleranfällig.Den Haag. Für ihre Studie untersuchten die Forscher 30 Fälle von Patienten, die im vergangenen Jahr in einer niederländischen Notaufnahme behandelt worden waren. Sie fütterten ChatGPT mit den anonymisierte Patientendaten, Labortests und den Beobachtungen der Ärzte und baten den Chatbot, fünf mögliche Diagnosen zu stellen. Diese verglichen sie dann mit der Diagnoseliste der Ärzte und glichen sie schließlich mit der jeweils richtigen Diagnose ab.
Bei den Ärzten fand sich die richtige Diagnose in 87 Prozent der Fälle unter den fünf Vorschlägen, bei der ChatGPT-Version 3.5 sogar in 97 Prozent der Fälle. "Einfach ausgedrückt bedeutet dies, dass ChatGPT in der Lage war, medizinische Diagnosen vorzuschlagen, ähnlich wie es ein menschlicher Arzt tun würde", sagte der Notfallmediziner Hidde ten Berg vom Jeroen-Bosch-Krankenhaus in 's- Hertogenbosch.
Wie auf anderen Gebieten auch, zeigte der Chatbot aber auch einige Schwächen. Manchmal sei die Argumentation des Chatbots "medizinisch wenig plausibel oder widersprüchlich gewesen", hieß es in der Studie. Dies könne zu "Fehlinformationen oder Fehldiagnosen" führen - mit entsprechend schwerwiegenden Auswirkungen.
Gleichzeitig räumten die Wissenschafter ein, dass die Zahl der untersuchten Fälle sehr niedrig sei. Zudem seien nur einfache Fälle untersucht worden, in denen der Patient nur über ein Hauptproblem geklagt habe.
Die Studie bedeute nicht, dass Computer eines Tages die Leitung der Notaufnahme übernehmen könnten, sagte Mitautor Steef Kurstjens der Nachrichtenagentur AFP. Doch könne Künstliche Intelligenz unter Druck stehende Ärzte bei der Diagnose unterstützen - etwa indem sie "Ideen liefern kann, an die der Arzt nicht gedacht hat". KI habe das "Potenzial, Zeit zu sparen und damit die Wartezeiten in der Notaufnahme zu verkürzen", sagte ten Berg.
Die Studie wurde in der Fachzeitschrift "Annals of Emergency Medicine" veröffentlicht. Ihre Ergebnisse sollen in der kommenden Woche auf dem Kongress der Europäischen Gesellschaft für Notfallmedizin (Eusem) in Barcelona vorgestellt werden.
Was man komplett in dem Bericht vergisst, ChatGPT ist nur so gut wie präzise man beschreibt. Die menschliche Komponente mit Beobachtung, Kommunikation usw. wird nicht ausbleiben und schwer für Eigendiagnosen nutzbar sein.
Als Unterstützung für Ärzte sicher eine Stütze und Ideengeber bei schwierigen Fällen. Dafür ist die KI auch gedacht.
Als Unterstützung für völlig überlastete Ambulanzen durchaus vorstellbar. Immerhin ist nicht jede Verletzung oder Erkrankung lebensbedrohend. Ich kann mir gut vorstellen, dass zumindest die Hälfte aller Fälle KI-unterstützt einfach gelöst werden können. Dann hätten Ärzte und PflegerInnen mal wieder Zeit für die wirklichen wichtigen Fälle.
Ich würd's sofort ausprobieren.
Ob das nun "ChatGPT" oder irgendwie anders heißt, ist letztlich egal. Ich frage mich aber schon lange, ob es nicht vernünftig wäre, Krankheitsbilder, Untersuchungsergebnisse und dazugehörige Diagnosen in einer Datenbank abzulegen und damit das medizinische Personal zu unterstützen. Niemand kann an jede Möglichkeit denken, elektronische Unterstützung könnte aber durchaus den einen oder anderen wertvollen Hinweis einbringen.
Mit den sogenannten KI hat die Menscheit die Büchse der Pandora geöffnet.
Begründung?
Die Maschine versteht kein Mühlviertlerisch, Salzkammergütlerisch, Innviertlerisch - somit kann eine chatgpt-geführte Ambulanz für viele Oberösterreicher schnell zur tödlichen Falle werden. Aber der Landeshauptmann und sein blaues Beiwagerl haben halt kein Geld. Die Überlebenden werden den Blechtrottel darüber hinaus wenig charmant finden. Aber anschreien kann man ihn, ohne dass sich wer ärgert. Vielleicht sollte man auch den Landeshauptmann und seinen Witze durch so einen ersetzen, zumal der nicht lügt (von wegen Schuldenbremse...).
Ich vertraue einem Arzt mehr als einer KI. Wenn er sich davon unterstützen lässt, dann ist das OK: Aber KI anstatt Arzt - nein danke !
Was der Beobachter dem Artikel so zu entnehmen gedenkt, erklärt seinen Ehrenartikel "völkisch" -keine Ahnung, worum"s wirkich geht in unserem Landungsgebiet....
Jaja und dann kommt ein Robotor zu dir nach Hause und wirst operiet.
schön dann sparen wir uns bald den Weg zum Doktor,
mit einer App zuhause untersuchen und Medikamente mit Onlineapotheke,
sLeben wird immer lustiger 🤪😀😉
Manchmal scheint so eine Unterstützung hilfreich zu sein, was nicht heißen muss, dass der Weg zum Dr. unnötig wird. Siehe hier: https://www.nachrichten.at/politik/innenpolitik/die-aerztliche-ausbildung-in-oesterreich-ist-okay-aber-nicht-gut-genug;art385,3878937