
Die Gefahren der Rezeptabfrage und des Medikamentenkaufs über ChatGPT – Foto: KI
Die Verwendung dieses Tools zur Verschreibung von Medikamenten, zum Kauf von Arzneimitteln oder zur Befolgung von Anweisungen zur Behandlung von Krankheiten birgt jedoch potenzielle Gesundheitsrisiken.
In vielen Fällen liefert Chat GPT falsche Medikamentenempfehlungen, falsche Behandlungsanweisungen und ungenaue Informationen über die Krankheit.
Vorsicht vor potenziellen Schäden durch die „Behandlung von Krankheiten“ mit ChatGPT.
Frau L. (34 Jahre) litt seit drei Tagen unter verstopfter Nase, Kopfschmerzen und trockenem Husten und fragte ChatGPT: „Ich habe Husten und eine verstopfte Nase. Welches Medikament hilft mir, schnell wieder gesund zu werden?“ Sie erhielt den Rat: „Eine Erkältung lässt sich in der Regel mit symptomlindernden Medikamenten wie pflanzlichem Hustensaft oder einem kurzfristig anzuwendenden Nasenspray behandeln.“ Frau L. befolgte diesen Rat.
Nach fünftägiger Medikamenteneinnahme besserten sich ihre Symptome nicht; im Gegenteil, ihre Kopfschmerzen verschlimmerten sich, ihr Husten verstärkte sich nachts und sie fühlte sich erschöpft. Schließlich suchte sie einen HNO-Arzt auf, der eine akute Sinusitis diagnostizierte.
Unterdessen wurde einem 38-jährigen Mann in Hanoi von seinem Arzt ein Medikament gegen Erektionsstörungen verschrieben. Als er ChatGPT aufrief, sah er eine Warnung, dass das Medikament Hornhautkomplikationen verursachen könne. Besorgt über die Nebenwirkungen setzte er das Medikament wie verordnet ab, woraufhin sich sein Zustand verschlechterte.
Bei seiner Rückkehr ins Krankenhaus hatte sich seine erektile Dysfunktion stark verschlimmert, sodass eine viel längere und teurere Behandlung erforderlich war als ursprünglich angenommen.
Viele Menschen waren erstaunt, als in den sozialen Medien Bilder kursierten, die Personen mit ihren Handys zeigten, auf denen ein Chat mit ChatGPT zu sehen war. Dieser Chat enthielt eine Liste von Medikamenten gegen Husten, verstopfte Nase, Schnupfen usw.. Die Handys wurden anschließend in Apotheken gebracht, um die Medikamente zu kaufen. Auf der Liste standen auch Antibiotika, für die ein ärztliches Rezept erforderlich ist.
Die Nutzung von ChatGPT als „virtueller Arzt“ ist nicht ungewöhnlich. In letzter Zeit haben einige Krankenhäuser jedoch vor der Verwendung von ChatGPT zu Informationszwecken gewarnt, da dies dazu führen kann, dass Schlaganfallpatienten zu spät eingeliefert werden und somit das optimale Zeitfenster für eine Behandlung verpassen.
Vor Kurzem wäre ein 60-jähriger Mann in den USA beinahe gestorben, nachdem er dem Rat von ChatGPT gefolgt war und in seiner täglichen Ernährung Speisesalz (Natriumchlorid) durch Natriumbromid ersetzt hatte. Er hatte das Natriumbromid online bestellt und drei Monate lang konsumiert. Nach einiger Zeit verschlechterte sich sein Gesundheitszustand so stark, dass er ins Krankenhaus eingeliefert werden musste.
Im Krankenhaus äußerte er sogar den Verdacht, sein Nachbar habe ihn heimlich vergiftet, was die Diagnose erschwerte. Nach Untersuchungen und klinischer Überwachung stellten die Ärzte eine Bromidvergiftung fest.
Unvorhergesehene gesundheitliche Folgen
Dr. Ha Ngoc Manh, stellvertretende Direktorin des Vietnam-Belgischen Krankenhauses für Andrologie und Unfruchtbarkeit, die Patienten mit erektiler Dysfunktion direkt behandelt, teilte mit, dass Hornhautkomplikationen äußerst selten seien.
Tatsächlich berücksichtigen und berechnen Ärzte bei der Medikamentenverschreibung sorgfältig die individuelle Dosierung, die auf den jeweiligen Gesundheitszustand des Patienten abgestimmt ist. Patienten, die die Medikamente in der korrekten Dosierung und unter engmaschiger ärztlicher Aufsicht einnehmen, gewährleisten Sicherheit und Wirksamkeit. Anstatt jedoch einen Spezialisten zu konsultieren, setzte diese Person die Medikamente eigenmächtig ab, wodurch sich ihr Zustand verschlechterte.
„Mit seinem riesigen Datensatz kann ChatGPT nahezu sofort Antworten liefern und jedes Fachgebiet abdecken. Viele verwechseln jedoch die Funktion dieses Tools mit der Rolle eines Arztes. ChatGPT sollte lediglich als erste Informationsquelle betrachtet werden und kann weder ärztliche Untersuchung, Diagnose noch Behandlung ersetzen“, sagte Dr. Manh.
Dieser Experte erklärte außerdem, dass Patienten bei Bedenken hinsichtlich der Nebenwirkungen von Medikamenten ihren Arzt oder Apotheker direkt um Rat fragen sollten. Sie sollten auch Informationen über die Anzeichen und Symptome von Nebenwirkungen mitteilen, damit Ärzte die Behandlung entsprechend anpassen können, anstatt sich auf künstliche Intelligenz zu verlassen, die ihren Zustand möglicherweise verschlimmert.
Laut Dr. Chu Duc Thanh von der Abteilung für Intensivmedizin und Toxikologie des Krankenhauses 19-8 gab es Fälle, in denen Patienten, anstatt dringend notärztliche Hilfe in Anspruch zu nehmen, zu Hause blieben, online um Rat fragten, sich Ratschläge von Nicht-Spezialisten anhörten oder sich selbst medikamentierten, was zu bedauerlichen Folgen führte.
Dr. Thanh erklärte, dass die medizinische Grunddiagnose zwei Hauptschritte umfasst: subjektive Symptome, also das, was der Patient beschreibt (Kopfschmerzen, Fieber, Husten, Atemnot usw.). Dies sind die Ausgangsdaten, die KI im Gespräch erfassen kann. Und objektive Symptome, die durch die direkte Untersuchung des Patienten durch den Arzt erhoben werden (Betrachten, Tasten, Abklopfen, Abhören usw.).
Dr. Thanh betonte: „Das ist etwas, was KI völlig außer Acht lässt. KI hört sich Ihre Krankheitsbeschwerden lediglich über einen Bildschirm an, genau wie bei einem Telefongespräch, bei dem man die Krankheit nur errät. Ganz abgesehen davon, dass Ärzte Ihre Krankengeschichte gründlich untersuchen müssen, einschließlich Vorerkrankungen, genetischer Veranlagung, Allergien, Lebensumstände, Beruf usw. Nur durch Tests, Funktionsuntersuchungen oder bildgebende Verfahren kann eine genaue Diagnose gestellt werden.“
Nur mit einer präzisen Diagnose kann eine Behandlung wirksam und umfassend sein. Ärzte müssen bei der Behandlung den Nutzen (der Heilung) gegen die Risiken von Nebenwirkungen oder Schäden abwägen. Viele Menschen können an derselben Krankheit leiden, doch Ärzte müssen den Grundsatz der Individualisierung beachten.
Ein Blutdruckmedikament, das für eine Person wirksam ist, kann beispielsweise für jemanden mit Asthma völlig ungeeignet sein. Auch ein gängiges Antibiotikum muss bei Patienten mit Nieren- oder Leberversagen möglicherweise anders dosiert werden oder ist kontraindiziert. Künstliche Intelligenz kann Ihre individuellen Vorerkrankungen nicht automatisch erkennen und berücksichtigen, was zu Vergiftungen oder einer Verschlimmerung bestehender Erkrankungen führen kann. Daher kann die Nutzung von KI-Informationen zur Selbstbehandlung gesundheitsschädlich sein.
Dr. Thanh sagte, dass in vielen Fällen bei Patienten mit respiratorischen Symptomen wie Fieber, Husten, Halsschmerzen, Heiserkeit und Kurzatmigkeit die KI auf Nachfrage Diagnosen wie Sinusitis, Pharyngitis usw. stellt und Medikamente zur Behandlung der Symptome verschreibt, sogar Antibiotika und Kortikosteroide.
Obwohl die meisten saisonalen Erkrankungen viral bedingt sind (70 %), ist die Verschreibung von Antibiotika oft unnötig, was zu einer komplizierten Antibiotikaresistenz führt. Ohne eine gründliche ärztliche Untersuchung können schwerwiegendere Erkrankungen wie Bronchitis und Lungenentzündung leicht übersehen werden.
Verzichten Sie auf „KI-Rezepte“.
Experten raten: Nehmen Sie keine Selbstmedikation vor, weder mit vermeintlichen „KI-Rezepten“ noch mit Online-Anleitungen. Verwenden Sie Medikamente ausschließlich nach ärztlicher Verordnung. In Notfällen (Bewusstlosigkeit, plötzliche Schwäche oder Lähmung, Brustschmerzen, Atemnot, anhaltendes hohes Fieber, Bluterbrechen usw. sowie bei unerwartet starken Schmerzen) ignorieren Sie die KI-Anweisungen und rufen Sie umgehend den Notruf (115) oder begeben Sie sich direkt ins Krankenhaus.
Quelle: https://tuoitre.vn/nguy-hiem-tu-don-thuoc-chatgpt-20251230080644576.htm







Kommentar (0)