
Опасности поиска рецептов и покупки лекарств через ChatGPT - Фото: AI
Однако использование этого инструмента для назначения лекарств, покупки медикаментов или выполнения инструкций по лечению заболеваний сопряжено с потенциальными рисками для здоровья.
Во многих случаях чат GPT предоставляет неверные рекомендации по лекарствам, неправильные указания по лечению и неточную информацию о заболевании.
Остерегайтесь потенциального вреда от "лечения болезней" с помощью ChatGPT.
34-летняя г-жа Л., страдавшая от заложенности носа, головной боли и сухого кашля в течение трех дней, обратилась в ChatGPT с вопросом: «У меня кашель и заложенность носа, какое лекарство поможет мне быстро выздороветь?». Ей посоветовали: «Как правило, простуду можно лечить симптоматическими препаратами, такими как травяные средства от кашля или назальные спреи кратковременного действия», и г-жа Л. последовала этому совету.
После 5 дней приема лекарств ее симптомы не улучшились; наоборот, головные боли усилились, кашель по ночам усилился, и она чувствовала сильную усталость. Наконец, она обратилась к ЛОР-врачу, который диагностировал у нее острый синусит.
Тем временем, 38-летнему мужчине в Ханое врач прописал лекарство от эректильной дисфункции. Проверив сайт ChatGPT, он увидел предупреждение о том, что препарат может вызвать осложнения со стороны роговицы. Обеспокоенный побочными эффектами, он прекратил принимать лекарство, как было предписано, что привело к ухудшению его состояния.
Когда он вернулся в больницу, его эректильная дисфункция обострилась и потребовала гораздо более длительного и дорогостоящего лечения, чем предполагалось изначально.
Многие были поражены, когда в социальных сетях распространились фотографии, на которых люди держат телефоны, на экране которых отображается переписка с ChatGPT, содержащая список лекарств от кашля, заложенности носа, насморка и т. д., и идут в аптеки, чтобы их купить. В этот список входили антибиотики, для приобретения которых требуется рецепт врача.
Использование ChatGPT в качестве «виртуального врача» не является чем-то необычным. Недавно некоторые больницы предупредили об использовании ChatGPT в информационных целях, что приводит к поздней госпитализации пациентов с инсультом и упущению «золотого окна» для оказания помощи.
Не так давно в США 60-летний мужчина едва не погиб, следуя совету ChatGPT и заменив поваренную соль (хлорид натрия) бромидом натрия в своем ежедневном рационе. Он употреблял бромид натрия в течение трех месяцев, заказав его онлайн. Через некоторое время его здоровье ухудшилось, и ему пришлось лечь в больницу.
В больнице он даже выразил подозрение, что его тайно отравил сосед, что затруднило диагностику. После проведения анализов и клинического наблюдения врачи определили, что у него было «отравление бромидом».
Непредвиденные последствия для здоровья
Доктор Ха Нгок Мань, заместитель директора Вьетнамско-бельгийской больницы андрологии и бесплодия, непосредственно занимающийся лечением пациентов с эректильной дисфункцией, сообщил, что осложнения со стороны роговицы встречаются крайне редко.
В действительности, при назначении лекарств врачи тщательно учитывают и рассчитывают индивидуальные дозировки, соответствующие состоянию здоровья каждого пациента. Пациенты, принимающие лекарство в правильной дозировке под строгим медицинским наблюдением, гарантируют безопасность и эффективность. Однако вместо консультации со специалистом этот человек самостоятельно прекратил прием лекарства, что ухудшило его состояние.
«Благодаря своему огромному массиву данных ChatGPT может предоставлять практически мгновенные ответы в любой области. Однако многие путают функцию этого инструмента с ролью врача. ChatGPT следует рассматривать только как первоначальный источник информации, и он не может заменить медицинское обследование, диагностику и лечение», — сказал доктор Манх.
Этот эксперт также заявил, что, если у пациентов есть опасения по поводу побочных эффектов лекарств, им следует напрямую обратиться к своему врачу или фармацевту за подробной консультацией. Они также должны предоставлять информацию о признаках и симптомах побочных эффектов, чтобы врачи могли внести соответствующие корректировки, вместо того чтобы полагаться на ИИ, который может ухудшить их состояние.
По словам доктора Чу Дык Тханя из отделения интенсивной терапии и токсикологии больницы 19-8, врачи сталкивались со случаями, когда вместо срочного обращения за неотложной помощью пациенты оставались дома, обращаясь за советом в интернете, слушая консультации неспециалистов или занимаясь самолечением, что приводило к неблагоприятным последствиям.
Доктор Тхань объяснил, что базовая медицинская диагностика включает два основных этапа: субъективные симптомы, которые описывает пациент (головная боль, лихорадка, кашель, одышка и т. д.). Это исходные данные, которые ИИ может собрать посредством беседы. И объективные симптомы, которые представляют собой процесс непосредственного осмотра врачом тела пациента (осмотр, осязание, постукивание, прослушивание и т. д.).
Доктор Тхань подчеркнул: «Это то, что ИИ совершенно упускает из виду. ИИ лишь слушает ваши жалобы на болезни через экран, как и по телефону, и угадывает болезнь. Не говоря уже о том, что врачам необходимо тщательно изучить вашу медицинскую историю, включая сопутствующие заболевания, генетику, аллергии, условия жизни, профессию и т. д. Только с помощью анализов, функциональных обследований или методов визуализационной диагностики можно поставить точный диагноз».
Только точная диагностика может обеспечить эффективное и тщательное лечение. При выборе лечения врачи должны также сопоставлять пользу (излечение болезни) с рисками побочных эффектов или вреда. Многие люди могут страдать от одного и того же заболевания, но врачи должны придерживаться принципа индивидуализации.
Например, лекарство от артериального давления, эффективное для одного человека, может быть совершенно непригодно для человека с астмой в анамнезе, или распространенный антибиотик может потребовать изменения дозировки или иметь противопоказания для пациентов с почечной или печеночной недостаточностью. Искусственный интеллект не может автоматически определять и учитывать ваши собственные сопутствующие заболевания, что приводит к риску отравления или ухудшения уже имеющихся заболеваний. Поэтому использование информации, полученной с помощью ИИ, для самолечения может быть вредным для здоровья.
Доктор Тхань сказал, что во многих случаях, если пациенты с респираторными симптомами, такими как лихорадка, кашель, боль в горле, охриплость и одышка, по запросу ассистент врача поставит диагноз, например, синусит, фарингит и т. д., и назначит лекарства для лечения симптомов, включая антибиотики и кортикостероиды.
Хотя большинство сезонных заболеваний имеют вирусную природу (70%), назначение антибиотиков часто бывает излишним, что приводит к развитию антибиотикорезистентности. Без тщательного медицинского обследования более серьезные заболевания, такие как бронхит и пневмония, легко могут быть упущены из виду.
Не используйте "рецепты ИИ".
Эксперты советуют: не занимайтесь самолечением, ни с помощью «рецептов ИИ», ни с помощью онлайн-руководств. Используйте лекарства только по назначению врача. В экстренных ситуациях (потеря сознания, внезапная слабость или паралич, боль в груди, одышка, длительная высокая температура, рвота с кровью… и любая беспрецедентная и сильная боль) игнорируйте ИИ и вызовите скорую помощь (115) или немедленно обратитесь в больницу.
Источник: https://tuoitre.vn/nguy-hiem-tu-don-thuoc-chatgpt-20251230080644576.htm







Комментарий (0)