في أواخر القرن العشرين، ظهر الذكاء الاصطناعي، الذي تمت برمجته بواسطة مهندسي الكمبيوتر بناءً على سلسلة من التعليمات (القواعد) التي وضعها الإنسان، مما سمح للتكنولوجيا بحل المشكلات الأساسية.
ملاحظة المحرر: تتأثر العديد من القطاعات بالتقنيات الحديثة في عصر المعلومات. ومع تأثير الأتمتة وعلوم الحاسوب والذكاء الاصطناعي، فإنّ مؤسسات مثل الأطباء والمستشفيات وشركات التأمين والقطاعات ذات الصلة بالرعاية الصحية ليست استثناءً. ومع ذلك، فقد كان تأثير الذكاء الاصطناعي في قطاع الرعاية الصحية تحديدًا أكثر إيجابية منه في القطاعات الأخرى.
الجيل الأول
يمكن تصور أن تدريب الذكاء الاصطناعي في هذه المرحلة مشابه للنهج الذي يتبعه طلاب الطب؛ حيث تُدرَّب أنظمة الذكاء الاصطناعي على مئات الخوارزميات لترجمة أعراض المرضى إلى تشخيصات. ويُعتبر هذا الجيل الأول الذي يدمج مبادئ الرعاية الصحية في أنظمة الذكاء الاصطناعي.
تُشبه خوارزميات اتخاذ القرار شجرةً تنمو، تبدأ من جذعها (مشكلة المريض) وتتفرع منه. على سبيل المثال، إذا اشتكى مريض من سعال حاد، سيتحقق الطبيب أولاً من وجود الحمى. وسيكون هناك مجموعتان من الأسئلة بناءً على وجود الحمى من عدمه. ومن الإجابة الأولية، ستُطرح أسئلة أخرى حول حالة المريض. وهذا بدوره يؤدي إلى مزيد من التفرعات. وفي النهاية، يُصبح كل فرع تشخيصًا، والذي قد يتراوح بين الالتهاب الرئوي البكتيري أو الفطري أو الفيروسي، وصولًا إلى السرطان أو قصور القلب أو مجموعة واسعة من أمراض الرئة الأخرى.
بشكل عام، كان الجيل الأول من الذكاء الاصطناعي قادراً على تحديد المشكلات، لكنه لم يكن قادراً بعد على تحليل وتصنيف السجلات الطبية. ونتيجة لذلك، لم يكن هذا الشكل المبكر من الذكاء الاصطناعي دقيقاً كدقة الأطباء الذين يجمعون بين العلوم الطبية وحدسهم وخبرتهم. وبسبب هذه القيود، نادراً ما استُخدم الذكاء الاصطناعي القائم على القواعد في الممارسة السريرية في أوقات أخرى.
أتمتة كاملة
مع بداية القرن الحادي والعشرين، انطلقت الحقبة الثانية للذكاء الاصطناعي مع ظهور الذكاء الاصطناعي المحدود (ANI)، وهو الذكاء الاصطناعي الذي يحل مجموعات مهام محددة. وقد مهد ظهور الشبكات العصبية التي تحاكي بنية الدماغ البشري الطريق لتقنية التعلم العميق. يعمل الذكاء الاصطناعي المحدود بطريقة مختلفة تمامًا عن سابقيه؛ فبدلاً من توفير قواعد محددة مسبقًا من قبل الباحثين، تستخدم أنظمة الجيل الثاني مجموعات بيانات ضخمة لتمييز الأنماط التي قد تستغرق وقتًا طويلاً جدًا من البشر لتحديدها.
في أحد الأمثلة، أدخل الباحثون آلاف صور الماموجرام إلى نظام الذكاء الاصطناعي، حيث أظهر نصفها سرطانًا خبيثًا والنصف الآخر سرطانًا حميدًا. استطاع النموذج تحديد عشرات الاختلافات في الحجم والكثافة واللون داخل صور الأشعة السينية على الفور، مع إسناد عامل تأثير لكل اختلاف يعكس احتمالية الإصابة بالسرطان. والأهم من ذلك، أن هذا النوع من الذكاء الاصطناعي لا يعتمد على التخمين (بعض القواعد العامة) كما يفعل البشر، بل على اختلافات دقيقة بين النتائج الخبيثة والطبيعية لا يدركها لا أخصائي الأشعة ولا مصمم البرنامج.
على عكس الذكاء الاصطناعي القائم على القواعد، تتفوق أدوات الجيل الثاني من الذكاء الاصطناعي أحيانًا على حدس الطبيب في دقة التشخيص. مع ذلك، يُظهر هذا النوع من الذكاء الاصطناعي قيودًا خطيرة. أولًا، لكل تطبيق مهمة محددة. هذا يعني أن النظام المُدرَّب على قراءة صور الثدي الشعاعية لا يستطيع تفسير صور الدماغ أو صور الأشعة السينية للصدر. أما أكبر قيود الذكاء الاصطناعي فهو أن النظام لا يعمل بكفاءة إلا عند توفر البيانات التي دُرِّب عليها. ومن الأمثلة الواضحة على هذا الضعف اعتماد شركة يونايتد هيلث كير على الذكاء الاصطناعي المحدود لتحديد المرضى الأضعف وتزويدهم بخدمات طبية إضافية. عند تصفية البيانات، اكتشف الباحثون لاحقًا أن الذكاء الاصطناعي قد بنى افتراضًا خاطئًا. فقد شُخِّص المرضى على أنهم أصحاء لمجرد أن سجلاتهم الطبية أشارت إلى تلقيهم رعاية طبية قليلة، بينما تم التقليل من شأن المرضى الذين تلقوا رعاية طبية أكبر من حيث صحتهم.
سيُمكّن الجيل القادم من الذكاء الاصطناعي الناس من تشخيص الأمراض ووضع خطط العلاج تمامًا كالأطباء. وقد اجتازت أداة جوجل المُولّدة بالذكاء الاصطناعي (MED-PALM2) حاليًا اختبار ترخيص الأطباء بمستوى خبير. كما تستطيع العديد من أدوات الذكاء الاصطناعي الطبية الأخرى كتابة تشخيصات مشابهة لتشخيصات الأطباء. مع ذلك، لا تزال هذه النماذج تتطلب إشرافًا طبيًا، ولا يُمكنها حتى الآن أن تحل محل الأطباء. ولكن مع معدل النمو المتسارع الحالي، يُتوقع أن تُصبح هذه التطبيقات أقوى بثلاثين ضعفًا على الأقل خلال السنوات الخمس القادمة. ويُتوقع أن تُتيح الأجيال القادمة من أدوات مثل ChatGPT الخبرة الطبية للجميع، مما يُغير جذريًا العلاقة بين الأطباء والمرضى.
إعداد فييت لي
مصدر






تعليق (0)