قال إيلون ماسك إن هدفه هو خفض عجز الميزانية الأميركية بسرعة بما لا يقل عن تريليون دولار.

وتشير تقارير إعلامية نقلاً عن مصادر مجهولة إلى أن وزارة الطاقة والموارد الطبيعية تستخدم الذكاء الاصطناعي لتسريع قرارات خفض التكاليف.

ويقول ديفيد إيفان هاريس، خبير الذكاء الاصطناعي الذي كان يعمل في قسم الذكاء الاصطناعي المسؤول في شركة ميتا، إن هذه الفكرة "فكرة رهيبة".

ويقول الخبراء إن هذا النهج يعكس عقلية "القطع أولاً، والإصلاح لاحقاً" التي تبناها ماسك في تويتر قبل عامين، مما أدى إلى فقدان الآلاف من الوظائف، والأعطال الفنية، والدعاوى القضائية، والخلافات التي أدت إلى تآكل الشبكة الاجتماعية.

ومع ذلك، فإن عواقب تفكيك الوكالات والأنظمة والخدمات الحكومية ستكون أكثر خطورة بكثير من شركة تكنولوجيا.

استخدام الذكاء الاصطناعي لتوجيه قرارات خفض التكاليف

وبحسب صحيفة واشنطن بوست، في أوائل فبراير/شباط، قام أعضاء فريق DOGE بإدخال بيانات حساسة لوزارة التعليم في برنامج الذكاء الاصطناعي لتحليل برامج الوزارة وإنفاقها.

وذكرت مجلة Wired أن موظفي شركة DOGE قاموا بتطوير روبوت محادثة يعمل بالذكاء الاصطناعي لإدارة الخدمات العامة (GSA) يسمى GSAi، والذي يساعد في تحليل كميات كبيرة من بيانات العقود والمشتريات.

وذكر تقرير آخر من NBC News أن وزارة الدفاع تفكر في استخدام الذكاء الاصطناعي لتحليل ردود الفعل على وظائف الموظفين الفيدراليين لتحديد الوظائف التي لم تعد هناك حاجة إليها.

إيلون ماسك بلومبرج
إيلون ماسك (واقفًا) وابنه في البيت الأبيض. الصورة: بلومبرج

في فبراير/شباط، أفاد موقع Wired أن وزارة الدفاع الأمريكية قامت بتعديل برنامج AutoRIF التابع لوزارة الدفاع لتصنيف الأفراد تلقائيًا لأغراض الفصل.

في الأسبوع الماضي، استقال 21 موظفًا من وكالة الخدمات الرقمية الأمريكية (USDS) احتجاجًا. واتهموا موظفي وزارة الطاقة بسوء التعامل مع البيانات الحساسة وتعطيل الأنظمة الحيوية.

ومع ذلك، أكدت السكرتيرة الصحفية للبيت الأبيض كارولين ليفيت أن أي شخص يعتقد أن الاحتجاجات أو الدعاوى القضائية أو الإجراءات القانونية يمكن أن توقف الرئيس ترامب "لا بد أنه كان جاهلاً خلال السنوات القليلة الماضية"، وفقًا لوكالة أسوشيتد برس.

وفي برنامج X، وصف ماسك هؤلاء الأشخاص أيضًا بـ "المحافظين" الذين يرفضون العودة إلى المكتب.

وبحسب أماندا رينتيريا، الرئيسة التنفيذية لشركة Code for America، وهي منظمة غير ربحية تعمل على تطوير الأدوات الرقمية وبناء القدرات التقنية للحكومات، فإن جزءاً من المشكلة هو أن بناء أدوات الذكاء الاصطناعي الفعالة يتطلب فهماً عميقاً للبيانات المستخدمة في التدريب، وهو شيء لا يمتلكه فريق DOGE.

قد تكون النتائج التي تنتجها أدوات الذكاء الاصطناعي عديمة الفائدة، أو قد تفتقر التكنولوجيا إلى المعلومات والسياق اللازمين لاتخاذ القرار الصحيح. قد يكون لديه مشكلة "الهلوسة".

وبحسب العديد من وكالات الأنباء، فإن طاقم DOGE هو عبارة عن مجموعة من الشباب في العشرينيات من العمر، قادمين من شركات أخرى تابعة لشركة Musk.

مخاوف بشأن استخدام DOGE للذكاء الاصطناعي

ويخشى الخبراء من أن تتمكن الذكاء الاصطناعي من تكرار التحيزات التي تحدث عادة لدى البشر. على سبيل المثال، تفضل بعض أدوات التوظيف التي تعتمد على الذكاء الاصطناعي المرشحين البيض الذكور على المرشحين الآخرين.

إذا تم استخدام الذكاء الاصطناعي لتحديد المناصب أو المشاريع التي سيتم إلغاؤها، فهذا يعني أنه سيتم الاستغناء عن بعض الأشخاص أو الوظائف المهمة لمجرد مظهرهم أو من يخدمونهم.

قام هاريس بتحليل مثال استخدام الذكاء الاصطناعي لتقييم ردود الفعل من الموظفين الفيدراليين: قد يحكم الذكاء الاصطناعي على الموظفين الموهوبين الذين لغتهم الأم ليست الإنجليزية بأنهم أدنى من المتحدثين باللغة الإنجليزية.

ورغم أن هذه المخاوف ليست جديدة، فإنها قد تكون لها عواقب أكثر خطورة إذا سارت الأمور على نحو خاطئ في الحكومة. يعترف ماسك نفسه بأن شركة DOGE يمكن أن ترتكب أخطاء وانسحبت من بعض الجهود المهمة مثل الوقاية من الإيبولا.

ومن غير الواضح ما إذا كانت الذكاء الاصطناعي قد شاركت في اتخاذ هذا القرار.

لا يمكن إنكار أن الذكاء الاصطناعي يساعد على زيادة كفاءة العمل، وتلخيص وتحليل كميات كبيرة من المعلومات. ولكن إذا لم يتم استخدامها بحذر، فقد تعرض بيانات حكومية حساسة أو معلومات شخصية للأشخاص للخطر.

بدون الحماية المناسبة والقيود على من يمكنه الوصول إلى النظام، قد تظهر البيانات التي يتم إدخالها في برنامج الذكاء الاصطناعي بشكل غير متوقع في الاستجابات لطلبات أخرى وتقع في أيدي أشخاص لا ينبغي لهم أن يعرفوا.

كان هاريس قلقًا بشكل خاص بشأن تعامل وزارة الدفاع مع سجلات الموظفين، والتي وصفها بأنها من بين "أكثر الوثائق حساسية في أي منظمة".

ومع ذلك، ربما يكون القلق الأكثر إلحاحًا، وفقًا للخبراء، هو الافتقار إلى الشفافية المحيطة باستخدام DOGE للذكاء الاصطناعي. ما هي الأدوات التي تستخدمها الوزارة، وكيف تتم مراقبتها، وهل هناك بشر يقومون بفحص وتقييم النتائج... كلها أسئلة لا تزال مفتوحة.

وتقول جوليا ستويانوفيتش، الأستاذة المساعدة في علوم الكمبيوتر ومديرة مركز الذكاء الاصطناعي المسؤول في جامعة نيويورك، إنه لكي يكون الذكاء الاصطناعي فعالاً، يجب أن يكون المستخدمون واضحين بشأن أهدافهم من التكنولوجيا واختبار ما إذا كان نظام الذكاء الاصطناعي يلبي تلك الاحتياجات بشكل كامل.

"أنا حقًا أشعر بالفضول لسماع فريق DOGE وهو يشرح بالتفصيل كيفية قياس الأداء وصحة النتائج"، شاركت.

(وفقا لشبكة CNN)