อีลอน มัสก์ กล่าวว่าเป้าหมายของเขาคือการลดการขาดดุลงบประมาณของสหรัฐฯ ลงอย่างรวดเร็วอย่างน้อย 1 ล้านล้านดอลลาร์

รายงานสื่อที่อ้างอิงแหล่งข่าวที่ไม่เปิดเผยชื่อชี้ให้เห็นว่ากระทรวง DOGE กำลังใช้ AI เพื่อเร่งการตัดสินใจลดต้นทุน

David Evan Harris ผู้เชี่ยวชาญด้าน AI ที่เคยทำงานในแผนก AI ที่รับผิดชอบของบริษัท Meta เรียกสิ่งนี้ว่า “แนวคิดที่แย่มาก”

ผู้เชี่ยวชาญกล่าวว่าแนวทางดังกล่าวสะท้อนถึงวิธีคิดแบบ “ตัดสินใจก่อน แก้ไขทีหลัง” ที่มัสก์นำมาใช้กับ Twitter เมื่อ 2 ปีก่อน ซึ่งส่งผลให้เกิดการเลิกจ้างคนงานนับพันคน เกิดข้อผิดพลาดทางเทคนิค คดีความ และข้อโต้แย้งที่กัดกร่อนเครือข่ายโซเชียลไป

อย่างไรก็ตาม ผลที่ตามมาจากการรื้อถอนหน่วยงาน รัฐบาล ระบบ และบริการต่างๆ จะร้ายแรงกว่าบริษัทเทคโนโลยีมาก

การใช้ AI เพื่อแนะนำการตัดสินใจลดต้นทุน

ตามรายงานของ วอชิงตันโพสต์ ในช่วงต้นเดือนกุมภาพันธ์ สมาชิก DOGE ได้ป้อนข้อมูลที่ละเอียดอ่อนของกระทรวง ศึกษาธิการ ลงในซอฟต์แวร์ AI เพื่อวิเคราะห์โปรแกรมและการใช้จ่ายของกระทรวง

Wired รายงานว่าพนักงาน DOGE ได้พัฒนาแชทบอท AI สำหรับสำนักงานบริหารบริการทั่วไป (GSA) ที่เรียกว่า GSAi ซึ่งช่วยวิเคราะห์ข้อมูลสัญญาและการจัดซื้อจัดจ้างปริมาณมาก

รายงานอีกฉบับจาก NBC News ระบุว่า DOGE กำลังพิจารณาใช้ AI ในการวิเคราะห์ความคิดเห็นเกี่ยวกับงานของพนักงานรัฐบาลกลางเพื่อพิจารณาว่าตำแหน่งใดที่ไม่จำเป็นอีกต่อไป

อีลอน มัสก์ บลูมเบิร์ก
อีลอน มัสก์ (ยืน) และลูกชายของเขาที่ทำเนียบขาว ภาพ : บลูมเบิร์ก

ในเดือนกุมภาพันธ์ Wired รายงานว่า DOGE ได้ปรับเปลี่ยนซอฟต์แวร์ AutoRIF ของ กระทรวงกลาโหม เพื่อจัดระดับบุคลากรโดยอัตโนมัติเพื่อจุดประสงค์ในการยิง

เมื่อสัปดาห์ที่แล้ว พนักงานของหน่วยงานบริการดิจิทัลของสหรัฐอเมริกา (USDS) จำนวน 21 คนลาออกเพื่อประท้วง พวกเขาได้กล่าวหาว่าเจ้าหน้าที่ DOGE จัดการข้อมูลที่ละเอียดอ่อนไม่ถูกต้องและรบกวนระบบที่สำคัญ

อย่างไรก็ตาม โฆษกทำเนียบขาว แคโรไลน์ ลีวิตต์ ยืนยันว่า ใครก็ตามที่คิดว่าการประท้วง คดีความ หรือการดำเนินคดีทางกฎหมายสามารถหยุดยั้งประธานาธิบดีทรัมป์ได้ “ต้องไม่มีความรู้ความเข้าใจใดๆ เลยในช่วงไม่กี่ปีที่ผ่านมา” ตามรายงานของ AP

ใน X มัสก์ยังเรียกคนเหล่านี้ว่า “พวกอนุรักษ์นิยม” ที่ปฏิเสธที่จะกลับเข้าสำนักงานอีกด้วย

Amanda Renteria ซึ่งเป็นซีอีโอของ Code for America ซึ่งเป็นองค์กรไม่แสวงหากำไรที่พัฒนาเครื่องมือดิจิทัลและสร้างศักยภาพทางเทคนิคให้กับรัฐบาล กล่าวว่าส่วนหนึ่งของปัญหาก็คือ การสร้างเครื่องมือ AI ที่มีประสิทธิภาพนั้นต้องมีความเข้าใจอย่างลึกซึ้งเกี่ยวกับข้อมูลที่ใช้ในการฝึกอบรม ซึ่งเป็นสิ่งที่ทีม DOGE ไม่มี

ผลลัพธ์ที่เครื่องมือ AI ผลิตออกมาอาจจะไร้ประโยชน์หรือเทคโนโลยีขาดข้อมูลและบริบทในการตัดสินใจที่ถูกต้อง อาจจะมีปัญหาเรื่อง “ภาพหลอน”

ตามที่สำนักข่าวหลายแห่งรายงาน พนักงานของ DOGE เป็นกลุ่มชายหนุ่มวัย 20 กว่าปีที่มาจากบริษัทอื่นของมัสก์

ความกังวลเกี่ยวกับการใช้ AI ของ DOGE

ผู้เชี่ยวชาญหวั่นว่า AI อาจจำลองอคติที่มักเกิดขึ้นในมนุษย์ได้ ตัวอย่างเช่น เครื่องมือสรรหาบุคลากรด้วย AI บางตัวให้ความสำคัญกับผู้สมัครที่เป็นชายผิวขาวมากกว่าผู้สมัครประเภทอื่น

หากใช้ AI ในการกำหนดว่าจะต้องเลิกจ้างตำแหน่งหรือโครงการใด นั่นหมายความว่าบุคคลสำคัญบางคนหรือบางงานอาจถูกตัดออกเพียงเพราะรูปลักษณ์หรือผู้ให้บริการ

แฮร์ริสวิเคราะห์ตัวอย่างการใช้ AI ในการประเมินผลตอบรับจากพนักงานรัฐบาล: พนักงานที่มีความสามารถแต่ภาษาแม่ไม่ใช่ภาษาอังกฤษอาจถูก AI ตัดสินว่าด้อยกว่าผู้พูดภาษาอังกฤษ

แม้ว่าความกังวลเหล่านี้จะไม่ใช่เรื่องใหม่ แต่ก็สามารถส่งผลร้ายแรงกว่าได้หากเกิดความผิดพลาดในรัฐบาล มัสก์เองก็ยอมรับว่า DOGE สามารถทำผิดพลาดได้และได้ถอนตัวออกจากความพยายามที่สำคัญบางอย่าง เช่น การป้องกันโรคอีโบลา

ยังไม่ชัดเจนว่า AI มีส่วนเกี่ยวข้องในการตัดสินใจครั้งนี้หรือไม่

ไม่อาจปฏิเสธได้ว่า AI ช่วยเพิ่มประสิทธิภาพการทำงาน สังเคราะห์และวิเคราะห์ข้อมูลจำนวนมาก แต่หากไม่ได้ใช้ด้วยความระมัดระวัง อาจทำให้ข้อมูลที่ละเอียดอ่อนของรัฐบาลหรือข้อมูลส่วนบุคคลของประชาชนตกอยู่ในความเสี่ยงได้

หากไม่มีการป้องกันและการจำกัดที่เหมาะสมเกี่ยวกับบุคคลสามารถเข้าถึงระบบ ข้อมูลที่ป้อนเข้าไปในโปรแกรม AI อาจปรากฏขึ้นโดยไม่คาดคิดในการตอบสนองต่อคำขออื่นๆ และตกไปอยู่ในมือของบุคคลที่ไม่ควรจะรู้

แฮร์ริสมีความกังวลเป็นพิเศษเกี่ยวกับการจัดการบันทึกบุคลากรของ DOGE ซึ่งเขาอธิบายว่าเป็น "เอกสารที่ละเอียดอ่อนที่สุดในองค์กรใดๆ"

อย่างไรก็ตาม ข้อกังวลที่เร่งด่วนที่สุดอย่างหนึ่งตามที่ผู้เชี่ยวชาญกล่าวไว้ คือ การขาดความโปร่งใสเกี่ยวกับการใช้ AI ของ DOGE กระทรวงใช้เครื่องมืออะไร มีการตรวจสอบอย่างไร มีเจ้าหน้าที่คอยตรวจสอบและประเมินผลหรือไม่... ยังคงเป็นคำถามที่ยังไม่มีคำตอบ

Julia Stoyanovich ผู้ช่วยศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์และผู้อำนวยการศูนย์ AI ที่มีความรับผิดชอบแห่งมหาวิทยาลัยนิวยอร์ก โต้แย้งว่าเพื่อให้ AI มีประสิทธิผล ผู้ใช้จะต้องชัดเจนเกี่ยวกับเป้าหมายของตนสำหรับเทคโนโลยี และทดสอบอย่างเต็มที่ว่าระบบ AI ตอบสนองความต้องการเหล่านั้นหรือไม่

“ฉันอยากรู้จริงๆ ว่าทีม DOGE อธิบายอย่างละเอียดว่าพวกเขาวัดประสิทธิภาพและความถูกต้องของผลลัพธ์อย่างไร” เธอกล่าว

(ตามรายงานของซีเอ็นเอ็น)