กองกำลังป้องกันประเทศอิสราเอล (IDF) ระบุว่ากองทัพกำลังพึ่งพาระบบปัญญาประดิษฐ์ (AI) เพื่อช่วยกำหนดตำแหน่งที่จะทิ้งระเบิดในฉนวนกาซา เทคโนโลยีนี้เคยถูกนำมาใช้โดยอิสราเอลมาก่อน แต่นับตั้งแต่ความขัดแย้งกับกลุ่มฮามาสเริ่มต้นขึ้น ระบบนี้ได้ช่วยให้กองทัพอิสราเอลเพิ่มจำนวนเป้าหมายได้ถึง 70 เปอร์เซ็นต์
อิสราเอลสกัดกั้นจรวดที่ถูกยิงจากฉนวนกาซาเมื่อวันที่ 1 ธันวาคม
ระบบนี้เป็นส่วนหนึ่งของ "สำนักงานกำกับการกำหนดเป้าหมาย" ของอิสราเอล ซึ่งก่อตั้งขึ้นในปี 2019 สำนักงานกำกับการกำหนดเป้าหมายเป็นหน่วยงานที่ประกอบด้วยเจ้าหน้าที่และทหาร มีหน้าที่รักษาความปลอดภัยทางไซเบอร์ ถอดรหัส และวิจัยเพื่อค้นหาและระบุจุดปฏิบัติการเพิ่มเติมของกลุ่มฮามาสในฉนวนกาซา
ระหว่างความขัดแย้งที่ยังคงดำเนินอยู่ กองกำลังยังคงทำงานร่วมกับหน่วยข่าวกรองอื่นๆ ในกองทัพอิสราเอลเพื่อค้นหาตำแหน่งของฮามาสโดยเร็วที่สุด
สิ้นสุดการหยุดยิง การต่อสู้ปะทุขึ้นอีกครั้งในฉนวนกาซา
“นี่เป็นแผนเพื่อให้กองพลและกองพลสามารถเข้าถึงข่าวกรองได้อย่างเต็มที่ และสามารถระบุตำแหน่งได้ทันทีด้วยความช่วยเหลือของระบบ AI” เจ้าหน้าที่ระดับสูงของ IDF กล่าวในแถลงการณ์เมื่อวันที่ 2 พฤศจิกายน
เจ้าหน้าที่อาวุโสของ IDF ยังกล่าวอีกว่าเทคโนโลยี AI ถูกนำมาใช้เพื่อสร้างความเสียหายสูงสุดให้กับฝ่ายตรงข้าม ขณะเดียวกันก็ให้แน่ใจว่าจะลดอันตรายต่อผู้ที่ไม่เกี่ยวข้องให้น้อยที่สุด
ในรายงานที่เผยแพร่เมื่อเดือนพฤศจิกายน กองกำลังป้องกันอิสราเอล (IDF) ระบุว่าระบบ AI ทำงาน "ตลอดเวลา" และโจมตีเป้าหมายได้มากกว่า 12,000 เป้าหมาย เกือบหนึ่งเดือนต่อมา ยังไม่ชัดเจนว่าตัวเลขดังกล่าวเพิ่มขึ้นเท่าใด แม้ว่าจะมีแนวโน้มว่าสูงกว่านี้มากก็ตาม
ทหารอิสราเอลปฏิบัติการในฉนวนกาซา
แหล่งข่าวยังบอกอีกว่ากองทัพอิสราเอลรู้ล่วงหน้าว่าจะมีพลเรือนเสียชีวิตกี่คนจากการโจมตีในเขตที่อยู่อาศัย และการโจมตีนั้นจะพิจารณาจากการประเมินความเสียหายที่อาจเกิดขึ้น
ยังไม่ชัดเจนว่าข้อมูลใดถูกป้อนเข้าสู่ระบบ AI IDF ไม่ได้ตอบคำถามของ Business Insider เกี่ยวกับเรื่องนี้
‘ความสัมพันธ์แปลกๆ’ ระหว่าง นายกฯ อิสราเอลกับฮามาส?
การใช้ AI ของอิสราเอลไม่ใช่แนวคิดใหม่ในสงคราม เกือบ 50 ประเทศได้นำปฏิญญาที่ออกเมื่อต้นปีนี้ว่าด้วยการใช้ AI อย่างมีความรับผิดชอบเพื่อวัตถุประสงค์ ทางทหาร มาใช้
ผู้เชี่ยวชาญด้าน AI และกฎหมายมนุษยธรรมระหว่างประเทศกล่าวกับ The Guardian ว่า แม้ว่ามนุษย์จะมีส่วนร่วมในการตัดสินใจเกี่ยวกับ AI พวกเขาก็ยังสามารถพึ่งพาระบบได้อย่างมาก และสิ่งนี้อาจทำให้เป้าหมายพลเรือนตกอยู่ในความเสี่ยง
ลิงค์ที่มา
การแสดงความคิดเห็น (0)