อันที่จริง นี่ไม่ใช่ครั้งแรกที่นักวิทยาศาสตร์เตือนถึงแนวโน้มที่ปัญญาประดิษฐ์จะกลายเป็นอันตรายต่อมนุษย์ ในปี 2014 สตีเฟน ฮอว์คิง นักฟิสิกส์ทฤษฎีชื่อดังชาวอังกฤษ กล่าวว่า "การพัฒนาปัญญาประดิษฐ์อย่างครอบคลุมอาจทำลายมนุษยชาติ" เขายังกล่าวอีกว่ามนุษย์จะถูกปัญญาประดิษฐ์เข้ามาแทนที่อย่างสมบูรณ์ในอีก 500 ปีข้างหน้า หากพวกเขาไม่ระมัดระวังในกระบวนการวิจัยและพัฒนาเทคโนโลยีอันตรายนี้ แปดปีที่แล้ว ในเดือนกรกฎาคม 2015 ผู้เชี่ยวชาญด้านเทคโนโลยีปัญญาประดิษฐ์มากกว่า 1,000 คน รวมถึงสตีเฟน ฮอว์คิง, อีลอน มัสก์, โนม ชอมสกี... ได้ลงนามในคำร้องเตือนเกี่ยวกับความเสี่ยงของการแข่งขันด้านอาวุธในสาขา AI ทางทหาร และเรียกร้องให้มีการห้ามอาวุธอัตโนมัติอย่างครอบคลุม การเปิดตัว Chat GPT ของ OpenAI ในเดือนพฤศจิกายน 2022 ได้เพิ่มสัญญาณเตือนถึงอันตรายของการดำรงอยู่ของปัญญาประดิษฐ์อีกประการหนึ่ง อันที่จริง สิ่งที่ Chat GPT กำลังทำอยู่แสดงให้เห็นว่า AI ในระดับหนึ่งนั้นอันตรายกว่าที่ผู้คนเคยคิดไว้มาก
ความเสี่ยงที่อาจเกิดขึ้นจากปัญญาประดิษฐ์ขึ้นอยู่กับวิธีการใช้งาน เดิมทีปัญญาประดิษฐ์ถูกพัฒนาขึ้นเพื่อช่วยเหลือมนุษย์ในการทำงาน โดยเฉพาะอย่างยิ่งกับงานที่น่าเบื่อและซ้ำซาก เช่น การจำแนกภาพ การตรวจสอบข้อมูล เป็นต้น อย่างไรก็ตาม ด้วยการพัฒนาอย่างรวดเร็วของปัญญาประดิษฐ์ในช่วงไม่กี่ปีที่ผ่านมา นักวิทยาศาสตร์ และผู้เชี่ยวชาญด้านเทคโนโลยีมีความกังวลว่าหากพัฒนาโดยขาดการควบคุม หรือถูกตั้งโปรแกรมมาเพื่อจุดประสงค์ที่ผิด ปัญญาประดิษฐ์อาจก่อให้เกิดผลกระทบร้ายแรงต่อมนุษย์และสังคมได้
ความเสี่ยงจากความไม่ปลอดภัย
ปัญญาประดิษฐ์อาจเป็นภัยคุกคามต่อความมั่นคงของชาติและความปลอดภัยส่วนบุคคล อีลอน มัสก์ เตือนว่าปัญญาประดิษฐ์อาจกลายเป็นเครื่องมือที่น่าสะพรึงกลัวในสงคราม หากประเทศใดสามารถพัฒนาระบบปัญญาประดิษฐ์ที่เหนือกว่าได้ ก็อาจใช้ปัญญาประดิษฐ์นั้นโจมตีประเทศอื่นๆ ได้ สจ๊วต รัสเซลล์ ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์ มหาวิทยาลัยแคลิฟอร์เนีย ใช้เวลาหลายทศวรรษในการวิจัยปัญญาประดิษฐ์ เขาเตือนถึงภัยคุกคามด้านความมั่นคงจากปัญญาประดิษฐ์ว่าขณะนี้เราสามารถผลิตอาวุธโจมตีอัตโนมัติได้โดยการผสานรวมและย่อขนาดเทคโนโลยีที่มีอยู่
การทดลองนี้ดำเนินการโดยศาสตราจารย์สจ๊วต รัสเซลล์ และสถาบันฟิวเจอร์ ออฟ ไลฟ์ (FLI) โดยใช้หุ่นยนต์สังหาร (slaughterbot) ซึ่งเป็นอุปกรณ์บินขนาดเล็กที่ติดตั้งกล้อง เซ็นเซอร์ ซอฟต์แวร์ประมวลผลภาพ ระบบจดจำใบหน้า วัตถุระเบิด 3 กรัม และไมโครโปรเซสเซอร์ความเร็วสูง ช่วยให้วิเคราะห์ข้อมูลและตอบสนองได้เร็วกว่าสมองมนุษย์ถึง 100 เท่า หุ่นยนต์สังหารจะเข้าถึงข้อมูลบนคลาวด์อย่างต่อเนื่องตามพารามิเตอร์การเขียนโปรแกรม เพื่อค้นหาข้อมูลเกี่ยวกับเป้าหมายและหาวิธีเข้าใกล้ เมื่อพบเป้าหมายแล้ว มันจะพุ่งตรงไปยังเป้าหมายด้วยความเร็วสูง จุดระเบิดวัตถุระเบิด 3 กรัม เจาะลึกเข้าไปในกะโหลกศีรษะ สังหารเหยื่อในพริบตา
นี่เป็นเพียงการทดลองกับ AI ในระดับพื้นฐานที่สุด หากนำ AI มาใช้เพื่อพัฒนาวิธีการโจมตีแบบใหม่ที่ซับซ้อนยิ่งขึ้น ก็อาจเพิ่มขีดความสามารถในการโจมตีของผู้โจมตี และนำไปสู่ผลลัพธ์ที่ร้ายแรงกว่าการโจมตีแบบเดิม เมื่อ AI ได้รับการพัฒนาจนถึงจุดที่มันสามารถตัดสินใจได้เองเพื่อรับมือกับการเปลี่ยนแปลงของสภาพแวดล้อมโดยรอบ หรือค้นหาเป้าหมายอื่น หรือขยายขอบเขตของเป้าหมาย มนุษยชาติอาจไม่ปลอดภัยอีกต่อไป เพื่อนร่วมงานหลายคนในสาขานี้เห็นด้วยกับศาสตราจารย์สจ๊วต รัสเซลล์ และเชื่อว่ายังคงมีโอกาสที่จะป้องกันอนาคตที่มืดมนเช่นนี้ได้ แต่เราก็เหลือเวลาไม่มากนัก
ความเสี่ยงที่ AI จะกลายเป็นระบบที่มีการจัดระเบียบ อิสระ และควบคุมระบบ
AI อาจได้รับการออกแบบมาอย่างไม่ถูกต้องหรือ "ฝึกฝน" ไม่ถูกต้องผ่านการเรียนรู้ของเครื่อง และสามารถดำเนินการที่ไม่พึงประสงค์ ก่อให้เกิดความเสียหายต่อผู้คนและสิ่งแวดล้อม ตัวอย่างเฉพาะเจาะจงมีดังนี้: การเรียนรู้ของเครื่องทำให้ AI มีความฉลาดมากขึ้นเรื่อยๆ เมื่อปัญญาประดิษฐ์พัฒนาไปถึงระดับสติปัญญาที่พัฒนาจากการสนับสนุนระบบสำคัญๆ เช่น ไฟฟ้า การขนส่ง การดูแลสุขภาพ การเงิน ฯลฯ ปัญญาประดิษฐ์สามารถควบคุมและตัดสินใจในสถานการณ์ฉุกเฉินได้ทั้งหมด เมื่อ AI ถูก "ติดตั้ง" ด้วยวัตถุประสงค์ "ที่ท้าทาย" เพิ่มเติม (ออกแบบผิดพลาด) อาจก่อให้เกิดผลกระทบร้ายแรงมากมาย เช่น การรบกวนระบบจราจรโดยการปิดระบบสัญญาณไฟจราจร หรือการตัดกระแสไฟฟ้าไปยังระบบปฏิบัติการรถไฟในเมือง ก่อให้เกิดอุบัติเหตุหลายครั้ง หรือไฟฟ้าดับเป็นวงกว้าง เป็นต้น
มีภาพยนตร์ฮอลลีวูดและภาพยนตร์จากหลายประเทศที่อิงจากสถานการณ์นี้มากมาย อย่างไรก็ตาม ด้วยเทคโนโลยี AI ในปัจจุบัน สถานการณ์นี้ไม่ได้อยู่ไกลเกินเอื้อมอีกต่อไป แต่สามารถกลายเป็นความจริงได้อย่างสมบูรณ์ อีลอน มัสก์ เชื่อว่าหากปล่อยให้ AI พัฒนาอย่างควบคุมไม่ได้ จนถึงจุดที่มันสามารถตัดสินใจโดยอัตโนมัติโดยไม่ต้องอาศัยการแทรกแซงจากมนุษย์ สิ่งนี้อาจเป็นภัยคุกคามต่อการอยู่รอดของมนุษย์ ด้วยเหตุนี้ เขาและผู้เชี่ยวชาญด้านเทคโนโลยีหลายพันคนจึงได้ลงนามในจดหมายขอให้ระงับและควบคุมกระบวนการพัฒนา AI อย่างเข้มงวดอย่างโปร่งใสและโปร่งใส อีลอน มัสก์ กล่าวว่าระบบปัญญาประดิษฐ์มีความซับซ้อน เข้าใจยาก และการควบคุมก็เป็นเรื่องยาก หากปราศจากความโปร่งใส การใช้ปัญญาประดิษฐ์เพื่อวัตถุประสงค์ที่ผิดจริยธรรมและก่อให้เกิดความเสียหายต่อมนุษย์ก็จะเกิดขึ้นอย่างแน่นอน
ความเสี่ยงต่อการสูญเสียงาน การละเมิดความเป็นส่วนตัว
เมื่อนำมาใช้เพื่อรวบรวมข้อมูลส่วนบุคคล เทคโนโลยีปัญญาประดิษฐ์สามารถนำไปใช้ละเมิดความเป็นส่วนตัว ดำเนินกิจกรรมบิดเบือนข้อมูล และเผยแพร่ข้อมูลเท็จที่ส่งผลกระทบต่อเสถียรภาพทางสังคมและการเมือง เหตุการณ์ที่ระบบเครือข่ายสำนักงานบริหารงานบุคคล (OPM) ของรัฐบาลสหรัฐฯ ถูกแฮกเกอร์โจมตี ถือเป็นเหตุการณ์ที่น่าจับตามองสำหรับประเทศหรือองค์กรใดๆ เมื่อข้อมูลส่วนบุคคลที่ละเอียดอ่อนและมีรายละเอียดสูงของเจ้าหน้าที่สหรัฐฯ ทั้งในปัจจุบันและอดีตกว่า 21.5 ล้านคน ข้อมูลเกี่ยวกับคู่สมรส ข้อมูลเกี่ยวกับผู้ที่สมัครงานราชการ เช่น สถานะสุขภาพ ที่อยู่ ที่ทำงาน ลายนิ้วมือ และข้อมูลทางการเงิน ตกไปอยู่ในมือของแฮกเกอร์ อย่างไรก็ตาม ความจริงที่น่าตกใจยิ่งกว่านั้นคือ CIA ค้นพบว่าหัวขโมยข้อมูลของ OPM ใช้เทคโนโลยีปัญญาประดิษฐ์ในการสแกน ปลอมแปลงข้อมูลส่วนบุคคล และสร้างสายลับเสมือนเพื่อขโมยข้อมูล ข้อมูลที่ถูกขโมยจะถูกวิเคราะห์ จัดประเภท และนำไปใช้ประโยชน์โดยเทคโนโลยีบิ๊กดาต้าเพื่อวัตถุประสงค์เฉพาะ เทคโนโลยีปัญญาประดิษฐ์ช่วยให้หัวขโมยข้อมูลสามารถย่นระยะเวลาในการใช้ประโยชน์จากข้อมูลได้ เนื่องจากมนุษย์ไม่สามารถประมวลผลข้อมูลจำนวนมหาศาลได้ภายในระยะเวลาอันสั้นเช่นนี้
นอกจากอันตรายที่กล่าวมาข้างต้นแล้ว เทคโนโลยี AI ยังก่อให้เกิดความเสี่ยงอื่นๆ เช่น การพึ่งพาเทคโนโลยี AI มากเกินไป ซึ่งนำไปสู่การสูญเสียการควบคุมสถานการณ์และลดความสามารถในการตัดสินใจ ปัญญาประดิษฐ์จะทำให้ผู้คนหลายล้านคน หรือแม้แต่หลายร้อยล้านคนต้องตกงาน โดยเฉพาะอย่างยิ่งงานที่ใช้แรงงานล้วนๆ และมีความรู้ความเข้าใจน้อย ส่งผลให้ปัญหาสังคมที่ร้ายแรง เช่น การว่างงาน อาชญากรรม ช่องว่างระหว่างคนรวยกับคนจน... จะยิ่งทวีความรุนแรงมากขึ้น นอกจากนี้ ความน่าเชื่อถือยังเป็นประเด็นที่ต้องให้ความสำคัญ ความน่าเชื่อถือของการตัดสินใจในสาขาเฉพาะทาง เช่น การแพทย์ กฎหมายอาญา... มีความสำคัญอย่างยิ่ง การนำ AI มาช่วยในการตัดสินใจในสาขาที่เทคโนโลยีไม่น่าเชื่อถือเพียงพอ ดำเนินการโดยอิงจากข้อมูลที่มีแนวโน้มเอื้อประโยชน์ต่อคนใดคนหนึ่งหรือกลุ่มคน หรือจงใจบิดเบือนข้อมูล การตัดสินใจเหล่านั้นอาจก่อให้เกิดผลกระทบร้ายแรงตามมา
ป้องกันได้อย่างไร?
ความเสี่ยงข้างต้นเป็นสาเหตุที่อีลอน มัสก์และผู้เชี่ยวชาญด้านเทคโนโลยีกังวลเกี่ยวกับการพัฒนา AI ที่ไร้การควบคุม จึงได้เขียนจดหมายเรียกร้องให้องค์การสหประชาชาติและองค์กรระหว่างประเทศควบคุม รับรองความปลอดภัยและจริยธรรมในการพัฒนา AI อย่างเข้มงวด เสริมสร้างความร่วมมือระหว่างประเทศ เพื่อให้มั่นใจว่าเทคโนโลยี AI จะถูกนำไปใช้อย่างเป็นประโยชน์ต่อมนุษย์และสังคม มาตรการเฉพาะเจาะจงบางประการสามารถระบุได้ดังนี้
- การควบคุมความน่าเชื่อถือของระบบควบคุม: จำเป็นต้องออกแบบและพัฒนา AI เพื่อให้แน่ใจถึงความปลอดภัยและความน่าเชื่อถือ โดยผ่านการทดสอบคุณภาพ การควบคุม และวิธีการตรวจสอบที่เข้มงวด สม่ำเสมอ และต่อเนื่อง เพื่อให้แน่ใจว่าระบบ AI ทำงานตามความคาดหวังของมนุษย์ และหลีกเลี่ยงผลกระทบที่ไม่ต้องการจากการขาดความน่าเชื่อถือ
- เทคโนโลยีปัญญาประดิษฐ์จำเป็นต้องได้รับการตั้งโปรแกรมให้ทำงานตามค่านิยมทางจริยธรรมและบรรทัดฐานทางสังคม กฎเกณฑ์และมาตรฐานเหล่านี้ต้องได้รับการกำหนดไว้อย่างชัดเจนและต้องได้รับการตรวจสอบเพื่อให้แน่ใจว่าระบบจะไม่ก่อให้เกิดผลเสียหรือเป็นอันตรายต่อบุคคลหรือองค์กร กระบวนการวิเคราะห์ ประเมินผลกระทบ และติดตามการทำงานของระบบปัญญาประดิษฐ์ต้องได้รับการดำเนินการอย่างสม่ำเสมอ เพื่อให้มั่นใจว่าระบบทำงานได้อย่างถูกต้อง ไม่ละเมิดและทำลายคุณค่าร่วมของสังคมโดยรวม ไม่ก่อให้เกิดผลกระทบด้านลบ และเพื่อให้มั่นใจว่ามีการถ่ายทอดความรู้และค่านิยมที่ถูกต้อง
- การหยุด “ฝึกอบรม” ระบบ AI อย่างน้อยหกเดือนเพื่อให้มีการประเมินใหม่อย่างเต็มรูปแบบ การหยุดนี้ต้องเปิดเผยต่อสาธารณะ มีการควบคุม และทุกภาคส่วนที่เกี่ยวข้องในการฝึกอบรมต้องมีส่วนร่วม หากจำเป็น รัฐบาลควรประกาศระงับชั่วคราว นี่ไม่ได้หมายถึงการหยุดพัฒนา AI โดยสิ้นเชิง แต่เป็นเพียงการหยุดการแข่งขันที่อันตรายไปสู่รูปแบบการพัฒนาอื่นๆ ที่ทำให้ระบบ AI มีความแม่นยำ ปลอดภัย เข้าใจง่าย โปร่งใส สอดคล้อง น่าเชื่อถือ และมีความภักดีมากขึ้น นี่คือทางออกที่ครอบคลุมซึ่งอีลอน มัสก์และเพื่อนร่วมงานเรียกร้องไว้ในจดหมายเปิดผนึก แต่ยังไม่สามารถทำได้จริง เป็นเรื่องยากมากที่ห้องปฏิบัติการอิสระทั้งหมดจะปฏิบัติตามข้อเรียกร้องที่ไม่มีผลผูกพันและข้ามชาติเช่นนี้
- เสริมสร้างความร่วมมือและการแบ่งปันข้อมูลระหว่างประเทศและองค์กรวิจัย AI อิสระ เพื่อให้มั่นใจว่า AI จะได้รับการพัฒนาและใช้งานอย่างปลอดภัยในอนาคต ความร่วมมือและการแบ่งปันข้อมูลยังเป็นมาตรการที่ช่วยแจ้งเตือนและป้องกันความเสี่ยงที่อาจเกิดขึ้นในอนาคตได้อย่างทันท่วงที
โดยทั่วไปแล้ว AI ปรากฏอยู่รอบตัวเรา และเรื่องราวต่างๆ เช่น การเขียนบทกวี การเขียนเพลง การเขียนบทความ ด้วยปัญญาประดิษฐ์ ได้กลายเป็นความจริงและไม่ใช่เรื่องแต่งอีกต่อไป ผู้เขียนบทความนี้ได้นำเทคโนโลยีปัญญาประดิษฐ์มาใช้ในคอมพิวเตอร์และโทรศัพท์เพื่ออำนวยความสะดวกและรวดเร็วยิ่งขึ้น โดยเฉพาะอย่างยิ่ง บทของบทความนี้และแนวคิดบางส่วนได้รับการแนะนำโดย AI และที่สำคัญกว่านั้น รูปภาพทั้งหมดที่ใช้ในบทความนี้ล้วนสร้างขึ้นโดย AI เทคโนโลยีปัญญาประดิษฐ์มีประโยชน์อย่างมากในการพัฒนาคุณภาพงานและชีวิตของมนุษย์ แต่จำเป็นต้องมีการควบคุมอย่างเข้มงวดเพื่อไม่ให้หลุดจากการควบคุมและกลายเป็นความเสี่ยงที่จะเข้ามาแทนที่มนุษย์ในอนาคต ดังที่สตีเฟน ฮอว์คิง นักฟิสิกส์ทฤษฎีได้ทำนายไว้
บทความและรูปภาพ: HUU DUONGแหล่งที่มา
การแสดงความคิดเห็น (0)