Vietnam.vn - Nền tảng quảng bá Việt Nam

“ทำไม AI ถึงอันตราย?”

Báo Quân đội Nhân dânBáo Quân đội Nhân dân04/04/2023


อันที่จริง นี่ไม่ใช่ครั้งแรกที่นักวิทยาศาสตร์เตือนถึงแนวโน้มที่ปัญญาประดิษฐ์จะกลายเป็นอันตรายต่อมนุษย์ ในปี 2014 สตีเฟน ฮอว์คิง นักฟิสิกส์ทฤษฎีชื่อดังชาวอังกฤษ กล่าวว่า "การพัฒนาปัญญาประดิษฐ์อย่างครอบคลุมอาจทำลายมนุษยชาติ" เขายังกล่าวอีกว่ามนุษย์จะถูกปัญญาประดิษฐ์เข้ามาแทนที่อย่างสมบูรณ์ในอีก 500 ปีข้างหน้า หากพวกเขาไม่ระมัดระวังในกระบวนการวิจัยและพัฒนาเทคโนโลยีอันตรายนี้ แปดปีที่แล้ว ในเดือนกรกฎาคม 2015 ผู้เชี่ยวชาญด้านเทคโนโลยีปัญญาประดิษฐ์มากกว่า 1,000 คน รวมถึงสตีเฟน ฮอว์คิง, อีลอน มัสก์, โนม ชอมสกี... ได้ลงนามในคำร้องเตือนเกี่ยวกับความเสี่ยงของการแข่งขันด้านอาวุธในสาขา AI ทางทหาร และเรียกร้องให้มีการห้ามอาวุธอัตโนมัติอย่างครอบคลุม การเปิดตัว Chat GPT ของ OpenAI ในเดือนพฤศจิกายน 2022 ได้เพิ่มสัญญาณเตือนถึงอันตรายของการดำรงอยู่ของปัญญาประดิษฐ์อีกประการหนึ่ง อันที่จริง สิ่งที่ Chat GPT กำลังทำอยู่แสดงให้เห็นว่า AI ในระดับหนึ่งนั้นอันตรายกว่าที่ผู้คนเคยคิดไว้มาก

ความเสี่ยงที่อาจเกิดขึ้นจากปัญญาประดิษฐ์ขึ้นอยู่กับวิธีการใช้งาน เดิมทีปัญญาประดิษฐ์ถูกพัฒนาขึ้นเพื่อช่วยเหลือมนุษย์ในการทำงาน โดยเฉพาะอย่างยิ่งกับงานที่น่าเบื่อและซ้ำซาก เช่น การจำแนกภาพ การตรวจสอบข้อมูล เป็นต้น อย่างไรก็ตาม ด้วยการพัฒนาอย่างรวดเร็วของปัญญาประดิษฐ์ในช่วงไม่กี่ปีที่ผ่านมา นักวิทยาศาสตร์ และผู้เชี่ยวชาญด้านเทคโนโลยีมีความกังวลว่าหากพัฒนาโดยขาดการควบคุม หรือถูกตั้งโปรแกรมมาเพื่อจุดประสงค์ที่ผิด ปัญญาประดิษฐ์อาจก่อให้เกิดผลกระทบร้ายแรงต่อมนุษย์และสังคมได้

ความเสี่ยงจากความไม่ปลอดภัย

ปัญญาประดิษฐ์อาจเป็นภัยคุกคามต่อความมั่นคงของชาติและความปลอดภัยส่วนบุคคล อีลอน มัสก์ เตือนว่าปัญญาประดิษฐ์อาจกลายเป็นเครื่องมือที่น่าสะพรึงกลัวในสงคราม หากประเทศใดสามารถพัฒนาระบบปัญญาประดิษฐ์ที่เหนือกว่าได้ ก็อาจใช้ปัญญาประดิษฐ์นั้นโจมตีประเทศอื่นๆ ได้ สจ๊วต รัสเซลล์ ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์ มหาวิทยาลัยแคลิฟอร์เนีย ใช้เวลาหลายทศวรรษในการวิจัยปัญญาประดิษฐ์ เขาเตือนถึงภัยคุกคามด้านความมั่นคงจากปัญญาประดิษฐ์ว่าขณะนี้เราสามารถผลิตอาวุธโจมตีอัตโนมัติได้โดยการผสานรวมและย่อขนาดเทคโนโลยีที่มีอยู่

การทดลองนี้ดำเนินการโดยศาสตราจารย์สจ๊วต รัสเซลล์ และสถาบันฟิวเจอร์ ออฟ ไลฟ์ (FLI) โดยใช้หุ่นยนต์สังหาร (slaughterbot) ซึ่งเป็นอุปกรณ์บินขนาดเล็กที่ติดตั้งกล้อง เซ็นเซอร์ ซอฟต์แวร์ประมวลผลภาพ ระบบจดจำใบหน้า วัตถุระเบิด 3 กรัม และไมโครโปรเซสเซอร์ความเร็วสูง ช่วยให้วิเคราะห์ข้อมูลและตอบสนองได้เร็วกว่าสมองมนุษย์ถึง 100 เท่า หุ่นยนต์สังหารจะเข้าถึงข้อมูลบนคลาวด์อย่างต่อเนื่องตามพารามิเตอร์การเขียนโปรแกรม เพื่อค้นหาข้อมูลเกี่ยวกับเป้าหมายและหาวิธีเข้าใกล้ เมื่อพบเป้าหมายแล้ว มันจะพุ่งตรงไปยังเป้าหมายด้วยความเร็วสูง จุดระเบิดวัตถุระเบิด 3 กรัม เจาะลึกเข้าไปในกะโหลกศีรษะ สังหารเหยื่อในพริบตา

นี่เป็นเพียงการทดลองกับ AI ในระดับพื้นฐานที่สุด หากนำ AI มาใช้เพื่อพัฒนาวิธีการโจมตีแบบใหม่ที่ซับซ้อนยิ่งขึ้น ก็อาจเพิ่มขีดความสามารถในการโจมตีของผู้โจมตี และนำไปสู่ผลลัพธ์ที่ร้ายแรงกว่าการโจมตีแบบเดิม เมื่อ AI ได้รับการพัฒนาจนถึงจุดที่มันสามารถตัดสินใจได้เองเพื่อรับมือกับการเปลี่ยนแปลงของสภาพแวดล้อมโดยรอบ หรือค้นหาเป้าหมายอื่น หรือขยายขอบเขตของเป้าหมาย มนุษยชาติอาจไม่ปลอดภัยอีกต่อไป เพื่อนร่วมงานหลายคนในสาขานี้เห็นด้วยกับศาสตราจารย์สจ๊วต รัสเซลล์ และเชื่อว่ายังคงมีโอกาสที่จะป้องกันอนาคตที่มืดมนเช่นนี้ได้ แต่เราก็เหลือเวลาไม่มากนัก

ความเสี่ยงที่ AI จะกลายเป็นระบบที่มีการจัดระเบียบ อิสระ และควบคุมระบบ

AI อาจได้รับการออกแบบมาอย่างไม่ถูกต้องหรือ "ฝึกฝน" ไม่ถูกต้องผ่านการเรียนรู้ของเครื่อง และสามารถดำเนินการที่ไม่พึงประสงค์ ก่อให้เกิดความเสียหายต่อผู้คนและสิ่งแวดล้อม ตัวอย่างเฉพาะเจาะจงมีดังนี้: การเรียนรู้ของเครื่องทำให้ AI มีความฉลาดมากขึ้นเรื่อยๆ เมื่อปัญญาประดิษฐ์พัฒนาไปถึงระดับสติปัญญาที่พัฒนาจากการสนับสนุนระบบสำคัญๆ เช่น ไฟฟ้า การขนส่ง การดูแลสุขภาพ การเงิน ฯลฯ ปัญญาประดิษฐ์สามารถควบคุมและตัดสินใจในสถานการณ์ฉุกเฉินได้ทั้งหมด เมื่อ AI ถูก "ติดตั้ง" ด้วยวัตถุประสงค์ "ที่ท้าทาย" เพิ่มเติม (ออกแบบผิดพลาด) อาจก่อให้เกิดผลกระทบร้ายแรงมากมาย เช่น การรบกวนระบบจราจรโดยการปิดระบบสัญญาณไฟจราจร หรือการตัดกระแสไฟฟ้าไปยังระบบปฏิบัติการรถไฟในเมือง ก่อให้เกิดอุบัติเหตุหลายครั้ง หรือไฟฟ้าดับเป็นวงกว้าง เป็นต้น

มีภาพยนตร์ฮอลลีวูดและภาพยนตร์จากหลายประเทศที่อิงจากสถานการณ์นี้มากมาย อย่างไรก็ตาม ด้วยเทคโนโลยี AI ในปัจจุบัน สถานการณ์นี้ไม่ได้อยู่ไกลเกินเอื้อมอีกต่อไป แต่สามารถกลายเป็นความจริงได้อย่างสมบูรณ์ อีลอน มัสก์ เชื่อว่าหากปล่อยให้ AI พัฒนาอย่างควบคุมไม่ได้ จนถึงจุดที่มันสามารถตัดสินใจโดยอัตโนมัติโดยไม่ต้องอาศัยการแทรกแซงจากมนุษย์ สิ่งนี้อาจเป็นภัยคุกคามต่อการอยู่รอดของมนุษย์ ด้วยเหตุนี้ เขาและผู้เชี่ยวชาญด้านเทคโนโลยีหลายพันคนจึงได้ลงนามในจดหมายขอให้ระงับและควบคุมกระบวนการพัฒนา AI อย่างเข้มงวดอย่างโปร่งใสและโปร่งใส อีลอน มัสก์ กล่าวว่าระบบปัญญาประดิษฐ์มีความซับซ้อน เข้าใจยาก และการควบคุมก็เป็นเรื่องยาก หากปราศจากความโปร่งใส การใช้ปัญญาประดิษฐ์เพื่อวัตถุประสงค์ที่ผิดจริยธรรมและก่อให้เกิดความเสียหายต่อมนุษย์ก็จะเกิดขึ้นอย่างแน่นอน

ความเสี่ยงต่อการสูญเสียงาน การละเมิดความเป็นส่วนตัว

เมื่อนำมาใช้เพื่อรวบรวมข้อมูลส่วนบุคคล เทคโนโลยีปัญญาประดิษฐ์สามารถนำไปใช้ละเมิดความเป็นส่วนตัว ดำเนินกิจกรรมบิดเบือนข้อมูล และเผยแพร่ข้อมูลเท็จที่ส่งผลกระทบต่อเสถียรภาพทางสังคมและการเมือง เหตุการณ์ที่ระบบเครือข่ายสำนักงานบริหารงานบุคคล (OPM) ของรัฐบาลสหรัฐฯ ถูกแฮกเกอร์โจมตี ถือเป็นเหตุการณ์ที่น่าจับตามองสำหรับประเทศหรือองค์กรใดๆ เมื่อข้อมูลส่วนบุคคลที่ละเอียดอ่อนและมีรายละเอียดสูงของเจ้าหน้าที่สหรัฐฯ ทั้งในปัจจุบันและอดีตกว่า 21.5 ล้านคน ข้อมูลเกี่ยวกับคู่สมรส ข้อมูลเกี่ยวกับผู้ที่สมัครงานราชการ เช่น สถานะสุขภาพ ที่อยู่ ที่ทำงาน ลายนิ้วมือ และข้อมูลทางการเงิน ตกไปอยู่ในมือของแฮกเกอร์ อย่างไรก็ตาม ความจริงที่น่าตกใจยิ่งกว่านั้นคือ CIA ค้นพบว่าหัวขโมยข้อมูลของ OPM ใช้เทคโนโลยีปัญญาประดิษฐ์ในการสแกน ปลอมแปลงข้อมูลส่วนบุคคล และสร้างสายลับเสมือนเพื่อขโมยข้อมูล ข้อมูลที่ถูกขโมยจะถูกวิเคราะห์ จัดประเภท และนำไปใช้ประโยชน์โดยเทคโนโลยีบิ๊กดาต้าเพื่อวัตถุประสงค์เฉพาะ เทคโนโลยีปัญญาประดิษฐ์ช่วยให้หัวขโมยข้อมูลสามารถย่นระยะเวลาในการใช้ประโยชน์จากข้อมูลได้ เนื่องจากมนุษย์ไม่สามารถประมวลผลข้อมูลจำนวนมหาศาลได้ภายในระยะเวลาอันสั้นเช่นนี้

นอกจากอันตรายที่กล่าวมาข้างต้นแล้ว เทคโนโลยี AI ยังก่อให้เกิดความเสี่ยงอื่นๆ เช่น การพึ่งพาเทคโนโลยี AI มากเกินไป ซึ่งนำไปสู่การสูญเสียการควบคุมสถานการณ์และลดความสามารถในการตัดสินใจ ปัญญาประดิษฐ์จะทำให้ผู้คนหลายล้านคน หรือแม้แต่หลายร้อยล้านคนต้องตกงาน โดยเฉพาะอย่างยิ่งงานที่ใช้แรงงานล้วนๆ และมีความรู้ความเข้าใจน้อย ส่งผลให้ปัญหาสังคมที่ร้ายแรง เช่น การว่างงาน อาชญากรรม ช่องว่างระหว่างคนรวยกับคนจน... จะยิ่งทวีความรุนแรงมากขึ้น นอกจากนี้ ความน่าเชื่อถือยังเป็นประเด็นที่ต้องให้ความสำคัญ ความน่าเชื่อถือของการตัดสินใจในสาขาเฉพาะทาง เช่น การแพทย์ กฎหมายอาญา... มีความสำคัญอย่างยิ่ง การนำ AI มาช่วยในการตัดสินใจในสาขาที่เทคโนโลยีไม่น่าเชื่อถือเพียงพอ ดำเนินการโดยอิงจากข้อมูลที่มีแนวโน้มเอื้อประโยชน์ต่อคนใดคนหนึ่งหรือกลุ่มคน หรือจงใจบิดเบือนข้อมูล การตัดสินใจเหล่านั้นอาจก่อให้เกิดผลกระทบร้ายแรงตามมา

ป้องกันได้อย่างไร?

ความเสี่ยงข้างต้นเป็นสาเหตุที่อีลอน มัสก์และผู้เชี่ยวชาญด้านเทคโนโลยีกังวลเกี่ยวกับการพัฒนา AI ที่ไร้การควบคุม จึงได้เขียนจดหมายเรียกร้องให้องค์การสหประชาชาติและองค์กรระหว่างประเทศควบคุม รับรองความปลอดภัยและจริยธรรมในการพัฒนา AI อย่างเข้มงวด เสริมสร้างความร่วมมือระหว่างประเทศ เพื่อให้มั่นใจว่าเทคโนโลยี AI จะถูกนำไปใช้อย่างเป็นประโยชน์ต่อมนุษย์และสังคม มาตรการเฉพาะเจาะจงบางประการสามารถระบุได้ดังนี้

- การควบคุมความน่าเชื่อถือของระบบควบคุม: จำเป็นต้องออกแบบและพัฒนา AI เพื่อให้แน่ใจถึงความปลอดภัยและความน่าเชื่อถือ โดยผ่านการทดสอบคุณภาพ การควบคุม และวิธีการตรวจสอบที่เข้มงวด สม่ำเสมอ และต่อเนื่อง เพื่อให้แน่ใจว่าระบบ AI ทำงานตามความคาดหวังของมนุษย์ และหลีกเลี่ยงผลกระทบที่ไม่ต้องการจากการขาดความน่าเชื่อถือ

- เทคโนโลยีปัญญาประดิษฐ์จำเป็นต้องได้รับการตั้งโปรแกรมให้ทำงานตามค่านิยมทางจริยธรรมและบรรทัดฐานทางสังคม กฎเกณฑ์และมาตรฐานเหล่านี้ต้องได้รับการกำหนดไว้อย่างชัดเจนและต้องได้รับการตรวจสอบเพื่อให้แน่ใจว่าระบบจะไม่ก่อให้เกิดผลเสียหรือเป็นอันตรายต่อบุคคลหรือองค์กร กระบวนการวิเคราะห์ ประเมินผลกระทบ และติดตามการทำงานของระบบปัญญาประดิษฐ์ต้องได้รับการดำเนินการอย่างสม่ำเสมอ เพื่อให้มั่นใจว่าระบบทำงานได้อย่างถูกต้อง ไม่ละเมิดและทำลายคุณค่าร่วมของสังคมโดยรวม ไม่ก่อให้เกิดผลกระทบด้านลบ และเพื่อให้มั่นใจว่ามีการถ่ายทอดความรู้และค่านิยมที่ถูกต้อง

ซ้าย ศูนย์ ขวา เดล
วารสารศาสตร์เป็นหนึ่งในอุตสาหกรรมที่ได้รับผลกระทบอย่างมากจากปัญญาประดิษฐ์ ในอนาคต พิธีกรรายการวิทยุจะไม่จำเป็นต้องอ่าน OFF อีกต่อไป และแม้แต่พิธีกรเสมือนที่ทำหน้าที่นำรายการโทรทัศน์ก็จะมีบทบาทสำคัญมากขึ้น

- การหยุด “ฝึกอบรม” ระบบ AI อย่างน้อยหกเดือนเพื่อให้มีการประเมินใหม่อย่างเต็มรูปแบบ การหยุดนี้ต้องเปิดเผยต่อสาธารณะ มีการควบคุม และทุกภาคส่วนที่เกี่ยวข้องในการฝึกอบรมต้องมีส่วนร่วม หากจำเป็น รัฐบาลควรประกาศระงับชั่วคราว นี่ไม่ได้หมายถึงการหยุดพัฒนา AI โดยสิ้นเชิง แต่เป็นเพียงการหยุดการแข่งขันที่อันตรายไปสู่รูปแบบการพัฒนาอื่นๆ ที่ทำให้ระบบ AI มีความแม่นยำ ปลอดภัย เข้าใจง่าย โปร่งใส สอดคล้อง น่าเชื่อถือ และมีความภักดีมากขึ้น นี่คือทางออกที่ครอบคลุมซึ่งอีลอน มัสก์และเพื่อนร่วมงานเรียกร้องไว้ในจดหมายเปิดผนึก แต่ยังไม่สามารถทำได้จริง เป็นเรื่องยากมากที่ห้องปฏิบัติการอิสระทั้งหมดจะปฏิบัติตามข้อเรียกร้องที่ไม่มีผลผูกพันและข้ามชาติเช่นนี้

- เสริมสร้างความร่วมมือและการแบ่งปันข้อมูลระหว่างประเทศและองค์กรวิจัย AI อิสระ เพื่อให้มั่นใจว่า AI จะได้รับการพัฒนาและใช้งานอย่างปลอดภัยในอนาคต ความร่วมมือและการแบ่งปันข้อมูลยังเป็นมาตรการที่ช่วยแจ้งเตือนและป้องกันความเสี่ยงที่อาจเกิดขึ้นในอนาคตได้อย่างทันท่วงที

โดยทั่วไปแล้ว AI ปรากฏอยู่รอบตัวเรา และเรื่องราวต่างๆ เช่น การเขียนบทกวี การเขียนเพลง การเขียนบทความ ด้วยปัญญาประดิษฐ์ ได้กลายเป็นความจริงและไม่ใช่เรื่องแต่งอีกต่อไป ผู้เขียนบทความนี้ได้นำเทคโนโลยีปัญญาประดิษฐ์มาใช้ในคอมพิวเตอร์และโทรศัพท์เพื่ออำนวยความสะดวกและรวดเร็วยิ่งขึ้น โดยเฉพาะอย่างยิ่ง บทของบทความนี้และแนวคิดบางส่วนได้รับการแนะนำโดย AI และที่สำคัญกว่านั้น รูปภาพทั้งหมดที่ใช้ในบทความนี้ล้วนสร้างขึ้นโดย AI เทคโนโลยีปัญญาประดิษฐ์มีประโยชน์อย่างมากในการพัฒนาคุณภาพงานและชีวิตของมนุษย์ แต่จำเป็นต้องมีการควบคุมอย่างเข้มงวดเพื่อไม่ให้หลุดจากการควบคุมและกลายเป็นความเสี่ยงที่จะเข้ามาแทนที่มนุษย์ในอนาคต ดังที่สตีเฟน ฮอว์คิง นักฟิสิกส์ทฤษฎีได้ทำนายไว้

บทความและรูปภาพ: HUU DUONG


แหล่งที่มา

การแสดงความคิดเห็น (0)

No data
No data
PIECES of HUE - ชิ้นส่วนของสี
ฉากมหัศจรรย์บนเนินชา 'ชามคว่ำ' ในฟู้โถ
3 เกาะในภาคกลางเปรียบเสมือนมัลดีฟส์ ดึงดูดนักท่องเที่ยวในช่วงฤดูร้อน
ชมเมืองชายฝั่ง Quy Nhon ของ Gia Lai ที่เป็นประกายระยิบระยับในยามค่ำคืน
ภาพทุ่งนาขั้นบันไดในภูทอ ลาดเอียงเล็กน้อย สดใส สวยงาม เหมือนกระจกก่อนฤดูเพาะปลูก
โรงงาน Z121 พร้อมแล้วสำหรับงาน International Fireworks Final Night
นิตยสารท่องเที่ยวชื่อดังยกย่องถ้ำซอนดุงว่าเป็น “ถ้ำที่งดงามที่สุดในโลก”
ถ้ำลึกลับดึงดูดนักท่องเที่ยวชาวตะวันตก เปรียบเสมือน 'ถ้ำฟองญา' ในทัญฮว้า
ค้นพบความงดงามอันน่ารื่นรมย์ของอ่าว Vinh Hy
ชาที่มีราคาแพงที่สุดในฮานอย ซึ่งมีราคาสูงกว่า 10 ล้านดองต่อกิโลกรัม ได้รับการแปรรูปอย่างไร?

มรดก

รูป

ธุรกิจ

No videos available

ข่าว

ระบบการเมือง

ท้องถิ่น

ผลิตภัณฑ์