Vietnam.vn - Nền tảng quảng bá Việt Nam

จริยธรรมของบุคลากรสื่อในการใช้เทคโนโลยี AI

Báo Quốc TếBáo Quốc Tế27/10/2024

เรากำลังอยู่ในยุคการปฏิวัติอุตสาหกรรม 4.0 ที่ปัญญาประดิษฐ์ (AI) กำลังค่อยๆ กลายเป็นส่วนสำคัญที่ขาดไม่ได้ในชีวิตสังคมหลายด้าน สื่อในฐานะสะพานเชื่อมข้อมูลระหว่างสาธารณชนและเหตุการณ์ต่างๆ ไม่อาจหลุดพ้นจากกระแสดังกล่าวได้


Đạo đức của người làm truyền thông khi sử dụng công nghệ AI
คุณเหงียน ถิ ไห่ วัน ผู้อำนวยการศูนย์ฝึกอบรมนักข่าว สมาคมนักข่าวเวียดนาม ในการประชุมเชิงปฏิบัติการเกี่ยวกับเทคโนโลยี AI (ที่มา: สมาคมนักข่าวเวียดนาม)

เพื่อใช้ประโยชน์จากข้อดีของ AI ให้ได้มากที่สุด ผู้สื่อสารจำเป็นต้องเสริมความรู้ในการใช้ AI อย่างมีประสิทธิภาพ พร้อมทั้งต้องรับประกันความน่าเชื่อถือและจริยธรรมในการส่งข้อมูล

จากความ “ร้อนแรง” ของ AI

เป็นที่แน่ชัดว่า AI (ปัญญาประดิษฐ์) เป็นหนึ่งในคำค้นหาที่ได้รับความนิยมสูงสุดในปัจจุบัน ในเดือนกันยายน 2567 การค้นหาคำว่า "AI" บน Google ภายใน 0.3 วินาที มีผลลัพธ์มากถึง 15,900 ล้านผลลัพธ์ และหากใช้คำว่า "เครื่องมือ AI" ภายใน 0.4 วินาที มีผลลัพธ์มากกว่า 3,400 ล้านผลลัพธ์ ตัวเลขมหาศาลเหล่านี้แสดงให้เห็นถึงความครอบคลุมและความสนใจใน AI และเครื่องมือที่ใช้ AI ทั่วโลก

ปัจจุบันมีเครื่องมือ AI ปรากฏขึ้นมากมายในหลากหลายสาขา รวมถึงอุตสาหกรรมสื่อ นอกจาก ChatGPT ที่เป็นที่รู้จักอย่างกว้างขวางแล้ว ยังมีแอปพลิเคชัน AI อีกมากมายที่พัฒนาขึ้นในทิศทางเฉพาะทางเพื่อตอบโจทย์งานเฉพาะด้าน สามารถดูเครื่องมือต่างๆ ได้ที่นี่ เช่น Bing AI, Clause, Zapier Central สำหรับกลุ่มงาน Chatbot, Jasper, Copy.ai, Anyword สำหรับการสร้างคอนเทนต์, Descript, Wondershare, Runway สำหรับการผลิตและตัดต่อ วิดีโอ , DALL-E3, Midjourney, Stable Diffusion สำหรับการสร้างภาพ, Murf, AIVA สำหรับเนื้อหาเสียง และอื่นๆ และล่าสุด Amazon ยักษ์ใหญ่ก็ได้เปิดตัวเครื่องมือ AI ที่พัฒนาขึ้น ได้แก่ Video Generator และ Image generator โดยมีจุดมุ่งหมายเพื่อ "สร้างแรงบันดาลใจในการสร้างสรรค์และเพิ่มมูลค่า"

แม้ว่าเครื่องมือ AI จะมีความหลากหลายมากในด้านขนาดหรือระดับความเชี่ยวชาญ แต่โดยพื้นฐานแล้วเทคโนโลยีนี้มีสองสิ่งที่เหมือนกัน: เครื่องมือ AI ได้รับการพัฒนาขึ้นโดยอิงตามอัลกอริทึมและข้อมูลเพื่อ "ฝึก" เครื่องมือ AI

การควบคุมทางจริยธรรมของการใช้ AI ในสื่อ

ปฏิเสธไม่ได้ถึงความสะดวกสบายที่เครื่องมือ AI มอบให้ และด้วยความก้าวหน้าทางเทคโนโลยีที่รวดเร็ว จะมีเครื่องมือ AI เฉพาะทางมากขึ้นเรื่อยๆ ในทุกซอกทุกมุม ตอบสนองทุกงาน ตั้งแต่งานง่ายๆ ไปจนถึงงานที่ซับซ้อนในอุตสาหกรรมสื่อ ควบคู่ไปกับการพัฒนาที่ก้าวกระโดดนี้ คำถามมากมายเกี่ยวกับประเด็นการควบคุมทางจริยธรรมในการพัฒนาและการใช้งานเครื่องมือ AI ในอุตสาหกรรมสื่อก็เกิดขึ้นเช่นกัน จะเกิดอะไรขึ้นหากอัลกอริทึมและข้อมูลของเครื่องมือ AI ถูกบิดเบือนในลักษณะที่เป็นอันตรายต่อชุมชน ใครเป็นผู้รับประกันสิทธิ์ในทรัพย์สินทางปัญญาสำหรับข้อมูลอินพุตที่เครื่องมือ AI ใช้ในการฝึกอบรม ใครเป็นผู้ประเมินระดับความเสียหายที่เครื่องมือ AI ก่อขึ้น

มีความเหลื่อมล้ำระหว่างกลุ่มคนที่เข้าถึงเครื่องมือ AI และกลุ่มคนที่ไม่สามารถเข้าถึงเครื่องมือเหล่านั้นได้ในงานเดียวกันหรือไม่? แม้กระทั่งคำถามเกี่ยวกับระดับอันตรายที่ไม่อาจควบคุมได้จากเครื่องมือ AI โดยเฉพาะในพื้นที่ละเอียดอ่อนที่อาจส่งผลกระทบต่อผู้คนจำนวนมากในวงกว้าง เช่น สื่อและเครือข่ายสังคมออนไลน์

ด้วยตระหนักถึงข้อกังวลข้างต้น องค์กร สมาคม รัฐบาล และแม้แต่บริษัทและนิติบุคคลหลายแห่งที่พัฒนาเครื่องมือ AI จึงได้ออกคำแนะนำ คำอธิบาย และแม้แต่จรรยาบรรณที่เกี่ยวข้องกับประเด็นการควบคุมจริยธรรมในเทคโนโลยี AI ปฏิญญาว่าด้วยจริยธรรมของปัญญาประดิษฐ์ (คำแนะนำของยูเนสโก) ซึ่งเป็นองค์การ การศึกษา วิทยาศาสตร์ และวัฒนธรรมแห่งสหประชาชาติ ซึ่งได้รับการรับรองโดย 193 ประเทศในปี พ.ศ. 2564 ระบุอย่างชัดเจนว่า "การเติบโตอย่างรวดเร็วของปัญญาประดิษฐ์ (AI) ได้สร้างโอกาสมากมายทั่วโลก ตั้งแต่การช่วยเหลือการวินิจฉัยทางการแพทย์ ไปจนถึงการสร้างการเชื่อมต่อของมนุษย์ผ่านโซเชียลมีเดีย และการสร้างประสิทธิภาพการทำงานผ่านงานอัตโนมัติ"

อย่างไรก็ตาม การเปลี่ยนแปลงอย่างรวดเร็วเหล่านี้ยังก่อให้เกิดความกังวลด้านจริยธรรมอย่างลึกซึ้ง ความเสี่ยงที่เกี่ยวข้องกับ AI เหล่านี้ได้เริ่มซ้ำเติมความไม่เท่าเทียมที่มีอยู่เดิม นำไปสู่ความเสียหายเพิ่มเติมต่อกลุ่มผู้ด้อยโอกาส…” และจากจุดนั้น “ขอให้ UNESCO พัฒนาเครื่องมือเพื่อสนับสนุนประเทศสมาชิก ซึ่งรวมถึงระเบียบวิธีประเมินความพร้อม ซึ่งเป็นเครื่องมือที่รัฐบาลต่างๆ จะใช้เพื่อสร้างภาพรวมที่ครอบคลุมเกี่ยวกับความพร้อมในการนำ AI ไปใช้อย่างมีจริยธรรมและมีความรับผิดชอบต่อพลเมืองทุกคน

ยูเนสโกได้เปิดตัวศูนย์สังเกตการณ์จริยธรรมและธรรมาภิบาล AI ระดับโลก (Global AI Ethics and Governance Observatory) ซึ่งระบุว่า “ให้ข้อมูลเกี่ยวกับความพร้อมของประเทศต่างๆ ในการนำ AI มาใช้อย่างมีจริยธรรมและมีความรับผิดชอบ นอกจากนี้ ยูเนสโกยังเป็นเจ้าภาพจัดห้องปฏิบัติการจริยธรรมและธรรมาภิบาล AI ซึ่งรวบรวมผลงาน งานวิจัยที่สร้างผลกระทบ ชุดเครื่องมือ และแนวปฏิบัติเชิงบวกในประเด็นจริยธรรมด้าน AI ที่หลากหลาย…”

นอกจากองค์กรระดับโลกอย่าง UNESCO แล้ว สมาคมวิชาชีพหลายแห่งก็กำลังพัฒนามาตรฐานของตนเองเช่นกัน ยกตัวอย่างเช่น IABC (สมาคมการสื่อสารธุรกิจระหว่างประเทศ) ซึ่งมีสมาชิกหลายพันคนจากทั่วโลก ได้พัฒนาชุดหลักการที่เป็นแนวทางสำหรับการใช้ AI อย่างมีจริยธรรมโดยผู้เชี่ยวชาญด้านการสื่อสาร ซึ่งมีวัตถุประสงค์เพื่อชี้นำสมาชิก IABC เกี่ยวกับความเกี่ยวข้องของจรรยาบรรณ IABC กับ AI แนวทางเหล่านี้อาจได้รับการปรับปรุงและเพิ่มเติมควบคู่ไปกับการพัฒนาเทคโนโลยี AI ในชุดหลักการนี้ มีประเด็นเฉพาะหลายประการที่ผู้เชี่ยวชาญด้านการสื่อสารควรยึดถือ เช่น

ทรัพยากร AI ที่ใช้ต้องขับเคลื่อนโดยมนุษย์เพื่อสร้างประสบการณ์เชิงบวกและโปร่งใส ซึ่งส่งเสริมความเคารพและความไว้วางใจในวิชาชีพสื่อ สิ่งสำคัญคือต้องคอยติดตามข้อมูลเกี่ยวกับโอกาสและความเสี่ยงทางวิชาชีพที่เครื่องมือ AI นำเสนออยู่เสมอ ข้อมูลต้องได้รับการสื่อสารอย่างถูกต้อง เป็นกลาง และเป็นธรรม เครื่องมือ AI อาจเกิดข้อผิดพลาด ความไม่สอดคล้อง และปัญหาทางเทคนิคอื่นๆ มากมาย ซึ่งต้องใช้วิจารณญาณของมนุษย์ในการตรวจสอบอย่างอิสระว่าเนื้อหาที่ฉันสร้างขึ้นโดย AI นั้นถูกต้อง โปร่งใส และลอกเลียนแบบหรือไม่

ปกป้องข้อมูลส่วนบุคคลและ/หรือข้อมูลลับของผู้อื่น และจะไม่นำไปใช้โดยไม่ได้รับอนุญาต ประเมินผลลัพธ์ของ AI โดยพิจารณาจากการมีส่วนร่วมของมนุษย์และความเข้าใจในชุมชนที่มุ่งหวังจะให้บริการ ขจัดอคติให้มากที่สุดเท่าที่จะทำได้ และคำนึงถึงค่านิยมและความเชื่อทางวัฒนธรรมของผู้อื่น

ต้องตรวจสอบข้อเท็จจริงและยืนยันผลลัพธ์ของตนเองอย่างอิสระด้วยความเข้มงวดทางวิชาชีพที่จำเป็น เพื่อให้มั่นใจว่าเอกสาร ข้อมูล หรือเอกสารอ้างอิงของบุคคลที่สามนั้นถูกต้อง มีการระบุแหล่งที่มาและการตรวจสอบยืนยันที่จำเป็น และได้รับอนุญาตหรือได้รับอนุญาตให้ใช้งานอย่างถูกต้อง ห้ามพยายามปกปิดหรืออำพรางการใช้ AI ในผลงานทางวิชาชีพของตน ตระหนักถึงธรรมชาติของ AI แบบโอเพนซอร์สและประเด็นที่เกี่ยวข้องกับการรักษาความลับ รวมถึงการป้อนข้อมูลเท็จ ข้อมูลที่ทำให้เข้าใจผิด หรือข้อมูลหลอกลวง

สำหรับบริษัทและองค์กรที่เป็นเจ้าของ พัฒนา และซื้อขายเครื่องมือ AI พวกเขาคือผู้ที่เข้าใจรายละเอียดของเครื่องมือ AI ได้ดีกว่าใคร พวกเขารู้เกี่ยวกับอัลกอริทึมพื้นฐานที่เครื่องมือ AI ทำงาน และข้อมูลที่เครื่องมือ AI ได้รับการฝึกอบรม ดังนั้น บริษัทเหล่านี้จึงจำเป็นต้องให้ข้อมูลเกี่ยวกับหลักจริยธรรมในการพัฒนา AI ด้วย อันที่จริง มีบริษัทหลายแห่งที่สนใจในประเด็นนี้

Google มุ่งมั่นที่จะไม่พัฒนาเครื่องมือ AI สำหรับพื้นที่ที่มีความเสี่ยงสูงที่จะเกิดอันตราย เราจะดำเนินการเฉพาะในกรณีที่เราเชื่อว่าประโยชน์ที่ได้รับมีมากกว่าความเสี่ยงอย่างมีนัยสำคัญ และได้นำมาตรการป้องกันที่เหมาะสมมาใช้ อาวุธหรือเทคโนโลยีอื่นๆ ที่มีวัตถุประสงค์หลักหรือการใช้งานเพื่อก่อให้เกิดหรืออำนวยความสะดวกโดยตรงต่อการบาดเจ็บของมนุษย์ เทคโนโลยีที่รวบรวมหรือใช้ข้อมูลเพื่อการเฝ้าระวังที่ละเมิดบรรทัดฐานที่ยอมรับในระดับสากล เทคโนโลยีที่มีวัตถุประสงค์ละเมิดหลักการที่ยอมรับโดยทั่วไปของกฎหมายระหว่างประเทศและสิทธิมนุษยชน

ในด้านความมั่นคงปลอดภัย Google ให้คำมั่นว่า “เราจะพัฒนาและดำเนินมาตรการรักษาความปลอดภัยและความปลอดภัยที่แข็งแกร่งอย่างต่อเนื่อง เพื่อหลีกเลี่ยงผลลัพธ์ที่ไม่พึงประสงค์ซึ่งก่อให้เกิดความเสี่ยงต่ออันตราย เราจะออกแบบระบบ AI ของเราให้มีความระมัดระวังอย่างเหมาะสม และพยายามพัฒนาให้สอดคล้องกับแนวปฏิบัติที่ดีที่สุดในการวิจัยความปลอดภัยของ AI เราจะนำหลักการความเป็นส่วนตัวของเราไปใช้ในการพัฒนาและการใช้เทคโนโลยี AI ของเรา เราจะเปิดโอกาสให้มีการแจ้งให้ทราบและยินยอม สนับสนุนสถาปัตยกรรมที่ปกป้องความเป็นส่วนตัว และให้ความโปร่งใสและการควบคุมที่เหมาะสมเกี่ยวกับการใช้ข้อมูล”

เช่นเดียวกับ Google ไมโครซอฟท์ก็ได้ออกแถลงการณ์เกี่ยวกับหลักการและแนวทางด้าน AI โดยเน้นย้ำว่า "เรามุ่งมั่นที่จะสร้างความมั่นใจว่าระบบ AI ได้รับการพัฒนาอย่างมีความรับผิดชอบและสร้างความไว้วางใจให้กับผู้คน..." นอกจากนี้ บริษัทเทคโนโลยีขนาดใหญ่หลายแห่งที่ลงทุนอย่างหนักในการพัฒนาเครื่องมือ AI เช่น Amazon และ OpenAI ก็ได้ให้คำมั่นสัญญาของตนเองเช่นกัน

ตัวอย่างมากมายในประวัติศาสตร์ได้พิสูจน์ให้เห็นถึงความคลุมเครือของเทคโนโลยี ทั้งในแง่บวกและแง่ลบ ถึงแม้ว่า AI จะเป็นแพลตฟอร์มเทคโนโลยีที่ “ไฮเทค” มาก แต่ก็ยังคงอาศัยอัลกอริทึมและข้อมูลที่มนุษย์พัฒนาและรวบรวม ในขณะเดียวกัน ผลิตภัณฑ์ AI ส่วนใหญ่ก็เป็นส่วนหนึ่งของแผนธุรกิจของบริษัทที่เป็นเจ้าของ

ดังนั้น จึงมีความเสี่ยงที่อาจเกิดขึ้นได้เสมอ ทั้งจากด้านเทคนิคและจากทีมพัฒนาและบริหารผลิตภัณฑ์เอง ปัญหาคือผลกระทบที่เครื่องมือ AI อาจมีต่อคนส่วนใหญ่ แม้แต่ในระดับเศรษฐกิจและสังคมของชุมชน การให้ความสำคัญกับการควบคุมจริยธรรมอย่างทันท่วงทีเมื่อใช้เทคโนโลยี AI ถือเป็นสัญญาณที่ดีจากการมีส่วนร่วมขององค์กรระหว่างประเทศขนาดใหญ่ เช่น สหประชาชาติ รัฐบาล สมาคมอุตสาหกรรม และที่สำคัญที่สุดคือ การมีส่วนร่วมโดยตรงในหน่วยงานพัฒนาเทคโนโลยี

อย่างไรก็ตาม เนื่องจากรายการเครื่องมือ AI เผยแพร่เวอร์ชันใหม่ๆ อย่างต่อเนื่อง ซึ่งแต่ละเวอร์ชันมีความซับซ้อนและซับซ้อนกว่าเวอร์ชันก่อนหน้า รหัส หลักการ หรือแนวปฏิบัติจึงจำเป็นต้องได้รับการอัปเดตและเพิ่มเติมในเวลาที่เหมาะสม และยิ่งไปกว่านั้น ต้องมีการดำเนินการเชิงรุกในการป้องกัน จำกัด และควบคุมผู้พัฒนาและผู้ใช้ผลิตภัณฑ์ภายในกรอบการทำงานที่ความสามารถในการปฏิบัติตามการควบคุมทางจริยธรรมในเทคโนโลยี AI โดยทั่วไปและโดยเฉพาะอย่างยิ่งกับคนทำงานด้านสื่อสามารถบรรลุประสิทธิภาพสูงสุดได้



แหล่งที่มา

การแสดงความคิดเห็น (0)

กรุณาแสดงความคิดเห็นเพื่อแบ่งปันความรู้สึกของคุณ!

หัวข้อเดียวกัน

หมวดหมู่เดียวกัน

มหาวิหารนอเทรอดามในนครโฮจิมินห์ประดับไฟสว่างไสวต้อนรับคริสต์มาสปี 2025
สาวฮานอย “แต่งตัว” สวยรับเทศกาลคริสต์มาส
หลังพายุและน้ำท่วม หมู่บ้านดอกเบญจมาศในช่วงเทศกาลตรุษจีนที่เมืองจาลาย หวังว่าจะไม่มีไฟฟ้าดับ เพื่อช่วยต้นไม้เหล่านี้ไว้
เมืองหลวงแอปริคอตเหลืองภาคกลางประสบความสูญเสียอย่างหนักหลังเกิดภัยพิบัติธรรมชาติถึงสองครั้ง

ผู้เขียนเดียวกัน

มรดก

รูป

ธุรกิจ

ร้านกาแฟดาลัตมีลูกค้าเพิ่มขึ้น 300% เพราะเจ้าของร้านเล่นบท 'หนังศิลปะการต่อสู้'

เหตุการณ์ปัจจุบัน

ระบบการเมือง

ท้องถิ่น

ผลิตภัณฑ์

Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC