خطرات بالقوه در انتشار اطلاعات نادرست
علم و فناوری نه تنها بر نحوه انتقال پیامهای مطبوعات و رسانهها، نحوه و اثربخشی دسترسی عمومی به آنها و تأثیر آنها بر آنها تأثیر میگذارد، بلکه عمیقاً بر کیفیت اطلاعات نیز تأثیر میگذارد.
در واقع، روزنامهنگاری، به ویژه در سالهای اخیر، توانسته است به سرعت با نوآوریهای فناوری سازگار شود. هوش مصنوعی (AI) به تدریج در رسانههای جمعی و در اتاقهای خبر خبرگزاریها رواج پیدا کرده است. کاربرد هوش مصنوعی مزایایی را هم برای روزنامهنگاران و هم برای سازمانهای رسانهای به ارمغان آورده است. این فناوری روزنامهنگاران را از کارهای خستهکننده روزانه رهایی میبخشد و به آنها کمک میکند تا در زمان صرفهجویی کنند و بر کارهای خلاقانهتر و با مهارت بالا تمرکز کنند.
اگرچه هوش مصنوعی مزایای زیادی دارد، اما نگرانیهایی را نیز ایجاد میکند. یکی از مهمترین خطرات، احتمال انتشار اطلاعات نادرست توسط محتوای تولید شده توسط هوش مصنوعی است.
ده خبرگزاری برتر جهان خواستار مذاکرات جمعی و شفاف بین رسانهها و توسعهدهندگان هوش مصنوعی شدهاند تا بتوانند کنترل کنند که کدام مطالب دارای حق چاپ میتوانند در آموزش ابزارهای هوش مصنوعی استفاده شوند و همچنین تعصب در الگوریتمهای هوش مصنوعی را از بین ببرند.
هفته گذشته، ۱۰ خبرگزاری پیشرو جهان نامهای را امضا کردند که در آن خواستار شفافیت و قوانین شفاف کپیرایت در مورد هوش مصنوعی شده بودند. این خبرگزاریها استدلال کردند که هوش مصنوعی با کاهش قابل توجه اعتماد خوانندگان به کیفیت و صداقت اخبار، پتانسیل «تهدید پایداری اکوسیستم رسانهای» را دارد.
طبق بسیاری از مطالعات، هوش مصنوعی میتواند برای فیلتر کردن و انتخاب داستانهایی که به احتمال زیاد خوانندگان را جذب و درگیر میکنند، مورد استفاده قرار گیرد و در نتیجه عدم تعادلی در اخبار ایجاد کند که اگر داستانها به شیوهای بیطرفانه و تولید شده توسط انسانها ارائه میشدند، وجود نداشت. عموم مردم فقط در معرض یک طرف داستان قرار دارند و بنابراین، میتوانند با اطلاعات یکطرفه تولید شده توسط هوش مصنوعی جهتگیری کنند. علاوه بر این، هوش مصنوعی میتواند با ارائه داستانهای ساختگی در کنار داستانهای واقعی، برای انتشار اطلاعات نادرست و اخبار جعلی به عموم مردم استفاده شود.
هوش مصنوعی همچنین میتواند در برابر اخبار جعلی آسیبپذیر باشد. الگوریتمهای هوش مصنوعی برای پردازش سریع و دقیق دادهها طراحی شدهاند، به این معنی که تشخیص بین اخبار واقعی و جعلی دشوار است. علاوه بر این، هوش مصنوعی قادر به درک پیامدهای عاطفی و اخلاقی اخباری که پردازش میکند نیست. با پیشرفت روزافزون هوش مصنوعی، آسیبپذیری آن در برابر اخبار جعلی افزایش مییابد و تشخیص بین آنچه واقعی و آنچه جعلی است را دشوارتر میکند.
به گفته دانشیار دکتر نگوین نگوک اوآنه - رئیس دانشکده روابط بینالملل، آکادمی روزنامهنگاری و ارتباطات، وقتی هوش مصنوعی قدرتمند میشود، زمانی است که باید توجه ویژهای داشته باشیم و در مواجهه با خطر استفاده افراد شرور و نیروهای متخاصم از هوش مصنوعی برای انتشار اخبار مضر و جعلی، پیشگیرانه عمل کنیم. از منظر امنیت رسانه، این نشان دهنده خطر بالقوه اطلاعات نادرست، تحریف و اخبار جعلی است. هنگامی که هوش مصنوعی در حوزه اطلاعات به کار گرفته شود، فناوری میتواند به جعل صداها، تصاویر، ایجاد داستانها و اظهارات جعلی که به نظر واقعی میرسند، برای فریب مردم، به ویژه در شبکههای اجتماعی، کمک کند.
دکتر نگوین نگوک اوآن، دانشیار، اظهار داشت: «کسانی که نیت بدی دارند، از نقش و اعتبار مطبوعات برای جعل اطلاعات سوءاستفاده میکنند و مردم را فریب میدهند که این اطلاعات توسط مطبوعات ارائه و منعکس میشود. توسعه اخبار جعلی پیچیدهتر و پیچیدهتر خواهد شد و بنابراین، در کنار افزایش هوشیاری، روشهای شناسایی، پاسخ به اخبار جعلی و مدیریت آنها باید بر سرمایهگذاری در فناوری هوشمند و مدیریت سیستماتیک آنها متمرکز شود. ظرفیت مدیریت اجتماعی و مدیریت آژانسهای مطبوعاتی باید برای سازگاری با تغییرات بهبود یابد.»
صنعت خبر باید راههایی برای محافظت از محتوای خلاقانه خود پیدا کند.
از زمان راهاندازی ChatGPT در نوامبر ۲۰۲۲، تقریباً روزانه برنامههای جدیدی مبتنی بر هوش مصنوعی مولد (Generative AI) به کار گرفته میشوند. در نتیجه، اینترنت پر از محتوای تولید شده توسط هوش مصنوعی شده است. در حالی که برخی از آنها شگفتانگیز هستند، محتوای تکراری و بیمزه زیادی نیز وجود دارد. این امر انتشار اطلاعات نادرست را آسانتر میکند و بار بیشتری را بر دوش صنعت رسانه برای ایجاد و بازیابی اعتماد در بین خوانندگان قرار میدهد.
نگوین هوانگ نات، روزنامهنگار - معاون سردبیر روزنامه Vietnamplus، درسهایی از گذشته را به یاد آورد، زمانی که بسیاری از کارشناسان گفتند یکی از اولین اشتباهات بزرگ مطبوعات، واکنش بسیار کند به اهمیت و تهاجم شبکههای اجتماعی بود. نگوین هوانگ نات، روزنامهنگار، گفت: «ما دوره طولانیای را پشت سر گذاشتهایم که تمام محتوای تولید شده خود را در شبکههای اجتماعی قرار میدهیم و چیزهای اصلی خود را برای خدمت به آن تغییر میدهیم، که گاهی اوقات نه نقطه قوت ماست و نه چیزی که خوانندگان به آن نیاز دارند. به طور خلاصه، ما قدرت زیادی به شبکههای اجتماعی دادهایم و باعث شدهایم که شبکههای اجتماعی دور ما بچرخند و ما را ببلعند.»
در روزهایی که تیم زنان ویتنام در جام جهانی رقابت میکرد، رسانههای اجتماعی پر از منابعی بود که اطلاعات تحریفشده و جعلی منتشر میکردند. (عکس: VTC)
نگوین هوانگ نات، روزنامهنگار، با نگاهی به تهدید فعلی هوش مصنوعی گفت که به طور کلی، هوش مصنوعی به اتاقهای خبر کمک میکند تا کار خود را سریعتر انجام دهند و در هزینهها صرفهجویی کنند، اما باعث میشود سردبیران و خبرنگاران ملایمتر عمل کنند و همچنین به انتشار سریعتر اطلاعات نادرست کمک میکند. نگوین هوانگ نات، روزنامهنگار، مثالی زد: «به عنوان مثال، در طول جام جهانی اخیر زنان، محتوای جعلی درباره تیم زنان ویتنام از طریق میمهای ایجاد شده توسط ابزارهای مبتنی بر هوش مصنوعی به طرز وحشتناکی «وایرال» شد و باعث شد روانشناسی عمومی بخشی از مخاطبان به شدت تحت تأثیر قرار گیرد.»
در خارج از کشور، نیوز گارد آمار تکاندهندهای را گزارش داد: ۳۴۷ سایت خبری که شبیه سایتهای خبری قانونی هستند، اما پر از محتوای تولید شده توسط هوش مصنوعی هستند و اطلاعات نادرست را ترویج میدهند. یک مطالعه اخیر توسط موسسه فناوری ماساچوست (MIT) نشان داد که مردم بیشتر احتمال دارد اطلاعات نادرست تولید شده توسط هوش مصنوعی را نسبت به اخبار جعلی تولید شده توسط انسان باور کنند.
به گفته روزنامهنگار نگوین هوانگ نات، این واقعیت صنعت خبر را در موقعیتی قرار میدهد که باید راههایی برای محافظت از محتوای خلاقانه و مالکیت معنوی خود پیدا کند، اما نمیتواند به امکاناتی که هوش مصنوعی به ارمغان میآورد، پشت کند.
دکتر نگوین نگوک اوآن، دانشیار، با ارزیابی چالشهای موجود در صداقت اخبار، گفت که اگرچه Chat GPT ویژگیهای برجسته بسیاری دارد، اما در نهایت، این فقط ابزاری است که روزنامهنگاران باید یاد بگیرند بر آن تسلط پیدا کنند و از آن برای خدمت به فعالیتهای کاری خود برای خلق آثار و محصولات مطبوعاتی طبق اصول این حرفه استفاده کنند. موضوع تأیید منابع اطلاعات خبرنگاران و روزنامهنگاران بسیار مهم است اگر آنها نمیخواهند به انتشار اطلاعات نادرست «کمک» کنند.
از طریق سمینارها و بحثهای فراوان در مورد هوش مصنوعی، به این نتیجه رسیدهاند که اگر مدیریت محتوا در دفتر تحریریه نتواند با توسعه فناوری دیجیتال همگام شود، خطر استفاده از دادهها و اخبار جعلی در کارهای روزنامهنگاری بسیار زیاد است. در شرایطی که کریدور قانونی روزنامهنگاری دیجیتال در ویتنام هنوز با واقعیت همگام نشده است، مشکلات قانونی، تهدیدهای امنیت رسانهها، پروندههای نقض حق چاپ و جنجالها در مورد اخلاق روزنامهنگاری، مسئولیت اجتماعی مطبوعات هنگام استفاده از روزنامهنگاری خودکار... از چالشهای اصلی امروز هستند.
فان هوآ گیانگ
منبع
نظر (0)