Vietnam.vn - Nền tảng quảng bá Việt Nam

اخلاق کارکنان رسانه هنگام استفاده از فناوری هوش مصنوعی

Báo Quốc TếBáo Quốc Tế27/10/2024

ما در دوران انقلاب صنعتی ۴.۰ زندگی می‌کنیم، جایی که هوش مصنوعی (AI) به تدریج به بخش جدایی‌ناپذیر بسیاری از حوزه‌های زندگی اجتماعی تبدیل می‌شود. رسانه‌ها، به عنوان پل ارتباطی اطلاعات بین مردم و رویدادها، نمی‌توانند از این روند خارج باشند.


Đạo đức của người làm truyền thông khi sử dụng công nghệ AI
خانم نگوین تی های ون - مدیر مرکز آموزش روزنامه‌نگاری، انجمن روزنامه‌نگاران ویتنام در کارگاه فناوری هوش مصنوعی. (منبع: انجمن روزنامه‌نگاران ویتنام)

برای بهره‌برداری حداکثری از مزایای هوش مصنوعی، ارتباط‌گران باید خود را به دانش لازم برای استفاده مؤثر از هوش مصنوعی مجهز کنند، ضمن اینکه از قابلیت اطمینان و اخلاق در انتقال اطلاعات اطمینان حاصل کنند.

از «داغ بودن» هوش مصنوعی

کاملاً واضح است که هوش مصنوعی (AI) یکی از داغ‌ترین کلمات کلیدی امروز است. در سپتامبر 2024، جستجوی کلمه کلیدی "AI" در گوگل در 0.3 ثانیه، 15 میلیارد و 900 میلیون نتیجه را ثبت کرد؛ با کلمه کلیدی "ابزارهای هوش مصنوعی"، در 0.4 ثانیه بیش از 3 میلیارد و 400 میلیون نتیجه ثبت شد. این اعداد عظیم، پوشش و علاقه به هوش مصنوعی و ابزارهای مبتنی بر هوش مصنوعی را در سطح جهانی نشان می‌دهد.

در حال حاضر، ابزارهای هوش مصنوعی بیشتری برای زمینه‌های مختلف، از جمله صنعت رسانه، ظاهر می‌شوند. علاوه بر ChatGPT که به طور گسترده شناخته شده است، برنامه‌های هوش مصنوعی بسیاری در یک جهت تخصصی توسعه یافته‌اند و وظایف تخصصی را انجام می‌دهند. فهرست کردن بسیاری از ابزارها در اینجا کار دشواری نیست، به عنوان مثال: Bing AI، Clause، Zapier Central برای گروه کاری Chatbot؛ Jasper، Copy.ai، Anyword برای وظایف ایجاد محتوا؛ Descript، Wondershare، Runway برای وظایف تولید و ویرایش ویدیو ؛ DALL-E3، Midjourney، Stable Diffusion برای وظایف ایجاد تصویر؛ Murf، AIVA برای وظایف محتوای صوتی و غیره. و اخیراً، غول آمازون نیز ابزارهای هوش مصنوعی توسعه یافته خود، Video Generator و Image generator را با هدف "الهام بخشیدن به خلاقیت و ایجاد ارزش بیشتر" معرفی کرده است.

اگرچه ابزارهای هوش مصنوعی از نظر مقیاس یا سطح تخصص بسیار متنوع هستند، اما در اصل این فناوری دو چیز مشترک دارد: ابزارهای هوش مصنوعی بر اساس الگوریتم‌ها و داده‌ها برای «آموزش» ابزارهای هوش مصنوعی توسعه داده می‌شوند.

کنترل اخلاقی استفاده از هوش مصنوعی در رسانه‌ها

نمی‌توان منکر راحتی‌هایی شد که ابزارهای هوش مصنوعی به ارمغان می‌آورند و با سرعت بالای به‌روزرسانی‌های فناوری، ابزارهای تخصصی‌تر و بیشتری در هر گوشه و کنار وجود خواهند داشت که به وظایف ساده تا پیچیده در صنعت رسانه پاسخ می‌دهند. در کنار این توسعه‌ی عظیم، سوالات زیادی در مورد مسئله‌ی کنترل اخلاقی در توسعه و استفاده از ابزارهای هوش مصنوعی در صنعت رسانه مطرح می‌شود؟ اگر الگوریتم‌ها و داده‌های آن ابزار هوش مصنوعی به گونه‌ای دستکاری شوند که برای جامعه مضر باشد، چه اتفاقی خواهد افتاد؟ چه کسی حقوق مالکیت معنوی داده‌های ورودی که ابزار هوش مصنوعی برای آموزش استفاده می‌کند را تضمین می‌کند؟ چه کسی میزان آسیبی را که ایجاد می‌کنند ارزیابی می‌کند؟

آیا بین گروهی از افرادی که به ابزارهای هوش مصنوعی دسترسی دارند و گروهی که در همان کار به آنها دسترسی ندارند، نابرابری وجود دارد؟ حتی سوالاتی در مورد سطح بالقوه آسیب کنترل نشده از ابزارهای هوش مصنوعی، به ویژه در حوزه‌های حساس که می‌توانند بسیاری از افراد را در مقیاس وسیع تحت تأثیر قرار دهند، مانند رسانه‌ها و شبکه‌های اجتماعی، مطرح شده است.

با درک نگرانی‌های فوق، بسیاری از سازمان‌ها، انجمن‌ها، دولت‌ها و حتی شرکت‌ها و موسساتی که ابزارهای هوش مصنوعی را توسعه می‌دهند، توصیه‌ها، توضیحات و حتی ضوابط رفتاری مربوط به موضوع کنترل اخلاقی در فناوری هوش مصنوعی را صادر کرده‌اند. اعلامیه اخلاق هوش مصنوعی - توصیه یونسکو - سازمان آموزشی ، علمی و فرهنگی سازمان ملل متحد که در سال ۲۰۲۱ توسط ۱۹۳ کشور تصویب شد، به وضوح بیان می‌کند که "ظهور سریع هوش مصنوعی (AI) فرصت‌های بسیاری را در سطح جهانی ایجاد کرده است، از کمک به تشخیص‌های مراقبت‌های بهداشتی گرفته تا امکان ارتباط انسانی از طریق رسانه‌های اجتماعی و ایجاد بهره‌وری نیروی کار از طریق وظایف خودکار."

با این حال، این تغییرات سریع نگرانی‌های اخلاقی عمیقی را نیز ایجاد می‌کند. چنین خطراتی مرتبط با هوش مصنوعی، نابرابری‌های موجود را تشدید کرده و منجر به آسیب بیشتر به گروه‌های محروم شده است...» و از آنجا «از یونسکو درخواست می‌شود ابزارهایی را برای حمایت از کشورهای عضو، از جمله روش ارزیابی آمادگی، ابزاری برای دولت‌ها برای ایجاد تصویری جامع از آمادگی خود برای استقرار اخلاقی و مسئولانه هوش مصنوعی برای همه شهروندان خود، توسعه دهد.

یونسکو در رویکرد جهانی خود، رصدخانه جهانی اخلاق و حکومتداری هوش مصنوعی را راه‌اندازی کرده است که به گفته آن «اطلاعاتی در مورد آمادگی کشورها برای پذیرش اخلاقی و مسئولانه هوش مصنوعی ارائه می‌دهد. این سازمان همچنین میزبان آزمایشگاه اخلاق و حکومتداری هوش مصنوعی است که مشارکت‌ها، تحقیقات تأثیرگذار، ابزارها و شیوه‌های مثبت را در طیف گسترده‌ای از مسائل اخلاق هوش مصنوعی گرد هم می‌آورد...»

علاوه بر سازمان‌های جهانی مانند یونسکو، بسیاری از انجمن‌های حرفه‌ای نیز در حال تلاش برای تدوین استانداردهای خود هستند، به عنوان مثال، IABC - انجمن بین‌المللی ارتباطات تجاری، انجمنی با هزاران عضو از سراسر جهان، مجموعه‌ای از اصول را برای هدایت استفاده اخلاقی از هوش مصنوعی توسط متخصصان ارتباطات تدوین کرده است که هدف آن راهنمایی اعضای IABC در مورد ارتباط کد اخلاق IABC با هوش مصنوعی است. این دستورالعمل‌ها ممکن است به موازات توسعه فناوری هوش مصنوعی، به مرور زمان به‌روزرسانی و تکمیل شوند. در این مجموعه اصول، نکات خاص بسیاری وجود دارد که یک متخصص ارتباطات باید به آنها پایبند باشد، مانند:

«منابع هوش مصنوعی مورد استفاده باید توسط انسان هدایت شوند تا تجربیات مثبت و شفافی ایجاد کنند که باعث احترام و ایجاد اعتماد در حرفه رسانه شود. مهم است که در مورد فرصت‌ها و خطرات حرفه‌ای که ابزارهای هوش مصنوعی ارائه می‌دهند، آگاه باشید. اطلاعات باید به طور دقیق، عینی و منصفانه منتقل شوند. ابزارهای هوش مصنوعی می‌توانند در معرض خطاها، تناقضات و سایر مسائل فنی زیادی قرار گیرند. این امر مستلزم قضاوت انسانی است تا به طور مستقل تأیید کند که محتوای تولید شده توسط هوش مصنوعی من دقیق، شفاف و دارای کپی‌برداری است.»

از اطلاعات شخصی و/یا محرمانه دیگران محافظت می‌کند و بدون اجازه آنها از آنها استفاده نخواهد کرد. خروجی‌های هوش مصنوعی خود را بر اساس تعامل انسانی و درک جامعه‌ای که قصد خدمت به آن را دارد، ارزیابی می‌کند. تا حد امکان تعصب را از بین می‌برد و نسبت به ارزش‌ها و باورهای فرهنگی دیگران حساس است.

باید به طور مستقل خروجی‌های خود را با دقت حرفه‌ای لازم، راستی‌آزمایی و تأیید کنند تا اطمینان حاصل شود که اسناد، اطلاعات یا مراجع شخص ثالث دقیق هستند، دارای ارجاع و تأیید لازم هستند و به درستی مجوز یا مجوز استفاده دارند. سعی در پنهان کردن یا تغییر ظاهر استفاده از هوش مصنوعی در خروجی حرفه‌ای خود ندارند. ماهیت منبع باز هوش مصنوعی و مسائل مربوط به محرمانگی، از جمله ورود اطلاعات نادرست، گمراه‌کننده یا فریبنده را تشخیص دهند.

شرکت‌ها و موسساتی که ابزارهای هوش مصنوعی را در اختیار دارند، توسعه می‌دهند و معامله می‌کنند، کسانی هستند که جزئیات ابزارهای هوش مصنوعی را بهتر از هر کس دیگری درک می‌کنند، آنها الگوریتم‌های اساسی که ابزارهای هوش مصنوعی بر اساس آنها کار می‌کنند و داده‌هایی که ابزارهای هوش مصنوعی از آنها آموزش می‌بینند را می‌شناسند. بنابراین، این شرکت‌ها همچنین باید اطلاعاتی در رابطه با اصول اخلاق در توسعه هوش مصنوعی ارائه دهند. در واقع، شرکت‌هایی وجود دارند که به این موضوع علاقه‌مند هستند.

گوگل متعهد است که ابزارهای هوش مصنوعی را برای مناطقی که خطر آسیب قابل توجهی وجود دارد، توسعه ندهد. ما فقط در مواردی که معتقدیم مزایای آن به طور قابل توجهی از خطرات بیشتر است و حفاظ‌های مناسب را در نظر می‌گیریم، اقدام خواهیم کرد. سلاح‌ها یا سایر فناوری‌هایی که هدف اصلی یا استقرار آنها ایجاد یا تسهیل مستقیم آسیب انسانی است. فناوری‌هایی که اطلاعات را برای نظارت جمع‌آوری یا استفاده می‌کنند و هنجارهای پذیرفته شده بین‌المللی را نقض می‌کنند. فناوری‌هایی که هدف آنها نقض اصول پذیرفته شده عمومی حقوق بین‌الملل و حقوق بشر است.

در حوزه امنیت و ایمنی، گوگل متعهد می‌شود: «ما به توسعه و اجرای اقدامات امنیتی و ایمنی قوی برای جلوگیری از پیامدهای ناخواسته‌ای که خطرات آسیب‌زا ایجاد می‌کنند، ادامه خواهیم داد. ما سیستم‌های هوش مصنوعی خود را به گونه‌ای طراحی خواهیم کرد که به طور مناسب محتاط باشند و به دنبال توسعه آنها مطابق با بهترین شیوه‌ها در تحقیقات ایمنی هوش مصنوعی خواهیم بود. ما اصول حریم خصوصی خود را در توسعه و استفاده از فناوری‌های هوش مصنوعی خود لحاظ خواهیم کرد. ما فرصت‌هایی را برای اطلاع‌رسانی و رضایت فراهم خواهیم کرد، معماری‌های محافظت از حریم خصوصی را تشویق خواهیم کرد و شفافیت و کنترل‌های مناسبی را بر استفاده از داده‌ها فراهم خواهیم کرد.»

مشابه گوگل، مایکروسافت نیز بیانیه‌ای در مورد اصول و رویکرد هوش مصنوعی منتشر کرد و تأکید کرد: «ما متعهد هستیم که اطمینان حاصل کنیم سیستم‌های هوش مصنوعی مسئولانه و به گونه‌ای توسعه می‌یابند که اعتماد مردم را تضمین کند...». علاوه بر این، به هر طریقی، شرکت‌های بزرگ فناوری مانند آمازون و OpenAI که سرمایه‌گذاری‌های هنگفتی در توسعه ابزارهای هوش مصنوعی انجام می‌دهند نیز تعهدات خود را پذیرفته‌اند.

نمونه‌های زیادی در تاریخ، دوگانگی فناوری، شامل عوامل مثبت و منفی، را ثابت کرده‌اند. گذشته از همه اینها، اگرچه هوش مصنوعی یک پلتفرم فناوری بسیار «پیشرفته» است، اما همچنان مبتنی بر الگوریتم‌ها و داده‌هایی است که توسط انسان‌ها توسعه یافته و جمع‌آوری شده‌اند؛ در عین حال، اکثر محصولات هوش مصنوعی بخشی از برنامه‌های تجاری شرکت‌های مالک آنها هستند.

بنابراین، همیشه خطرات بالقوه‌ای از طرف فنی و همچنین از طرف خود تیم توسعه و مدیریت محصول وجود دارد. مشکل اینجا میزان تأثیری است که ابزارهای هوش مصنوعی می‌توانند بر اکثریت، حتی بر سطح اجتماعی-اقتصادی یک جامعه داشته باشند. توجه به موقع به کنترل اخلاقی هنگام استفاده از فناوری هوش مصنوعی، با مشارکت سازمان‌های بین‌المللی بزرگ مانند سازمان ملل متحد، دولت‌ها، انجمن‌های صنعتی و مهمتر از همه، درست در واحدهای توسعه فناوری، نشانه‌ی خوشایندی است.

با این حال، از آنجایی که فهرست ابزارهای هوش مصنوعی به طور مداوم نسخه‌های جدیدی را منتشر می‌کند که هر کدام پیچیده‌تر و پیشرفته‌تر از نسخه قبلی هستند، ضوابط، اصول یا دستورالعمل‌ها نیز باید به موقع به‌روزرسانی و تکمیل شوند و علاوه بر این، باید در پیشگیری، محدود کردن و کنترل توسعه‌دهندگان و کاربران محصول در چارچوبی که در آن توانایی رعایت کنترل اخلاقی در فناوری هوش مصنوعی به طور کلی و به ویژه در کارکنان رسانه می‌تواند به بالاترین بهره‌وری دست یابد، پیشگیرانه عمل کنند.



منبع

نظر (0)

No data
No data

در همان موضوع

در همان دسته‌بندی

تای هونگ، قهرمان کار، مستقیماً مدال دوستی را از ولادیمیر پوتین، رئیس جمهور روسیه، در کرملین دریافت کرد.
در مسیر فتح فو سا فین، در جنگل خزه‌های پریان گم شده‌ام
امروز صبح، شهر ساحلی کوی نون در مه «رویایی» است
زیبایی مسحورکننده سا پا در فصل «شکار ابرها»

از همان نویسنده

میراث

شکل

کسب و کار

امروز صبح، شهر ساحلی کوی نون در مه «رویایی» است

رویدادهای جاری

نظام سیاسی

محلی

محصول