Vietnam.vn - Nền tảng quảng bá Việt Nam

ویتنام برای جلوگیری از خطر تبدیل شدن به یک منبع ارزان چه باید بکند؟

(دن تری) - در شرایطی که ویتنام یکی از کشورهای پیشگام در حال بررسی اعلام قانون هوش مصنوعی است، مشکل نه تنها ترویج فناوری، بلکه محافظت از حاکمیت دیجیتال و امنیت مردم نیز هست.

Báo Dân tríBáo Dân trí03/12/2025


انفجار هوش مصنوعی (AI) مزایای زیادی برای بشریت به همراه دارد، اما عواقب بی‌شماری را نیز به دنبال دارد: از تعصب نژادی، کلاهبرداری آنلاین پیشرفته گرفته تا خطر تبدیل شدن کشورهای در حال توسعه به "معادن داده" ارزان.

با توجه به این واقعیت، آیا استفاده مسئولانه از هوش مصنوعی باید داوطلبانه باشد یا اجباری؟ ویتنام هنگام ایجاد یک کریدور قانونی برای این حوزه چه باید بکند؟

در حاشیه رویداد هفته علم و فناوری VinFuture، خبرنگار گفتگویی با پروفسور توبی والش - دانشگاه نیو ساوت ولز (استرالیا)، عضو آکادمیسین انجمن کامپیوتر آمریکا داشت.

این استاد دانشگاه، بینش‌هایی در مورد نحوه «رفتار» ما با هوش مصنوعی ارائه می‌دهد، از پاسخگو دانستن «ماشین‌ها» گرفته تا نکاتی برای خانواده‌ها جهت محافظت از خود در برابر موج کلاهبرداری‌های پیشرفته.

چه کسی مسئول هوش مصنوعی است؟

استاد، آیا استفاده مسئولانه از هوش مصنوعی باید داوطلبانه باشد یا اجباری؟ و ما واقعاً چگونه باید در قبال هوش مصنوعی رفتار کنیم؟

- من کاملاً معتقدم که استفاده مسئولانه از هوش مصنوعی باید اجباری باشد . انگیزه‌های نادرستی در این زمینه وجود دارد ، به طوری که مبالغ هنگفتی از طریق هوش مصنوعی به دست می‌آید، و تنها راه برای اطمینان از رفتار مناسب، اعمال مقررات سختگیرانه است ، به طوری که منافع عمومی همیشه با منافع تجاری متعادل باشد .

وقتی هوش مصنوعی اشتباه می‌کند، چه کسی مسئول است؟ به خصوص در مورد عوامل هوش مصنوعی، آیا ما توانایی اصلاح مکانیسم‌های عملیاتی آنها را داریم؟

مشکل اصلی اشتباه کردن هوش مصنوعی این است که ما نمی‌توانیم آن را مسئول بدانیم. هوش مصنوعی انسان نیست - و این یک نقص در هر سیستم حقوقی در جهان است. فقط انسان‌ها را می‌توان در قبال تصمیمات و اعمالشان مسئول دانست.

ویتنام برای جلوگیری از خطر تبدیل شدن به یک منبع ارزان چه باید بکند؟ - 1

ناگهان، ما یک «عامل» جدید، یعنی هوش مصنوعی، داریم که می‌تواند - اگر به آن اجازه دهیم - در دنیای ما تصمیم‌گیری کند و اقداماتی انجام دهد، که این امر چالشی را ایجاد می‌کند: چه کسی را پاسخگو خواهیم دانست؟

پاسخ این است: شرکت‌هایی که سیستم‌های هوش مصنوعی را مستقر و اداره می‌کنند، باید مسئول عواقبی باشند که این «ماشین‌ها» ایجاد می‌کنند.

بسیاری از شرکت‌ها همچنین در مورد هوش مصنوعی مسئولانه صحبت می‌کنند. چگونه می‌توانیم به آنها اعتماد کنیم؟ چگونه بدانیم که آنها جدی و جامع هستند و فقط از «هوش مصنوعی مسئولانه» به عنوان یک ترفند بازاریابی استفاده نمی‌کنند؟

- ما باید شفافیت را افزایش دهیم. درک قابلیت‌ها و محدودیت‌های سیستم‌های هوش مصنوعی مهم است. ما همچنین باید «با عمل کردن رأی دهیم»، یعنی انتخاب کنیم که از خدمات به طور مسئولانه استفاده کنیم.

من واقعاً معتقدم که نحوه‌ی استفاده‌ی مسئولانه‌ی کسب‌وکارها از هوش مصنوعی، به یک عامل تمایز در بازار تبدیل خواهد شد و به آنها یک مزیت تجاری می‌دهد.

اگر شرکتی به داده‌های مشتری احترام بگذارد، به نفع آن خواهد بود و مشتریان را جذب می‌کند. کسب‌وکارها متوجه خواهند شد که انجام کار درست نه تنها اخلاقی است، بلکه به موفقیت بیشتر آنها نیز کمک خواهد کرد. من این را راهی برای تمایز بین کسب‌وکارها می‌دانم و کسب‌وکارهای مسئول، کسب‌وکارهایی هستند که می‌توانیم در تجارت با آنها احساس راحتی کنیم.

ویتنام باید به طور فعال از ارزش‌های فرهنگی محافظت کند.

ویتنام یکی از معدود کشورهایی است که در حال بررسی تصویب قانون هوش مصنوعی است. ارزیابی شما از این موضوع چیست؟ به نظر شما، برای کشورهای در حال توسعه مانند ویتنام، چالش‌های مربوط به اخلاق و ایمنی در توسعه هوش مصنوعی چیست؟

- من بسیار خوشحالم که ویتنام یکی از کشورهای پیشگام در زمینه داشتن قانون تخصصی هوش مصنوعی است. این مهم است زیرا هر کشوری ارزش‌ها و فرهنگ خاص خود را دارد و به قوانینی برای محافظت از آن ارزش‌ها نیاز دارد.

ارزش‌ها و فرهنگ ویتنامی با استرالیا، چین و ایالات متحده متفاوت است. ما نمی‌توانیم انتظار داشته باشیم که شرکت‌های فناوری چینی یا آمریکایی به طور خودکار از فرهنگ و زبان ویتنامی محافظت کنند. ویتنام باید ابتکار عمل را برای محافظت از این موارد به دست بگیرد.

من می‌دانم که در گذشته بسیاری از کشورهای در حال توسعه دوره‌ای از استعمار فیزیکی را پشت سر گذاشته‌اند. اگر مراقب نباشیم، ممکن است وارد دوره‌ای از «استعمار دیجیتال» شویم. داده‌های شما مورد سوءاستفاده قرار خواهد گرفت و شما به یک منبع ارزان تبدیل خواهید شد.

اگر کشورهای در حال توسعه صنعت هوش مصنوعی را به گونه‌ای توسعه دهند که فقط از داده‌ها بهره‌برداری کند، بدون اینکه منافع خود را کنترل یا محافظت کند، این امر در معرض خطر است.

پس چگونه می‌توان بر این وضعیت غلبه کرد؟

- ساده است: روی افراد سرمایه‌گذاری کنید. مهارت‌های افراد را ارتقا دهید، مطمئن شوید که هوش مصنوعی را درک می‌کنند. از کارآفرینان، شرکت‌های هوش مصنوعی، دانشگاه‌ها حمایت کنید. فعال باشید. به جای اینکه منتظر کشورهای دیگر باشیم تا فناوری را منتقل کنند یا ما را راهنمایی کنند، خودمان باید فعال باشیم و بر فناوری تسلط پیدا کنیم.

ویتنام برای جلوگیری از خطر تبدیل شدن به یک منبع ارزان چه باید بکند؟ - 2

پروفسور توبی والش در هفته علم و فناوری VinFuture مطلبی را به اشتراک می‌گذارد (عکس: کمیته سازماندهی).

دوم، ما باید قویاً از پلتفرم‌های رسانه‌های اجتماعی حمایت کنیم تا محیطی امن برای کاربران در ویتنام ایجاد کنند، در حالی که بر دموکراسی این کشور تأثیر نگذارند.

در واقع، نمونه‌های بی‌شماری وجود دارد که نشان می‌دهد چگونه محتوای رسانه‌های اجتماعی بر نتایج انتخابات تأثیر گذاشته، کشورها را دچار تفرقه کرده و حتی تروریسم را تحریک کرده است.

من ۴۰ سال است که روی هوش مصنوعی کار می‌کنم. در ۳۰ سال اول، دغدغه‌ام این بود که چگونه می‌توان هوش مصنوعی را قدرتمندتر کرد. در ۱۰ سال گذشته، به طور فزاینده‌ای به توسعه مسئولانه هوش مصنوعی علاقه‌مند شده‌ام و در این مورد صحبت می‌کنم.

با توجه به اینکه ویتنام در حال تدوین قانون هوش مصنوعی است، می‌توانید کمی راهنمایی کنید؟

- موارد زیادی وجود دارد که در آنها نیازی به قوانین جدید نیست. ما از قبل قوانین حفظ حریم خصوصی داریم، از قبل قوانین رقابت داریم. این قوانین موجود همانطور که در دنیای فیزیکی اعمال می‌شوند، در فضای دیجیتال نیز اعمال می‌شوند.

مهم است که این قوانین را در محیط دیجیتال به همان اندازه که در محیط فیزیکی سختگیرانه اجرا می‌کنیم، اجرا کنیم.

با این حال، برخی خطرات جدید در حال ظهور هستند و ما کم‌کم شاهد آنها هستیم. مردم شروع به ایجاد روابط با هوش مصنوعی می‌کنند، از هوش مصنوعی به عنوان درمانگر استفاده می‌کنند و گاهی اوقات این امر به کاربران آسیب می‌رساند، بنابراین باید مراقب باشیم.

ما همیشه تولیدکنندگان را هنگام عرضه محصولات مسئول می‌دانیم. برای مثال، اگر شرکت‌های هوش مصنوعی محصولات هوش مصنوعی را منتشر کنند که به انسان‌ها آسیب برساند، آنها نیز باید مسئول شناخته شوند.

پس چطور می‌توانیم از ایجاد اثرات مضر هوش مصنوعی بر کودکان جلوگیری کنیم و هر زمان که هوش مصنوعی ظاهر می‌شود، محیطی امن برای کودکان ایجاد کنیم؟

- من فکر می‌کنم ما درس‌های زیادی از رسانه‌های اجتماعی نیاموخته‌ایم. بسیاری از کشورها اکنون در حال درک این موضوع هستند که رسانه‌های اجتماعی مزایای زیادی دارند، اما معایب زیادی نیز دارند، به خصوص تأثیر آنها بر سلامت روان، سطح اضطراب و تصویر بدنی جوانان، به ویژه دختران.

بسیاری از کشورها در حال حاضر شروع به اجرای اقداماتی برای رسیدگی به این موضوع کرده‌اند. در استرالیا، محدودیت سنی برای استفاده از رسانه‌های اجتماعی از 10 دسامبر اعمال خواهد شد. من فکر می‌کنم ما به اقدامات مشابهی برای هوش مصنوعی نیاز داریم.

ما در حال ساخت ابزارهایی هستیم که می‌توانند تأثیرات مثبتی داشته باشند، اما می‌توانند مضر هم باشند و باید ذهن و قلب فرزندانمان را از این تأثیرات منفی محافظت کنیم.

علاوه بر این، امیدوارم کشورها مقررات سختگیرانه‌ای را برای مدیریت شبکه‌های اجتماعی وضع کنند و از این طریق محیطی واقعاً امن برای همه هنگام استفاده از هوش مصنوعی ایجاد کنند.

در واقع، نه تنها کودکان، بلکه بزرگسالان نیز با خطرات ناشی از خود هوش مصنوعی مواجه هستند. بنابراین چگونه مردم می‌توانند از هوش مصنوعی برای بهبود زندگی خود استفاده کنند و خطرناک نباشند؟

- هوش مصنوعی در زمینه‌های زیادی کاربرد دارد و به بهبود کیفیت زندگی ما کمک می‌کند. در پزشکی، هوش مصنوعی به کشف داروهای جدید کمک می‌کند. در آموزش نیز مزایای مثبت زیادی به همراه دارد.

با این حال، دسترسی به هوش مصنوعی بدون اقدامات حفاظتی کافی بسیار خطرناک است. ما شاهد پرونده‌های حقوقی در ایالات متحده بوده‌ایم که در آن والدین از شرکت‌های فناوری که فرزندانشان را پس از تعامل با چت‌بات‌های هوش مصنوعی به سمت خودکشی سوق داده‌اند، شکایت کرده‌اند.

اگرچه درصد کاربران ChatGPT که مشکلات سلامت روان را تجربه می‌کنند تنها چند درصد است، با وجود صدها میلیون کاربر، تعداد واقعی آنها صدها هزار نفر است.

داده‌ها برای توسعه هوش مصنوعی بسیار مهم هستند، اما از دیدگاه مدیریتی، اگر مدیریت داده‌ها بیش از حد سختگیرانه باشد، مانع توسعه هوش مصنوعی خواهد شد. به نظر شما، سست کردن مدیریت داده‌ها چه خطراتی می‌تواند ایجاد کند؟ چگونه می‌توان جمع‌آوری داده‌ها و مدیریت ایمن داده‌ها را با ایجاد توسعه برای هوش مصنوعی متعادل کرد؟

- کاملاً موافقم. داده‌ها در قلب پیشرفت هوش مصنوعی قرار دارند ، زیرا این داده‌ها هستند که آن را هدایت می‌کنند. بدون داده‌ها، ما هیچ پیشرفتی نخواهیم داشت. داده‌های با کیفیت بالا در هسته هر کاری است که انجام می‌دهیم. در واقع، ارزش تجاری و مزیت رقابتی که شرکت‌ها به دست می‌آورند از داده‌ها ناشی می‌شود. چه داده‌های باکیفیت داشته باشیم و چه نداشته باشیم، این مسئله کلیدی است.

دیدن اینکه کتاب‌های نویسندگان در سراسر جهان - از جمله کتاب من - بدون اجازه و بدون پرداخت غرامت مورد استفاده قرار می‌گیرد، بسیار آزاردهنده است. این عملی دزدی از ثمره کار دیگران است. اگر این وضعیت ادامه یابد، نویسندگان انگیزه نوشتن کتاب را از دست می‌دهند و ما ارزش‌های فرهنگی را که گرامی می‌داریم از دست خواهیم داد.

ما باید به دنبال راه‌حلی منصفانه‌تر از آنچه اکنون داریم باشیم.

در حال حاضر، «سیلیکون ولی» محتوا و خلاقیت را از نویسندگان می‌گیرد بدون اینکه هزینه‌ای برای آن بپردازد - این وضعیت ناپایدار است. من وضعیت فعلی را با نپستر و روزهای اولیه موسیقی آنلاین در دهه ۲۰۰۰ مقایسه می‌کنم. در آن زمان، موسیقی آنلاین کاملاً «دزدیده» می‌شد، اما این وضعیت نمی‌توانست برای همیشه ادامه یابد، زیرا نوازندگان برای ادامه خلق آثارشان به درآمد نیاز داشتند.

در نهایت، ما سیستم‌های پخش پولی مانند اسپاتیفای یا اپل موزیک یا موسیقی‌های مبتنی بر تبلیغات داریم که بخشی از درآمد آن به هنرمند برمی‌گردد. ما باید همین کار را با کتاب‌ها انجام دهیم تا نویسندگان از داده‌های خود ارزش کسب کنند. در غیر این صورت، هیچ کس انگیزه‌ای برای نوشتن کتاب نخواهد داشت و جهان بدون نوشته شدن کتاب‌های جدید بسیار بدتر خواهد شد.

ویتنام برای جلوگیری از خطر تبدیل شدن به یک منبع ارزان چه باید بکند؟ - 3

در چارچوب هفته علم و فناوری VinFuture، نمایشگاه «Toa V - نقطه تماس علم» نیز در مرکز هنرهای معاصر وینکام رویال سیتی برگزار خواهد شد (عکس: کمیته برگزارکننده).

هوش مصنوعی در ویتنام بسیار توسعه یافته است. در سال‌های اخیر، ویتنام سیاست‌های زیادی برای ترویج هوش مصنوعی داشته است، اما ویتنام نیز با مشکلی روبرو است که همان کلاهبرداری ناشی از هوش مصنوعی است. بنابراین، به گفته پروفسور، ویتنام چگونه باید با این وضعیت برخورد کند؟ توصیه پروفسور برای کسانی که امروزه از هوش مصنوعی برای اطمینان از ایمنی و محافظت از داده‌های خود استفاده می‌کنند چیست؟

- برای هر فرد، فکر می‌کنم ساده‌ترین راه، تأیید اطلاعات است. به عنوان مثال، هنگام دریافت تماس تلفنی یا ایمیل، مثلاً از یک بانک، باید دوباره بررسی کنیم: می‌توانیم با شماره مشترک تماس بگیریم یا مستقیماً با بانک تماس بگیریم تا اطلاعات را تأیید کنیم.

این روزها کلی ایمیل جعلی، شماره تلفن جعلی و حتی تماس‌های جعلی زوم وجود دارد. این کلاهبرداری‌ها ساده، ارزان و بدون صرف وقت زیاد هستند.

در خانواده من، ما هم یک اقدام امنیتی مخصوص به خودمان داریم: یک «سوال محرمانه» که فقط اعضای خانواده می‌دانند، مثلاً اسم خرگوش خانگی‌مان. این کار تضمین می‌کند که اطلاعات مهم در خانواده باقی می‌ماند و به بیرون درز نمی‌کند.

ویتنام نیز آموزش هوش مصنوعی را در آموزش عمومی گنجانده است، بنابراین در این فرآیند چه مواردی باید مورد توجه قرار گیرد؟

- هوش مصنوعی، آنچه آموزش داده می‌شود و نحوه آموزش آن را تغییر می‌دهد. این امر بر مهارت‌های مهم آینده، مانند تفکر انتقادی، مهارت‌های ارتباطی، هوش اجتماعی و هوش هیجانی تأثیر می‌گذارد. این مهارت‌ها ضروری خواهند شد.

هوش مصنوعی می‌تواند در آموزش این مهارت‌ها کمک کند، به عنوان مثال به عنوان یک معلم خصوصی، دستیار مطالعه شخصی، و ارائه ابزارهای آموزشی بسیار مؤثر از طریق برنامه‌های هوش مصنوعی.

استاد، از اینکه برای گفتگوی ما وقت گذاشتید، متشکریم!

منبع: https://dantri.com.vn/cong-nghe/viet-nam-can-lam-gi-de-tranh-nguy-co-tro-thanh-nguon-luc-re-tien-20251203093314154.htm


نظر (0)

لطفاً نظر دهید تا احساسات خود را با ما به اشتراک بگذارید!

در همان موضوع

در همان دسته‌بندی

کلیسای جامع نوتردام در شهر هوشی مین با نورپردازی‌های زیبا به استقبال کریسمس ۲۰۲۵ می‌رود.
دختران هانوی برای کریسمس لباس‌های زیبایی می‌پوشند
روستای گل داوودی تت در گیا لای که پس از طوفان و سیل، حال و هوای بهتری پیدا کرده، امیدوار است که دیگر قطعی برق برای نجات گیاهان وجود نداشته باشد.
پایتخت زردآلوی زرد در منطقه مرکزی پس از دو فاجعه طبیعی متحمل خسارات سنگینی شد.

از همان نویسنده

میراث

شکل

کسب و کار

کافی‌شاپ دالات به دلیل ایفای نقش «فیلم هنرهای رزمی» توسط صاحبش، شاهد افزایش ۳۰۰ درصدی مشتریان خود بوده است.

رویدادهای جاری

نظام سیاسی

محلی

محصول