Vietnam.vn - Nền tảng quảng bá Việt Nam

کسب‌وکارهایی که از هوش مصنوعی مسئولانه استفاده می‌کنند، از مزیت تجاری بهره‌مند خواهند شد.

پروفسور توبی والش - دانشگاه نیو ساوت ولز، استرالیا، در حاشیه برنامه گفتگوی «هوش مصنوعی برای بشریت: اخلاق و ایمنی هوش مصنوعی در عصر جدید» درباره استفاده مسئولانه و اخلاقی از هوش مصنوعی صحبت کرد.

VietnamPlusVietnamPlus03/12/2025

میزگرد «هوش مصنوعی برای بشریت: اخلاق و ایمنی هوش مصنوعی در عصر جدید» در چارچوب هفته علم و فناوری VinFuture 2025، دانشمندان، سیاستمداران و مخترعان را گرد هم می‌آورد تا در مورد توسعه مسئولانه هوش مصنوعی، به سمت ارزش‌های انسانی، بحث کنند.

در حاشیه این بحث، پروفسور توبی والش - دانشگاه نیو ساوت ولز (استرالیا)، عضو آکادمی انجمن ماشین‌آلات محاسباتی آمریکا، در مورد استفاده اخلاقی و مسئولانه از هوش مصنوعی مطالبی را به اشتراک گذاشت.

استفاده مسئولانه از هوش مصنوعی باید اجباری شود

- به گفته استاد، استفاده مسئولانه از هوش مصنوعی باید داوطلبانه باشد یا اجباری؟ و ما واقعاً چگونه باید در قبال هوش مصنوعی رفتار کنیم؟

پروفسور توبی والش: من کاملاً معتقدم که استفاده مسئولانه از هوش مصنوعی باید اجباری باشد. در حال حاضر، با توجه به حجم عظیم پول‌هایی که از طریق هوش مصنوعی به دست می‌آید، انگیزه‌های نادرستی وجود دارد و تنها راه برای اطمینان از رفتار خوب، وضع مقررات سختگیرانه است تا منافع عمومی همیشه در برابر منافع تجاری متعادل باشد.

- آیا می‌توانید نمونه‌های مشخصی از کاربردهای مسئولانه و اخلاقی هوش مصنوعی در کشورهای مختلف ارائه دهید؟

پروفسور توبی والش: یک مثال کلاسیک، تصمیمات پرمخاطره، مانند صدور حکم و مجازات در ایالات متحده است که در آن از یک سیستم هوش مصنوعی برای ارائه توصیه‌هایی در مورد مدت زندان یک فرد و احتمال ارتکاب مجدد جرم استفاده می‌شود.

متأسفانه، این سیستم بر اساس داده‌های تاریخی آموزش دیده و ناخواسته منعکس‌کننده تعصبات نژادی گذشته است که منجر به تبعیض علیه سیاه‌پوستان می‌شود. ما نباید اجازه دهیم سیستم‌هایی مانند این تصمیم بگیرند که چه کسی زندانی شود.

- وقتی هوش مصنوعی اشتباه می‌کند، چه کسی مسئول است؟ به خصوص در مورد عوامل هوش مصنوعی، آیا ما توانایی اصلاح مکانیسم‌های عملیاتی آنها را داریم؟

پروفسور توبی والش: مشکل اصلی وقتی هوش مصنوعی اشتباه می‌کند این است که ما نمی‌توانیم آن را پاسخگو بدانیم. هوش مصنوعی انسان نیست و این یک نقص در هر سیستم حقوقی در جهان است. فقط انسان‌ها مسئول تصمیمات و اعمال خود هستند.

ناگهان، ما یک «عامل» جدید به نام هوش مصنوعی داریم که می‌تواند - اگر به آن اجازه دهیم - در دنیای ما تصمیم‌گیری کند و اقداماتی انجام دهد، که این یک چالش را ایجاد می‌کند: چه کسی را پاسخگو خواهیم دانست؟

پاسخ این است که شرکت‌هایی که سیستم‌های هوش مصنوعی را مستقر و اداره می‌کنند، در قبال عواقبی که این «ماشین‌ها» ایجاد می‌کنند، پاسخگو باشند.

vnp-toby-walsh-4.jpg

پروفسور توبی والش - دانشگاه نیو ساوت ولز، در سمینار «هوش مصنوعی برای بشریت: اخلاق و ایمنی هوش مصنوعی در عصر جدید» در چارچوب هفته علم و فناوری VinFuture 2025 به اشتراک گذاشت. (عکس: مین سون/ویتنام پلاس)

- بسیاری از شرکت‌ها نیز از هوش مصنوعی مسئولانه صحبت می‌کنند. چگونه می‌توانیم به آنها اعتماد کنیم؟ از کجا بدانیم که آنها جدی و جامع‌نگر هستند و فقط از «هوش مصنوعی مسئولانه» به عنوان یک ترفند بازاریابی استفاده نمی‌کنند؟

پروفسور توبی والش: ما باید شفافیت را افزایش دهیم. درک قابلیت‌ها و محدودیت‌های سیستم‌های هوش مصنوعی مهم است. ما همچنین باید «با عمل کردن رأی دهیم» - یعنی انتخاب کنیم که از خدمات به طور مسئولانه استفاده کنیم.

من واقعاً معتقدم که نحوه استفاده مسئولانه از هوش مصنوعی توسط کسب‌وکارها، به یک عامل تمایز در بازار تبدیل خواهد شد و به آنها مزیت تجاری می‌دهد. اگر شرکتی به داده‌های مشتری احترام بگذارد، از آن سود خواهد برد و مشتریان را جذب خواهد کرد.

کسب‌وکارها متوجه خواهند شد که انجام کار درست نه تنها اخلاقی است، بلکه باعث موفقیت بیشتر آنها نیز می‌شود. من این را راهی برای تمایز بین کسب‌وکارها می‌دانم و کسب‌وکارهای مسئول، کسب‌وکارهایی هستند که می‌توانیم در تجارت با آنها احساس راحتی کنیم.

«اگر مراقب نباشیم، ممکن است دوره‌ای از استعمار دیجیتال را تجربه کنیم»

- ویتنام یکی از معدود کشورهایی است که در حال بررسی تصویب قانون هوش مصنوعی است. ارزیابی شما از این موضوع چیست؟ به نظر شما، برای کشورهای در حال توسعه مانند ویتنام، چالش‌های مربوط به اخلاق و امنیت در توسعه هوش مصنوعی چیست؟ این استاد چه توصیه‌هایی برای ویتنام برای دستیابی به اهداف خود در استراتژی هوش مصنوعی - یعنی قرار گرفتن در صدر منطقه و جهان در تحقیقات و تسلط بر هوش مصنوعی - دارد؟

پروفسور توبی والش: من خوشحالم که ویتنام یکی از کشورهای پیشگامی است که قانون اختصاصی در مورد هوش مصنوعی خواهد داشت. این مهم است زیرا هر کشوری ارزش‌ها و فرهنگ خاص خود را دارد و برای محافظت از این ارزش‌ها به قوانینی نیاز دارد.

ارزش‌ها و فرهنگ ویتنامی با استرالیا، چین و ایالات متحده متفاوت است. ما نمی‌توانیم انتظار داشته باشیم که شرکت‌های فناوری چینی یا آمریکایی به طور خودکار از فرهنگ و زبان ویتنامی محافظت کنند. ویتنام باید ابتکار عمل را برای محافظت از این موارد به دست بگیرد.

vnp-toby-walsh-2.jpg

پروفسور توبی والش هشدار می‌دهد که اگر مراقب نباشیم، ممکن است دوره‌ای از استعمار دیجیتال را تجربه کنیم. (عکس: مین سون/ویتنام پلاس)

من می‌دانم که در گذشته، بسیاری از کشورهای در حال توسعه دوره‌ای از استعمار فیزیکی را پشت سر گذاشتند. اگر مراقب نباشیم، ممکن است وارد دوره‌ای از «استعمار دیجیتال» شویم. داده‌های شما مورد سوءاستفاده قرار خواهند گرفت و شما به یک منبع ارزان تبدیل خواهید شد.

اگر کشورهای در حال توسعه صنعت هوش مصنوعی را به گونه‌ای توسعه دهند که فقط از داده‌ها بهره‌برداری کند، بدون اینکه منافع خود را کنترل یا محافظت کند، این امر در معرض خطر است.

- خب، پروفسور، چطور باید بر این وضعیت غلبه کرد؟

پروفسور توبی والش: ساده است، روی افراد سرمایه‌گذاری کنید. مهارت‌های افراد را ارتقا دهید، مطمئن شوید که هوش مصنوعی را درک می‌کنند. از کارآفرینان هوش مصنوعی، شرکت‌ها و دانشگاه‌ها حمایت کنید. فعال باشید. به جای اینکه منتظر کشورهای دیگر باشیم تا فناوری را منتقل کنند یا ما را راهنمایی کنند، باید فعال باشیم و صاحب فناوری باشیم.

مهم‌تر از همه، ما باید قویاً از پلتفرم‌های رسانه‌های اجتماعی حمایت کنیم تا محیطی امن برای کاربران در ویتنام ایجاد کنند، در حالی که بر دموکراسی این کشور تأثیر نگذارند.

در واقع، نمونه‌های بی‌شماری وجود دارد که نشان می‌دهد چگونه محتوای رسانه‌های اجتماعی بر نتایج انتخابات تأثیر گذاشته، کشورها را دچار تفرقه کرده و حتی تروریسم را تحریک کرده است.

- هوش مصنوعی در ویتنام بسیار توسعه یافته است. در سال‌های اخیر، ویتنام سیاست‌های زیادی برای ترویج هوش مصنوعی داشته است، اما ویتنام با مشکلی نیز روبرو است که همان کلاهبرداری ناشی از هوش مصنوعی است. بنابراین، به گفته استاد، ویتنام چگونه باید با این وضعیت برخورد کند؟

پروفسور توبی والش: برای افراد، فکر می‌کنم ساده‌ترین راه تأیید اطلاعات است. به عنوان مثال، وقتی یک تماس تلفنی یا ایمیل، مثلاً از یک بانک، دریافت می‌کنیم، باید دوباره آن را بررسی کنیم: می‌توانیم با آن شماره تلفن تماس بگیریم یا مستقیماً با بانک تماس بگیریم تا اطلاعات را تأیید کنیم. امروزه ایمیل‌ها، شماره تلفن‌های جعلی زیادی وجود دارد، حتی تماس‌های زوم را می‌توان جعلی کرد. این کلاهبرداری‌ها بسیار ساده، ارزان هستند و زمان زیادی نمی‌برند.

در خانواده من، ما هم یک اقدام امنیتی مخصوص به خودمان داریم: یک «سوال محرمانه» که فقط اعضای خانواده می‌دانند، مثلاً اسم خرگوش خانگی‌مان. این کار تضمین می‌کند که اطلاعات مهم در خانواده باقی می‌ماند و به بیرون درز نمی‌کند.

- خیلی ممنونم./.

پروفسور توبی والش، محقق افتخاری ARC و استاد علوم در هوش مصنوعی (AI) در دانشگاه نیو ساوت ولز سیدنی (UNSW) است. او از طرفداران سرسخت تعیین محدودیت‌ها برای اطمینان از استفاده از هوش مصنوعی برای بهبود زندگی مردم است.

او همچنین عضو آکادمی علوم استرالیا است و در فهرست بین‌المللی «افراد تأثیرگذار در هوش مصنوعی» قرار گرفته است.

(ویتنام+)

منبع: https://www.vietnamplus.vn/doanh-nghiep-su-dung-ai-co-trach-nhiem-se-mang-lai-loi-the-thuong-mai-post1080681.vnp


نظر (0)

لطفاً نظر دهید تا احساسات خود را با ما به اشتراک بگذارید!

در همان موضوع

در همان دسته‌بندی

کلیسای جامع نوتردام در شهر هوشی مین با نورپردازی‌های زیبا به استقبال کریسمس ۲۰۲۵ می‌رود.
دختران هانوی برای کریسمس لباس‌های زیبایی می‌پوشند
روستای گل داوودی تت در گیا لای که پس از طوفان و سیل، حال و هوای بهتری پیدا کرده، امیدوار است که دیگر قطعی برق برای نجات گیاهان وجود نداشته باشد.
پایتخت زردآلوی زرد در منطقه مرکزی پس از دو فاجعه طبیعی متحمل خسارات سنگینی شد.

از همان نویسنده

میراث

شکل

کسب و کار

کافی‌شاپ دالات به دلیل ایفای نقش «فیلم هنرهای رزمی» توسط صاحبش، شاهد افزایش ۳۰۰ درصدی مشتریان خود بوده است.

رویدادهای جاری

نظام سیاسی

محلی

محصول