پتانسیل با ریسک همراه است
غیرقابل انکار است که هوش مصنوعی (AI) به طور فزایندهای به ابزاری قدرتمند برای حمایت از کارگران و تسهیل زندگی بشر تبدیل میشود. با این حال، این محصولات تکنولوژیکی مانند یک «شمشیر دولبه» هستند، زمانی که توسط افراد شرور برای ارتکاب کلاهبرداری و حمله در فضای مجازی مورد سوء استفاده قرار میگیرند.
در بولتنهای هشدار وزارت امنیت اطلاعات ( وزارت اطلاعات و ارتباطات ) یا انجمن امنیت سایبری، موارد ثبتشدهی زیادی از کلاهبرداری با استفاده از فناوری هوش مصنوعی ذکر شده است. به عنوان مثال، خانم نگوین تان تی - کارمند اداری در هانوی - هنگام چت با یکی از دوستانش از طریق مسنجر فیسبوک، دوستش خداحافظی کرد و مکالمه را پایان داد، اما ناگهان به پیامک برگشت و درخواست قرض گرفتن پول و انتقال پول به حساب بانکی کرد. اگرچه نام حساب با نام دوستش مطابقت داشت، خانم تی مشکوک شد، بنابراین برای تأیید درخواست تماس ویدیویی کرد. دوستش بلافاصله موافقت کرد، اما به دلیل «قطعی شبکه» تماس فقط چند ثانیه طول کشید.
خانم تی با دیدن چهره دوستش در تماس ویدیویی و اینکه صدا هم درست بود، پول را منتقل کرد. با این حال، تنها پس از موفقیتآمیز بودن انتقال، متوجه شد که در دام هکر افتاده است.
نه تنها خانم T، بلکه بسیاری از قربانیان دیگر، دوستان و اقوام نیز به همین روش مورد کلاهبرداری قرار گرفتند. میزان پولی که افراد شرور با جعل هویت با ابزارها و صداهای دیپ فیک کلاهبرداری کردهاند، به دهها میلیون دونگ رسیده است.
نمونه بارز دیگر استفاده از هوش مصنوعی برای تصاحب داراییها، مورد آقای NTH است. در این مورد، کلاهبرداران هنگام استفاده از تلفن اندروید، تلهای با دستورالعمل نصب یک لینک بدافزار راهاندازی کردند. از آنجا، آنها کنترل تلفن و حسابهای بانکی را برای انتقال پول به شخص ثالث به دست گرفتند. علاوه بر این، بدافزار به طور خودکار با اطلاعات تماس موجود تماس گرفته و پیامهای خودکاری ارسال میکرد که درخواست انتقال پول میکرد.
آقای NTH گفت که فرد کلاهبردار ادعا کرده که "افسر پلیس " است، با شماره تلفن او تماس گرفته و درخواست تأیید اطلاعات شناسایی شخصیاش را کرده است. از آنجا که او مسن، ناآشنا با فناوری و سادهلوح بوده، قربانی تلفن خود را به شخص ثالثی داده تا از او بخواهد دستورالعملهای کلاهبردار را دنبال کند و در نتیجه برنامه مخرب "DichVuCong.apk" را روی تلفن خود دانلود و نصب کرده است.
آقای تران نگوین چونگ، رئیس دپارتمان امنیت سیستمهای اطلاعاتی (دپارتمان امنیت اطلاعات) گفت: وقتی فناوری هوش مصنوعی توسعه یابد، تشخیص و تمایز بین محتوای واقعی و جعلی در فضای مجازی دشوارتر خواهد شد و هر کسی میتواند هدف یا قربانی حملات سایبری توسط مجرمان با استفاده از فناوری هوش مصنوعی قرار گیرد. با این حال، قربانی شدن یا نشدن به دانش و اطلاعات لازم هر فرد بستگی دارد.
این وضعیت کلاهبرداری فناوری هوش مصنوعی نه تنها در ویتنام، بلکه در بسیاری از کشورهای جهان نیز مشاهده میشود. در حال حاضر، آژانسها، سازمانها و شرکتهای بزرگ فناوری با یکدیگر همکاری میکنند تا اقدامات و راهحلهای فنی را برای شناسایی و جلوگیری از ریشه آن پیدا کنند.
در دوره فعلی، اقدام مهم، ترویج تبلیغات، افزایش آگاهی مردم از روشها، ترفندها و راههای تشخیص و مقابله با این شکل پیچیده جعل است تا به کاهش و محدود کردن تأثیر جعل عمیق بر فعالیتها در فضای مجازی کمک کند. در صورت بروز تحولات و اشکال جدید کلاهبرداری، هشدارهای گسترده و پیشگیرانه در رسانههای جمعی منتشر شود.
آقای تران نگوین ترونگ گفت: «در صورت دریافت تماسهای اخاذی حاوی تصاویر یا ویدیوهای حساس، افراد باید آرامش خود را حفظ کنند، منشأ تصاویر و ویدیوها را تأیید و با دقت تحقیق کنند.»
بر اساس گزارش تحقیقاتی «شناسایی خطرات برای اقتصاد جهانی در سال ۲۰۲۴» که توسط دانشگاه اقتصاد (UEB) وابسته به دانشگاه ملی ویتنام، هانوی، منتشر شده است، یکی از خطراتی که اقتصاد جهانی را تحت تأثیر قرار میدهد، ریسک در بخش فناوری است. در این گزارش آمده است که در زمینه رشد سریع هوش مصنوعی، سیاستهای مدیریتی نتوانستهاند با توسعه هوش مصنوعی همگام شوند. اطلاعات نادرستی که هوش مصنوعی ارائه میدهد، به ویژه در سالی مانند امسال که انتخابات زیادی در جهان برگزار میشود، مسائل زیادی را برای امنیت، سیاست، دفاع و صلح در سطح جهان ایجاد کرده است.
نگوین هوانگ جیانگ، معاون وزیر علوم و فناوری، در گفتگو با خبرنگاران روزنامه تین توک گفت: «نخستوزیر تصمیم شماره ۱۲۷/۲۰۲۱ را در مورد استراتژی ملی تحقیقات، توسعه و کاربرد هوش مصنوعی تا سال ۲۰۳۰ صادر کرد. برای اجرای آن، وزارت علوم و فناوری و همچنین سایر وزارتخانهها و شعب به طور جدی و همزمان در حال اجرا هستند، مانند وزارت دادگستری که در حال تحقیق در مورد جنبه حقوقی است. وزارت اطلاعات و ارتباطات در حال تحقیق در مورد فناوری دیجیتال است. وزارت علوم و فناوری همچنین از صنعت ۴.۰ حمایت، تحقیق و توسعه کرده است. در توسعه فناوری اطلاعات تحقیق و اعمال کرده و به توسعه شهرهای دیجیتال و هوشمند خدمت میکند. با این حال، با توسعه سریع و قوی، جنبههای منفی و خطرات هوش مصنوعی نیز زمانی ظاهر شده است که از آن سوءاستفاده میشود تا به ابزاری برای مجرمان سایبری با هدف کلاهبرداری، جعل هویت، تهدید، تصرف اموال و غیره تبدیل شود.
تاکنون، در کنار تحقیقات، وزارت علوم و فناوری و دولت نیز به طور فعال در حال ایجاد یک چارچوب قانونی هستند و از تجربیات سایر کشورهای توسعهیافته درس میگیرند تا حوزه هوش مصنوعی در ویتنام بتواند پتانسیل خود را ارتقا دهد، توسعه را ارتقا دهد و همچنین اخلاق و انسانیت را در حوزه هوش مصنوعی به شدت کنترل و تضمین کند.
توسعه سریع ابزارهای هوش مصنوعی، مسائل زیادی را در مورد حقوق بشر، اخلاق، حریم خصوصی، امنیت اطلاعات و مسئولیت قانونی مطرح کرده است. در مقایسه با جهان، ویتنام هنوز در مراحل اولیه توسعه هوش مصنوعی است. بنابراین، نیاز به مقررات و سیاستهای خاص هوش مصنوعی وجود دارد که برای همه جنبههای زندگی، اقتصاد و جامعه در ویتنام مناسب باشد.
فوراً چارچوب قانونی را صادر کنید
مدیریت جنبههای تاریک هوش مصنوعی نیز موضوعی است که در چندین کشور مورد بحث قرار گرفته است. پارلمان اروپا اولین مجموعه قوانین اساسی جهان را برای تنظیم هوش مصنوعی تصویب کرده است. بسیاری از کارشناسان فناوری معتقدند که این مجموعه قوانین به اتحادیه اروپا کمک میکند تا به هر دو هدف دست یابد: به حداقل رساندن تأثیر منفی توسعه فناوری بر کاربران و همچنین رسیدن به جایگاه غالب رقبای کلیدی در بازار.
اندکی پس از آن، مجمع عمومی سازمان ملل متحد قطعنامهای در مورد هوش مصنوعی (AI) تصویب کرد که حمایت جهانی را از تلاشهای بینالمللی برای اطمینان از اینکه این فناوری جدید به نفع همه کشورها است، به حقوق بشر احترام میگذارد و «ایمن، مطمئن و قابل اعتماد» است، فراهم میکند.
آقای وو نگوک سون، مدیر فنی شرکت سهامی ملی فناوری امنیت سایبری، گفت: «هوش مصنوعی فناوریای است که در خدمت منافع بشر است و از اتوماسیون مراحل مختلف عملیات پشتیبانی میکند. این ابزاری قدرتمند است که برای اهداف مختلفی مانند ارائه خدمات پرسش و پاسخ، تولید نرمافزار و غیره استفاده میشود. با این حال، هوش مصنوعی همچنین جنبه منفی دارد، زمانی که به دست بازیگران بد با هدف ایجاد محتوای جعلی و کدهای مخرب برای حمله به کاربران میافتد. بر این اساس، هوش مصنوعی ابزاری خاص برای ایجاد محصولات یا جرایم نیست، بلکه مسئله مهم «نحوه استفاده» از هوش مصنوعی است.
آقای وو نگوک سان گفت: «من فکر میکنم تحریمها و کریدورهای قانونی واقعاً با سرعت توسعه هوش مصنوعی مطابقت نداشتهاند. ما برای ایجاد و معرفی سیاستهایی جهت محدود کردن خطرات هوش مصنوعی در صورت استفاده برای اهداف بد، که بر حقوق بشر و همچنین امنیت، نظم و ایمنی اجتماعی تأثیر میگذارد، به زمان نیاز داریم.»
دکتر دانگ مین توان، مدیر موسسه CMC ATI، گفت: «از یک سو، ما هنوز باید به تحقیق و توسعه فناوریهای جدید، بهروزرسانی و مطالعه روشهای استفاده از هوش مصنوعی برای اهداف بد ادامه دهیم. از سوی دیگر، ما همچنین باید صداقت را در علم و کار ترویج دهیم. بر این اساس، باید تنظیمات و سرمایهگذاریهایی در محتوا و سیاستهای خاص برای این ابزار در ویتنام انجام شود. به طور خاص، ما همچنین میتوانیم از ابزارهای هوش مصنوعی برای شناسایی محتوا و کدهای مخرب استفاده کنیم. هوش مصنوعی مانند یک «شمشیر دولبه» است که یک فرآیند تأثیر مداوم و پیوسته ایجاد میکند و به طور مداوم با هدف نهایی خدمت به منافع بشر بهبود مییابد.»
کارشناسان میگویند که لازمه این امر، کنترل مسئولانه توسعه محصولات پیشرفته است، زیرا ناتوانی در تنظیم و تسلط بر فناوری منجر به عواقب غیرقابل پیشبینی خواهد شد که به اقتصاد ضرر میرساند و بر تک تک افراد و همچنین کل جامعه تأثیر میگذارد.
صدور مقررات خاص و شفاف نه تنها به جلوگیری و به حداقل رساندن خطرات احتمالی هوش مصنوعی کمک میکند، بلکه به ویتنام کمک میکند تا توجه و سرمایهگذاری شرکتهای پیشرو در فناوری جهان را جلب کند و توسعه صنعت فناوری اطلاعات و هوش مصنوعی داخلی را ارتقا بخشد.
مقاله نهایی: توسعه و کنترل موازی هوش مصنوعی
منبع: https://doanhnghiepvn.vn/cong-nghe/ai-dang-dinh-hinh-tuong-lai-bai-2-nhung-thach-thuc-di-kem/20240614100957238
نظر (0)