پیگرد قانونی پرونده جنایی استفاده از هوش مصنوعی برای تقلب در امتحان فارغ التحصیلی
در حالی که آزمون فارغالتحصیلی دبیرستان ۲۰۲۵ هنوز در حال برگزاری بود، رسانههای اجتماعی اطلاعاتی را منتشر کردند مبنی بر اینکه یک داوطلب از هوش مصنوعی برای حل مسائل در طول آزمون ریاضی استفاده کرده است. وزارت امنیت عمومی در آن زمان بلافاصله تحقیق کرد و منبع اطلاعات را پیدا کرد و کمتر از یک روز پس از دریافت گزارش، مشخص شد که ۳ داوطلب در ۲ شورای امتحان از هوش مصنوعی برای تقلب در طول آزمون استفاده کردهاند. هر ۳ داوطلب به تخلف خود اعتراف کردند.
در اوایل ماه جولای، پلیس هانوی اطلاع داد که داوطلب مخفیانه تلفن خود را به اتاق امتحان آورده، از سوالات امتحان عکس گرفته و با استفاده از دو برنامه هوش مصنوعی، Gemini و StudyX، از آنها برای حل آنها درخواست کمک کرده است. علاوه بر این، در پایان ماه ژوئن، پلیس استان لام دونگ (که قبلاً نام داشت) نیز کشف کرد که داوطلب از یک دوربین دکمهای برای ضبط مستقیم سوالات امتحان رسمی رشته ادبیات استفاده کرده، از دوستش که بیرون بود خواسته تا از ChatGPT برای کمک به حل آنها استفاده کند و پاسخها را بخواند.
نه تنها با استفاده از دستگاههای تکنولوژیکی، بلکه برخی از داوطلبان اکنون از برنامههای هوش مصنوعی برای تقلب در امتحانات مهم استفاده میکنند - عکس: CHATGPT
در موارد فوق، پلیس متخلفان را تحت پیگرد قانونی قرار داده است، زیرا سوالات امتحان فارغ التحصیلی دبیرستان به عنوان اسرار دولتی «فوق سری» طبقه بندی شده است.
سرلشکر تران دین چونگ، معاون مدیر اداره امنیت سیاسی داخلی (PA03) تحت نظر وزارت امنیت عمومی، در یک کنفرانس مطبوعاتی برای پایان دادن به آزمون فارغالتحصیلی دبیرستان ۲۰۲۵، تأیید کرد که این حادثه تقلب در مقیاس کوچکی رخ داده و هیچ شکی در مورد لو رفتن سوالات هنگام شرکت داوطلبان در آزمون وجود نداشته است. آقای چونگ تأکید کرد که این موضوع بر امنیت و ایمنی کل آزمون تأثیری ندارد. او همچنین پیشبینی کرد که استفاده از هوش مصنوعی برای تقلب در آینده پیچیدهتر و پیچیدهتر خواهد شد.
هرچه هوش مصنوعی بیشتر توسعه یابد، کلاهبرداری بیشتر گسترش مییابد
دانشآموزی در شهر هوشی مین که امسال وارد کلاس دوازدهم میشود، اظهار داشت که او و همسالانش در بیشتر دروس، به خصوص هنگام یافتن اطلاعات برای ارائهها، از هوش مصنوعی استفاده میکنند.
این دانشجو گفت: «مواردی وجود دارد که دانشآموزان از هوش مصنوعی برای تقلب در امتحانات نیز استفاده میکنند، اما تعدادشان زیاد نیست، زیرا هوش مصنوعی فقط از موضوعات اجتماعی با تئوری زیاد پشتیبانی میکند، در حالی که موضوعات طبیعی اغلب قابل حل نیستند یا به اشتباه حل میشوند.» وی افزود: «بنابراین، من فکر میکنم با توسعه هوش مصنوعی، تقلب با هوش مصنوعی نیز میتواند گسترش یابد.»
وزارت آموزش و پرورش میتواند با متخصصان هوش مصنوعی - کسانی که قابلیتها و محدودیتهای هوش مصنوعی را درک میکنند - هماهنگی کند تا در مورد روشهای مؤثر آزمونسازی در عصر هوش مصنوعی مشاوره دریافت کند.
استاد نگوین گیا هی، مدرس هوش مصنوعی در دانشگاه سوینبرن (استرالیا)
به گفته سرلشکر تران دین چونگ، این وضعیت نیاز به راهکارهای همزمان برای جلوگیری و توقف آن دارد، مانند ادامه استفاده از فناوری پیشرفته برای تشخیص تقلب با استفاده از هوش مصنوعی یا افزایش هماهنگی بین طرفین. آقای چونگ همچنین پیشنهاد کرد که طرفین، دانشآموزان و افراد مرتبط را در مورد پیامدهای تقلب در امتحانات تبلیغ و آموزش دهند تا از همان ابتدا از این مشکل جلوگیری شود.
دانشآموزان از DeepSeek، یک ابزار هوش مصنوعی محبوب چینی، برای حل سوالات انگلیسی برای امتحان فارغالتحصیلی دبیرستان ۲۰۲۵ استفاده میکنند - عکس: NGOC LONG
ویژگیهای ابزار را در طول امتحان متوقف یا محدود کنید؟
استاد بویی مان هونگ، بنیانگذار و گرداننده اپلیکیشن آموزشی Aiducation، به داستان تعلیق خدمات یا محدود کردن برخی از ویژگیهای ابزارهای تولید هوش مصنوعی مانند DeepSeek، Doubao و غیره توسط بسیاری از شرکتهای فناوری چینی برای جلوگیری از تقلب در امتحانات ورودی دانشگاههای این کشور اشاره کرد.
آقای هونگ از آنجا پیشنهاد داد که ویتنام میتواند مقررات مشابهی را در طول امتحان فارغالتحصیلی دبیرستان اجرا کند. این یک روش مؤثر است زیرا به جلوگیری از ریشه مشکل کمک میکند. آقای هونگ افزود که برنامه آموزشی Aiducation به طور موقت ویژگیهای هوش مصنوعی مربوط به حل مسائل را در روزهای اخیر امتحانات فارغالتحصیلی دبیرستان غیرفعال کرده است تا از سوءاستفاده از این ابزار برای اهداف تقلب جلوگیری شود.
آقای هونگ به طور محرمانه گفت: «امیدوارم به زودی سازوکاری برای شرکتهای فناوری مانند ما ایجاد شود تا با وزارت آموزش و پرورش و سازمانهای مربوطه هماهنگی کنند تا بتوانیم همزمان ارائه خدمات هوش مصنوعی مرتبط را به حالت تعلیق درآوریم تا از صداقت و جدیت امتحان اطمینان حاصل شود.»
با این حال، استاد نگوین گیا هی، مدرس هوش مصنوعی در دانشگاه سوینبرن (استرالیا)، بنیانگذار و مدیرعامل دو شرکت هوش مصنوعی در ویتنام، SkillPixel و AIFicient، گفت که ممنوعیت ابزارهای هوش مصنوعی "بسیار مؤثر" فقط برای کشورهایی مانند ایالات متحده و چین که محصولات هوش مصنوعی داخلی قوی دارند، مناسب است. زیرا در ویتنام، اگر دانشآموزان بخواهند تقلب کنند، عمدتاً از ابزارهای هوش مصنوعی خارجی به جای محصولات داخلی استفاده میکنند.
آقای های گفت: «چین به طور مؤثر این راه حل را اجرا کرد زیرا تقریباً تمام محصولات فناوری ایالات متحده، از جمله ChatGPT را مسدود کرد. اگر ما IP های این ابزارها را در طول امتحان مسدود کنیم، میتوانیم احتمال تقلب را بهتر محدود کنیم، اما این امر تأثیر زیادی بر سایر کاربران خواهد گذاشت زیرا آنها نیز نمیتوانند به آن دسترسی داشته باشند. و حتی اگر IP ها را مسدود کنیم، اگر داوطلب از نرمافزار VPN برای تغییر منطقه استفاده کند، هنوز هم امکان دور زدن وجود دارد.»
آقای های افزود، اگر از شرکتهای هوش مصنوعی خارجی خواسته شود که ویژگی حل تمرین را مسدود کنند، احتمالاً این کار را نخواهند کرد زیرا تحت کنترل دولت ویتنام نیستند.
پستی در پلتفرم هوش مصنوعی StudyX با سوالی در امتحان ریاضی فارغالتحصیلی دبیرستان در تاریخ ۲۶ ژوئن مطابقت داشت - عکس: اسکرینشات
تغییرات باید از کنکور شروع شوند
استاد های با توجه به واقعیت فوق، مدلی از اقدام را در ۳ سطح پیشنهاد کردند. در پایینترین سطح، آگاهی دانشجویان دکترا قرار دارد. ما باید تبلیغات و آموزش اخلاق بیشتری را هنگام استفاده از هوش مصنوعی ترویج دهیم. علاوه بر این، لازم است مجازاتهای خاصی تعیین شود و موارد کلاهبرداری با استفاده از هوش مصنوعی به طور جدی بررسی شود تا الگو قرار گیرد. استاد های نظر خود را اینگونه بیان کرد: «اگرچه نمیتوانیم نیت دانشجویان دکترا را که سرسختانه تقلب میکنند تغییر دهیم، اما برای دانشجویان دکترا که در آستانه تخلف هستند، تبلیغات و آموزش مناسب نتایج بسیار خوبی به همراه خواهد داشت.»
مرحله بعدی، طراحی مجدد نحوه پرسیدن سوالات است، زیرا سوالات چند گزینهای «شرایط بسیار خوبی» برای هوش مصنوعی هستند تا مسائل را با دقت بالا حل کنند. در مقابل، اگر سوالات با انشا، تحلیل و مدیریت موقعیت پرسیده شوند، «قابلیتهای هوش مصنوعی را تا حد زیادی محدود خواهد کرد». آقای های اظهار داشت: «وزارت آموزش و پرورش میتواند با متخصصان هوش مصنوعی - کسانی که قابلیتها و محدودیتهای هوش مصنوعی را درک میکنند - هماهنگی کند تا در مورد روشهای مؤثر پرسشگری در عصر هوش مصنوعی مشاوره دریافت کند.»
آقای های افزود: «در دانشگاهی که من در استرالیا تدریس میکنم، به دانشجویان اجازه داده میشود که امتحانات پایان ترم خود را در خانه بدهند، اما اگر از ChatGPT برای حل آنها استفاده کنند، نمرات بالایی نخواهند گرفت زیرا سوالات برای مقابله با موقعیتها طراحی شدهاند. آنها باید درس را به وضوح بفهمند و بدانند که چگونه محتوا و دانشی را که آموختهاند در آزمون به کار گیرند. در حال حاضر، حتی با وجود ابزارهای پشتیبانی، معلمان هنوز هم باید واقعاً درس را درک کنند تا بتوانند از این ابزار برای پرسیدن سوال استفاده کنند.»
سطح نهایی، افزایش قابلیتهای نظارتی با استفاده از فناوری است، زیرا اگر هوش مصنوعی ابزاری برای پشتیبانی از تقلب باشد، میتواند به ابزاری ضد تقلب نیز تبدیل شود. لازم است که کاربرد سیستمهای نظارتی هوشمند در محلهای امتحان مانند دوربینهای هوش مصنوعی که میتوانند رفتار غیرعادی داوطلبان را در طول آزمون تشخیص دهند، به صورت آزمایشی اجرا شود. استاد های گفت که این یک کاربرد بسیار محبوب در زمینه بینایی کامپیوتر هوش مصنوعی است.
با توجه به این موضوع، دانشآموزی در شهر هوشی مین که امسال وارد کلاس دوازدهم میشود و در بالا به آن اشاره شد، معتقد است که اگر هوش مصنوعی شکوفا نشود، عدالت و جدیت امتحان فارغالتحصیلی دبیرستان تحت تأثیر قرار خواهد گرفت. زیرا در طول فرآیند بررسی، بسیاری از معلمان تمرینهای «ضد هوش مصنوعی» به کلاس دادهاند - سؤالاتی که خود معلمان ساختهاند یا از منابع «آسمانی و زمینی» که در اینترنت موجود نیستند، گرفتهاند و باعث میشوند هوش مصنوعی «به خوبی حل نکند». به گفته این دانشآموز، اگر این سؤالات در امتحان اعمال شود، استفاده از هوش مصنوعی بیفایده خواهد شد.
جهان به دلیل کلاهبرداری هوش مصنوعی دچار سردرد شده است
نه تنها ویتنام، بلکه کشورهای توسعهیافته نیز در مواجهه با هوش مصنوعی با مشکلات زیادی روبرو هستند.
یک نظرسنجی توسط گاردین که در ماه ژوئن منتشر شد، نشان داد که نزدیک به ۷۰۰۰ دانشجوی دانشگاه در بریتانیا در سال تحصیلی ۲۰۲۳-۲۰۲۴ با استفاده از هوش مصنوعی، مانند ChatGPT، تقلب کردهاند. این بدان معناست که به ازای هر ۱۰۰۰ دانشجو در بریتانیا، ۵.۱ مورد تقلب با هوش مصنوعی وجود داشته است که در مقایسه با رقم ۱.۶ در هر ۱۰۰۰ نفر در سال تحصیلی ۲۰۲۲-۲۰۲۳ افزایش قابل توجهی را نشان میدهد.
در سنگاپور، تعداد دانشجویانی که به دلیل سرقت ادبی یا ارائه مقالات تولید شده توسط ابزارهای هوش مصنوعی دستگیر میشوند، هنوز کم است، اما دانشگاهها میگویند که این یک پدیده رایج نیست.
در همین حال، تحقیقات انجام شده توسط Nikkei Asia نشان داد که بسیاری از مقالات تحقیقاتی از ۱۴ دانشگاه در کشورهایی مانند ژاپن، کره جنوبی، چین و ایالات متحده، دارای دستورالعملهای پنهانی هستند تا در صورت استفاده از هوش مصنوعی، داوران فقط نظرات مثبت دریافت کنند. این دستورالعملها اغلب با رنگ سفید برجسته میشدند یا متن بسیار کوچک تنظیم میشد تا با چشم غیرمسلح دیده نشود.
منبع: https://thanhnien.vn/chong-gian-lan-bang-ai-trong-thi-cu-185250710195249068.htm
نظر (0)