تصویر درس ۹۱.png
دستیاران آموزشی هوش مصنوعی در کلاس‌های درس. عکس: Midjourney

موج هوش مصنوعی، آموزش را تحت الشعاع قرار می‌دهد

استفاده از هوش مصنوعی در کلاس درس اکنون به اندازه مداد و دفترچه یادداشت رایج شده است. در کنار این هیجان، سوالات زیادی در مورد ایمنی، قابلیت اطمینان و مسئولیت‌پذیری داده‌های این فناوری جدید مطرح می‌شود.

موسسه غیرانتفاعی کامن سنس مدیا، که به والدین در جهت‌یابی فناوری کمک می‌کند، به تازگی گزارشی از ارزیابی ریسک دستیاران معلم هوش مصنوعی منتشر کرده است.

برخلاف چت‌بات‌های محبوبی مانند ChatGPT، این ابزارها - که معمولاً Google School یا Adobe Magic School هستند - به‌طور خاص برای محیط مدرسه طراحی شده‌اند و به صرفه‌جویی در وقت معلمان و بهبود نتایج یادگیری دانش‌آموزان کمک می‌کنند.

رابی تورنی، مدیر ارشد برنامه‌های هوش مصنوعی در کامن سنس مدیا، گفت: «مدارس می‌پرسند: آیا آنها ایمن هستند، آیا قابل اعتماد هستند، آیا از داده‌ها به درستی استفاده می‌کنند؟»

دستیاران آموزشی مجازی و خطرات «نفوذ نامرئی»

یکی از نگران‌کننده‌ترین یافته‌ها در این گزارش، پدیده‌ای است که به عنوان «نفوذ نامرئی» شناخته می‌شود.

وقتی معلمان هوش مصنوعی با نام‌های «کد سفید» و «کد سیاه» آزمایش شدند، نتایج نشان داد که هوش مصنوعی تمایل دارد به نام‌های «کد سفید» پاسخ مثبت‌تری بدهد، در حالی که نام‌های «کد سیاه» پاسخ‌های کوتاه‌تر و کم‌پشتیبانی‌تری دریافت کردند.

تورنی افزود: «تعصب بسیار ظریف است. اگر به موارد منفرد نگاه کنید، ممکن است متوجه چیزی نشوید، اما وقتی به تعداد زیادی از موارد نگاه می‌کنید، کاملاً آشکار است.»

پاول شوولین، مدرس دانشگاه اوهایو، هشدار می‌دهد که شرکت‌هایی که خودشان ابزارهای هوش مصنوعی را توسعه می‌دهند، ممکن است تعصبات خاص خود را نیز به همراه داشته باشند.

او گفت: «اگر تیم توسعه فاقد تنوع باشد، این تعصبات به الگوریتم نفوذ خواهند کرد.»

به فناوری اعتماد کنید، اما با محدودیت‌هایی

اِما براتن، مدیر آموزش دیجیتال در موسسه نوآوری آموزشی فرایدی (دانشگاه ایالتی کارولینای شمالی)، به مدارس توصیه می‌کند که شرایط استفاده و حریم خصوصی داده‌ها را با دقت بررسی کنند.

او گفت بسیاری از معلمان کورکورانه به پلتفرم‌های آشنا اعتماد می‌کنند و فراموش می‌کنند که وقتی هوش مصنوعی یکپارچه می‌شود، ممکن است سیاست‌ها تغییر کرده باشند.

او تأکید کرد: «ما باید دائماً ابزارها را ارزیابی مجدد کنیم - نباید فرض کنیم که آنها همیشه قابل اعتماد هستند.»

خانم براتن همچنین مفهوم «انسان در حلقه» را پیشنهاد داد - به این معنی که هوش مصنوعی فقط باید نقش حمایتی داشته باشد، نه اینکه کاملاً جایگزین معلمان و دانش‌آموزان شود.

او گفت: «هنگام داشتن یک «دستیار آموزشی هوش مصنوعی» در کلاس درس، حفظ ارتباط بین انسان و فناوری مهم است، نه اینکه همه چیز را به ماشین واگذار کنیم.»

هوش مصنوعی در صورت استفاده صحیح مفید است

تمام متخصصانی که EdSurge با آنها مصاحبه کرد، موافق بودند که اگر ابزارهای هوش مصنوعی به درستی استفاده شوند، می‌توانند مزایایی داشته باشند که بسیار بیشتر از خطرات آن است.

گزارش کامن سنس مدیا توصیه می‌کند که معلمان به جای اینکه اجازه دهند ابزارهای خودکار محتوای تصادفی تولید کنند، از هوش مصنوعی برای بهبود درس‌های موجود استفاده کنند.

تورنی گفت: «مدل هوش مصنوعی هرگز بهتر از برنامه درسی که تدریس می‌کنید، نیست.»
«اگر طبق یک برنامه درسی استاندارد تدریس کنید، هوش مصنوعی خیلی بهتر از اینکه اجازه دهید درسی در مورد ... کسرها ارائه دهد، از شما پشتیبانی خواهد کرد.»

نمی‌توان آن را مسدود کرد، فقط می‌توان آن را فهمید و تطبیق داد

به گفته براتن، مهمترین چیز در حال حاضر ممنوع کردن هوش مصنوعی نیست، بلکه یادگیری سازگاری هوشمندانه و مسئولانه است.

او افزود: «شما نمی‌توانید هوش مصنوعی را با ممنوعیت متوقف کنید. این فناوری در حال حاضر در هر ابزار و محصولی که روزانه استفاده می‌کنیم، تعبیه شده است. سوال این است: چگونه آن را ادغام کنیم و چگونه آن را تحت کنترل داشته باشیم؟»

هوش مصنوعی در حال ورود به عصر جدیدی برای آموزش است - عصری که در آن معلمان بیشتر مورد حمایت قرار می‌گیرند و دانش‌آموزان می‌توانند به صورت انفرادی بیشتر یاد بگیرند. اما در عین حال، این فناوری چگونگی حفظ ارزش‌های انسانی در تدریس را نیز به چالش می‌کشد.

هوش مصنوعی می‌تواند سریع آموزش دهد و اطلاعات زیادی را به خاطر بسپارد، اما فقط انسان‌ها می‌توانند با قلب خود آموزش دهند.

(طبق گفته EdSurge)

منبع: https://vietnamnet.vn/ai-buoc-vao-lop-hoc-co-hoi-doi-moi-hay-moi-nguy-vo-hinh-2453255.html