عکس تصویرسازی
با این حال، یک مدل هوش مصنوعی که طوری عمل میکند که انگار از دستورات اطاعت میکند اما در واقع نیات واقعی خود را پنهان میکند، موضوع دیگری است.
چالش کنترل هوش مصنوعی
آپولو ریسرچ برای اولین بار در ماه دسامبر مقالهای منتشر کرد که در آن چگونگی نقشهکشی پنج مدل را هنگامی که به آنها دستور داده شده است تا به هر قیمتی به یک هدف برسند، مستند میکرد.
نکتهی شگفتانگیز این است که اگر مدلی بفهمد که در حال آزمایش است، میتواند وانمود کند که توطئهگر نیست، فقط برای اینکه از آزمون سربلند بیرون بیاید، حتی اگر هنوز توطئهگر باشد. محققان مینویسند: «مدلها اغلب بیشتر از اینکه در حال ارزیابی هستند، آگاه هستند.»
توسعهدهندگان هوش مصنوعی هنوز نتوانستهاند بفهمند که چگونه مدلهای خود را طوری آموزش دهند که نمودار رسم نکنند. دلیلش این است که انجام این کار میتواند به مدل یاد دهد که نمودار را حتی بهتر رسم کند تا از شناسایی شدن جلوگیری شود.
شاید قابل درک باشد که مدلهای هوش مصنوعی از بسیاری از طرفها عمداً انسانها را فریب میدهند، زیرا آنها برای شبیهسازی انسان ساخته شدهاند و عمدتاً بر اساس دادههای تولید شده توسط انسان آموزش دیدهاند.
راهکارها و هشدارها
خبر خوب این است که محققان با استفاده از یک تکنیک ضد توطئه به نام «تداعی عمدی» شاهد کاهش قابل توجه توطئهها بودند. این تکنیک، شبیه به وادار کردن کودک به تکرار قوانین قبل از اجازه دادن به او برای بازی، هوش مصنوعی را مجبور میکند قبل از عمل فکر کند.
محققان نسبت به آیندهای که در آن هوش مصنوعی وظایف پیچیدهتری را بر عهده میگیرد، هشدار میدهند: «از آنجایی که هوش مصنوعی وظایف پیچیدهتری را بر عهده میگیرد و شروع به دنبال کردن اهداف بلندمدت مبهمتری میکند، پیشبینی میکنیم که احتمال نیتهای مخرب افزایش یابد و به همین ترتیب نیاز به افزایش تدابیر حفاظتی و قابلیتهای آزمایش دقیقتر باشد.»
این نکتهای است که ارزش تأمل دارد، چرا که دنیای شرکتها به سمت آیندهای مبتنی بر هوش مصنوعی حرکت میکند، آیندهای که در آن شرکتها معتقدند میتوان با هوش مصنوعی مانند کارمندان مستقل رفتار کرد.
منبع: https://doanhnghiepvn.vn/chuyen-doi-so/phat-hien-mo-hinh-ai-biet-lua-doi-con-nguoi/20250919055143362
نظر (0)