توسعه سریع هوش مصنوعی (AI) نگرانیهایی را برانگیخته است مبنی بر اینکه این فناوری سریعتر از آنچه انسانها بتوانند تأثیر آن را درک کنند، در حال توسعه است.
عکس: ST
استفاده از هوش مصنوعی عمومی پس از ظهور ابزارهایی مانند ChatGPT به طور قابل توجهی افزایش یافته است. در حالی که این ابزارها مزایای زیادی دارند، میتوانند به روشهای مضر نیز مورد سوءاستفاده قرار گیرند.
برای مدیریت این ریسک، ایالات متحده و چندین کشور دیگر با هفت شرکت از جمله آمازون، آنتروپیک، گوگل، اینفلکشن، متا، مایکروسافت و اوپنایآی توافقنامههایی امضا کردهاند تا به رویههای ایمن در توسعه فناوری هوش مصنوعی متعهد شوند.
اعلامیه کاخ سفید با اصطلاحات خاص خود همراه است که ممکن است برای افراد عادی ناآشنا باشد، از جمله اصطلاحاتی مانند «تیم قرمز» و «نهاننگاری». در اینجا هفت اصطلاح مرتبط با هوش مصنوعی که باید مراقب آنها باشید، آورده شده است.
یادگیری ماشین
این شاخه از هوش مصنوعی با هدف آموزش ماشینها برای انجام دقیق یک کار خاص با شناسایی الگوها انجام میشود. سپس ماشین میتواند بر اساس آن دادهها پیشبینیهایی انجام دهد.
یادگیری عمیق
وظایف خلاقانه هوش مصنوعی اغلب به یادگیری عمیق متکی هستند، روشی که شامل آموزش رایانهها با استفاده از شبکههای عصبی، مجموعهای از الگوریتمهای طراحیشده برای تقلید از نورونهای مغز انسان، برای ایجاد ارتباطات پیچیده بین الگوها برای تولید متن، تصاویر یا سایر محتوا است.
از آنجا که مدلهای یادگیری عمیق دارای لایههای متعددی از نورونها هستند، میتوانند الگوهای پیچیدهتری را نسبت به یادگیری ماشین سنتی یاد بگیرند.
مدل زبان بزرگ
یک مدل زبان بزرگ یا LLM، بر روی حجم عظیمی از دادهها آموزش داده میشود و هدف آن مدلسازی زبان یا پیشبینی کلمه بعدی در یک توالی است. مدلهای زبان بزرگ، مانند ChatGPT و Google Bard، میتوانند برای کارهایی از جمله خلاصهسازی، ترجمه و مکالمه استفاده شوند.
الگوریتم
مجموعهای از دستورالعملها یا قوانین که به ماشینها اجازه میدهد پیشبینی کنند، مشکلات را حل کنند یا وظایف را انجام دهند. الگوریتمها میتوانند توصیههای خرید ارائه دهند و به تشخیص کلاهبرداری و عملکردهای چت خدمات مشتری کمک کنند.
تعصب
از آنجا که هوش مصنوعی با استفاده از مجموعه دادههای بزرگ آموزش داده میشود، میتواند اطلاعات مضری مانند نفرتپراکنی را در دادهها بگنجاند. نژادپرستی و تبعیض جنسیتی نیز میتوانند در مجموعه دادههای مورد استفاده برای آموزش هوش مصنوعی ظاهر شوند و منجر به محتوای گمراهکننده شوند.
شرکتهای هوش مصنوعی توافق کردهاند که عمیقتر به بررسی چگونگی جلوگیری از تعصب و تبعیض مضر در سیستمهای هوش مصنوعی بپردازند.
تیم قرمز
یکی از تعهداتی که شرکتها به کاخ سفید دادهاند، انجام «تیمسازی قرمز» در داخل و خارج از سازمان بر روی مدلها و سیستمهای هوش مصنوعی است.
«تیم قرمز» شامل آزمایش یک مدل برای کشف آسیبپذیریهای بالقوه است. این اصطلاح از یک تمرین نظامی گرفته شده است که در آن یک تیم اقدامات یک مهاجم را شبیهسازی میکند تا استراتژیهایی را ارائه دهد.
این روش به طور گسترده برای آزمایش آسیبپذیریهای امنیتی در سیستمهایی مانند پلتفرمهای محاسبات ابری از شرکتهایی مانند مایکروسافت و گوگل استفاده میشود.
واترمارکینگ
واترمارک راهی برای تشخیص این است که آیا یک صدا یا تصویر توسط هوش مصنوعی ایجاد شده است یا خیر. حقایقی که برای تأیید بررسی میشوند میتوانند شامل اطلاعاتی در مورد اینکه چه کسی آن را ایجاد کرده و همچنین نحوه و زمان ایجاد یا ویرایش آن باشند.
برای مثال، مایکروسافت متعهد شده است که تصاویر ایجاد شده توسط ابزارهای هوش مصنوعی خود را واترمارک کند. شرکتها همچنین به کاخ سفید متعهد شدهاند که تصاویر را واترمارک کنند یا منشأ آنها را ثبت کنند تا مشخص شود که آنها توسط هوش مصنوعی تولید شدهاند.
واترمارکها معمولاً برای ردیابی نقض مالکیت معنوی نیز استفاده میشوند. واترمارکهای تصاویر تولید شده توسط هوش مصنوعی میتوانند به صورت نویز نامحسوس، مانند تغییر جزئی در هر پیکسل هفتم، ظاهر شوند.
با این حال، واترمارک کردن متن تولید شده توسط هوش مصنوعی میتواند پیچیدهتر باشد و ممکن است شامل تغییر الگوی کلمه باشد تا بتوان آن را به عنوان محتوای تولید شده توسط هوش مصنوعی شناسایی کرد.
هوانگ تن (طبق گفته پوینتر)
منبع






نظر (0)