هوش مصنوعی (AI) از زمان معرفی ChatGPT توسط OpenAI در نوامبر 2022، به بزرگترین موضوع بحث در صنعت فناوری تبدیل شده است. کمی پس از آن، شرکتهایی مانند گوگل، متا، مایکروسافت و... نیز سرمایهگذاریهای زیادی در تلاشهای هوش مصنوعی خود انجام دادند.
شرکتهای بزرگ فناوری از جاهطلبیهای خود در حوزه هوش مصنوعی خجالت نمیکشند، اما اخیراً بیسروصدا به خطراتی که این فناوری برای کسبوکارشان ایجاد میکند، پرداختهاند. آلفابت، شرکت مادر گوگل، در گزارش سالانه ۲۰۲۳ خود اعلام کرد که محصولات و خدمات هوش مصنوعی چالشهای اخلاقی، فناوری، قانونی، نظارتی و سایر چالشهایی را ایجاد میکنند که میتواند بر برند و تقاضای آن تأثیر منفی بگذارد.

طبق گزارش بلومبرگ، متا، مایکروسافت و اوراکل نیز در پروندههای خود به کمیسیون بورس و اوراق بهادار ایالات متحده (SEC) نگرانیهایی در مورد هوش مصنوعی را ذکر کردهاند که اغلب در بخش «عوامل خطر» ذکر شدهاند. به عنوان مثال، مایکروسافت گفته است که ویژگیهای هوش مصنوعی مولد میتوانند در برابر تهدیدات امنیتی پیشبینی نشده آسیبپذیر باشند.
در گزارش سالانه ۲۰۲۳ متا، شرکت مادر فیسبوک تأکید کرد که «خطرات قابل توجهی در ارتباط با توسعه و استقرار هوش مصنوعی وجود دارد» و «هیچ تضمینی وجود ندارد که استفاده از هوش مصنوعی، خدمات، محصولات یا عملیات تجاری را بهبود بخشد.» متا سناریوهای هوش مصنوعی را فهرست کرده است که میتواند به کاربران آسیب برساند و آنها را در معرض دعاوی حقوقی قرار دهد، مانند اطلاعات نادرست (مانند انتخابات)، محتوای مضر، نقض مالکیت معنوی و حریم خصوصی دادهها.
در همین حال، عموم مردم همچنین نگرانی خود را در مورد منسوخ شدن یا از بین رفتن برخی مشاغل توسط هوش مصنوعی، یا انتشار اطلاعات نادرست توسط مدلهای زبانی بزرگ آموزشدیده بر اساس دادههای شخصی ابراز کردند.
در ۴ ژوئن، گروهی از کارمندان سابق و فعلی OpenAI «نامهای مبنی بر قصد و نیت» ارسال کردند و از شرکتهای فناوری خواستند تا برای به حداقل رساندن خطرات هوش مصنوعی، اقدامات بیشتری انجام دهند. آنها نگرانند که هوش مصنوعی نابرابری، دستکاری و اطلاعات نادرست را افزایش دهد و سیستمهای خودکار هوش مصنوعیِ کنترلنشده، بقای بشریت را تهدید کنند.
منبع
نظر (0)