در بهروزرسانی تازه منتشر شده در اصول هوش مصنوعی خود، شرکت مادر گوگل، آلفابت، نحوهی برنامهریزی خود برای استفاده از هوش مصنوعی در آینده را تشریح کرده است. مهمترین نکته این است که این شرکت وعدهی خود مبنی بر عدم استفاده از هوش مصنوعی برای ساخت سلاح، ابزارهای نظارتی یا «فناوریهایی که میتوانند آسیبهای گستردهای ایجاد کنند» را لغو کرده است.
خطوط قرمز گوگل در هوش مصنوعی
اصطلاح خط قرمز هوش مصنوعی گوگل اولین بار در سال ۲۰۱۸ مطرح شد، زمانی که کارمندان به پروژه هوش مصنوعی این شرکت، Maven، که با همکاری وزارت دفاع ایالات متحده انجام میشد، اعتراض کردند. در آن زمان، بیش از ۴۰۰۰ کارمند گوگل طوماری را برای پایان دادن به این پروژه امضا کردند و خواستار آن شدند که این شرکت هرگز «فناوری برای جنگ نسازد».
گوگل سپس قرارداد خود برای ساخت ابزارهای هوش مصنوعی برای پنتاگون را تمدید نکرد. این شرکت همچنین خط قرمزی ترسیم کرد و اعلام کرد که «کاربردهای غیرمرتبط» هوش مصنوعی، از جمله سلاحها و فناوریهایی که اطلاعات را برای نظارت جمعآوری یا استفاده میکنند و هنجارهای پذیرفتهشده بینالمللی را نقض میکنند، نیز توسط گوگل استفاده نخواهند شد. فناوریهایی که باعث آسیب عمومی میشوند یا پتانسیل ایجاد آسیب عمومی را دارند، یا اصول پذیرفتهشده حقوق بینالملل و حقوق بشر را نقض میکنند، نیز مورد استفاده قرار نخواهند گرفت.
برخی از برنامههای گوگل در آیفون
تصمیم برای تعیین خط قرمز برای هوش مصنوعی با استفاده از سلاح، گوگل را از مشارکت در قراردادهای نظامی امضا شده توسط سایر غولهای فناوری، از جمله آمازون و مایکروسافت، باز داشته است.
با این حال، در مواجهه با چنین تغییرات عظیمی در رقابت هوش مصنوعی، گوگل تصمیم گرفته است از وعده خود عقبنشینی کند. این موضوع نه تنها در داخل گوگل جنجال زیادی به پا کرده، بلکه نشاندهنده تغییر مهم شرکتهای فناوری سیلیکون ولی در صنعت دفاعی است.
گوگل از درون دچار تفرقه شده است
به گزارش بیزینس اینسایدر ، بهروزرسانی اصول و اخلاق هوش مصنوعی، واکنش شدید کارمندان گوگل را برانگیخته است. کارمندان ناامیدی خود را در تالارهای گفتگوی داخلی ابراز کردهاند. میمی که ساندار پیچای، مدیرعامل گوگل را در حال جستجوی موتور جستجوی گوگل با این سوال نشان میدهد که «چگونه میتوان پیمانکار تسلیحات شد؟» توجه زیادی را به خود جلب کرده است.
یکی دیگر از کارمندان میمی ایجاد کرد و پرسید: «آیا ما به خاطر لغو ممنوعیت هوش مصنوعی برای سلاح و نظارت، آدمهای بدی هستیم؟» این شرکت بیش از ۱۸۰ هزار کارمند دارد. هنوز هم ممکن است صداهایی وجود داشته باشد که از تصمیم گوگل برای همکاری نزدیکتر با دولت ایالات متحده و مشتریان نظامی و دفاعی آن حمایت کنند.
استدلال گوگل
سخنگوی گوگل بلافاصله به درخواست اظهار نظر در مورد لغو «وعده هوش مصنوعی» پاسخی نداد. با این حال، دمیس هاسابیس، رئیس هوش مصنوعی، گفت که این دستورالعملها در دنیای در حال تغییر در حال تکامل هستند و هوش مصنوعی «از امنیت ملی محافظت خواهد کرد».
در یک پست وبلاگ شرکت، هاسابیس و جیمز مانیکا، معاون ارشد فناوری و جامعه گوگل، گفتند که با تشدید رقابت جهانی برای رهبری در هوش مصنوعی، گوگل معتقد است که هوش مصنوعی باید با آزادی، برابری و احترام به حقوق بشر هدایت شود.
آنها افزودند: «ما معتقدیم که شرکتها، دولتها و سازمانها ارزشهای مشترکی دارند و باید با هم همکاری کنند تا هوش مصنوعیای ایجاد کنند که بتواند از مردم محافظت کند، رشد جهانی را هدایت کند و از امنیت ملی پشتیبانی کند.»
دو مدیر گوگل گفتند که میلیاردها نفر در زندگی روزمره خود از هوش مصنوعی استفاده میکنند. هوش مصنوعی به یک فناوری همه منظوره تبدیل شده است، بستری که سازمانها و افراد بیشماری از آن برای ساخت برنامهها استفاده میکنند. هوش مصنوعی از یک موضوع تحقیقاتی خاص در آزمایشگاه به یک فناوری فراگیر مانند تلفنهای همراه و اینترنت تبدیل شده است. بنابراین «سوگند هوش مصنوعی» گوگل از سال ۲۰۱۸ باید بر این اساس بهروزرسانی شود.
آلفابت اعلام کرد که قصد دارد سال آینده ۷۵ میلیارد دلار هزینه کند که بخش عمده آن برای ایجاد قابلیتها و زیرساختهای هوش مصنوعی خواهد بود.
منبع: https://thanhnien.vn/google-rut-lai-loi-hua-khong-dung-ai-cho-quan-su-185250206161804981.htm
نظر (0)