SGGP
پس از آنکه اروپا شروع به تهیه پیشنویس و به زودی اجرای اولین قانون جهان در مورد هوش مصنوعی (AI) کرد، چهار «غول» پیشرو در زمینه دادهکاوی اینترنتی در ایالات متحده، گروهی به نام Frontier Model Forum راهاندازی کردهاند.
هدف اصلی انجمن مدل Frontier ترویج هوش مصنوعی مسئولانه است. عکس: THINKWITHNICHE |
احزاب گرد هم میآیند
این گروه که شامل شرکتهای Anthropic، Google، Microsoft و OpenAI، مالک ChatGPT، میشود، اعلام کرد که اهداف اصلی Frontier Model Forum کمک به کاهش خطرات ناشی از پلتفرمهای هوش مصنوعی و توسعه استانداردهای صنعتی است. Frontier Model Forum یک انجمن جدید با اهداف اصلی زیر ایجاد خواهد کرد: ترویج تحقیقات ایمنی هوش مصنوعی برای پشتیبانی از توسعه، کاهش خطرات و استانداردسازی ارزیابیها و سطوح ایمنی؛ شناسایی بهترین شیوهها برای توسعه و استقرار مدل و کمک به عموم مردم برای درک ماهیت، قابلیتها، محدودیتها و تأثیرات این فناوری؛ و همکاری با سیاستگذاران، دانشگاهیان، جامعه مدنی و شرکتها برای به اشتراک گذاشتن دانش در مورد خطرات و ایمنی.
غولهای فناوری به طور سنتی در برابر افزایش مقررات مقاومت کردهاند، اما این بار، صنعت فناوری تا حد زیادی موضع خود را در مورد خطرات ناشی از هوش مصنوعی تغییر داده است. شرکتهای درگیر در طرح Frontier Model Forum متعهد شدهاند که بهترین شیوهها را بین شرکتها به اشتراک بگذارند و اطلاعات را به طور عمومی در دسترس دولتها و جامعه مدنی قرار دهند.
به طور خاص، انجمن مدل Frontier بر پلتفرمهای یادگیری ماشینی در مقیاس بزرگ، اما نوپا، تمرکز خواهد کرد که هوش مصنوعی را به سطوح جدیدی از پیچیدگی میبرند - که این نیز یک عامل خطر بالقوه است. علاوه بر این، انجمن مدل Frontier از توسعه برنامههایی که به چالشهای عمده اجتماعی مانند: کاهش و سازگاری با تغییرات اقلیمی، تشخیص و پیشگیری زودهنگام سرطان و محافظت در برابر تهدیدات سایبری میپردازند، نیز پشتیبانی خواهد کرد.
فضایی برای تخریب بالقوه
اعلام انجمن مدل Frontier توسط شرکتهای آمریکایی چند روز پس از آن صورت میگیرد که سناتورهای آمریکایی در ۲۵ ژوئیه در جلسه استماع در کمیته فرعی کمیته قضایی سنای ایالات متحده، در مورد خطر استفاده از هوش مصنوعی برای حملات بیولوژیکی هشدار دادند. اخیراً، هفت شرکت بزرگ فناوری، از جمله OpenAI، Alphabet و Meta، داوطلبانه به کاخ سفید متعهد شدهاند که سیستمی را برای برچسبگذاری تمام محتوای ایجاد شده توسط هوش مصنوعی از متن، تصاویر، صدا گرفته تا ویدیو، توسعه دهند تا شفافیت اطلاعات را در اختیار کاربران قرار دهند و از ایمنتر بودن این فناوری اطمینان حاصل کنند.
داریو آمودی، مدیرعامل AI Anthropic، خاطرنشان کرد: اگرچه هوش مصنوعی هنوز قادر به ساخت سلاحهای بیولوژیکی نیست، اما این یک خطر «میانمدت» است که میتواند در دو تا سه سال آینده تهدیدی جدی برای امنیت ملی ایالات متحده باشد. دلیل این امر آن است که بازیگرانی که حملات بیولوژیکی در مقیاس بزرگ انجام میدهند، دیگر محدود به افرادی با دانش تخصصی در این زمینه نیستند.
جهان با انفجار محتوای تولید شده توسط فناوری هوش مصنوعی مولد مواجه است. از ایالات متحده گرفته تا اروپا و آسیا، اقدامات نظارتی به تدریج در حال تشدید است. به گزارش CNN، از ماه سپتامبر، سنای ایالات متحده میزبان مجموعهای از نه کارگاه آموزشی اضافی برای اعضا خواهد بود تا در مورد چگونگی تأثیر هوش مصنوعی بر مشاغل، امنیت ملی و مالکیت معنوی اطلاعات کسب کنند. پیش از ایالات متحده، در صورت دستیابی به توافق، اتحادیه اروپا سال آینده اولین قانون جهان در مورد مدیریت هوش مصنوعی را تصویب خواهد کرد که انتظار میرود در سال ۲۰۲۶ به اجرا درآید.
مزایایی که هوش مصنوعی برای جامعه به ارمغان میآورد غیرقابل انکار است، اما هشدارهای فزایندهای در مورد خطرات احتمالی این فناوری جدید وجود دارد. در ماه ژوئن، آنتونیو گوترش، دبیرکل سازمان ملل متحد، از پیشنهاد چندین مدیر هوش مصنوعی برای ایجاد یک نهاد نظارتی بینالمللی هوش مصنوعی، مشابه آژانس بینالمللی انرژی اتمی (IAEA) حمایت کرد.
برد اسمیت، رئیس مایکروسافت، در مجمع مدل فرانتیر گفت که این ابتکار گامی مهم در گرد هم آوردن شرکتهای فناوری برای ترویج استفاده مسئولانه از هوش مصنوعی به نفع تمام بشریت است. به طور مشابه، آنا ماکانجو، معاون رئیس امور جهانی OpenAI، گفت که فناوری پیشرفته هوش مصنوعی پتانسیل ایجاد مزایای عمیقی برای جامعه را دارد و این امر مستلزم نظارت و مدیریت است.
منبع
نظر (0)