حتی رهبران ارشد صنعت فناوری نگران خطرات هوش مصنوعی در آینده هستند. در اینجا مقالهای از خود مدیرعامل ساندار پیچای در فایننشال تایمز در مورد این موضوع آمده است:
ساندار پیچای، مدیرعامل گوگل. عکس: فایننشال تایمز
امسال، هوش مصنوعی تخیل جهان را به خود جلب کرده است. میلیونها نفر در حال حاضر از آن برای افزایش خلاقیت و بهبود بهرهوری استفاده میکنند. در همین حال، استارتآپها و سازمانهای بیشتری محصولات و فناوریهای مبتنی بر هوش مصنوعی را سریعتر از همیشه به بازار عرضه میکنند.
هوش مصنوعی عمیقترین فناوری است که بشر امروز روی آن کار میکند؛ این فناوری هر صنعت و جنبهای از زندگی را تحت تأثیر قرار خواهد داد. هرچه افراد بیشتری برای پیشرفت علم هوش مصنوعی تلاش کنند، فرصتهای بیشتری برای جوامع در همه جا ایجاد خواهد شد.
در حالی که برخی تلاش کردهاند تا رقابت هوش مصنوعی را مهار کنند، شاهد قویتر شدن آن هستیم. با این حال، مهم است که رقابت برای ساخت هوش مصنوعی مسئولانه باشد و ما، به عنوان یک جامعه، آن را به درستی انجام دهیم.
در گوگل، ما از سه طریق به این موضوع نزدیک میشویم. اول، با دنبال کردن جسورانه نوآوریهایی که هوش مصنوعی را برای همه مفیدتر میکند. ما همچنان به استفاده از هوش مصنوعی برای بهبود چشمگیر محصولات خود ادامه میدهیم - از جستجوی گوگل و جیمیل گرفته تا اندروید و نقشهها.
این پیشرفتها به این معنی است که رانندگان در سراسر اروپا اکنون میتوانند مسیرهای کممصرفتری پیدا کنند؛ به دهها هزار پناهنده اوکراینی کمک شده است تا خانههای جدیدی پیدا کنند؛ ابزارهای پیشبینی سیل میتوانند سیل را زودتر پیشبینی کنند.
کار گوگل دیپمایند روی آلفافولد، با همکاری آزمایشگاه زیستشناسی مولکولی اروپا، بینشهای پیشگامانهای را در مورد بیش از ۲۰۰ میلیون پروتئین فهرستشده علمی به ارمغان آورده و امکانات جدیدی را در حوزه مراقبتهای بهداشتی فراهم کرده است.
تمرکز ما همچنین بر حمایت از دیگران در خارج از شرکت ما برای نوآوری در هوش مصنوعی است. ما در حال ایجاد یک صندوق نوآوری اجتماعی هوش مصنوعی هستیم تا به شرکتهای اجتماعی کمک کنیم تا با برخی از مهمترین چالشهای اروپا مقابله کنند.
دوم، ما تضمین میکنیم که فناوری را مسئولانه توسعه داده و به کار میگیریم و این نشان دهنده تعهد عمیق ما به جلب اعتماد کاربرانمان است. به همین دلیل است که اصول هوش مصنوعی خود را در سال ۲۰۱۸ منتشر کردیم که ریشه در این باور دارد که هوش مصنوعی باید برای منفعت جامعه و در عین حال جلوگیری از کاربردهای مضر توسعه یابد.
ما نمونههای زیادی از بهکارگیری این اصول در عمل داریم، مانند ایجاد تمهیداتی برای محدود کردن سوءاستفاده از مترجم جهانی ما، یک سرویس دوبله ویدیوی هوش مصنوعی که به متخصصان کمک میکند صدای گوینده را ترجمه کرده و حرکات لب او را با آن تطبیق دهند.
این فناوری پتانسیل عظیمی برای افزایش یادگیری دارد، اما ما از خطرات آن در صورت استفاده نادرست آگاه هستیم و بنابراین فقط به شرکای مجاز اجازه دسترسی میدهیم. با تکامل هوش مصنوعی، رویکرد ما نیز تغییر خواهد کرد.
در نهایت، بهرهبرداری از پتانسیل هوش مصنوعی کاری نیست که یک شرکت به تنهایی بتواند انجام دهد. در سال ۲۰۲۰، من دیدگاه خود را مطرح کردم که هوش مصنوعی باید به گونهای تنظیم شود که بین نوآوری و آسیبهای احتمالی تعادل برقرار کند.
تدوین چارچوبهای سیاستی که آسیبهای بالقوه را پیشبینی و مزایای آن را آشکار کنند، نیازمند بحثهای متفکرانه میان دولتها، کارشناسان صنعت، ناشران، دانشگاهها و جامعه مدنی است.
سرمایهگذاری مداوم در تحقیق و توسعه مسئولانه هوش مصنوعی بسیار مهم خواهد بود - همانطور که اطمینان از بهکارگیری ایمن هوش مصنوعی، به ویژه با توجه به اینکه مقررات همچنان در حال تکامل هستند، نیز بسیار مهم خواهد بود. افزایش همکاریهای بینالمللی کلیدی خواهد بود.
هوش مصنوعی فرصتی بینظیر برای جهان فراهم میکند تا به اهداف اقلیمی خود، رشد پایدار، حفظ رقابتپذیری جهانی و موارد دیگر دست یابد. با این حال، ما هنوز در روزهای آغازین هستیم و کارهای زیادی در پیش است.
ما مشتاقانه منتظر انجام این کار با دیگران و ساخت هوش مصنوعی به صورت ایمن و مسئولانه هستیم تا همه بتوانند از آن بهرهمند شوند.
هوی هوانگ ( ترجمه شده از فایننشال تایمز )
منبع





![[عکس] نخست وزیر فام مین چین در پنجمین مراسم اهدای جوایز مطبوعات ملی در زمینه پیشگیری و مبارزه با فساد، اسراف و منفی گرایی شرکت کرد.](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/31/1761881588160_dsc-8359-jpg.webp)
![[عکس] دانانگ: آب به تدریج در حال فروکش کردن است، مقامات محلی از پاکسازی سوءاستفاده میکنند](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/31/1761897188943_ndo_tr_2-jpg.webp)



























































نظر (0)