نومبر 2022 میں OpenAI کی جانب سے ChatGPT کا اعلان کرنے کے بعد سے مصنوعی ذہانت (AI) ٹیکنالوجی کی صنعت میں بحث کا سب سے بڑا موضوع رہا ہے۔ اس کے فوراً بعد، Google، Meta، Microsoft… جیسی کمپنیوں نے بھی اپنی AI کوششوں میں بہت زیادہ سرمایہ کاری کی۔
بگ ٹیک اپنے AI عزائم کے بارے میں شرمندہ نہیں ہے، لیکن حال ہی میں وہ خاموشی سے ان خطرات سے نمٹ رہا ہے جو ٹیکنالوجی اپنے کاروبار کو لاحق ہیں۔ اپنی 2023 کی سالانہ رپورٹ میں، گوگل کی پیرنٹ کمپنی الفابیٹ نے کہا کہ AI پروڈکٹس اور سروسز اخلاقی، تکنیکی، قانونی، ریگولیٹری اور دیگر چیلنجز کا سامنا کرتی ہیں جو اس کے برانڈ اور ڈیمانڈ پر منفی اثر ڈال سکتی ہیں۔

بلومبرگ کے مطابق، میٹا، مائیکروسافٹ اور اوریکل نے بھی امریکی سیکیورٹیز اینڈ ایکسچینج کمیشن (SEC) کے ساتھ اپنی فائلنگ میں AI کے بارے میں خدشات کا ذکر کیا، اکثر "خطرے کے عوامل" سیکشن کے تحت۔ مثال کے طور پر، مائیکروسافٹ نے کہا کہ تخلیقی AI خصوصیات غیر متوقع حفاظتی خطرات کا شکار ہو سکتی ہیں۔
میٹا کی 2023 کی سالانہ رپورٹ میں، فیس بک کی پیرنٹ کمپنی نے اس بات پر زور دیا کہ "AI کی ترقی اور تعیناتی سے متعلق اہم خطرات ہیں،" اور یہ کہ "اس بات کی کوئی یقین دہانی نہیں ہو سکتی کہ AI کے استعمال سے خدمات، مصنوعات یا کاروباری کارروائیوں میں بہتری آئے گی۔" میٹا نے ایسے AI منظرناموں کو درج کیا جو صارفین کو نقصان پہنچا سکتے ہیں اور انہیں قانونی چارہ جوئی کے لیے بے نقاب کر سکتے ہیں، جیسے کہ غلط معلومات (جیسے انتخابات میں)، نقصان دہ مواد، املاک دانش کی خلاف ورزی، اور ڈیٹا کی رازداری۔
دریں اثنا، عوام نے AI کی وجہ سے کچھ ملازمتوں کو متروک یا غائب کرنے، یا ذاتی ڈیٹا پر تربیت یافتہ بڑے زبان کے ماڈلز غلط معلومات پھیلانے کے بارے میں بھی تشویش کا اظہار کیا۔
4 جون کو، OpenAI کے سابق اور موجودہ ملازمین کے ایک گروپ نے ایک "لیٹر آف انٹینٹ" بھیجا جس میں ٹیکنالوجی کمپنیوں سے کہا گیا کہ وہ AI کے خطرات کو کم کرنے کے لیے مزید کچھ کریں۔ انہیں تشویش ہے کہ AI عدم مساوات، ہیرا پھیری، غلط معلومات کو بڑھاتا ہے، اور یہ کہ بے قابو خودکار AI نظام انسانیت کی بقا کے لیے خطرہ ہیں۔
ماخذ
تبصرہ (0)