نومبر 2022 میں OpenAI کی جانب سے ChatGPT کا اعلان کرنے کے بعد سے مصنوعی ذہانت (AI) ٹیکنالوجی کی صنعت میں بحث کا سب سے بڑا موضوع رہا ہے۔ اس کے فوراً بعد، Google، Meta، Microsoft… جیسی کمپنیوں نے بھی اپنی AI کوششوں میں بہت زیادہ سرمایہ کاری کی۔
بگ ٹیک AI کے لیے اپنے عزائم کے بارے میں کھلا رہا ہے، لیکن حال ہی میں وہ خاموشی سے ان خطرات سے نمٹ رہا ہے جو ٹیکنالوجی اس کے کاروبار کو لاحق ہے۔ اپنی 2023 کی سالانہ رپورٹ میں، گوگل کی پیرنٹ کمپنی الفابیٹ نے کہا کہ AI پروڈکٹس اور سروسز اخلاقی، تکنیکی، قانونی، ریگولیٹری اور دیگر چیلنجز کا سامنا کرتی ہیں جو اس کے برانڈ اور ڈیمانڈ پر منفی اثر ڈال سکتی ہیں۔

بلومبرگ کے مطابق، میٹا، مائیکروسافٹ، اور اوریکل نے بھی یو ایس سیکیورٹیز اینڈ ایکسچینج کمیشن (SEC) کے ساتھ اپنی فائلنگ میں AI کے بارے میں خدشات کا ذکر کیا، اکثر "خطرے کے عوامل" سیکشن کے تحت۔ مثال کے طور پر، مائیکروسافٹ نے کہا کہ تخلیقی AI خصوصیات غیر متوقع حفاظتی خطرات کا شکار ہو سکتی ہیں۔
میٹا کی 2023 کی سالانہ رپورٹ میں، فیس بک کی پیرنٹ کمپنی نے اس بات پر زور دیا کہ "AI کی ترقی اور تعیناتی سے متعلق اہم خطرات ہیں،" اور یہ کہ "اس بات کی کوئی یقین دہانی نہیں ہو سکتی کہ AI کے استعمال سے خدمات، مصنوعات یا کاروبار میں بہتری آئے گی۔" میٹا نے ایسے AI منظرناموں کو درج کیا جو صارفین کو نقصان پہنچا سکتے ہیں اور انہیں قانونی چارہ جوئی سے بے نقاب کر سکتے ہیں، جیسے کہ غلط معلومات (جیسے انتخابات میں)، نقصان دہ مواد، املاک دانش کی خلاف ورزی، اور ڈیٹا کی رازداری۔
دریں اثنا، عوام نے AI کی وجہ سے کچھ ملازمتوں کو متروک یا غائب کرنے، یا ذاتی ڈیٹا پر تربیت یافتہ بڑے زبان کے ماڈلز غلط معلومات پھیلانے کے بارے میں بھی تشویش کا اظہار کیا۔
4 جون کو، OpenAI کے سابق اور موجودہ ملازمین کے ایک گروپ نے ایک "لیٹر آف انٹینٹ" بھیجا جس میں ٹیکنالوجی کمپنیوں سے کہا گیا کہ وہ AI کے خطرات کو کم کرنے کے لیے مزید کام کریں۔ وہ فکر مند ہیں کہ AI عدم مساوات، ہیرا پھیری، غلط معلومات میں اضافہ کرے گا، اور یہ کہ بے قابو خودکار AI نظام انسانیت کی بقا کو خطرے میں ڈالے گا۔
ماخذ
تبصرہ (0)