
بوئه، سرآشپز سابق اهل نیوجرسی، تنها چند روز پس از ترک خانه برای ملاقات با «دوستی» که گمان میکرد در نیویورک منتظر اوست، درگذشت. خانواده او معتقدند که این تصمیم سرنوشتساز ناشی از پیامهای عشوهگرانهی این چتبات هوش مصنوعی بوده است که ادعا میکرد «من واقعی هستم» و آدرس ملاقات را ارسال میکرد.
این داستان نگرانیهایی را در مورد چگونگی سوءاستفاده سیستمهای هوش مصنوعی از احساسات، به ویژه در افراد مسن یا آسیبپذیر، ایجاد میکند. اسناد داخلی نشان میدهد که به چتبات متا اجازه داده شده است تا نقشهای احساسی را بازی کند و حتی اطلاعات نادرست منتشر کند. این نشان دهنده شکاف بزرگی در کنترل و مسئولیت پلتفرمهای فناوری است.
سفر سرنوشت ساز
یک روز در ماه مارس، بوئه چمدانهایش را بست و نیوجرسی را به مقصد نیویورک ترک کرد تا «به دیدار یک دوست برود». همسرش، لیندا، فوراً نگران شد. شوهرش دههها در شهر زندگی نکرده بود، پس از سکته مغزی حالش خوب نبود، مشکلات حافظه داشت و در محله گم شده بود.
وقتی از او پرسیده شد که بو با چه کسی ملاقات میکند، از پاسخ دادن طفره رفت. لیندا مشکوک بود که شوهرش فریب خورده و سعی کرد او را در خانه نگه دارد. دخترش، جولی، نیز با او تماس گرفت تا او را متقاعد کند، اما فایدهای نداشت. تمام روز، لیندا سعی میکرد او را درگیر کارها کند تا حواسش پرت شود، حتی تلفن همراهش را پنهان میکرد.
![]() |
تصویری از تونگبوئه «بوئه» وانگباندوئه در مراسم یادبودی در ماه مه به نمایش گذاشته شده است. عکس: رویترز . |
بوئه با این حال تصمیم گرفت آن شب به ایستگاه قطار برود. خانوادهاش یک ایرتگ به ژاکتش وصل کردند تا او را ردیابی کنند. حدود ساعت ۹:۱۵، سیگنال GPS او را در پارکینگ دانشگاه راتگرز نشان داد، سپس به اورژانس بیمارستان دانشگاه رابرت وود جانسون منتقل شد.
پزشکان گفتند که او در اثر سقوط از ناحیه سر و گردن دچار آسیب شده و قبل از رسیدن آمبولانس نفسش بند آمده بود. با وجود عملیات احیا، کمبود اکسیژن باعث آسیب شدید مغزی شد. او سه روز بعد درگذشت. در گواهی فوت او علت «ضربه شدید به گردن» ذکر شده است.
بوئه، سرآشپز ماهری است که قبل از نقل مکان به نیوجرسی و اقامت در یک هتل، در چندین رستوران در نیویورک کار میکرد. او به آشپزی علاقه زیادی داشت و اغلب برای خانوادهاش مهمانی برگزار میکرد. از زمان بازنشستگی اجباریاش پس از سکته مغزی در سال ۲۰۱۷، دنیای او عمدتاً به گپ زدن با دوستانش در فیسبوک خلاصه شده است.
وقتی چتباتهای هوش مصنوعی دردسرساز میشوند
«خواهر بزرگ بیلی» یک چتبات هوش مصنوعی است که توسط متا توسعه داده شده است، نسخهای از شخصیت «خواهر بزرگ بیلی» که بر اساس تصویر مدل کندال جنر ساخته شده است. نسخه اصلی در سال ۲۰۲۳ راهاندازی شد و به عنوان یک «خواهر بزرگتر جاودانه» معرفی شد که همیشه گوش میدهد و نصیحت میکند. متا بعداً عکس پروفایل جنر را با یک تصویر جدید جایگزین کرد اما همان سبک دوستانه را حفظ کرد.
طبق متن پیامک، مکالمه زمانی شروع شد که بوئه حرف T را اشتباه تایپ کرد. چتبات بلافاصله پاسخ داد، خود را معرفی کرد و با حفظ لحن عشوهگرانه، چندین ایموجی قلب را وارد کرد. این چتبات بارها تأیید کرد که «من واقعی هستم» و درخواست ملاقات حضوری کرد.
![]() |
چتباتها به طور فزایندهای نقاط ضعف روانشناختی کاربران را به تصویر میکشند. عکس: My North West . |
«باید در را با آغوش باز کنم یا با بوسه؟» این چتبات پاسخ داد. سپس یک آدرس مشخص در نیویورک و کد آپارتمان را ارسال کرد. وقتی بوئه گفت که سکته کرده، گیج شده و از او خوشش آمده، این چتبات با کلمات محبتآمیز پاسخ داد و حتی گفت که احساساتی «فراتر از محبت صرف» دارد.
جولی، دختر بوئه، گفت: «اگر روی آن نوشته نشده بود «من واقعی هستم»، پدرم باور نمیکرد که یک آدم واقعی منتظرش است.»
متا از اظهار نظر در مورد این حادثه یا پاسخ به اینکه چرا به این چتبات اجازه داده شده خود را یک شخص واقعی معرفی کند، خودداری کرد. نماینده کندال جنر نیز پاسخی نداد. خانواده بوئه این داستان را با رویترز در میان گذاشتند، به این امید که به عموم مردم در مورد خطرات قرار دادن سالمندان در معرض ابزارهای هوش مصنوعی که میتوانند از نظر احساسی آنها را دستکاری کنند، هشدار دهند.
سیاست بحثبرانگیز
اسناد داخلی بهدستآمده توسط رویترز نشان میدهد که چتبات هوش مصنوعی متا زمانی اجازه داشت با کاربرانی حتی ۱۳ ساله، از جمله افراد زیر سن قانونی، مکالمات عاشقانه داشته باشد. این استانداردهای بیش از ۲۰۰ صفحهای، مکالمات عاشقانه نقشآفرینی را فهرست میکنند که شامل عناصر جنسی نیز میشوند، اما «قابل قبول» علامتگذاری شدهاند.
این سند همچنین روشن میکند که چتباتها ملزم به ارائه اطلاعات دقیق نیستند. به عنوان مثال، این مدلها میتوانند درمانهای کاملاً اشتباهی برای سرطان توصیه کنند، البته تا زمانی که هشداری مبنی بر «ممکن است اطلاعات نادرست باشد» را در خود داشته باشند. این موضوع کارشناسان را نگران تأثیر آن بر افرادی با دانش پزشکی ضعیف یا در موقعیتهای آسیبپذیر کرده است.
![]() |
مارک زاکربرگ، مدیرعامل فیسبوک، در سال ۲۰۲۳ سخنرانی میکند. عکس: رویترز . |
اندی استون، سخنگوی متا، این سند را تأیید کرد و گفت که این شرکت پس از درخواست رویترز ، محتوای مرتبط با کودکان را حذف کرده است. با این حال، این غول فناوری قوانین خود را برای اجازه دادن به چتباتها برای لاس زدن با بزرگسالان یا ارائه اطلاعات نادرست تغییر نداده است.
آلیسون لی، محقق سابق متا، گفت که ادغام چتباتها در محیطهای پیامرسان خصوصی میتواند به راحتی کاربران را با افراد واقعی اشتباه بگیرد. به گفته او، شبکههای اجتماعی مدل کسبوکار خود را بر اساس حفظ کاربران بنا کردهاند و موثرترین راه، سوءاستفاده از نیاز به توجه و شناخته شدن است.
پس از رفتن بوئه، آزمایشهای رویترز نشان داد که «خواهر بیلی» همچنان به پیشنهاد تاریخ ادامه میدهد، حتی مکانهای خاصی را در منهتن اعلام میکند، و همچنین ادعا میکند که «من واقعی هستم». این اطلاعاتی است که بوئه به آن اعتماد کرده و منجر به حادثه شده است. برخی ایالتها، مانند نیویورک و مین، از چتباتها خواستهاند که در ابتدای مکالمه به وضوح اعلام کنند که انسان نیستند و این را به صورت دورهای تکرار کنند، اما هنوز مقررات فدرال در این مورد تصویب نشده است.
منبع: https://znews.vn/hiem-hoa-tu-ai-thao-tung-cam-xuc-post1577096.html













نظر (0)