في عصر الذكاء الاصطناعي، أصبح المحتوى البشري المحض نادرًا. الصورة: أسبوع الإعلان . |
سيؤدي ظهور ChatGPT في عام ٢٠٢٢ إلى طفرة في محتوى الذكاء الاصطناعي عبر الإنترنت. ووفقًا لتوقعات جارتنر، بحلول عام ٢٠٢٦، سيتم توليد ٩٠٪ من محتوى الإنترنت بواسطة الذكاء الاصطناعي، بما في ذلك النصوص والصور ومقاطع الفيديو .
الذكاء الاصطناعي مُدرَّب على فهم الفكر البشري. ولكن بدون بيانات بشرية خالصة، ستستخدم هذه التقنية معلوماتها القديمة، كما لو أن آلة نسخ تُعيد إنتاج نفسها.
يُشبّه العديد من الباحثين المحتوى الأصلي المُنتَج من قِبل البشر بالفولاذ "النظيف" الحديث، وهو ما يُعادله نادرًا ونادرًا. ويخشون أنه إذا لم يُحفَظ أحد نسخ من البيانات قبل عام ٢٠٢٢، فسيفقد الإنترنت نقائه تمامًا.
إعادة تمثيل الكارثة التاريخية
في عصر ما بعد الطاقة النووية، اكتشف العلماء أن جميع الفولاذ المُنتَج بعد عام ١٩٤٥ ملوث. وقد لوّثت القنابل الذرية الغلاف الجوي بالإشعاع، الذي انتشر إلى المعادن المُنتَجة في تلك البيئة.
هذا يجعل جزءًا كبيرًا من الفولاذ غير صالح للاستخدام في أجهزة القياس عالية الدقة، مثل عدادات جايجر وغيرها من أجهزة الاستشعار الحساسة. يكمن الحل في انتشال الفولاذ القديم من السفن الحربية الغارقة في أعماق المحيط، حيث لا يتأثر بالغبار الإشعاعي.
بالنسبة لمطوري الذكاء الاصطناعي، تُدرّب معظم النماذج على كميات هائلة من البيانات البشرية المُجمّعة على الإنترنت. ولكن إذا كانت برامج اليوم تتعلم من النصوص التي ولّدتها سابقًا، فإن النماذج معرضة لخطر الانهيار، مما يُضعف أصالتها وعمقها.
![]() |
تم انتشال البارجة الحربية هيندنبورغ الغارقة من الحرب العالمية الأولى. الصورة: رويترز كونيكت. |
هذا يجعل المحتوى المُنتج من قِبل البشر، وخاصةً قبل عام ٢٠٢٢، أكثر قيمة، كما يقول ويل ألين، نائب رئيس شركة كلاود فلير، التي تُشغّل إحدى أكبر شبكات الإنترنت في العالم . ويضيف أن هذا يُساعد على ترسيخ نماذج الذكاء الاصطناعي، والمجتمع ككل، في واقع مشترك. فبدون هذا الأساس، تُصبح الأمور مُعقّدة.
الخلفية العلمية مهمةٌ بشكل خاص في المجالات التقنية العالية كالطب والقانون والضرائب. على سبيل المثال، ينبغي على الطبيب الاعتماد على محتوى يكتبه خبراء بشريون وأبحاث حقيقية، لا على مصادر الذكاء الاصطناعي.
هذا الخطر يزداد واقعيةً. بعد عام من إطلاق ChatGPT، صرّح بول غراهام، المستثمر المغامر، بأنه اضطر للبحث عن محتوى قديم باستخدام بحث بسيط لتجنب "الخدعة المُولّدة من قِبل الذكاء الاصطناعي لتحسين محركات البحث". وردّ مالتي أوبل، الرئيس التنفيذي للتكنولوجيا في شركة Vercel الناشئة في مجال الذكاء الاصطناعي، بأن غراهام كان يُنقّي الإنترنت بحثًا عن المحتوى "قبل أن يُلوّثه الذكاء الاصطناعي".
يتفق مات ريكارد، مهندس سابق في جوجل، مع هذا الرأي. فقد كتب في تدوينة نُشرت عام ٢٠٢٣ أن الذكاء الاصطناعي يتغذى على الإنترنت، لكن جزءًا متزايدًا من المحتوى عليه يُولّده الذكاء الاصطناعي. وأوضح ريكارد: "من الصعب رصد مخرجات برامج الدردشة الآلية. وسيزداد صعوبة العثور على بيانات تدريب لم يُعبث بها الذكاء الاصطناعي".
"البحث عن الفولاذ في قاع البحر"
يكمن حل هذه المشكلة في الحفاظ على النسخة البشرية من البيانات قبل طفرة الذكاء الاصطناعي. ومن رواد هذا المجال جون غراهام-كومينغ، عضو مجلس الإدارة والمدير التقني لشركة كلاود فلير.
يضم مشروعه، وهو موقع الويب LowBackgroundSteel.ai، مجموعات البيانات والروابط والوسائط التي كانت موجودة قبل عام 2022. ومن الأمثلة المقدمة Arctic Code Vault على GitHub، وهو مستودع برمجيات مفتوح المصدر مدفون في منجم فحم مهجور في النرويج، محفوظ منذ فبراير 2020.
مشروع غراهام-كومينغ لحفظ البيانات البشرية. الصورة: Lowbackgroundsteel.ai. |
من مصادر البيانات الأخرى التي ذكرها مشروع "wordfreq"، وهو مشروع يتتبع استخدام الكلمات على الإنترنت. وقد تولّت اللغوية روبين سبير إدارته حتى عام ٢٠٢١.
قالت سبير: "لقد أفسد الذكاء الاصطناعي المُولِّد البيانات". واستشهدت بهوس ChatGPT بكلمة "delve" (التنقيب)، التي ازداد استخدامها مؤخرًا، كمثال. هذا يُشوِّه البيانات على الإنترنت، ويجعلها أقل موثوقيةً كانعكاس لكيفية كتابة البشر وتفكيرهم.
يمكن لنماذج الذكاء الاصطناعي المُدرَّبة جزئيًا على محتوى مُركَّب أن تُسرِّع سير العمل وتُزيل الملل في العمل الإبداعي. ولكن إلى جانب الأداء، سيُضطر المستخدمون على الأرجح إلى الاعتماد على المحتوى المُولَّد من قِبل البشر لإصدار أحكام دقيقة، مثل استخدام "الفولاذ المُنخفض" لإجراء قياسات دقيقة.
نجح علماء في تطوير طرق مختلفة لصنع الفولاذ باستخدام الأكسجين النقي، وهو تذكير بأن الحفاظ على الماضي قد يكون السبيل الوحيد لبناء مستقبل موثوق، بحسب موقع "بيزنس إنسايدر" .
المصدر: https://znews.vn/thu-sap-thanh-hoai-niem-tren-internet-post1559151.html
تعليق (0)