الإنترنت في خطر الانقسام: البشر والروبوتات

يحذر الخبراء من أن الإنترنت على وشك انقسام كبير، مما يؤدي إلى نشوء عالمين منفصلين: عالم للمستخدمين وآخر للروبوتات. يهدد هذا التغيير بخرق أقدم "عقد" للإنترنت، والذي يضمن استفادة مواقع الويب ومحركات البحث معًا.
منذ عقود من الزمن، رحبت مواقع الويب بالزواحف (الروبوتات) من محركات البحث مثل Google.
هذا يُفهرس المحتوى ويُصنّف ويُسهّل الوصول إليه، مما يُسهم بدوره في زيادة حركة الزيارات إلى المواقع الإلكترونية. تُنشئ نسبة "روبوتين لمستخدم واحد" علاقة تكافلية: تجمع الروبوتات البيانات، وتتلقى المواقع الإلكترونية الزيارات، وتنمو الأعمال.
ومع ذلك، فإن صعود الذكاء الاصطناعي المُولِّد يُغيِّر هذا تمامًا. فأدوات الذكاء الاصطناعي، مثل ChatGPT (OpenAI) أو Claude (Anthropic)، تُهيمن على الإنترنت بأكمله لتدريب نماذجها.
وفقًا لـ Cloudflare، في كل مرة يقوم فيها مستخدم OpenAI بزيارة موقع ويب، يكون هناك في الوقت نفسه حوالي 1500 زيارة من الروبوتات التي تديرها OpenAI.
بالنسبة لـ Anthropic، هذا الرقم أعلى من ذلك بكثير، حيث يصل إلى 60,000 بوت لكل مستخدم. يُظهر هذا أن حركة المرور البشرية آخذة في التناقص، بينما تتزايد حركة المرور الآلية (التي تُسببها الروبوتات) بسرعة، متجاوزةً في كثير من الحالات حركة المرور البشرية.
التهديد الوجودي من الذكاء الاصطناعي
تكمن المشكلة الأساسية في أن روبوتات الذكاء الاصطناعي هذه غالبًا ما لا ترتبط بالمصدر الأصلي. بل تلخص الإجابات وتقدمها مباشرةً من خلال واجهاتها الخاصة، مما يُبقي المستخدمين منخرطين، ويُقصي المواقع الإلكترونية ومنشئي المحتوى من سلسلة القيمة.

تغير الذكاء الاصطناعي الطريقة التي نتفاعل بها مع الإنترنت التقليدي (صورة توضيحية: GARP).
ليندا تونغ، الرئيسة التنفيذية لشركة "ويب فلو"، وهي شركة تصميم واستضافة مواقع إلكترونية، تصف هذا التغيير بأنه أحد أعمق التغييرات التي شهدتها خلال عملها على الإنترنت على مدار عشرين عامًا. وقالت: "إنه يُحدث تغييرًا جذريًا في طريقة عثور الناس على العلامات التجارية وتفاعلهم معها. وبالنسبة لبعض الشركات، يُمثل هذا تهديدًا وجوديًا".
من تحسين محركات البحث إلى التسويق المعتمد على محركات البحث: عصر جديد للبحث
على مدار الثلاثين عامًا الماضية، كان الظهور على جوجل مفتاح نجاح أي موقع إلكتروني. وقد ازدهرت صناعة تحسين محركات البحث (SEO) بشكل كبير لمساعدة الشركات على التنافس بشكل أفضل. لكن الذكاء الاصطناعي لا يتبع القواعد القديمة.
بدلاً من الارتباط مرة أخرى بالمستند المصدر، تقوم نماذج اللغة الكبيرة (LLMs) مثل ChatGPT أو Claude أو حتى Gemini من Google بقراءة هذا المستند وإعادة استخدامه للإجابة مباشرة على أسئلة المستخدمين، إلى حد كبير دون الإشارة إلى المصدر.
يُفضي هذا التحول إلى اختصار جديد: AEO (تحسين محركات البحث بالذكاء الاصطناعي). AEO هي استراتيجية تجعل المحتوى أكثر وضوحًا للذكاء الاصطناعي وأكثر فعالية عند استيعابه، حتى لو لم تُسفر إجابة الذكاء الاصطناعي عن نقرة واحدة. إذا كان تحسين محركات البحث (SEO) قد حدد عصر البحث، فقد يحدد AEO عصر الذكاء الاصطناعي المُولِّد.
الإنترنت منقسم: البشر والروبوتات
يقول تونج إن Webflow شهد زيادة في حركة المرور من أداة الزحف بالذكاء الاصطناعي الخاصة به بنسبة تزيد عن 125% في ستة أشهر فقط.
في عالم الإنترنت، يأتي أكثر من 50% من إجمالي حركة مرور الإنترنت من الروبوتات. ومع ازدياد حركة مرور الروبوتات، بدأت بعض الشركات بوضع حدٍّ لها - حرفيًا. فهي تُنشئ نسختين من مواقعها الإلكترونية:
- النسخة البشرية: مع صور وتفاعلات وقصص العلامة التجارية الغنية والجذابة.
- إصدار الروبوت: بسيط، مُحسَّن لسهولة القراءة بواسطة الآلة، ومصمم "لتغذية" الذكاء الاصطناعي دون الكشف عن الميزات الأكثر أهمية، مع الحفاظ على القيمة اللازمة لجذب النقرات من المستخدمين.

يعرض بعض الناشرين الآن ملخصات أو مقتطفات فقط لبرامج الزحف، على أمل جذب الفهرسة دون المساس بنموذج تحقيق الدخل الخاص بهم.
دروس من المقالات الفورية على فيسبوك
بالنسبة لبعض الشركات، مثل Webflow، يُمكن أن يكون جمع البيانات بواسطة الذكاء الاصطناعي مفيدًا للأعمال. إذا أوصى مستخدمٌ باستخدام Webflow عندما يسأل ChatGPT عن أفضل منصة لبناء مواقع الويب، فهذا يُمثل فرصةً ثمينة لعرض منتجاته.
يميل المستخدمون الذين يأتون من خلال الذكاء الاصطناعي إلى أن يكونوا أكثر تعليماً ولديهم "نية أعلى"، أو أكثر استعدادًا لأن يصبحوا عملاء، من أولئك الذين يأتون من خلال البحث.
ومع ذلك، فإن هذا المنطق ينهار بالنسبة للشركات التي تعتمد على كل من حركة المرور والقراء، وخاصة قنوات الوسائط، ومنشئي المحتوى، وأي شخص يعتمد نموذج أعماله على حركة المرور التقليدية على الويب.
إذا لخّص روبوت المحادثة مقالًا أو اقتبس المعلومات الأساسية، فمن المرجح ألا ينقر المستخدم عليه. فعدم النقر يعني عدم ظهور الإعلانات، وعدم الاشتراك في البريد الإلكتروني، وعدم وجود بيانات للجمهور، وعدم وجود إيرادات، وعدم وجود قيمة حقيقية.
آدم سينجولدا، الرئيس التنفيذي لشركة تابولا (منصة تقنية إعلانية)، عبّر عن الأمر بصراحة: "لقد شهدنا هذا من قبل. قدّم الناشرون محتواهم إلى فيسبوك لاستخدام المقالات الفورية، فماذا حدث؟ لا زيارات ولا أموال".
أطلق فيسبوك خدمة المقالات الفورية عام ٢٠١٥، واعدًا بسرعات تحميل صفحات عالية وتجربة استخدام سلسة على الأجهزة المحمولة. إلا أنها لم تحقق إيرادات تُذكر للناشرين. ظلّ القراء على فيسبوك، متجاوزين مواقع الناشرين، ومعهم الإعلانات، وعمليات التسجيل في البريد الإلكتروني، وأدوات التتبع التي كانت تُغذّي نماذج أعمالهم.
وفي نهاية المطاف، أغلقت شركة فيسبوك البرنامج بهدوء في عام 2023.
يعتقد سينغولدا أن أدوات الذكاء الاصطناعي، مثل بيربليكسيتي وتشات جي بي تي، تُكرر هذا الخطأ على نطاق أوسع. فقد أبلغ العديد من الناشرين عن انخفاض في حركة البحث بنسبة تراوحت بين 20% و30% خلال العام الماضي، حتى مع انتشار استخدام أدوات الذكاء الاصطناعي على نطاق واسع.
ادفع أو كن مبدعًا للبقاء على قيد الحياة
في مواجهة هذا الانفصال البطيء بين المحتوى وحركة المرور، يستجيب الناشرون والمنصات. وقّع بعضهم اتفاقيات ترخيص (مثل ريديت، ونيويورك تايمز، وفوكس ميديا) تسمح لبعض شركات الذكاء الاصطناعي بالوصول إلى محتواها مقابل رسوم مرتفعة. لكن هذه الاتفاقيات تُعدّ استثناءً.
يرى تونغ مستقبلًا مختلفًا: مستقبلٌ يتحكم فيه الناشرون بمن يمكنه الوصول إلى محتواهم وما يمكنهم رؤيته. من خلال شراكة بين Webflow وCloudflare، يمكن للشركات الآن التمييز بين الروبوتات الجيدة والسيئة وبرامج إدارة المحتوى (LLM). ويمكنهم اختيار مشاركة جزء من المحتوى، أو ملخصه، أو عدم مشاركته على الإطلاق.
مع ذلك، لا يزال تطبيق القانون صعبًا. لا تلتزم جميع برامج التتبع الآلية بملف robots.txt (سياسة الزحف الخاصة بالموقع). اتُهمت بعض الشركات باستخدام خوادم بروكسي لتتبع المحتوى حتى بعد حظره. هذا يعني أنه حتى مع وجود عوائق، يستمر التتبع.
في عالمٍ تُجيب فيه الروبوتات أولاً، قد يُشكّل الفرق بين الاعتراف بها والتفوق عليها في المنافسة الفرق بين نجاح وفشل قطاع بأكمله. هناك بالفعل مواقع إلكترونية مُصممة بواسطة الذكاء الاصطناعي، غير مُصممة لقراءتها من قِبَل البشر، بل لتُستغلّها أنظمة ذكاء اصطناعي أخرى - حلقة مُغلقة من المحتوى الذي تُنشئه الآلات، ولصالحها.

تواجه شركات الإعلام ومنتجو المحتوى تحديات كبيرة بسبب الذكاء الاصطناعي (الصورة: GARP).
وللتعامل مع هذه المشكلة، تراهن شركات مثل Taboola على نماذج جديدة، بما في ذلك Deeper Dive - وهي تجربة الذكاء الاصطناعي المدمجة في مواقع الويب الخاصة بالناشرين.
بدلاً من فقدان المستخدمين لصالح روبوتات خارجية، يُتيح هذا للقراء طرح الأسئلة والحصول على إجابات بناءً على التقارير الحالية للمنشور. يقول سينغولدا: "تحصل على تفاعلية الذكاء الاصطناعي، لكن الناشر يحتفظ بالعلاقة، وحركة الزيارات، والثقة".
قد تصبح هذه الثقة العملة الأكثر قيمة في عصر الذكاء الاصطناعي. ففي عالمٍ تسوده الإجابات السلسة، لا يزال الناس يرغبون في شيء ملموس. يقول سينغولدا: "نحن بشر. عندما يتعلق الأمر بأمرٍ مهم، كالمال أو الصحة أو الأطفال، لا نزال نرغب في معرفة من يتحدث".
المصدر: https://dantri.com.vn/cong-nghe/ngay-tan-cua-internet-truyen-thong-dang-den-gan-20250721090232643.htm
تعليق (0)