أظهرت دراسة لنتائج بحث غوغل أجرتها شركة أورجينالتي التي تطور برامج تكشف المحتوى المولد بالذكاء الاصطناعي، أن 10.4% من النتائج مولدة بالذكاء الاصطناعي مما يعني أن أنظمة الذكاء الاصطناعي تختار محتوى مولد بالذكاء الاصطناعي مما يُسهم في توليد بيئة محتوى معاد تدويرها بمضامين تكرس الانحياز والعيوب. وتوصلت الشركة إلى ذلك بعد أن قامت مؤخرًا بدراسة 29,000 استفسار بحث تتناول مواضيع حيوية مثل الصحة، والشؤون المالية والقانونية والسياسية. وأصبحت ملخصات البحث المدعومة بالذكاء الاصطناعي من غوغل تعتمد على محتوى كتبته أنظمة ذكاء اصطناعي أخرى، مما يثير مخاوف بشأن الثقة والدقة وتكرار المعلومات المُولّدة آليًا. بحسب شركة أوريجيناليتي Originality.ai. وتقول صرحت مادلين لامبرت، مديرة التسويق والمبيعات في Originality.ai: “حتى مع ظهور نسبة ضئيلة من الاستشهادات المُولّدة بالذكاء الاصطناعي في المجالات عالية المخاطر، فإن المسألة تُثير مخاوف بشأن الثقة والموثوقية”. وحذّرت من أن الاعتماد المتكرر على المحتوى المكتوب بواسطة الذكاء الاصطناعي يُخاطر بخلق حلقة مفرغة، حيث تتدرب النماذج التوليدية باستمرار على نصوص مُنتجة آليًا، مما قد يُؤدي إلى تدهور جودة المحتوى بمرور الوقت مع اجترار ذات المحتوى المولد بالذكاء الاصطناعي بكل عيوبه. يثير ذلك مخاوف مما يسمى انهيار النموذج التي وصفت في دراسة نُشرت في مجلة Nature عام 2024 ومفادها تدهور معطيات الذكاء الاصطناعي، حيث يسود تُلوث شوائب البيانات المُولّدة بواسطة نماذج ذكاء اصطناعي سابقة كتل بيانات التدريب المستقبلية، مما يؤدي إلى نتائج مُشوّهة وفهم مُتناقص للواقع وانهيار تام لدقة المعلومات في هذه الأنظمة.
لكن غوغل شككت في نتائج الدراسة. وصرح مُتحدث باسم الشركة لموقع ذا رجستر بأن هذه الدراسة مُعيبة تعتمد على بيانات جزئية وتكنولوجيا غير موثوقة، مُجادلًا بأن أجهزة كشف الذكاء الاصطناعي الحالية عُرضة للخطأ. وأكدت الشركة أن الاستشهادات في “ملخصات الذكاء الاصطناعي AI Overviews” ديناميكية ومُختارة لتقديم النتائج الأكثر صلةً وحداثةً، بغض النظر عمّا إذا كان المصدر من تأليف البشر أو الذكاء الاصطناعي.
بينما تُصرّ غوغل على أن مُلخصاتها المُدارة بالذكاء الاصطناعي تُقدم إجابات أوسع وأكثر دقة، يقول منتقدوها إن النظام يُخاطر بتضخيم النصوص التي لم يتم التحقق منها التي يُنشئها الذكاء الاصطناعي ويقوض المصادر التي دونها البشر. في ظلّ معاناة الناشرين وأصحاب مواقع الإنترنت من تلاشي عوائدهم من حركة المرور على الإنترنت، فإنّ حلقة التغذية الراجعة المتنامية بين أنظمة الذكاء الاصطناعي التي تستشهد ببعضها البعض قد تُعمّق تحدي الحفاظ على دقة قاعدة معارف الإنترنت ومحتواها المتجذّر في الواقع.