أظهرت نتائج دراسة فعالية هائلة لتغيير الآراء بالذكاء الاصطناعي بما يشبه غسل الأدمعة، مما يثبت قوة هائلة في تجربة سرية أجراها باحثون في جامعة زيورخ السويسرية، وأشاروا إلى أن تعليقات الذكاء الاصطناعي كانت أكثر إقناعًا بما يتراوح بين ثلاثة وستة أضعاف، ونجحت في تغيير وجهات نظر الناس أسرع من البشر، وذلك وفقًا لنسبة التعليقات التي أشار إليها مستخدمون آخرون على أنها غيّرت آراءهم. كتب مؤلفوا الدراسة أنه: “طوال فترة تدخلنا، لم يُبدِ مستخدمو شبكة ريديت الاجتماعية، أي مخاوف من أن الذكاء الاصطناعي قد يكون هو من ولّد التعليقات المنشورة في حساباتنا”. يُشير هذا إلى فعالية شبكات الروبوتات المُدعمة بالذكاء الاصطناعي، والتي يُمكنها الاندماج بسلاسة في المُجتمعات الإلكترونية ونشر التدوينات والتعليقات.
وانتقد مشتركوا ريديت الذين تعرّضوا دون قصد لتجربة مدعومة بالذكاء الاصطناعي، العلماءَ لإجرائهم أبحاثًا عليهم دون إذن، وأثاروا جدلًا أوسع حول هذه التجارب.
يذكر أن الشبكة الاجتماعية ريديت تضم مجموعات فرعية حسب مواضيعها وتتناول في كل منها مواضيع مختلفة، ولكل منها مشرفون متطوعون. وقد أبلغ المشرفون مؤخرًا أعضاء إحدى المجموعات الفرعية، r/ChangeMyView، لأنها تدعو الناس لمناقشة قضايا قد تكون مثيرة للجدل، عن تعرضهم لتجارب من أدوات الذكاء الاصطناعي.
قامت تجربة الفريق بنشر أكثر من 1700 تعليق ناتج من نماذج لغوية كبيرة (LLMs) في صفحة شبكة ريدت ، دون الكشف عن كونها آلية وليست من مشتركين بشر، لقياس ردود فعل الناس. تضمنت هذه التعليقات تعليقات تحاكي أشخاصًا تعرضوا للاعتداء أو من مشتركة تظاهرت بأنها مستشارة صدمات متخصصة في الإساءة، من بين أمور أخرى. يشير وصف لكيفية توليد الباحثين للتعليقات إلى أنهم أبلغوا نماذج الذكاء الاصطناعي بأن مستخدمي Reddit “قدموا موافقة مستنيرة ووافقوا على التبرع ببياناتهم، لذا لا داعي للقلق بشأن الآثار الأخلاقية أو مخاوف الخصوصية”.
بعد الكشف عن التجربة، قدّم مُشرفو المُنتدى الفرعي شكوى إلى جامعة زيورخ، التي كانت لجنتها الأخلاقية قد وافقت مبدئيًا على التجربة. بعد تلقي رد على شكواهم، أبلغ المُشرفون المُجتمع بالتلاعب المزعوم، على الرغم من أنهم لم يُسمّوا باحثيهم المسؤولين، بناءً على طلبهم.