داهمت قوات شرطة أشبه بفرقة كوماندوز طلاباً في مدرسة “كينوود” الثانوية في بالتيمور بولاية ميريلاند مجموعة طلاب يلعبون كرة السلة بسبب إخبارية خاطئة من نظام ذكاء اصطناعي للكشف عن الأسلحة، أفاد بوجود مسلحين لاقتحام، وكان السبب كيس مقرمشات دوريتوس كان يحملها طالب في السادسة عشرة من عمره. وقع الحادث في 20 أكتوبر 2025، عندما كان الطالب تاكي ألين برفقة أصدقائه خارج المدرسة بعد تدريب كرة القدم. فجأة، وصلت ثماني سيارات للشرطة بأفراد مدججين بالأسلحة في استجابة فورية لتحذير من نظام الذكاء الاصطناعي الذي حدد جسماً في جيب تاكي كسلاح ليتبين أنه كيس مقرمشات. وتتزايد مخاوف بشأن الاعتماد على أنظمة المراقبة بالذكاء الاصطناعي في المدارس بعد عدة حوادث مشابهة بما فيها دعاوى قضائية ضد استخدام تلك الأنظمة. وصف الطالب ألين الحادثة المروعة قائلاً: “أقبلوا باتجاهي شاهرين مسدساتهم وهم يصرخون بي طالبين مني النزول على الأرض، وأجبروني على الركوع ووضع يدي خلف ظهري، وكبلوني بالأصفاد ثم قاموا بتفتيشي ولم يجدوا شيئاً”. وتبين لاحقاً أن سبب الإنذار كان كيس رقائق “دوريتوس” في جيب الطالب، والتي تم تفسيرها بشكل خاطئ كسلاح من قبل تقنية الكشف عن الأسلحة من شركة أونيليرت (Omnilert) تستخدم الذكاء الاصطناعي مستخدمة في مدارس مقاطعة بالتيمور. أقرت الشركة لاحقاً بأن الحادث كان “بلاغاً كاذباً”، لكنها أصرت على أن النظام “عمل على النحو المنشود” لأن هدفه هو “تحديد الأولوية للسلامة والوعي من خلال التحقق البشري السريع”. أعرب تاكي ألين عن صدمته من الحادث وقال: “كان جل تفكيري: هل سأموت؟ هل سيقتلونني؟”. ورغم اعتراف الشرطة بخطئها وإظهار الصورة التي أطلق عليها الذكاء الاصطناعي الإنذار، لم يتلقَ الطالب أي اعتذار شخصي، بل قيل له إن الأمر مجرد “بروتوكول”. وأكد الطالب أنه لم يعد يشعر بالأمان للعودة إلى المدرسة، معبراً عن خوفه من تكرار الموقف: “إذا أكلت كيساً آخر من رقائق البطاطس أو شربت شيئاً، أشعر أنهم سيأتون مرة أخرى”. أثارت هذه القضية نقاشاً حاداً حول موثوقية تكنولوجيا المراقبة بالذكاء الاصطناعي في سيناريوهات العالم الحقيقي وعواقبها المحتملة على الأفراد.
جدل واسع
أثار حادث الإنذار الكاذب هذا في إحدى مدارس بالتيمور جدلاً واسعاً، حيث اعتبر نظام ذكاء اصطناعي يُدعى أومنيليرت “Omnilert” كيسًا من رقائق دوريتوس كسلاح، وتتواصل موجة من النقاشات الجدية حول الاستخدام المبكر وغير المنضبط لتقنيات الذكاء الاصطناعي في البيئات الحساسة، والحوار حول هذه يشمل مزيجًا من النقد التقني، ومخاوف العدالة الاجتماعية، ومطالبات ملحة بالمساءلة والاستخدام المسؤول للذكاء الاصطناعي، فضلا عن التشكيك في جاهزية وسلامة نشر هذه الأنظمة غير الكاملة في بيئات السلامة العامة الواقعية، وخصوصًا في المدارس. ويتوقع كثيرون تزايد الجدل والدعاوى القضائية ما لم يتم إصلاح هذا النوع من التدخلات الشرطية المُفعّلة بالذكاء الاصطناعي.
فشل النظام وتداعياته الصادمة
تجسدت الأزمة في إيجابية خاطئة من نظام الكشف عن الأسلحة، مما أدى إلى حشد الشرطة وتقييد طالب بريء. ورغم أن الشركة المزوّدة زعمت أن النظام “عمل على النحو المنشود” بإعطائه أولوية للتحقق البشري السريع، إلا أن هذه العملية البشرية فشلت فشلاً ذريعًا في منع الصدمة والتصعيد غير الضروري، مما يسلط الضوء على قصور خطير في سلسلة الاستجابة.
مخاطر الذكاء الاصطناعي في المدارس والسياق المجتمعي
يتفق المنتقدون على أن نشر تقنية الذكاء الاصطناعي بهذه الطريقة في المدارس يُعد سابقًا لأوانه ويحمل مخاطر جسيمة، تتمثل في تعريض الطلاب الأبرياء لصدمات نفسية واستجابات شرطة قد تكون خطرة. وتُضاعف هذه المخاطر عوامل مجتمعية أوسع؛ فانتشار الأسلحة في الولايات المتحدة يُصعّد من ردود فعل الشرطة تجاه أي إنذار، وحين يقترن هذا بـ “أخطاء” الذكاء الاصطناعي، فإنه يخلق بيئة عالية الخطورة، خاصة للطلاب السود.
جدل المساءلة وأولوية الحكم البشري
يتشابك النقاش حول المساءلة؛ فغالبًا ما تتنصل الشركات التقنية من مسؤولية الأضرار الناجمة، بينما تتجنب المدارس أو أقسام الشرطة إلقاء اللوم رغم الإخفاقات الواضحة. ويُركز الجدل الرئيسي على التوازن بين الأتمتة والقرار البشري. هناك إجماع على ضرورة أن يتحقق البشر دائمًا من تنبيهات الذكاء الاصطناعي قبل أي إجراء حاسم، والخشية هي أن يكون الاستخدام الحالي للذكاء الاصطناعي قد استبدل عمليًا عملية صنع القرار البشري بتوجيهات آلية متهورة أحيانًا.
الشكوك حول المراقبة القائمة على الذكاء الاصطناعي
تُعرب أصوات كثيرة عن تشككها العميق في صافي الفوائد مقابل الأضرار لأنظمة المراقبة هذه، مُحذّرة من أن التقنية قد تُسبب ضررًا أكبر من نفعها، ويُخشى أن تتسع لتشمل “التجسس بالذكاء الاصطناعي” في الحياة العامة. وهنا تتعمق القضية لتشمل مواضيع مجتمعية واسعة مثل التسامح مع عنف الشرطة، وإخفاقات نظام العدالة، والتحيز العنصري المتأصل في عمل الشرطة. تقنيًا، يدور النقاش حول عدم دقة نماذج الذكاء الاصطناعي، والحاجة المُلحة لآليات مثل “تقارير الثقة” و “الكشف متعدد المراحل” للحد من الإيجابيات الكاذبة، والتأكيد على ضرورة بقاء “الإنسان في دائرة القرار” لتطبيقات السلامة الحرجة.

