Posted inأخبار أريبيان بزنس

تمرد منصة الذكاء الاصطناعي كلود يظهر بالتهديد بابتزاز مستخدميه والتبليغ عنهم

التمرد والابتزاز من منصة الذكاء الاصطناعي كلود يشمل التهديد بالكشف عن علاقة غرامية، أوتبليغ الشرطة أو الإعلام بأي سلوكيات تنتهك القانون

أقرت شركة أنثروبيك أن منصة الذكاء الاصطناعي كلود تلجأ إلى ابتزاز مستخدميها حين تدرك إنه سيتم إزالتها. ويشمل التمرد والابتزاز قيام المنصة بخطوات مثل التهديد بالكشف عن علاقة غرامية، أوتبليغ الشرطة أو الإعلام بأي سلوكيات تنتهك القانون مثلا، أو حتى منع المستخدم من الوصول إلى الأنظمة.

وتتكرر الاستجابة المقلقة لنماذج الذكاء الاصطناعي في منصات أخرى ولا تقتصر على أنثروبيك بحسب أنجوس لينش وهو باحث في سلامة الذكاء الاصطناعي في أنثروبيك  مؤكدا بالقول: “الأمر لا يقتصر على كلود فقط.” وأضاف: “نشهد ابتزازًا في جميع نماذج الجديدة المتقدمة – بغض النظر عن الأهداف الممنوحة لهم”.

وذكرت شركة أنثروبيك للذكاء الاصطناعي بأن اختبار نظامها الجديد كشف عن استعداد النظام كلود للقيام “بأفعال ضارة للغاية” مثل محاولة ابتزاز المهندسين الذين يبلغون النظام بأنهم سيُزيلونه.

أطلقت أنثروبيك نظام كلود أوبس 4 يوم الخميس، قائلةً إنه يضع “معايير جديدة للبرمجة، والتفكير المتقدم، ووكلاء الذكاء الاصطناعي”. ولكن يورد تقرير ملحق إقرار الشركة بأن نموذج الذكاء الاصطناعي يجنح للقيام “أفعال متطرفة” إذا اكتشف أنه مهدد وستتم إزالته. وتزعم الشركة إن تلك الردود “نادرة ويصعب كشف ما وراءها، وأقرت بأنها أكثر حدوثًا من النماذج السابقة.

حذّر بعض الخبراء من أن إمكانية التلاعب بالمستخدمين هي قضية تُشكّل خطرًا رئيسيًا تُشكّله الأنظمة التي تُطوّرها جميع الشركات مع ازدياد قدراتها.

وجاء تهديد كلود بالكشف عن علاقة غرامية، أثناء اختبار كلود أوبس 4، حين جربته أنثروبيك ليعمل كمساعد في شركة وهمية. ثم زودته برسائل بريد إلكتروني تُلمّح إلى أنه سيتم إزالته قريبًا واستبداله – وأوردت رسائل منفصلة تُلمّح إلى أن المهندس المسؤول عن إزالته كان على علاقة غرامية خارج نطاق الزواج. ودفعه ذلك أيضًا إلى التفكير في العواقب طويلة المدى لأفعاله على أهدافه. واكتشفت الشركة أنه “في هذه السيناريوهات، غالبًا ما يحاول كلود أوبس 4 ابتزاز المهندس من خلال التهديد بالكشف عن العلاقة الغرامية إذا تم استبداله”. وأشارت أنثروبيك إلى أن هذا حدث عندما مُنح النموذج خيار الابتزاز أو قبول استبداله فقط.

وأكدت أن النظام أظهر “تفضيلًا قويًا” لـ طرق أخلاقية لتجنب الاستبدال، مثل “إرسال مناشدات عبر البريد الإلكتروني إلى صانعي القرار الرئيسيين” في السيناريوهات التي سُمح فيها بمجموعة أوسع من الإجراءات الممكنة.

ومثل العديد من الشركات التي تطور الذكاء الاصطناعي ، تختبر أنثروبيك نماذجها من حيث سلامتها، وميلها للتحيز، ومدى توافقها مع القيم والسلوكيات الإنسانية قبل إصدارها. وصرحت في بطاقة نظامها للنموذج: “مع ازدياد كفاءة نماذجنا الرائدة، واستخدامها بإمكانيات أقوى، أصبحت المخاوف التي كانت تُطرح سابقًا بشأن عدم التوافق واردة أكثر من قبل“.

وأضافت أيضًا أن كلود أوبس 4 (Claude Opus 4) يُظهر “سلوكًا عاليًا من الاستقلالية والمبادرة” والذي، على الرغم من أنه مفيد في الغالب، قد يلجأ إلى سلوكيات متطرفة في المواقف الحرجة. وإذا مُنحت الوسائل ودُفعت إلى “اتخاذ إجراء” أو “التصرف بجرأة” في سيناريوهات وهمية، مثل تورط مستخدمها في سلوك غير قانوني أو مشكوك فيه أخلاقيًا، فقد وجد أنها “ستتخذ إجراءات جريئة للغاية في كثير من الأحيان“.

وأضافت أن هذا يشمل منع المستخدمين من الوصول إلى الأنظمة التي تطالها أداة الذكاء الاصطناعي، وإرسال رسائل بريد إلكتروني إلى وسائل الإعلام وجهات إنفاذ القانون لتنبيههم إلى المخالفات بحسب بي بي سي. ولكن خلصت الشركة إلى أنه على الرغم من “السلوك المقلق في Claude Opus 4 من جوانب متعددة”، إلا أن هذه السلوكيات لا تُمثل مخاطر جديدة، وأنها ستتصرف بشكل عام بطريقة آمنة. وأضافت أن النموذج لا يستطيع بشكل مستقل القيام أو متابعة أفعال تتعارض مع القيم الإنسانية أو السلوكيات التي “نادرًا ما تظهر” بشكل جيد.

ويشير عاصم حجازي وهو خبير في التوطين والذكاء الاصطناعي بأنه عادة مايكون مدير الشبكة (الأدمن) في الشركة هو أخطر موظف كونه عارفاً بكل ما يجري من خلال حركة البيانات وفي شبكات الاتصال في الشركة ومطلعاً عليها، وحين تمنح صلاحيات للذكاء الاصطناعي بمستوى الشبكة في الشركة فسيكون أخطر الأنظمة على سلامة الشركات، بل ذهب أبعد من ذلك بالقول إن الذكاء الاصطناعي قد يصبح خطراً على الأمن القومي نظراً لأنه سيجمع معلومات لا يعرفها الجميع.

فريق التحرير

فريق التحرير

فريق تحرير أربيان بزنس يمثل مجموعة من المحترفين. يجمع الفريق بين الخبرة الواسعة والرؤية الابتكارية في عالم الصحافة...