Posted inسياسة واقتصادآخر الأخبارأخبار أريبيان بزنسبرمجياتتكنولوجيادولذكاء اصطناعيشركات

بدء تنفيذ قانون الذكاء الاصطناعي الأوروبي.. المخاطر وفترات السماح

قانون الذكاء الاصطناعي الأوروبي، صنف المخاطر بـ 4 مستويات، ووضع للشركات فترات سماح للامتثال لقواعده.

بدء تنفيذ قانون الذكاء الاصطناعي الأوروبي.. المخاطر وفترات السماح
بدء تنفيذ قانون الذكاء الاصطناعي الأوروبي.. المخاطر وفترات السماح

يدخل قانون الذكاء الاصطناعي الأوروبي، الخميس، حيز التنفيذ، وسيطبق على أي أنظمة ذكاء اصطناعي موجودة بالفعل أو قيد التطوير.

ويعتبر قانون الذكاء الاصطناعي الأوروبي، هو أول تشريع في العالم يحاول تنظيم الذكاء الاصطناعي على أساس المخاطر التي يشكلها.

جدول تطبيق قانون الذكاء الاصطناعي الأوروبي

بدء تنفيذ قانون الذكاء الاصطناعي الأوروبي.. المخاطر وفترات السماح

وقد أقر المشرعون قانون الذكاء الاصطناعي الأوروبي، في مارس الماضي، وتم نشره في الجريدة الرسمية للمفوضية الأوروبية في يوليو الماضي، ودخل حيز التنفيذ في الخميس، الموافق أول أغسطس 2024.

ويتضمن قانون الذكاء الاصطناعي الأوروبي، تصنيف من 4 مستويات للمخاطر، ويضع جدول زمني لكل مستوي منها، لكي يبدأ تنفيذه، حتى تستعد شركات الذكاء الاصطناعي أن تتعرف على القواعد الجديدة المنظمة، وتعد نفسها للامتثال لها، حسب “euronews”.

4 مستويات لأنظمة الذكاء الاصطناعي

ويصنف قانون الذكاء الاصطناعي الأوروبي، شركات الذكاء الاصطناعي، تحت 4 مستويات من المخاطر، لكلا منها فترة سماح قبل بدء تنفيذها، حتى تستعد الشركات للامتثال للقواعد المنظمة الجديدة، وهي:

  1. أنظمة الذكاء الاصطناعي عديمة الخطر.
  2. أنظمة الذكاء الاصطناعي صاحبة الحد الأدنى من المخاطر.
  3. أنظمة الذكاء الاصطناعي عالية المخاطر.
  4. أنظمة الذكاء الاصطناعي المحظورة.

وقانون الذكاء الاصطناعي الأوروبي، سيطبق بالكامل بحلول أغسطس 2026، ويجب على الدول الأعضاء في الاتحاد الأوروبي، الامتثال لأحكامه، مع وجود بعض الاستثناءات.

أنظمة الذكاء الاصطناعي المحظورة

يحظر قانون الذكاء الاصطناعي الأوروبي، على الشركات بعض ممارسات الذكاء الاصطناعي تماما، اعتبارا من فبراير 2025، ومن أبرز هذه الممارسات، أنظمة الذكاء الاصطناعي، الذي يتلاعب بعملية صنع القرار للمستخدم، أو يوسع قواعد بيانات التعرف على الوجه من خلال تجريف الإنترنت.

أنظمة الذكاء الاصطناعي عالية المخاطر

بدء تنفيذ قانون الذكاء الاصطناعي الأوروبي.. المخاطر وفترات السماح

بينما يضع القانون لوائح أكثر صرامة يجب ابتاعها،  للشركات التي تعمل بأنظمة الذكاء الاصطناعي التي تعتبر عالية المخاطر، مثل الذكاء الاصطناعي الذي يجمع القياسات الحيوية، والذكاء الاصطناعي المستخدم في البنية التحتية الحيوية، أو قرارات التوظيف.

ويجب على الشركات التي تعمل بهذه الأنظمة، أو تطورها، إظهار مجموعات بيانات التدريب على الذكاء الاصطناعي الخاصة بها، وتقديم دليل على الرقابة البشرية من بين متطلبات أخرى.

أنظمة الذكاء الاصطناعي صاحبة الحد الأدنى من المخاطر

تقع 85% من شركات الذكاء الاصطناعي، تحت تصنيف الفئة الثانية،  وهي شركات أنظمة الذكاء الاصطناعي صاحبة الحد الأدنى من المخاطر، والقانون يضع لها عدد قليل من القواعد المنظمة، حسب توماس ريجنير، المتحدث باسم المفوضية الأوروبية.

الشركات بدأت تستعد للامتثال للقانون الجديد

بدء تنفيذ قانون الذكاء الاصطناعي الأوروبي.. المخاطر وفترات السماح

وبدأت شركات الاستشارات الإدارية والقانونية في أوروبا، بتقديم خدماتها لمساعدة شركات الذكاء الاصطناعي في أوروبا، على الامتثال لقواعد القانون الجديد، مثل شركة الاستشارات UST، التي تقدم خدماتها للشركات عملائها لجعل استخدامهم للذكاء الاصطناعي يتماشى مع القانون الجديد.

وقالت هيذر داو، رئيسة قسم الذكاء الاصطناعي المسؤول في شركة الاستشارات UST، إن الأمر قد يستغرق ما بين 3 إلى 6 أشهر اعتمادا على حجم الشركة التي تقع ضمن هذا التصنيف، ومدى دور الذكاء الاصطناعي في سير عملها لجعلها ملتزمة بالقانون الجديد، مشيرة إلى أنه هناك مجموعة واضحة من الإرشادات حول ما عليك القيام به.

وأضافت، أنه يمكن للشركات أن تفكر في إنشاء مجالس إدارة داخلية للذكاء الاصطناعي، مع خبراء قانونيين، وتقنيين، وأمنيين لإجراء تدقيق كامل للتقنيات المستخدمة، ومدى حاجتها إلى الالتزام بالقانون الجديد.

عقوبة عدم الامتثال لقانون الذكاء الاصطناعي الأوروبي

وقالت المفوضية الأوروبية، إنه إذا تبين أن الشركة لا تمتثل لقانون الذكاء الاصطناعي، بحلول المواعيد النهائية المختلفة، فقد تواجه غرامة تصل إلى 7% من حجم مبيعاتها السنوية العالمية.

من ينفذ قانون الذكاء الاصطناعي الأوروبي؟

بدء تنفيذ قانون الذكاء الاصطناعي الأوروبي.. المخاطر وفترات السماح

وسيشرف مكتب الذكاء الاصطناعي التابع للمفوضية الأوروبية، على كيفية اتباع القواعد الخاصة بنماذج الذكاء الاصطناعي ذات الأغراض العامة.

وقالت المفوضية الأوروبية، إنه سيتم إعادة توجيه 60 من موظفي المفوضية الداخليين إلى هذا المكتب، كما سيتم تعيين 80 مرشحا خارجيا آخرين في العام المقبل.

ووضع مجلس الذكاء الاصطناعي في الاتحاد الأوروبي، الأساس لتنفيذ القانون في اجتماعه الأول في يونيو الماضي، وهو مكون من مندوبين رفيعي المستوى من جميع الدول الأعضاء في الاتحاد الأوروبي البالغ عددها 27 دولة، بحسب بيان للمفوضية الأوروبية.

وأضافت المفوضية الأوروبية، أن مجلس الذكاء الاصطناعي، سيعمل مع مكتب الذكاء الاصطناعي للتأكد من أن تطبيق القانون منسق في جميع أنحاء الاتحاد الأوروبي.

وأوضحت، أن أحد التحديات الرئيسية هو تنظيم تقنيات الذكاء الاصطناعي المستقبلية، لكنها تعتقد أن النظام القائم على المخاطر يعني أنه يمكنهم تنظيم أي أنظمة جديدة بسرعة.

مهلة عام لدول الاتحاد الأوروبي لتشكيل سلطات وطنية

وأمام دول الاتحاد الأوروبي، مهلة حتى أغسطس المقبل لتشكيل سلطات وطنية مختصة تشرف على تطبيق القواعد في بلادها.

وتستعد المفوضية الأوروبية، أيضا لزيادة استثماراتها في الذكاء الاصطناعي، بضخ مليار يورو في عام 2024 وما يصل إلى 20 مليار يورو بحلول عام 2030.

القواعد عامة ويجب تقديم توضيحات لها

بدء تنفيذ قانون الذكاء الاصطناعي الأوروبي.. المخاطر وفترات السماح

ويعتقد ريستو أوك، رئيس أبحاث الاتحاد الأوروبي في معهد مستقبل الحياة، أنه لا يزال هناك بعض التوضيحات التي تحتاج المفوضية الأوروبية إلى تقديمها حول مدى خطورة تقنيات معينة.

على سبيل المثال، قال أوك إن استخدام طائرة بدون طيار لالتقاط صور حول مصدر المياه الذي يحتاج إلى إصلاحات “لا يبدو خطيرا للغاية”، على الرغم من وقوعه ضمن فئة المخاطر العالية في التشريع.

قال أوك:” عندما تقرأه الآن، فهو عام تماما”.. “لدينا هذا التوجيه على مستوى أكثر عمومية وهذا مفيد، لأن الشركات يمكنها بعد ذلك طرح سؤال حول ما إذا كان نظام معين عالي المخاطر”.

ويعتقد أوك، أنه مع بدء التنفيذ، ستكون المفوضية قادرة على تقديم تعليقات أكثر تحديدًا، حيث يمكن أن يذهب القانون إلى أبعد من ذلك، فهو يمنح المزيد من القيود، والغرامات الأكبر لشركات التكنولوجيا الكبرى التي تدير الذكاء الاصطناعي المولد في الاتحاد الأوروبي.

OpenAI، وDeepMind في فئة الحد الأدنى من المخاطر

وتُعتبر شركات الذكاء الاصطناعي الكبرى مثل OpenAI، وDeepMind والتي تطور أنظمة الذكاء الاصطناعي للاستخدام العام، ضمن فئة الحد الأدنى من المخاطر.

وتحتاج الشركات التي تعمل على تطوير الذكاء الاصطناعي للاستخدام العام، إلى إثبات مدى امتثالها لقوانين حقوق الطبع والنشر، ونشر ملخص بيانات التدريب، وإثبات كيفية حماية الأمن السيبراني.

للاطلاع على  أحدث الأخبار  و أخبار  الشركات من السعودية والإمارات ودول الخليج تابعنا عبر تويتر  و  لينكد إن وسجل اعجابك على فيسبوك واشترك بقناتنا على يوتيوب  والتي يتم تحديثها يوميا