Posted inذكاء اصطناعيآخر الأخبارأخبار أريبيان بزنستكنولوجيا

أريبيان بزنس يستكشف تداخل الذكاء الاصطناعي بين الأخلاق والقانون

تتعلق الأخلاقيات في الذكاء الاصطناعي بكيفية تصميم وتطوير واستخدام هذه التكنولوجيا بطريقة مسؤولة وأخلاقية

الذكاء الاصطناعي

مع تطور الذكاء الاصطناعي (AI) بشكل متسارع، أصبحت الحاجة إلى دمج الأخلاقيات والقوانين في تطوير واستخدام هذه التكنولوجيا أكثر إلحاحًا. فبينما يوفر الذكاء الاصطناعي إمكانات هائلة لتحسين حياتنا في العديد من المجالات، إلا أنه يثير أيضًا مخاوف أخلاقية وقانونية خطيرة.

الأخلاقيات في الذكاء الاصطناعي

تتعلق الأخلاقيات بكيفية تصميم وتطوير واستخدام هذه التكنولوجيا بطريقة مسؤولة وأخلاقية. وتتضمن بعض القضايا الأخلاقية الرئيسية في الذكاء الاصطناعي ما يلي:

  • العدالة: يجب أن يكون الذكاء الاصطناعي عادلًا وغير متحيز، ولا يعزز التمييز أو الظلم.
  • الخصوصية: يجب حماية خصوصية الأفراد عند استخدام الذكاء الاصطناعي، ويجب عدم جمع أو استخدام بياناتهم الشخصية دون موافقتهم.
  • السلامة: يجب أن يكون الذكاء الاصطناعي آمنًا، ويجب ألا يتسبب في أي ضرر للأفراد أو المجتمع.
  • المسؤولية: يجب أن تكون هناك مسؤولية واضحة عن الآثار المترتبة على استخدام الذكاء الاصطناعي، ويجب أن تكون هناك آليات واضحة لتحديد ومعالجة أي أضرار.

تجيب ماجـــدالينــا كــــونيج، مستشار قانوني في شركة إيه آي كيو، في مقابلة مع “أريبيان بزنس” على بعض الاستفسارات حول تقاطع الأخلاقيات والقانون في مجال الذكاء الاصطناعي.

ماجـــدالينــا كــــونيج

ما أهمية الدمج بين الأخلاقيات والقوانين في الذكاء الاصطناعي؟ ولماذا هذا الأمر مطلوب؟

تنطوي الأخلاق والقوانين على غرض واحد فيما يتعلق بتوجيه وتنظيم السلوك البشري وتعزيز الشعور  بالصواب والخطأ.

يضمّ القانون مجموعة من القواعد التنظيمية التي تفرضها الدولة والتي تحكم المجتمع، وتهدف إلى الحفاظ على النظام، بينما الأخلاق ذاتية المنبع، وتتكون من مبادئ داخلية توجه بوصلتنا وأحكامنا الخاصة.

كلاهما مستمد من مصادر مشتركة تشمل الدين وقيم المجتمع والثقافة والعدالة وغيرها من المفاهيم، ولكن دمج المبدأين معاً أمر معقد، لأن لكل منهما موقعه الفريد ولهما القدر نفسه من الأهمية، رغم أنهما لا يتعارضان مع بعضهما ويسيران جنباً إلى جنب ويتواءمان معاً.

لقد ساهم الانتشار الكبير للذكاء الاصطناعي في خلق تأثير وفرص عالمية واسعة، ومع ذلك، فالتغييرات السريعة تنتج مخاوف أخلاقية. ويحدّد السلوك الأخلاقي فهمنا لما هو جيد أو سيئ، صحيح أو خاطئ، ويوجه قراراتنا وسلوكنا، وعلى هذا النحو، ومن أجل حماية القيم الإنسانية الأساسية، يجب أن تكون الأخلاقيات حجر الزاوية في عمليتنا التشريعية، ولاسيما فيما يتعلق بالذكاء الاصطناعي، نظراً لأنه لا توجد حدود تقريباً لكيفية تطبيق هذه التكنولوجيا وأهدافها وفرص إساءة استخدامها.

ويتفق معظمنا على أنّ الاهتمامات الأخلاقية الرئيسة فيما يتعلق بالذكاء الاصطناعي تشمل العدالة والمساءلة والموثوقية وقابلية التفسير أو الشفافية والثقة والقيم الإنسانية والكرامة والتأثير على التوظيف والمخاطر والسلامة التي تشمل الأمن والخصوصية.

ونظراً لأن تكنولوجيا الذكاء تعيد تشكيل كل جانب من جوانب الحياة الحديثة وعالم الأعمال، فإن المشهد الاجتماعي والسياسي يتطور وفقاً لذلك، وعليه، يجب دمج مبادئ صنع القرار الأخلاقي وهياكل الإدارة الملائمة والضوابط الداخلية ذات الصلة في التشريعات التي تنظم المجتمع.

وعلى الرغم من أن القوانين والتشريعات يمكن أن تكون شاملة، إلا أنها ليست كذلك دائماً، ولا يمكنها معالجة جميع السيناريوهات المحتملة التي قد تنشأ في نطاق التفاعل البشري. في هذه المناطق الرمادية، يتقاطع القانون مع الأخلاق ويجب أن ينسجما معاً ليتمكّنا من الحكم بشكل أكثر فاعلية، وضمان ثقافة مستدامة للأخلاق والنزاهة في مجتمعنا.

كما يجب على الجهات المعنية في هذا الأمر تنفيذ عملية صنع القرار الفعالة، وبرامج الامتثال الكافية والضوابط الداخلية ذات الصلة لتحديد المخاطر وتقليلها. ويشمل ذلك تطوير السياسات والإجراءات والاتصالات والتدريب وتقييم المخاطر وبرامج المراقبة لتتبع الامتثال وتحديد الثغرات وتنفيذ الإجراءات التصحيحية. ومع ذلك، فإن النجاح الشامل لبرامج الامتثال الرسمية هذه يعتمد بشكل كبير على ثقافة الشركة التي هي بدورها مدفوعة بالسلوك الفردي الشخصي.

الذكاء الاصطناعي

كيف يمكن تحقيق الدمج العميق للذكاء الاصطناعي ضمن إجراءات العمل لتوفير ميزة تنافسية مستدامة؟

في الواقع، هذا هو الوقت المناسب لطرح هذا السؤال. فنظراً لانتشار الذكاء الاصطناعي المدمج في المنتجات والخدمات وعمليات صنع القرار، لم يعد السؤال عما إذا كان على الشركة أن تتبنّى الذكاء الاصطناعي، بل كيف يمكنها الاستفادة منه لتحقيق أفضل الميزات التنافسية.

لقد أصبح الذكاء الاصطناعي بالفعل سلاحاً سرياً لإطلاق العنان للميزة التنافسية من خلال قدرته على اكتشاف الأنماط والرؤى واتخاذ القرارات السريعة وتحسين العمليات وأتمتة المهام المعقدة. وعلى سبيل المثال، في وقت يشهد فيه العالم تزايداً كبيراً في عمليات الاحتيال على بطاقات الائتمان (زادت سرقة الهوية عبر بطاقة الائتمان بنسبة 44.6% من عام 2019 إلى عام 2020)، استخدمت “Mastercard” تقنية مدعومة بالذكاء الاصطناعي لاكتشاف الأنماط الناشئة للنشاط الإجرامي قبل أن تتحول إلى مشكلات كبيرة، وسجلت انخفاضاً في عمليات الاحتيال بمقدار ثلاثة أضعاف، بعد تطبيق تقنية الذكاء الاصطناعي (بولز 2022).

يعمل الذكاء الاصطناعي كأداة لتغيير قواعد اللعبة يمكنها دفع عجلة النمو المستدام للأعمال، ويلعب تطوير وتنفيذ استراتيجية شاملة للذكاء الاصطناعي دوراً كبيراً في رفع تنافسية الشركات وتعزيز موقعها في الصدارة.

كما يعمل الذكاء الاصطناعي على تمكين الشركات من اتخاذ قرارات ناجحة، واستهداف العملاء بفعالية والتغلب على التحديات بسرعة، من خلال التحليل الذكي للسوق والعمليات المبسطة والنمذجة التنبؤية.

وتشير التنبؤات والأمن والسلامة والكفاءات والتحسين في الوقت الفعلي إلى بعض الأمثلة المهمة لكيفية توفير الذكاء الاصطناعي لقيمة تنافسية حقيقية وملموسة.

الذكاء الاصطناعي ليس عصا سحرية أو علاجاً سحرياً، ويجب أن يكون هناك تكامل بين التكنولوجيا ورؤية الشركة ورسالتها وثقافتها، ولكن إذا تم تطبيقه بشكل تدريجي ورافقه التدريب المناسب لزيادة تأثير التكنولوجيا، فيمكن أن يسهم ذلك بفتح آفاق جديدة.

سيقوم الذكاء الاصطناعي باتخاذ القرارات نيابة عن البشر، فكيف يمكن معالجة المشكلات التي تنشأ نتيجة تلك القرارات؟ وكيف ستتعامل السلطات أو شركات التأمين مع هذه المسائل من وجهة نظرك؟

يبدو هذا السؤال مهماً جداً في ظلّ التزايد الهائل في الأشياء المستقلة (مثل السيارات ذاتية القيادة على سبيل المثال) وتطبيقات الذكاء الاصطناعي التي نشهدها في مختلف جوانب حياتنا. هناك مفهوم خاطئ شائع مؤخراً مفاده أن الذكاء الاصطناعي يفترض به أن يكون مثالياً، بينما يشير الواقع إلى غير ذلك، ففي معظم الأحيان لا ينبغي الأخذ به باعتباره ضامناً للدقة بنسبة 100%. والسؤال الحقيقي هو ما إذا كان الذكاء الاصطناعي قادراً على إعطاء تنبؤات أفضل من البشر، وما إذا كان البشر يقبلون التعايش مع هذا الأمر. وبكل الأحوال فإنّ النهج الذي نتبعه في اتخاذ القرارات باستخدام الذكاء الاصطناعي يعدّ مهمّاً جداً.

اليوم، تعدّ الطبيعة القانونية للذكاء الاصطناعي، وبالتالي القدرة على تحمّل المسؤولية أو قبولها، نقطة خلاف مع وجهة النظر السائدة التي ترى بأن أنظمة الذكاء الاصطناعي المستخدمة بشكل عام هي “منتج”. وعليه يمكننا التفكير في المسؤولية عن اتخاذ القرارات عموماً والقرارات المتعلقة بالذكاء الاصطناعي، بعدة طرق:

  1. يمكن أن يتحمل مطورو ومشغلو الذكاء الاصطناعي المسؤولية عن الأضرار الناجمة عن أنظمة الذكاء الاصطناعي من خلال أحكام وبنود صريحة في العقود.
  2. بعض القوانين تتطلب أحكاماً صارمة للمسؤولية حول ما قد تسببه أنظمة الذكاء الاصطناعي، حيث يكون مطورو ومشغلو الذكاء الاصطناعي مسؤولين عن الأضرار الناجمة عن النظام، بغض النظر عن إهمالهم. على سبيل المثال، ينصّ توجيه الاتحاد الأوروبي حول مسؤولية الذكاء الاصطناعي لعام 2022، على تحديد المسؤولية عن الأضرار الناجمة عن أنظمة الذكاء الاصطناعي، حيث يتوافق مستوى المسؤولية مع المخاطر المرتبطة بنظام الذكاء الاصطناعي، ويقترح التوجيه نظاماً صارماً للمسؤولية فيما يتعلق بأنظمة الذكاء الاصطناعي عالية المخاطر، محمّلاً المطورين والمشغلين المسؤولية عن الأضرار الناجمة، بغض النظر عن الإهمال.
  3. وضعت بعض البلدان لوائح تنظيمية لأنظمة الذكاء الاصطناعي (في وقت مازالت فيه بلدان أخرى تبحث الموضوع)، حيث تلزم تلك اللوائح المطوّرين والمشغّلين باعتماد معايير محدّدة للسلامة والأمن، والتي يمكن استخدامها لتحديد المسؤولية القانونية عن القرارات التي يتخذها الذكاء الاصطناعي. توجيه الاتحاد الأوروبي الخاص بالذكاء الاصطناعي، المذكور سابقاً، يحمّل المطوّرين والمصنّعين المسؤولية عن فشل الذكاء الاصطناعي أو النتائج غير المتوقّعة، سواء أكانت مقصودة أم لا.
  4. يمكن الحدّ من المخاطر المرتبطة بالذكاء الاصطناعي من خلال سياسات تأمين مسؤولية الذكاء الاصطناعي التي توفّر تغطية للأضرار التي تسببها أنظمة الذكاء الاصطناعي، والتي من شأنها أن تحفّز المطوّرين والمشغّلين على إيلاء اهتمام كافٍ ومسؤول لأعمالهم وأنظمتهم، وفقاً للبرامج المناسبة المذكورة لضمان سلامتها وموثوقيتها.

وتكمن إحدى التحدّيات والصعوبات العديدة في تحديد المسؤولية أو قرارات الذكاء الاصطناعي في أن سلسلة التوريد الخاصة بالذكاء الاصطناعي طويلة ومعقدة، فعلى سبيل المثال، بالنسبة للمركبات ذاتية القيادة، تساهم العديد من الشركات المختلفة في إعداد الأنظمة الذكية التي تشغّل هذه المركبات، أي أنّ من المحتمل توفير البيانات من قبل شركات مختلفة، إلى جانب بناء نماذج رؤية الكمبيوتر وغيرها من التفاصيل المتعلقة بهذه العملية، الأمر الذي يفتح المجال لإلقاء اللوم على الشركات الأخرى عندما يقع خطأ ما.

أما النهج المقترح لمقاربة موضوع مسؤولية الذكاء الاصطناعي في اتخاذ القرار هو قابلية التفسير، أي عملية توضيح كيفية وصول الخوارزمية إلى حلّها، رياضياً أو غير ذلك. لطالما دعا المشرّعون في جميع أنحاء العالم بإلحاح، إلى أن تكون القرارات التي يتخذها الذكاء الاصطناعي شفافة وقابلة للتفسير، من أجل ضمان الثقة. على سبيل المثال، إذا كان من الممكن شرح عملية صنع القرار في الذكاء الاصطناعي بطريقة متماسكة وشفافة، فيمكن تحميل مسؤولية هذا القرار للجهة الصحيحة.

وقد حدّد الاتحاد الأوروبي إمكانية التفسير كأداة لمعالجة ثقة الجمهور، معلناً أنه يجب أن يتاح للمواطنين إمكانية الوصول إلى المعلومات التي توضح كيفية وصول خوارزمية الذكاء الاصطناعي إلى نهايتها، لتعزيز عمليات صنع القرار، ومع ذلك، يمكن أن تكون هذه العملية صعبة للغاية ومكلفة جداً. وينصّ توجيه الاتحاد الأوروبي للذكاء الاصطناعي على أن توقعات التفسير ستختلف وفقاً للموقع، وبالتالي يتعين على الشركات إنشاء خوارزميات مختلفة للعمل حسب الأسواق المختلفة، الأمر الذي سيكون مكلفاً جداً.

ويشير هذا الأمر إلى أنه لا يزال أمام المشرّعين عمل يتعيّن عليهم القيام به من أجل جعل قابلية التفسير أداة فعالة، وتطوير عملية تعترف بهذه التحديات وتقدّم حلولاً بديلة منعاً لتضرّر الشركات المنافسة في اقتصاد الذكاء الاصطناعي. ومع ذلك، تشجّع التشريعات مزوّدي الخدمات على اعتماد التدابير اللازمة لضمان سلامة النظام وموثوقيته. فمثلاً، تلتزم شركة “OpenAI” بتخصيص نسبة من مواردها الحاسوبية لسلامة الذكاء الاصطناعي، أو ما يسمى “الاصطفاف الفائق” “superalignment”، وغالباً ما تتخذ المؤسسات إجراءات سريعة عندما لا تسير الأمور وفق المخطط، فتقوم بإيقاف التكنولوجيا على الفور، ومنع الوصول إليها. مثال على ذلك ما حدث عندما بدأ برنامج الدردشة الآلي من مايكروسوفت المصمم لتقليد المراهقين، في نشر خطاب كراهية عنصرية في غضون ساعات من إطلاقه عبر الإنترنت، الأمر الذي استدعى إزالته على الفور.

كما علينا ألّا ننسى أنّ الأسئلة المتعلقة باتخاذ القرار في مجال الذكاء الاصطناعي، تثير المزيد من الأسئلة المتعلقة باحتمالات توسع الذكاء الاصطناعي وقد تمتد المسؤولية أيضاً إلى المستخدمين أو مزوّدي بيانات التدريب، إلى جانب المسؤولية عن أنظمة الذكاء الاصطناعي التي يبدو أنها تتخذ القرارات بنفسها بدون أي تدخّل بشري، (والتي يجب أن تتحمل المسؤولية عن عواقب سلوكها)، وفيما إذا كان معيار “الشخص المسؤول” ينطبق هنا، وخاصة إذا كنا نتعامل مع عقول متفوقة بما لا يقاس على البشر، فهل ستكون هناك نقطة ما يعدّ فيها البشر مهملين لعدم استخدام تقنيات الذكاء الاصطناعي؟ (أو هل سيعفون من المسؤولية إذا فعلوا ذلك في الظروف التي يكون فيها من المنطقي القيام بهذا الأمر؟).

يمكننا أن نتوقع زيادة في التشريعات الناظمة للذكاء الاصطناعي مستقبلاً، نظراً للتعقيد والتطور السريع الذي يشهده هذا المجال، ويتعين على الصناعة والحكومة العمل معاً لتحديد الإجراءات التنظيمية المناسبة وتوفيرها لمقاربة موضوع المسؤولية الناجمة عن الذكاء الاصطناعي.

وقد نشهد أيضاً مسؤولية موسعة لمستخدمي الذكاء الاصطناعي، حيث سيكون التدريب والتعليم وواجهات المستخدم التي تنقل قدرات وقيود أنظمة الذكاء الاصطناعي أمراً بالغ الأهمية في هذا الصدد، إلى جانب التعاون الدولي في تنظيم الذكاء الاصطناعي لضمان التنسيق في أطر المسؤولية عبر الولايات القضائية وتعزيز الاستخدام الآمن والأخلاقي لتكنولوجيا الذكاء الاصطناعي.

بالإضافة إلى برامج الحوكمة على مستوى المنظمة، والتأمين الخاص بمسؤولية أنظمة الذكاء الاصطناعي (يقترح البعض أن تكون إلزامية، مثل التأمين على السيارات، لتعويض ضحايا الحوادث أو الأخطاء المرتبطة بالذكاء الاصطناعي مع تشجيع المطورين والمصنعين على إعطاء الأولوية للسلامة). ومع ذلك، فإن نتائج هذه الأنشطة وتأثيرها سيعتمد على موقف الجمهور من المخاطر، والقرارات السياسية التي يتخذها المشرعون، إلى جانب منظور المحاكم، والأضرار المحتملة، وحذر مزوّدي خدمات الذكاء الاصطناعي أو عدمه.

للاطلاع على  أحدث الأخبار  و أخبار  الشركات من السعودية والإمارات ودول الخليج تابعنا عبر تويتر  و  لينكد إن وسجل اعجابك على فيسبوك واشترك بقناتنا على يوتيوب  والتي يتم تحديثها يوميا