يبدو مؤكداً أن مجالس الإدارة المسؤولة عن الإشراف على استخدام الذكاء الاصطناعي في شركاتها تواجه مواقف صعبة. ويعزى هذا الأمر إلى حقيقة أن التداعيات الناجمة عن هذه التكنولوجيا ليس واضحة تماماً.
ومن الأسئلة الصعبة التي ينبغي على تلك المجالس الإجابة عنها: هل يجب التعامل مع نماذج الذكاء الاصطناعي التوليدية اليوم كوسيلة قوية لتحقيق أهداف تجارية محددة؟ أم أنها مجرد خطوة شبه نهائية على الطريق إلى الذكاء الاصطناعي العام، أي ذلك النوع من الذكاء الاصطناعي القادر على محاكاة الذكاء البشري؟
ومع أنه يتم إصدار نماذج جديدة للتعلم الآلي باستمرار، نجد أن كل نموذج منها يتمتع بقدرات مختلفة، وتكون مدربة على مجموعات بيانات متباينة، ناهيك عن وجود عناصر تحكم وحواجز أمنية مختلفة ومدمجة أيضاً.
وعندما تقوم شركة ما بدمج هذه النماذج مع بياناتها الخاصة، وتوظيفها في سير العمليات الداخلية المعقدة، يتضاعف حجم المخاطر التي لا تكشف عن هويتها على الفور، وإنما تظهر فقط بمرور الوقت.
صحيح أن هناك توافق يعمّ المجتمع واللوائح الواسعة على مبادئ الذكاء الاصطناعي المسؤول، من قبيل العدالة والقدرة على التفسير والخصوصية، إلا أن هناك القليل من الإجماع على المعاني والتفسيرات المحددة لهذه المصطلحات. وفي الوقت الذي يتحمّل فيه مجلس الإدارة المسؤوليات الحاسمة عن مهام الإشراف على الذكاء الاصطناعي، يظل يشكّل مخاطرة كبيرة على السمعة، كما أنه يحمل أهمية أخلاقية.

وحتى نكون أكثر دقّة في هذا الشأن، نستعرض في هذا المقال موضوع الذكاء الاصطناعي باعتباره المجال الشامل الذي يحاول محاكاة القدرات البشرية من خلال التكنولوجيا. وهنا تنبغي الإشارة إلى أن التعلم الآلي يعدّ بحدّ ذاته مجموعة فرعية من الذكاء الاصطناعي، وتتضمن تعلم الآلات من بيانات التدريب والخبرة لبناء “نموذج” لبعض جوانب العالم، ومن ثم استخدام هذا النموذج لأداء المهام.
ومن جهة أخرى، يمكن تصنيف الذكاء الاصطناعي التوليدي على أنه نوع من التعلم الآلي الذي ينشئ المحتوى، مثل المستندات أو الإجابات على الأسئلة أو الصور أو الصوت، بناءً على طلبات المستخدمين. وتشتهر شركات مثل “أنثوروبيك” Anthropic و “أوبن أيه آي” OpenAI بتطوير مثل هذه التقنيات للذكاء الاصطناعي.

وفي مجال سريع التطور مثل الذكاء الاصطناعي، تتطلب الرقابة أو الحوكمة الفعالة ثلاثة عناصر رئيسية، وهي: (أولاً) طريقة للكشف عن المخاطر أو استشعارها، والتي ربما لم تكن موجودة أو واضحة من قبل، (ثانياً) فهم شدة المخاطر والإمكانات المتاحة للتخفيف منها، أما العنصر الثالث والأخير، فهو القدرة على اتخاذ قرارات سريعة وفعالة قائمة على المخاطر، ويمكنها إحداث التوازن بين المخاطر والمرونة والابتكار، رغم التغيير المستمر وعدم اليقين.
تحديد المخاطر الذكاء الاصطناعي
يتمثل التحدي الأول في معرفة ماهية المخاطر. وفي واقع الأمر تتميز نماذج التعلم الآلي بطبيعتها غير الشفافة، ويقصد بذلك أن النموذج قد يتعلم طريقة لاتخاذ القرارات أو إنتاج المحتوى، ولكن لا يمكن معرفة ما تعلمه على وجه التحديد. وتكون نماذج الذكاء الاصطناعي معقّدة بشكل يتعذّر الإلمام به، وقد تتضمن نماذج الذكاء الاصطناعي التوليدية مئات المليارات من المتغيرات/ التباينات ذات العلاقات المتشابكة فيما بينها.
ولا يمكننا معرفة كل الأسئلة المحتملة التي يطرحها المستخدمون في العديد من تطبيقات الذكاء الاصطناعي، وقد يصل الأمر بهم إلى الطلب من النموذج إدخال نص ما. وفي الكثير من الأحيان تعرض النماذج المعقدة للغاية سلوكيات “ناشئة”، وربما تفاجئك بقدرتها على القيام بأشياء لم تكن تخطط لها. وفي نفس الوقت، قد يؤدي سلوك نماذج الذكاء الاصطناعي إلى إثارة الحساسيات العامة بطرق لا يمكن توقّعها.
وحتى نتمكن من الكشف عن المخاطر الناشئة، يعتبر ضمان وجود مجموعة متنوعة تشرف على أي مبادرات للذكاء الاصطناعي الإجراء الأكثر أهمية الذي يمكنك اتخاذه، سواء على المستوى التشغيلي كمجموعة توجيهية للذكاء الاصطناعي، أو كمجلس إدارة. ومن المرجح أن تطرح المجموعة المتنوعة، بما في ذلك خبراء التكنولوجيا وقادة الموارد البشرية والمستشارون القانونيون وأي شخص في المؤسسة أقرب إلى مجموعات العملاء المتنوعة، عدداً من الأسئلة المهمة إلى جانب ملاحظتهم للقضايا المحتملة.
وبعد أن أصبحت الأخلاقيات المرتبطة بالذكاء الاصطناعي غير مستقرة إلى حد كبير، ونظراً لحالة عدم اليقين الحالية المحيطة بأخلاقيات الذكاء الاصطناعي، يكون لزاماً مشاركة العديد من وجهات النظر والآراء والخبرات من مختلف الأفراد والجماعات عند نشر تطبيقات الذكاء الاصطناعي.

تصنيف المخاطر والتحقيق فيها
حتى نتأكد من أن مجلس الإدارة يفهم المخاطر والاستراتيجيات أو الإجراءات المتخذة لتقليل أو إدارة المخاطر المرتبطة بقضية معينة، يجب أن يكون هناك مدير واحد على الأقل يتمتع بالخبرة التكنولوجية. ويمكن تصنيف مستويات المخاطر لأنظمة الذكاء الاصطناعي على مقياس من المخاطر المتزايدة من (1) إلى (4)، حيث يمثل الرقم (1) نظاماً يُستخدم كثيراً ولكن على المستوى الداخلي حصرياً، وبمخرجات مقيّدة بشكل وثيق. وقد يشير الرقم (4) إلى تطبيق يواجه العملاء، مع وجود نطاق واسع من المخرجات المحتملة.
وتعتمد مستويات المخاطر أيضاً على نوع التطبيق، ومن ذلك على سبيل المثال، تطبيقات الذكاء الاصطناعي التي تعمل كمساعدين لدعم الموظفين على توليد أفكار جديدة يمكن وضعها في الطرف الأدنى من المقياس، بينما توضع الأنظمة التي تتحكم بالأجهزة الطبية في الطرف الأعلى. وقد تتضمن المخاطر حماية نموذج الذكاء الاصطناعي من التلاعب، وإمكانية توليد خطاب ضار أو مسيء، وإنتاج صور غير متنوعة، وغيرها من المخاوف ذات الصلة.
اتخاذ قرارات قائمة على المخاطر
وقد يكون من المفيد حقاً السعي للحصول على تقييمات مستقلة من خارج مجلس الإدارة، وهنا تبرز مسألة مهمة وهي أن أعضاء مجلس الإدارة الذين يتمتعون بخبرة فنية يمتلكون المهارات اللازمة في معرفة متى يتعين عليهم الحصول على مثل هذه المدخلات.
ليس هذا فحسب، بل أنهم يتمتعون بالدراية الكافية لفهم مختلف الاعتبارات داخل سياق الشركة، ويطرحون الأسئلة ذات الصلة، ويوجهون النقاشات، وخاصة عند الحاجة إلى إصدار أحكام واتخاذ قرارات حاسمة.
إن التعامل مع قضايا حوكمة الذكاء الاصطناعي يعتبر مهماً باعتبارها مسائل تنطوي على مخاطر، وليس مجرد مخاوف فنية لاتخاذ قرارات مستنيرة قائمة على المخاطر. وبغض النظر عن الذكاء الاصطناعي، فإن نشر أي برنامج ينطوي بطبيعته على مخاطر.
ولو استبعدنا عامل مدى دقة الاختبارات التي يتم إجراؤها، قد تظل البرمجيات تحتوي على عيوب غير محددة. ويتمثل الهدف من الاختبار في تقليل مخاطر العيوب، وليس القضاء عليها تماماً، وهذا ينطبق بشكل خاص على الذكاء الاصطناعي.
ويجب على شركتك التحقق باستمرار من أداء تطبيق الذكاء الاصطناعي واستكشاف القرارات التي يتخذها، والاستجابات التي يقدمها في أثناء استخدامه. ومع ذلك، لن يتم القضاء على المخاطر، ومنها على سبيل المثل ما يطلق عليه “الهلوسة”، ويقصد بذلك المخرجات الزائفة التي يولدها التطبيق، أو الكلام المسيء بشكل كامل.
وكما هي الحال مع العديد من قرارات الرقابة على المجالس، يتعيّن موازنة هذه المخاطر ومقارنة مع ما قد تقدمه من فوائد محتملة.
وفي هذا الإطار، يساعد أيضاً وجود مجموعة قوية من القيم لتوجيه سلوك الشركة. وبما أن القواعد حول الذكاء الاصطناعي تتغير بسرعة، ولا يتّضح دائماً كيفية تطبيقها، يتعين وجود مجموعة قوية ومفصلة بوضوح من القيم للإسهام في خلق ثقافة قد تساعد على توجيه تصرفات الشركة في الاتجاه الصحيح. ورغم الاعتراف بأهمية الحواجز وعمليات الحوكمة، ربما يصعب علينا أن نتوقع جميع المواقف التي قد تنشأ، خاصة عندما يكون اتخاذ القرار لامركزياً وسريعاً. ومن شأن وجود مجموعة واضحة من القيم المعززة باستمرار، أن تضمن مشاركة جميع الموظفين في ضمان تصرف الشركة بمسؤولية، وسيكون الموظفون أكثر ميلاً إلى اكتشاف السلوك السيئ المحتمل من قبل الذكاء الاصطناعي، ومن ثم إبلاغ الإدارة به.

في الختام، لا شك أن الذكاء الاصطناعي يتمتع بالقوة الهائلة التي تؤهله لتغيير مستقبل عالم الأعمال. ولا يمكن لأحد أن يجلس مكتوف الأيدي ويكتفي بمشاهدة الآخرين وهم يجنون ثماره. وفي هذه الحالة، يتعين عليك قبل كل شيء إدارة المخاطر في هذا المجال ومواكبة التغيّر في المخاطر ذاتها. ويعتقد أن أفضل طريقة للقيام بذلك هي الإشراف والرقابة بطريقة مرنة، والاستجابة بسرعة للمخاطر الناشئة، واعتماد طرق متطورة وناجعة لإدارتها.