Skip to content
All Blogs

الذكاء الاصطناعي المسؤول وصعود الذكاء الاصطناعي السيبراني GRC في الشرق الأوسط

نشرت
الذكاء الاصطناعي المسؤول وصعود الذكاء الاصطناعي السيبراني في الشرق الأوسط
6:09

سُرعان ما أصبح الذكاء الاصطناعي أساسًا للتحوّل الاقتصادي في جميع أنحاء الشرق الأوسط. فبدءًا من رؤية المملكة العربية السعودية 2030 إلى الاستراتيجية الوطنية للذكاء الاصطناعي في دولة الإمارات العربية المتحدة، تستثمر دول المنطقة بكثافة في الذكاء الاصطناعي لتعزيز الابتكار، وتسريع وتيرة التنويع الاقتصادي، وتعزيز قدرات القطاع العام. ولكن مع ازدياد اندماج الذكاء الاصطناعي في البنية التحتية الحيوية وعمليات صنع القرار، تبرُز أهمية الذكاء الاصطناعي المسؤول والآمن والخاضع للحوكمة الرشيدة، وأهمية برامج الحوكمة وإدارة المخاطر والامتثال الخاصة به.

يشهد الاستثمار في الذكاء الاصطناعي ازدهارًا ملحوظًا في الشرق الأوسط

الأرقام خير برهان:

  • من المتوقع أن يساهم الذكاء الاصطناعي بمبلغ 320 مليار دولار في اقتصاد الشرق الأوسط بحلول عام 2030

  • وتتوقع المملكة العربية السعودية أكثر من 135 مليار دولار من الناتج المحلي الإجمالي المدفوع بالذكاء الاصطناعي، بينما تتوقع الإمارات العربية المتحدة أن يشكل الذكاء الاصطناعي 14% من ناتجها المحلي الإجمالي

  • ينمو الإنفاق على الذكاء الاصطناعي في منطقة الشرق الأوسط وتركيا وأفريقيا بمعدل سنوي مركّب يبلغ 37%، ومن المتوقع أن يصل إلى 7.2 مليار دولار بحلول عام 2026

  • يهدف صندوق MGX في أبوظبي إلى إدارة 100 مليار دولار من الأصول التي تركز على الذكاء الاصطناعي

يضع هذا النموّ المتسارع منطقة الشرق الأوسط في صدارة المناطق التي تتبنى تقنيات الذكاء الاصطناعي على مستوى العالم. غير أن التوسّع السريع في تطبيقاته يطرح في المقابل طيفًا من المخاطر الجديدة، بدءًا من تحيّز النماذج وصعوبة تفسير مخرجاتها، وصولًا إلى احتمالات سوء الاستخدام الأخلاقي والثغرات السيبرانية. وإذا لم تتم إدارة هذه التحديات بفعالية، فقد تُقوّض ثقة الجمهور، وتُعرّض الامتثال التنظيمي للخطر، وتُضعِف القيمة المستدامة على المدى الطويل.

كيف تبرُز أهمية الذكاء الاصطناعي المسؤول

يتجاوز الذكاء الاصطناعي المسؤول خانات الاختيار التنظيمية، ويشكّل التزامًا ببناء أنظمة ذكاء اصطناعي عادلة وأخلاقية وقابلة للتفسير ومتوافقة مع القيم الإنسانية. مع الالتزام بالحفاظ على الثقة وحماية الخصوصية وضمان المساءلة - خاصةً عند استخدام الذكاء الاصطناعي في مجالات عالية المخاطر مثل: الرعاية الصحية أو الدفاع أو الخدمات المالية.

 

تشمل الركائز الأساسية للذكاء الاصطناعي المسؤول ما يلي:

  • العدالة: أي، تجنب التحيّز والتمييز في نتائج الذكاء الاصطناعي

  • الشفافية: جعل قرارات الذكاء الاصطناعي قابلة للتفسير والتدقيق

  • الأمن والمرونة: ضمان حماية الذكاء الاصطناعي من سوء الاستخدام والتهديدات العدائية

  • الامتثال: تلبية متطلبات حوكمة الذكاء الاصطناعي المحلية والعالمية

  • المساءلة: ضمان الرقابة البشرية والملكية الواضحة عبر دورة حياة الذكاء الاصطناعي

ومع قيام الحكومات والشركات في الشرق الأوسط بتوسيع نطاق استخدامها للذكاء الاصطناعي، لا يُعَد تضمين هذه المبادئ تدبيرًا احترازيًا وحسب - بل ضرورة قصوى.

الحاجة إلى الحوكمة وإدارة المخاطر والامتثال السيبراني للذكاء الاصطناعي

لم تُصمم أُطر عمل الحوكمة وإدارة المخاطر والامتثال التقليدية للتعامل مع تعقيدات الذكاء الاصطناعي الحديث. حيث تتطور أنظمة الذكاء الاصطناعي بمرور الوقت، وتعتمد على البيانات الديناميكية، وغالبًا ما تعمل كـ "صناديق سوداء"، ما يجعل تقييم المخاطر أو فرض الضوابط أو إثبات الامتثال صعبًا للغاية.

 

لهذا السبب برزت الحوكمة وإدارة المخاطر والامتثال السيبراني للذكاء الاصطناعي كنظام بالغ الأهمية. لأنها تعالج:

  • المخاطر الخاصة بالذكاء الاصطناعي مثل: انحراف البيانات، وهلوسة النماذج، واتخاذ القرارات المبهمة

  • ثغرات الحوكمة في تطوير واستخدام الذكاء الاصطناعي

  • التكامل مع الأمن السيبراني للتخفيف من التهديدات التي تنفرد بها أنظمة الذكاء الاصطناعي

  • الجاهزية التنظيمية للأُطر الناشئة مثل: قانون الاتحاد الأوروبي للذكاء الاصطناعي ومعيار ISO/IEC 42001 وغيرها

وبالنسبة للشرق الأوسط، حيثُ يتم تطبيق الذكاء الاصطناعي بسرعة وعلى نطاق واسع، توفر الحوكمة وإدارة المخاطر والامتثال الأساس لنمو مستدام ومسؤول للذكاء الاصطناعي.

كيف تدعم 6clicks الذكاء الاصطناعي المسؤول

كنا في 6clicks في طليعة الشركات التي تدمج الذكاء الاصطناعي في الحوكمة وإدارة المخاطر والامتثال، لدرجة أن شركة  Gartner اعترفت بنا لاستخدامنا المبتكر للذكاء الاصطناعي في منصة الحوكمة وإدارة المخاطر والامتثال لدينا. ولكننا لا نستخدم الذكاء الاصطناعي فحسب، بل نساعد المؤسسات على حوكمته.

وقد تم تصميم حلنا للذكاء الاصطناعي المسؤول لمساعدة المؤسسات والجهات الحكومية على التحكم بشكل شامل في نظامها البيئي للذكاء الاصطناعي.

وفيما يلي ما نقوم به:

1. أُطر حوكمة الذكاء الاصطناعي

من خلال مكتبة المحتوى المدمجة لدينا، تأتي منصة 6clicks محمّلة مسبقًا بأُطر عمل عالمية، مثل:

  • إطار عمل NIST لإدارة مخاطر الذكاء الاصطناعي

  • مبادئ منظمة التعاون الاقتصادي والتنمية للذكاء الاصطناعي ( OECD)

  • معيار ISO/IEC 42001

  • بالإضافة إلى التوجيهات المحلية المتوافقة مع السياقات التنظيمية في دول مجلس التعاون الخليجي

وبالإمكان تخصيص الأُطر وتطبيقها عبر وحدات الأعمال أو المناطق أو الشركات التابعة.

2. مكتبات المخاطر والضوابط الخاصة بالذكاء الاصطناعي

نوفر مكتبات مخاطر ديناميكية خاصة بالذكاء الاصطناعي ومجموعات الضوابط لتقييمها وإدارتها:

  • تحيز النموذج وعدالته

  • خصوصية البيانات والاعتبارات الأخلاقية

  • استخدام الذكاء الاصطناعي من طرف ثالث

  • قابلية التفسير والتدقيق

كل ذلك تتم تغذيته في لوحات المعلومات لمنحك رؤية متكاملة عبر دورة حياة الذكاء الاصطناعي بأكملها.

3. Hailey- حوكمة الذكاء الاصطناعي بالذكاء الاصطناعي

تعمل  Hailey، محرّك الذكاء الاصطناعي المملوك لنا، على مطابقة الضوابط والتقييمات والتوصيات في الزمن الحقيقي بكفاءة عالية. لكن Hailey لا تقتصر على كونها نظامًا ذكيًا فحسب—بل هي منظومة محوكمة بالكامل. فقد صُمّمت منذ الأساس وفق مبادئ الذكاء الاصطناعي المسؤول، لتكون آمنة، وقابلة للتدقيق، وشفافة وقابلة للتفسير. كما تتضمن Hailey مجموعة من القدرات الأخرى التي تعزّز قيمتها، ومن أبرزها:

 

  • تحديد المخاطر والمشكلات المتعلقة بالذكاء الاصطناعي من تقييمات الأطراف الثالثة
  • إنشاء مهام لخطط معالجة مخاطر الذكاء الاصطناعي ومعالجة المشكلات
  • إنشاء ضوابط الذكاء الاصطناعي من خلال تحليل سياسات الذكاء الاصطناعي الخاصة بك

4. بنية Hub & Spoke لحوكمة قابلة للتطوير

سواء كنت تدير عمليات الذكاء الاصطناعي عبر أقسام متعددة أو وحدات أعمال مختلفة أو حتى ولايات قضائية متباينة، يوفر نموذج Hub & Spoke  الذي نقدّمه إطارًا فعّالًا يوازن بين الإشراف المركزي والاستقلالية المحلية. وتزداد أهمية هذا النموذج بشكل خاص لدى الوزارات الحكومية، والشركات متعددة الجنسيات، والتكتلات التي تدير عملياتها عبر الحدود.

5. إدارة المخاطر من طرف ثالث

نظرًا لاعتماد المؤسسات بشكل متزايد على مزوّدي الذكاء الاصطناعي الخارجيين، تسمح 6clicks، بإجراء تقييمات شاملة لمخاطر الذكاء الاصطناعي من طرف ثالث، ما يضمن التزام المورّدين بمعاييرك المتعلقة بالأخلاقيات والأمن والامتثال.

الفرصة المُتاحة أمام الشرق الأوسط

يسير الشرق الأوسط بخطىً متسارعة نحو ترسيخ مكانته كقوة عالمية في مجال الذكاء الاصطناعي. غير أنّ هذه الفرصة الواعدة تأتي مصحوبة بمسؤولية كبيرة: بناء أنظمة لا تتسم بالقوة فحسب، بل بالموثوقية أيضًا.

فالذكاء الاصطناعي المسؤول، إلى جانب الحوكمة الرشيدة وإدارة المخاطر والامتثال السيبراني، لم تَعُد ضربًا من الرفاهية، بل أصبحت ضرورة حتمية. إذ تُسهم هذه الركائز في ترسيخ الثقة لدى المواطنين والجهات التنظيمية وأصحاب المصلحة، وتؤسس لبيئة داعمة للابتكار المستدام.

وفي 6clicks، نفخر بشراكاتنا مع الحكومات والشركات والهيئات التنظيمية في مختلف أنحاء المنطقة، حيث نعمل معًا على ترسيخ الثقة في كل مرحلة من مراحل تبني تقنيات الذكاء الاصطناعي.

هل أنت مستعد للبدء في الحوكمة المسؤولة للذكاء الاصطناعي؟

استكشف حل الذكاء الاصطناعي المسؤول أو تواصل مع فريق 6clicks لتعرف كيف يمكننا مساعدتك.

Ready to transform GRC with 6clicks?

Let’s show you how it works for your team.

awards-mobile-v3