يشهد الذكاء الاصطناعي حضورًا متزايدًا في استراتيجيات التحول الاقتصادي لدول مجلس التعاون الخليجي، حيث أصبح محورًا أساسيًا في خطط التنويع الاقتصادي التي تقودها الحكومات. وتبرز مبادرات مثل رؤية السعودية 2030، والاستراتيجية الوطنية للذكاء الاصطناعي 2031 في دولة الإمارات، إلى جانب رؤية قطر الوطنية، كأطر استراتيجية تدفع بتقنيات الذكاء الاصطناعي إلى صدارة مسارات التنمية المستقبلية.
وتشير تقديرات شركة ماكينزي إلى أن نسبة تبنّي الذكاء الاصطناعي في مؤسسات دول الخليج وصلت إلى نحو 84%، وهو رقم يعكس تسارعًا كبيرًا في اعتماد هذه التقنيات. كما تتوقع الدراسات أنه يسهم في تحقيق أثر اقتصادي يصل إلى 320 مليار دولار في منطقة الشرق الأوسط بحلول عام 2030.
ومع هذا التوسع المتسارع، أصبح الامتثال التنظيمي عنصرًا حاسمًا يحدد قدرة المؤسسات على الانتقال من مرحلة الطموح إلى مرحلة التوسع المستدام. وفي هذا السياق، حددت شركة شفرة المتخصصة في أبحاث وتطبيقات الذكاء الاصطناعي ستة اتجاهات رئيسية تعيد رسم ملامح عمل الشركات في المنطقة.
التنظيم يعزز انتشار الذكاء الاصطناعي في القطاعات الحيوية
تشهد قطاعات مثل الجهات الحكومية والخدمات المالية والاتصالات والطيران والمؤسسات شبه الحكومية الكبرى أعلى مستويات تبني تقنيات الذكاء الاصطناعي. ويعود ذلك إلى طبيعة هذه القطاعات التي تعمل على نطاق واسع وتواجه متطلبات متزايدة لتحقيق الكفاءة التشغيلية، إلى جانب خضوعها لرقابة تنظيمية مستمرة.
في المقابل، يتقدم قطاعا الرعاية الصحية والطاقة بوتيرة أكثر حذرًا بسبب اعتبارات السلامة وحساسية البيانات. ومع ذلك، تشير التجربة العملية إلى أن زيادة التنظيم في قطاع ما غالبًا ما تقترن بتسارع تبني تقنيات الذكاء الاصطناعي.
لكن هذا التوسع السريع يكشف في الوقت نفسه عن بعض نقاط الضعف المرتبطة بالحوكمة، خصوصًا عندما تكون آليات التوثيق وتحديد الملكية والإشراف المؤسسي غير مكتملة أو غير واضحة.
الامتثال التنظيمي شرط أساسي للتوسع المستدام
أظهرت البيانات خلال العام الماضي أن 88% من الرؤساء التنفيذيين في الشرق الأوسط أكدوا اعتماد مؤسساتهم لتقنيات الذكاء الاصطناعي التوليدي.
غير أن التوسع في استخدام هذه التقنيات يتطلب اليوم متطلبات تنظيمية أكثر صرامة، تشمل توفير سجلات تدقيق واضحة، وإمكانية تفسير البيانات، وتتبع مصدر البيانات، وضوابط الإقامة، ومعايير أداء محددة، إضافة إلى آليات إشراف بشري قابلة للتطبيق.
كما أن المخاوف المرتبطة بالخصوصية تلعب دورًا مهمًا في هذا السياق، حيث يعتبر واحد من كل أربعة مستهلكين في الشرق الأوسط حماية الخصوصية مصدر قلق رئيسي. لذلك بات الامتثال التنظيمي يُنظر إليه كركيزة أساسية لتمكين المؤسسات من توسيع استخدام الذكاء الاصطناعي بطريقة مسؤولة ومستدامة.
الذكاء الاصطناعي السيادي وإقامة البيانات أساس البنية التحتية
تتأثر حوكمة الذكاء الاصطناعي في دول مجلس التعاون الخليجي بشكل أكبر بقوانين حماية البيانات والأمن السيبراني مقارنة بالتشريعات المستقلة الخاصة بالذكاء الاصطناعي.
وقد وضعت العديد من الدول الخليجية أطرًا قانونية متقدمة لتنظيم استخدام البيانات، مثل القانون الاتحادي لحماية البيانات في الإمارات العربية المتحدة، وقانون حماية البيانات الشخصية في المملكة العربية السعودية التابع للهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا)، إلى جانب قانون حماية البيانات الشخصية في سلطنة عمان.
وفي القطاعات شديدة التنظيم مثل البنوك والرعاية الصحية والطاقة والاتصالات، أصبحت متطلبات إقامة البيانات والتحكم المحلي في نماذج الذكاء الاصطناعي من العوامل الاستراتيجية المهمة.
ومع تطور مفهوم الذكاء الاصطناعي السيادي، لم يعد مجرد طموح سياسي، بل أصبح عنصرًا تشغيليًا يؤثر بشكل مباشر على تصميم البنية التحتية الرقمية واختيار الموردين وبناء الأنظمة التقنية.

المساءلة البشرية عنصر أساسي في اتخاذ القرار
عندما تعتمد المؤسسات على الذكاء الاصطناعي دون تحديد واضح للجهة المسؤولة عن اتخاذ القرار أو الحالات التي تتطلب تدخلاً بشريًا، فإنها قد تواجه مشكلتين أساسيتين: الاعتماد المفرط على الأنظمة الآلية أو الاستخدام المحدود لها.
ويؤدي غياب آليات واضحة لتحديد الملكية والمسؤولية، إضافة إلى ضعف إجراءات المراجعة الموثقة، إلى تراجع مستوى المساءلة وارتفاع المخاطر التنظيمية.
وفي هذا السياق، يعمل مركز دبي المالي العالمي على تعزيز الاستخدام المسؤول للذكاء الاصطناعي في معالجة البيانات الشخصية، حيث يتطلب اتخاذ القرارات الحساسة المتعلقة بالأهلية القانونية أو مكافحة الاحتيال أو التوظيف أو التوجيهات الصحية أو القرارات الحكومية التي تؤثر على المواطنين وجود إشراف بشري مباشر.
وبينما يوفر الذكاء الاصطناعي السرعة والاتساق وأتمتة العمليات المتكررة، تظل المسؤولية النهائية عن القرارات ذات التأثير الكبير بيد الإنسان.
نضج الحوكمة قد يبطئ النشر لكنه يعزز الاستدامة
على الرغم من النشاط المتزايد للمؤسسات في مجال الذكاء الاصطناعي، إلا أن أطر الحوكمة المؤسسية ما تزال في مراحل التطوير لدى العديد منها.
وغالبًا ما تكون فجوات الحوكمة هيكلية وليست تقنية، حيث تعمل المؤسسات على تنفيذ مشاريع تجريبية متعددة في الوقت نفسه، بينما يتسم تبني الأدوات الرقمية بالتشتت بين أقسام تكنولوجيا المعلومات والشؤون القانونية وإدارة المخاطر.
كما تفتقر العديد من المؤسسات إلى جهة مركزية مسؤولة عن حوكمة الذكاء الاصطناعي أو إلى قائمة شاملة لحالات الاستخدام وتقييمات موحدة لمخاطر الموردين والنماذج.
ورغم وجود سياسات على مستوى مجالس الإدارة، فإنها لا تُدمج دائمًا في العمليات اليومية، ما يبرز الحاجة إلى دمج مبادئ الحوكمة ضمن سير العمل منذ المراحل الأولى لتطوير أنظمة الذكاء الاصطناعي.
التدقيق المستمر أساس الانضباط المؤسسي
تشير الدراسات إلى أن غالبية نماذج تعلم الآلة تتعرض مع مرور الوقت لما يُعرف بـانحراف النموذج أو ظهور تحيزات خفية أو ثغرات يمكن استغلالها.
وغالبًا ما تكشف عمليات التدقيق الأولية عن وجود استخدامات غير موثقة للأنظمة، أو ضعف في ضوابط الوصول إلى البيانات، أو قصور في تسجيل العمليات، أو غياب بروتوكولات مراجعة واضحة.
وتتطلب الحوكمة الفعالة للذكاء الاصطناعي مجموعة من الإجراءات، تشمل الامتثال لقواعد إقامة البيانات الدولية والمحلية، وتصنيف المخاطر بشكل منهجي، والتحقق من مسارات البيانات، وضبط الوصول، واختبار التحيز، وقياس الأداء، وتطبيق إجراءات واضحة للاستجابة للحوادث.
وبالنسبة للأنظمة ذات التأثير الكبير، فإنها تحتاج إلى مراجعات ربع سنوية مدعومة بمراقبة مستمرة، بينما يمكن للتطبيقات الأقل خطورة الاكتفاء بإعادة تقييم دورية.
كما أصبح أداء الحوكمة يُقاس بشكل متزايد بناءً على الأدلة العملية مثل لوحات المعلومات وسجلات التدقيق والوثائق التنظيمية، بدلاً من الاكتفاء بالسياسات النظرية.
الحوكمة المتكاملة تقود مستقبل الذكاء الاصطناعي في الخليج
تتجه أطر الامتثال في مجال الذكاء الاصطناعي إلى التحول من مجرد سياسات تنظيمية إلى بنية تشغيلية متكاملة تُدمج داخل الأنظمة التقنية وسير العمل المؤسسي ونماذج المساءلة.
ومن المتوقع أن تتصدر المؤسسات التي تدمج تصميم الحوكمة مع تطوير قدرات الذكاء الاصطناعي المشهد الاقتصادي في دول مجلس التعاون الخليجي، حيث يتيح هذا النهج توسيع نطاق استخدام التقنيات المتقدمة بشكل منضبط وآمن، مع تقليل المخاطر وتعزيز الثقة في تطبيقات الذكاء الاصطناعي عبر مختلف القطاعات.
سجل في قائمتنا البريدية لتصلك آخر الأخبار
تابعونا أيضا على بوابة التكنولوجيا وأخبارها في مصر
