وصلت دولة الإمارات العربية المتّحدة بحلول أبريل 2026 إلى موقف تنظيمي للذكاء الاصطناعي يختلف اختلافاً ملحوظاً عن النموذجين العالميين المهيمنين. فهو ليس النظام الأفقي الصارم القائم على تصنيف المخاطر الذي اعتمده الاتحاد الأوروبي في قانون الذكاء الاصطناعي، وليس نظام التسجيل الخوارزمي والتحكّم بالمحتوى الذي اختارته الصين. كما أنّه ليس النهج المتساهل الذي يتّهم به بعض المنتقدين دول الخليج. بل بَنَت الإمارات بدلاً من ذلك بنية متعدّدة الطبقات تساهلية بشكل مقصود، يحمل فيها المكتب الفيدرالي للذكاء الاصطناعي ومجلس الإمارات للذكاء الاصطناعي والمنظّمون القطاعيون وقانون حماية البيانات الشخصية وسلطات المناطق الحرّة كلٌّ منها جزءاً مرسوماً بوضوح من العمل، فيما يبقى قانون فيدرالي شامل للذكاء الاصطناعي في صورة مسوّدة، يُتوقّع إصداره خلال عام 2026 أو 2027.
هذا المقال دليل تنظيمي وسياساتي يوضّح أين تقف قواعد الذكاء الاصطناعي الإماراتية فعلاً في 2026، وما هو ملزم وما هو استشاري، وكيف تتمايز هذه البنية عن قانون الاتحاد الأوروبي للذكاء الاصطناعي وإطار سدايا السعودي وAI Verify السنغافوري والترقيع القطاعي الأمريكي، وما الذي تحتاج شركات الذكاء الاصطناعي الأجنبية والمنصّات الكبرى والمؤسسات المالية ومقدّمي الرعاية الصحية فهمه قبل نشر الأنظمة داخل البلاد. الجمهور هنا ليس قارئاً عابراً يبحث عن شعار استراتيجي، بل المستشار العامّ ومسؤول الامتثال ومستشار السياسات أو التنفيذي الاستراتيجي الذي عليه أن يتّخذ قرارات حقيقية بشأن الولاية القضائية وتدفّقات البيانات ونشر النماذج ومخاطر التوريد.
استراتيجية الإمارات للذكاء الاصطناعي 2031 وأصل الإطار
نقطة انطلاق سياسة الذكاء الاصطناعي الإماراتية هي أكتوبر 2017، حين أقرّ مجلس الوزراء الاتحادي استراتيجية الإمارات للذكاء الاصطناعي وعيّن عمر سلطان العلماء وزيراً للدولة لشؤون الذكاء الاصطناعي، وهو أوّل دور وزاري مُكرَّس للذكاء الاصطناعي في العالم. الاستراتيجية ذاتها، التي صُقِلَت لاحقاً تحت اسم استراتيجية الإمارات للذكاء الاصطناعي 2031، حدّدت أهدافاً عبر تسعة قطاعات تشمل النقل والصحّة والفضاء والطاقة المتجدّدة والمياه والتكنولوجيا والتعليم والبيئة والمرور، وقدّمت سلسلة من البرامج التي شكّلت البيئة التنظيمية القائمة اليوم.
كان القرار الاستراتيجي عام 2017 لافتاً. فمعظم الدول في أواخر العقد الثاني من القرن الحادي والعشرين كانت تعامل الذكاء الاصطناعي بصفته تكنولوجيا مجاورة لأنظمة حماية البيانات والمستهلك القائمة، يُنظَّم عند الاقتضاء عبر تراكم بطيء لإرشادات السلطات الموجودة. اختارت الإمارات بدلاً من ذلك تركيز الملكية الاستراتيجية في وزير مُكرَّس ومكتب تنسيق، انطلاقاً من افتراض صريح بأنّ الذكاء الاصطناعي سيولّد متطلّبات سياساتية متقاطعة لا يستطيع منظّم قائم بمفرده استيعابها. ويبدو هذا الافتراض صحيحاً في 2026.
أصبح المكتب الفيدرالي للذكاء الاصطناعي، الواقع داخل مكتب رئيس الوزراء، الأداة التشغيلية. مهمّته التنسيق والتسريع وليست وضع القواعد بحدّ ذاتها. فهو يدعو مجلس الإمارات للذكاء الاصطناعي إلى الانعقاد، الذي يجمع المنظّمين الفيدراليين وسلطات المناطق الحرّة وأصواتاً صناعية مختارة، ويصدر إرشادات وبرامج وأطراً استراتيجية يترجمها المنظّمون القطاعيون لاحقاً إلى قواعد ملزمة ضمن نطاقاتهم. هذا التقسيم للعمل، بين المركز الاستراتيجي والمحيط القطاعي، هو السمة المميّزة للبنية.
بحلول أبريل 2026، تكون استراتيجية الإمارات 2031 على بُعد نحو خمس سنوات من أفقها المستهدف. أهدافها الكميّة، بما في ذلك مساهمة الذكاء الاصطناعي في الناتج المحلّي الإجمالي بنحو 335 مليار درهم أو ما يقارب 14% من الناتج الوطني، ووضع الإمارات ضمن الفئة العالمية العليا في مؤشّرات جاهزية الذكاء الاصطناعي، تظلّ المرساة الاستراتيجية التي تُعايَر مقابلها القواعد القطاعية والإرشادات الاتحادية. وتجد الشركات الأجنبية المتفاوضة مع المكتب الفيدرالي للذكاء الاصطناعي أو مع المنظّمين القطاعيين أنّ أهداف الاستراتيجية تُستحضَر باستمرار بصفتها النجم القطبي للسياسة، حتّى حيث تكون السلطة القانونية في مكان آخر.
المكتب الفيدرالي للذكاء الاصطناعي ومجلس الذكاء الاصطناعي
المكتب الفيدرالي للذكاء الاصطناعي هو نقطة التركيز لتنسيق سياسة الذكاء الاصطناعي ويُعدّ المحاور الرئيسي للمنصّات الأجنبية الكبرى والمستثمرين السياديين والشراكات التكنولوجية الكبيرة. ليس المكتب منظّماً بالمعنى التقليدي. فهو لا يرخّص المشاركين في السوق ولا يفصل في شكاوى المستهلكين ولا يفرض غرامات مباشرة على الصناعة. ما يفعله هو تحديد الاتجاه الاستراتيجي وإصدار الإرشادات وإدارة برامج تشمل دليل الذكاء الاصطناعي التوليدي للحكومة ومبادرة المليون موجِّه وبرامج تدريب الذكاء الاصطناعي الحكومي، وتمثيل موقف الإمارات في المحافل الدولية لسياسة الذكاء الاصطناعي بما في ذلك مجموعة عمل الذكاء الاصطناعي بمنظّمة التعاون الاقتصادي والتنمية وقمم سلامة الذكاء الاصطناعي المختلفة.
مجلس الإمارات للذكاء الاصطناعي هو الهيئة التداولية التي يدعوها المكتب الفيدرالي. برئاسة الوزير العلماء، يضمّ المجلس ممثّلين من الوزارات الاتحادية والمنظّمين القطاعيين بما في ذلك هيئة الأوراق المالية والسلع والمصرف المركزي الإماراتي والهيئة العامّة لتنظيم قطاع الاتصالات والحكومة الرقمية ودائرة الصحّة بأبوظبي وهيئة الصحّة بدبي وسلطة مركز دبي المالي العالمي وسلطة سوق أبوظبي العالمي وقادة كباراً من المؤسّسات الصناعية والأكاديمية الكبرى. لا يُصدر المجلس لوائح مباشرة لكنّه ينسّق توافق القواعد القطاعية مع الاستراتيجية الفيدرالية الإجمالية ويوقّع على وثائق إرشادية متقاطعة.
هذا الدور التنسيقي مهمّ لأنّه يحلّ مشكلة هيكلية تعاني منها ولايات أخرى. فالذكاء الاصطناعي يقطع الخدمات المالية والرعاية الصحية والنقل والاتصالات والخدمات الحكومية وأسواق المستهلكين. في كثير من البلدان، اندفع المنظّمون القطاعيون فرادى إلى وضع قواعد ذكاء اصطناعي خاصّة بهم، فأنتجوا تضارباً يفرض تكاليف حقيقية على المشغّلين متعدّدي القطاعات. الترتيب الإماراتي يوجّه التنسيق عمداً عبر المكتب والمجلس بحيث، على سبيل المثال، تتعقّب قواعد الذكاء الاصطناعي للقطاع المالي الصادرة عن هيئة الأوراق المالية إرشادات الذكاء الاصطناعي للرعاية الصحية الصادرة عن هيئة الصحّة بدبي بشكل عريض، وتتوافق كلتاهما مع متطلّبات قانون حماية البيانات الشخصية. هذا الانسجام ميزة تنافسية يستطيع البلد الإشارة إليها بمصداقية في محادثاته مع الشركات الدولية.
وثّقت تقارير من رويترز وبلومبرغ خلال عامي 2024 و2025 دور المكتب في التفاوض على الاستثمارات السيادية الكبرى بما في ذلك شراكات G42 مع مايكروسوفت وOpenAI وأداة الاستثمار MGX والمحادثات الأوسع لـ Stargate UAE مع شركاء التكنولوجيا الأمريكيين. تلك المفاوضات تجارية وجيوسياسية وتنظيمية في آن، وستكون أصعب بكثير دون مكتب مركزي.
النهج: أخفّ من الاتحاد الأوروبي وأقلّ تقييداً من الصين
يُفهَم الخيار التنظيمي الإماراتي على أفضل وجه بالمقارنة. قانون الاتحاد الأوروبي للذكاء الاصطناعي، الذي اعتُمد رسمياً عام 2024 وطُبِّق على مراحل خلال 2026 و2027، هو لائحة أفقية تصنّف أنظمة الذكاء الاصطناعي حسب المخاطر وتفرض التزامات مفصّلة على كلّ فئة. الاستخدامات المحظورة تشمل التصنيف الاجتماعي من قِبَل السلطات العامّة وبعض أنظمة التصنيف البيومتري والتلاعب الاستغلالي بالفئات الضعيفة. الأنظمة عالية المخاطر بما في ذلك الذكاء الاصطناعي المُستخدَم في التوظيف والتعليم والبنية التحتية الحرجة وإنفاذ القانون والوصول إلى الخدمات الأساسية تواجه تقييمات مطابقة وتوثيقاً وإشرافاً بشرياً والتزامات مراقبة لاحقة للسوق. النماذج العامّة الأكبر تواجه التزامات شفافية وحقوق نشر ومخاطر نظامية. تصل العقوبات إلى 7% من إجمالي الإيرادات السنوية العالمية للأخطر من المخالفات.
إطار الصين، المرتكز على قواعد التركيب العميق لعام 2022 وقواعد خدمات الذكاء الاصطناعي التوليدي لعام 2023 ونظام تسجيل التوصيات الخوارزمية، يتّخذ نهجاً مختلفاً لكنّه مفصّل أيضاً. الخوارزميات التي تمسّ الرأي العامّ أو التعبئة الاجتماعية يجب تسجيلها لدى إدارة الفضاء الإلكتروني الصينية. خدمات الذكاء الاصطناعي التوليدي للجمهور يجب أن تحصل على موافقات قبل الإطلاق وأن تُنتج محتوى متّسقاً مع القيم الاشتراكية الجوهرية. بيانات التدريب يجب الحصول عليها بشكل قانوني ووضع علامات لها، ويواجه المزوّدون مسؤولية مباشرة عن المخرجات.
اختارت الإمارات أيّاً من المسارين. لا يوجد قانون أفقي للذكاء الاصطناعي بفئات استخدام محظورة أو تقييمات مطابقة لمستويات المخاطر. لا يوجد سجلّ خوارزمي. بدلاً من ذلك، تعتمد البنية على:
| الطبقة | الأداة | الوضع في 2026 |
|---|---|---|
| استراتيجية | استراتيجية الإمارات للذكاء الاصطناعي 2031 ومبادئ أخلاقيات الذكاء الاصطناعي | نشطة، طوعية |
| بيانات اتحادية | قانون حماية البيانات الشخصية (المرسوم بقانون اتحادي 45 لسنة 2021) | ملزم |
| بيانات المناطق الحرّة | قانون حماية البيانات في DIFC ولوائح حماية البيانات في ADGM | ملزمة داخل المناطق الحرّة |
| الذكاء الاصطناعي التوليدي | إرشادات مجلس الذكاء الاصطناعي (2023، حُدِّثت 2024) | استشارية، تتشدّد |
| المالية | إرشادات هيئة الأوراق المالية والسلع وملاحظات DFSA وFSRA | استشارية، تُنفَّذ تدريجياً |
| الرعاية الصحية | إرشادات هيئة الصحّة بدبي وقواعد دائرة الصحّة بأبوظبي | ملزمة للجهات المرخّصة |
| الحكومة | معايير دبي الذكية وقواعد دائرة أبوظبي الرقمية | ملزمة للمشتريات |
| الاتّصالات والرقمي | لوائح الهيئة العامّة لتنظيم قطاع الاتّصالات والحكومة الرقمية | ملزمة |
| الدفاع والأمن | الإطار الأمني الوطني | سرّي، منفصل |
ما تنتجه هذه الطبقات هو تنظيم بحسب القطاع لا بحسب فئة المخاطر. روبوت محادثة استهلاكي ينشره تاجر تجزئة يواجه التزامات ملزمة قليلة نسبياً تتجاوز قانون حماية البيانات الشخصية والقواعد الرقمية للهيئة. نظام دعم قرارات سريرية مُنشَر داخل مستشفى دبي يواجه إرشادات الذكاء الاصطناعي المفصّلة لهيئة الصحّة بدبي زائد قانون حماية البيانات الشخصية زائد، حيثما ينطبق، قواعد المناطق الحرّة. خوارزمية تداول تنشرها وساطة منظّمة من هيئة الأوراق المالية تواجه إرشادات الذكاء الاصطناعي للهيئة زائد قواعد الخدمات المالية العامّة.
الخيار الإماراتي ليس عرضياً. كانت الاتّصالات الحكومية ووثائق السياسة صريحة بأنّ الدولة تريد أن تكون وجهة لاستثمار الذكاء الاصطناعي والبنية التحتية لحوسبته والأعمال المدفوعة به. نظام مُصمَّم على غرار قانون الاتحاد الأوروبي للذكاء الاصطناعي سيردع، بحسب تحليل الإمارات نفسها، الاستثمارات ذاتها التي تُعايَر حولها أهداف الاستراتيجية. في الوقت نفسه، السماح بأضرار حقيقية تشمل التمييز والاحتيال وفشل سلامة المرضى سيُلحق الضرر بالعلامة الأوسع. التسوية هي قواعد حاضرة وموثوقة لكنّها تُطبَّق عبر أدوات قطاعية محدّدة وتُؤجَّل حيثما أمكن إلى المنظّمين القائمين ذوي الخبرة ذات الصلة.
قانون حماية البيانات الشخصية وأنظمة المناطق الحرّة
الأداة الملزمة الأكثر أثراً في عمليات نشر الذكاء الاصطناعي هي المرسوم بقانون اتحادي 45 لسنة 2021، قانون الإمارات لحماية البيانات الشخصية، الذي دخل حيّز التنفيذ في 2022 وفُعِّل من خلال لوائح تنفيذية وإرشادات خلال 2024 و2025. ينطبق القانون على أيّ مراقب أو معالج يتعامل مع البيانات الشخصية لمقيمي الإمارات، وله امتداد خارجي قابل للمقارنة بالنظام الأوروبي العامّ لحماية البيانات (GDPR)، ويفرض التزامات الأساس القانوني والشفافية وحقوق أصحاب البيانات والأمن وإخطار الانتهاكات والنقل عبر الحدود.
بالنسبة للذكاء الاصطناعي تحديداً، الالتزامات الأكثر أثراً تتعلّق بتحديد الغرض والأساس القانوني لبيانات التدريب واتّخاذ القرارات الآلي والنقل عبر الحدود. تدريب نموذج على بيانات شخصية لمقيمي الإمارات يتطلّب أساساً قانونياً تحت القانون، ما يعني عملياً الموافقة أو أحد الأسس القانونية المحدودة. نشر اتّخاذ قرارات آليّ بأثر قانوني أو جوهري يتطلّب إعلام صاحب البيانات بحقوق المراجعة البشرية. النقل العابر للحدود للبيانات الشخصية يتطلّب إمّا تحديد ملاءمة أو شروطاً تعاقدية قياسية أو قواعد ملزمة للشركات أو آلية معتمدة أخرى.
قانون حماية البيانات في DIFC يعمل بصفته نظاماً منفصلاً لكنّه متماشٍ بشكل عريض مع GDPR داخل مركز دبي المالي العالمي. مفوّض حماية البيانات في DIFC منظّم مستقلّ بصلاحيات إنفاذ تشمل الغرامات. لوائح حماية البيانات في ADGM تعمل بشكل مشابه داخل سوق أبوظبي العالمي. كلتا المنطقتين الحرّتين نشرتا إرشادات محدّدة لعمليات نشر الذكاء الاصطناعي والتعلّم الآلي، وقد أدارت DIFC تركيزاً خاصّاً على الذكاء الاصطناعي في الخدمات المالية من خلال دليل الذكاء الاصطناعي للتطبيقات المتاخمة للتقنية المالية. الشركات الأجنبية المُهيكَلة عبر DIFC أو ADGM يجب أن تتعامل مع قانون المنطقة الحرّة ذي الصلة بصفته النظام الأساسي للبيانات للأنشطة المنفّذة داخل المنطقة الحرّة، مع تطبيق قانون حماية البيانات الشخصية الاتحادي للأنشطة المتعلّقة بمقيمين خارج المنطقة.
للمقارنة العملية لكيفية تفاعل البنى الإماراتية الرئيسية البرّية والمناطق الحرّة مع التنظيم التجاري الأوسع، يضع تحليل المنطقة الحرّة في دبي مقابل البرّ الرئيسي 2026 الفروق الهيكلية. لتداعيات ضريبة الشركات، انظر دليل ضريبة الشركات الإماراتية 2026.
القواعد القطاعية: الخدمات المالية
الخدمات المالية أكثر القطاعات تنظيماً للذكاء الاصطناعي في الإمارات، مع ثلاثة منظّمين يعملون بالتوازي. تشرف هيئة الأوراق المالية والسلع على أنشطة الأوراق المالية والسلع البرّية وأصدرت إرشادات للذكاء الاصطناعي تغطّي التداول الخوارزمي وتقديم المشورة الآلية ومراقبة السوق المدفوعة بالذكاء الاصطناعي. أصدرت DFSA داخل DIFC إرشادات تقنية مالية وابتكار تغطّي استخدام الذكاء الاصطناعي في الشركات المالية المرخّصة. أدارت FSRA داخل ADGM مختبراً تنظيمياً ونشرت إرشادات تغطّي عمليات نشر الذكاء الاصطناعي في أنشطة الخدمات المالية المرخّصة بما في ذلك إطار الأصول الافتراضية الذي جعل ADGM رائداً عالمياً في المشفّرة المنظَّمة.
المصرف المركزي الإماراتي ركّز من جانبه على الذكاء الاصطناعي في الصرافة والمدفوعات والتأمين، باهتمام خاصّ بإدارة مخاطر النموذج والإنصاف في قرارات الائتمان واستخدام الذكاء الاصطناعي التوليدي في القنوات التي تواجه العملاء. قواعد المصرف المركزي لمكافحة غسل الأموال وتمويل الإرهاب تتضمّن بشكل متزايد التزامات ذات صلة بالذكاء الاصطناعي تشمل التحقّق من النموذج وفعالية مراقبة المعاملات وقابلية التفسير للقرارات السلبية.
النهج القطاعي المالي عبر هؤلاء المنظّمين الأربعة قائم على المبادئ بشكل عريض لا على الوصفات المفصّلة. تُتوقَّع الشركات أن تنشر الذكاء الاصطناعي بما يتّسق مع معايير المصرف المركزي لإدارة مخاطر النموذج وقواعد سلوك الهيئة ومبادئ DFSA أو FSRA للأعمال. أنظمة الذكاء الاصطناعي المُستخدَمة في المشورة المالية المواجهة للعميل أو في قرارات الائتمان الآلية تواجه أكبر اهتمام، مع توقّع تنظيمي واضح بالإشراف البشري وقابلية التفسير ومسارات التدقيق. الذكاء الاصطناعي للكفاءة الخلفية البحتة يواجه تدقيقاً أخفّ بالمقابل.
الشركات المالية الأجنبية الداخلة إلى الإمارات تحتاج إلى دمج حوكمة الذكاء الاصطناعي في الترخيص والإشراف المستمرّ مبكّراً. منصّة استشارة آلية تطلق في DIFC، على سبيل المثال، ستكون إطار حوكمة الذكاء الاصطناعي لديها قيد المراجعة كجزء من تقييم الترخيص. مصرف أجنبي ينشر الذكاء الاصطناعي التوليدي لخدمة العملاء في فروع الإمارات البرّية سيحتاج إلى إخطار المصرف المركزي ومراقبة مستمرّة. للقطاع الفرعي للمشفّرة المنظّمة، يضع دليل ترخيص ADGM للمشفّرة 2026 كيفية تفاعل عمليات نشر الذكاء الاصطناعي مع قواعد FSRA للأصول الافتراضية.
القواعد القطاعية: الرعاية الصحية
الذكاء الاصطناعي في الرعاية الصحية تنظّمه سلطتان رئيسيتان. هيئة الصحّة بدبي تغطّي مرافق الرعاية الصحية والمهنيين المرخّصين في دبي. دائرة الصحّة بأبوظبي تغطّي إمارة أبوظبي. كلتا السلطتين نشرتا إرشادات للذكاء الاصطناعي تغطّي دعم القرارات السريرية والذكاء الاصطناعي التشخيصي والأجهزة الطبّية المُمَكَّنة بالذكاء الاصطناعي واستخدام الذكاء الاصطناعي التوليدي في الإعدادات السريرية والإدارية.
إرشادات الذكاء الاصطناعي لهيئة الصحّة بدبي، التي حُدِّثت في 2024، تتطلّب أن تُتحقَّق أنظمة الذكاء الاصطناعي المُستخدَمة في الإعدادات السريرية للسياق السريري المحدّد، وأن يحتفظ الأطبّاء البشريّون بسلطة القرار النهائية لرعاية المرضى، وأن تُعالَج بيانات المرضى المُستخدَمة للتدريب أو الاستدلال بما يتّسق مع قواعد حماية البيانات الصحية، وأن تُخطَر عمليات نشر الذكاء الاصطناعي الكبيرة لهيئة الصحّة بدبي. إرشادات دائرة الصحّة بأبوظبي متماشية بشكل وثيق، مع بعض الإضافات الخاصّة بالإمارة حول تبادل المعلومات الصحية ملفّي ومنتجات الذكاء الاصطناعي المرخّصة في أبوظبي. كلا المنظّمَين انتقلا نحو قواعد ملزمة للذكاء الاصطناعي السريري الأعلى مخاطر، رغم أنّ التشريع الأساسي للذكاء الاصطناعي يبقى استشارياً في معظم النواحي.
إقامة بيانات الرعاية الصحية أكثر إحكاماً مادّيّاً من البيانات التجارية. بيانات صحّة المريض يجب في معظم الحالات أن تبقى داخل الإمارات تحت قواعد سلطة الصحّة ذات الصلة والمرسوم بقانون اتحادي بشأن البيانات الصحية، مع السماح بالنقل عبر الحدود فقط في ظلّ ظروف محدّدة. لهذا تداعيات مباشرة على بائعي الذكاء الاصطناعي الأجانب، الذين يحتاجون عادةً إلى نشر استدلال مقيم في الإمارات وخطّ تدريب مقيم في الإمارات أو هيكل تعاقدي يضمن عدم مغادرة بيانات المرضى البلاد. تغطية من فاينانشال تايمز وأرابيان بزنس خلال 2024 و2025 وثّقت عدّة بائعي ذكاء اصطناعي سريري أجانب يهيكلون عمليات نشر الإمارات تحديداً لتلبية هذه القيود.
القواعد القطاعية: الحكومة والمدن الذكية
الذكاء الاصطناعي الحكومي يُنظَّم من خلال معايير المشتريات والقواعد الفيدرالية للأمن السيبراني وسلطات الإمارات الرقمية. تضع دبي الذكية معايير للذكاء الاصطناعي المُستخدَم في خدمات حكومة دبي، وتدير دائرة أبوظبي الرقمية قواعد مماثلة لأبوظبي، وتضع هيئة تنظيم قطاع الاتّصالات قواعد أساسية عبر جميع الجهات الفيدرالية. مجلس الإمارات للأمن السيبراني، الذي يجلس بجانب المكتب الفيدرالي للذكاء الاصطناعي، يصدر سياسات أمن سيبراني ملزمة بما في ذلك السياسة السحابية الفيدرالية وسياسة تصنيف البيانات والاستراتيجية السيبرانية الأوسع.
دليل الذكاء الاصطناعي التوليدي للحكومة، الذي نشره مجلس الذكاء الاصطناعي عام 2023 وحُدِّث سنوياً، يضع قواعد محدّدة لاستخدام أدوات الذكاء الاصطناعي التوليدي من قِبَل الموظّفين الفيدراليين. تشمل هذه حظراً على إدخال البيانات السرّية أو الحسّاسة في خدمات الذكاء الاصطناعي التوليدي العامّة ومتطلّبات لاستخدام عمليات النشر المؤسّسية المعتمدة وإرشادات للتحقّق من مخرجات الذكاء الاصطناعي التوليدي قبل الاعتماد عليها في الاتّصالات الرسمية. الجهات الفيدرالية طرحت قدرات ذكاء اصطناعي توليدي داخلية من خلال شراكات مع منصّات كبرى، مُهيكَلة لإبقاء أعباء العمل داخل البنية التحتية المقيمة في الإمارات حيثما لزم.
بائعو التكنولوجيا الأجانب الذين يبيعون حلول الذكاء الاصطناعي للحكومة الإماراتية يجب أن يتنقّلوا في هذه البيئة الحكومية للذكاء الاصطناعي ذات الطبقات. قواعد الهيئة السحابية تتطلّب استضافة البيانات الفيدرالية على البنية التحتية المقيمة في الإمارات بشهادة محدّدة. إطار سياسة الأمن السيبراني يفرض قواعد تصنيف البيانات والتعامل معها. عمليات المشتريات تتضمّن بشكل متزايد تقييمات خاصّة بالذكاء الاصطناعي تغطّي قابلية التفسير والأمن والتوافق مع مبادئ أخلاقيات الذكاء الاصطناعي التي نشرها مجلس الذكاء الاصطناعي.
القواعد القطاعية: الاتّصالات والحكومة الرقمية
الهيئة العامّة لتنظيم قطاع الاتّصالات والحكومة الرقمية تعمل بصفتها المنظّم الفيدرالي للاتّصالات والحكومة الرقمية والاقتصاد الرقمي الأوسع. قواعد الهيئة تمسّ الذكاء الاصطناعي عبر عدّة أدوات. الإطار التنظيمي للحوسبة السحابية يضع معايير إقامة البيانات والشهادات والمعايير التشغيلية لخدمات السحابة المُستخدَمة من قِبَل الجهات الفيدرالية. إطار خدمات الثقة الرقمية ينظّم الهوية الإلكترونية والتوقيع الإلكتروني وخدمات الثقة التي تتكامل معها أنظمة الذكاء الاصطناعي غالباً. محيط التنظيم الرقمي العامّ يغطّي الخدمات الرقمية المواجهة للمستهلك التي تدمج الذكاء الاصطناعي بشكل متزايد.
للمنصّات الكبرى الأجنبية، إطار الهيئة السحابي هو نقطة الاتّصال التنظيمية الرئيسية إلى جانب المكتب الفيدرالي. AWS وMicrosoft Azure وGoogle Cloud وIBM Cloud وOracle Cloud كلّها بَنَت مناطق إماراتية وتشغّلها تحت أُطر متماشية مع الهيئة تسمح باستضافة أعباء عمل حكومة الإمارات والأعمال التجارية المنظّمة. الترتيبات السحابية السيادية، بما في ذلك تلك المبنية حول G42 والبنية التحتية السيادية الإماراتية الأوسع، تجلس ضمن الإطار التنظيمي ذاته.
نهج الصندوق الرملي للشركات الناشئة الأجنبية
إحدى السمات الأكثر تميّزاً لسياسة الذكاء الاصطناعي الإماراتية هي الاستخدام الواسع للصناديق الرملية التنظيمية ومنصّات الاختبار، التي تسمح للشركات الناشئة والمبتكرين الأجانب بنشر تطبيقات جديدة في بيئة مُشرَف عليها دون ترخيص كامل فوري. مركز DIFC للابتكار ومختبر FSRA RegLab داخل ADGM قد أداروا فئات ذات صلة بالذكاء الاصطناعي لسنوات. أدارت دبي الذكية منصّات اختبار للذكاء الاصطناعي للخدمات الحكومية. صندوق المصرف المركزي للتقنية المالية يشمل تطبيقات مدفوعة بالذكاء الاصطناعي. صندوق الذكاء الاصطناعي للرعاية الصحية، الذي تديره هيئة الصحّة بدبي ودائرة الصحّة بأبوظبي بتنسيق المكتب الفيدرالي، يسمح لبائعي الذكاء الاصطناعي السريري باختبار المنتجات في بيئات محدّدة.
تقدّم الصناديق الرملية للشركات الناشئة الأجنبية ثلاث فوائد. أوّلاً، تقلّل وقت الوصول إلى السوق، إذ يمكن أن يستغرق الترخيص الكامل في قطاع مالي أو رعاية صحية 6 إلى 12 شهراً فيما يمكن قياس الدخول إلى الصندوق الرملي بالأسابيع. ثانياً، تقلّل متطلّبات رأس المال والحضور خلال مرحلة الاختبار، على فهم أنّ الترخيص الكامل مطلوب لدخول السوق الكامل. ثالثاً، توفّر وصولاً مباشراً إلى المنظّمين، مما يسمح للشركات الناشئة بتحسين نُهُج الامتثال قبل مواجهة الوزن الكامل لتوقّعات الإشراف.
المقايضة هي أنّ عمليات النشر في الصندوق الرملي محدودة في النطاق والحجم والمدّة. شركة ناشئة أجنبية للذكاء الاصطناعي التوليدي في صندوق الذكاء الاصطناعي للرعاية الصحية يمكنها إجراء تجارب سريرية داخل المرافق المُعَيَّنة لكنّها لا يمكنها تقديم خدمات تجارية عبر السوق الإماراتي حتّى تكمل الترخيص الكامل لهيئة الصحّة بدبي أو دائرة الصحّة بأبوظبي. الصندوق الرملي ممرّ، ليس وجهة. المؤسّسون الذين يقيّمون الدخول إلى الإمارات يجب أن يعاملوا المشاركة في الصندوق الرملي بصفتها مساراً مُهَيكَلاً للترخيص الكامل لا تحكيماً امتثاليّاً دائماً.
إقامة البيانات: الحكومية داخل البلاد، التجارية مرنة
إقامة البيانات هي السؤال الذي تطرحه شركات الذكاء الاصطناعي الأجنبية أكثر من غيره، والإجابة في 2026 استقرّت حول هيكل واضح ذي مسارَين. البيانات الحكومية الفيدرالية والبيانات السرّية والبيانات المُعالَجة للجهات الفيدرالية يجب تخزينها ومعالجتها داخل الإمارات، على بنية تحتية تستوفي شهادة الهيئة السحابية وإطار سياسة الأمن السيبراني. هذا غير قابل للتفاوض. البائعون الذين يبيعون الذكاء الاصطناعي للعملاء الحكوميين الفيدراليين يبنون مناطق إماراتية ويحصلون على شهادات محلّية ويهيكلون عروضهم لإبقاء تدفّقات البيانات داخل البلاد.
البيانات التجارية تُعالَج بمرونة أكبر. قانون حماية البيانات الشخصية يسمح بالنقل عبر الحدود إلى ولايات ذات حماية مناسبة والنقل تحت شروط تعاقدية قياسية معتمدة من السلطة ذات الصلة والنقل تحت قواعد ملزمة للشركات وآليات معتمدة أخرى. عملياً، النقل إلى ولايات حماية البيانات الكبرى بما في ذلك الاتحاد الأوروبي والمملكة المتّحدة وسويسرا روتيني. النقل إلى ولايات أخرى بما في ذلك الولايات المتّحدة يمكن هيكلته تحت شروط تعاقدية مناسبة. هذه المرونة خيار تصميم متعمّد يميّز السياسة الإماراتية عن الأنظمة التي تفرض توطيناً أكثر صرامة للبيانات. بائعو الذكاء الاصطناعي الأجانب يمكنهم تشغيل عمليات نشر استدلال إماراتية مع خدمات خلفية عالمية، بشرط أن تكون النقول العابرة للحدود مُهَيكَلة بشكل صحيح والموافقات والإخطارات في مكانها.
أنظمة المناطق الحرّة تتراكب على هذا الهيكل داخل DIFC وADGM. كلا النظامين يتعقّبان قواعد النقل عبر الحدود لـ GDPR بشكل عريض، مع تحديدات ملاءمة وشروط قياسية خاصّة بهما. البيانات الصحية والبيانات الحكومية هي الاستثناءات الرئيسية حيث تُتوقَّع الإقامة داخل البلاد عموماً.
لأعباء عمل الذكاء الاصطناعي الأجنبية التي تتقاطع مع تخطيط ضريبة الدخل الشخصية للموظّفين، يقدّم دليل شهادة الإقامة الضريبية الإماراتية سياقاً إضافياً حول كيفية تفاعل الإقامة الإماراتية مع الهياكل الضريبية الدولية.
ميثاق أخلاقيات الذكاء الاصطناعي والمبادئ الطوعية
مبادئ أخلاقيات الذكاء الاصطناعي الإماراتية، التي نُشِرَت أصلاً من قِبَل مجلس الذكاء الاصطناعي وحُدِّثت في 2023 و2024، تضع إطاراً أخلاقياً طوعياً تُتوقَّع الجهات الحكومية اعتماده وتُشجَّع شركات القطاع الخاصّ بشكل متزايد على مواءمته. تغطّي المبادئ الإنصاف والمساءلة والشفافية وقابلية التفسير والمتانة والخصوصية والإشراف البشري، بصياغة متماشية بشكل عريض مع مبادئ منظّمة التعاون الاقتصادي والتنمية للذكاء الاصطناعي وتوصية اليونسكو لأخلاقيات الذكاء الاصطناعي.
المبادئ طوعية بالمعنى القانوني الصارم، لكنّها ليست اختيارية عملياً للجهات العاملة مع الحكومة أو العاملة في القطاعات المنظّمة. أُطر المشتريات تشير إليها. المنظّمون القطاعيون يستندون إليها في الحوار الإشرافي. معايير حوكمة الشركات في DIFC وADGM تتضمّن بشكل متزايد توقّعات أخلاقيات الذكاء الاصطناعي المتّسقة مع المبادئ الفيدرالية. شركة أجنبية تنشر الذكاء الاصطناعي في الإمارات دون إطار أخلاقي داخلي مُعايَر مقابل المبادئ الفيدرالية ستواجه احتكاكاً في المشتريات الكبرى وفي حوار الترخيص وفي شراكات القطاع العامّ.
تغطية من بلومبرغ ورويترز خلال 2024 و2025 وثّقت التبنّي الدولي المتنامي لأطر أخلاقيات الذكاء الاصطناعي. وضعت الإمارات نفسها بصفتها أحد المتحرّكين الأوائل في هذا المجال، مع مبادئها التي تُلهِم محادثات الأخلاقيات الخليجية بما في ذلك تلك المنسّقة مع سدايا السعودية ومناقشات أوسع على مستوى مجلس التعاون الخليجي.
الإمارات مقابل قانون الاتحاد الأوروبي للذكاء الاصطناعي: الفروق الجوهرية
التباين مع قانون الاتحاد الأوروبي للذكاء الاصطناعي هو المقارنة التي تريد معظم الشركات الأجنبية فهمها بأوضح صورة. الفروق جوهرية:
أفقي مقابل قطاعي. قانون الاتحاد الأوروبي للذكاء الاصطناعي أفقي: يطبّق إطار تصنيف المخاطر ذاته عبر جميع القطاعات. النهج الإماراتي قطاعي: الذكاء الاصطناعي المالي يواجه قواعد هيئة الأوراق المالية وDFSA وFSRA، والذكاء الاصطناعي للرعاية الصحية يواجه قواعد هيئة الصحّة بدبي ودائرة الصحّة بأبوظبي، والقطاعات الأخرى تواجه المنظّم ذا الصلة. لا يوجد قانون أفقي إماراتي للذكاء الاصطناعي في 2026، رغم أنّ واحداً قيد المسوّدة.
الاستخدامات المحظورة. قانون الاتحاد الأوروبي للذكاء الاصطناعي لديه قائمة بممارسات الذكاء الاصطناعي المحظورة بما في ذلك التصنيف الاجتماعي من قِبَل السلطات العامّة وبعض التصنيف البيومتري والتلاعب الاستغلالي والمسح البيومتري غير المستهدف. ليس لدى الإمارات قائمة حظر قانونية مكافئة. بعض الاستخدامات مُقَيَّدة بقانون حماية البيانات الشخصية أو القواعد القطاعية أو القانون الجنائي القائم، لكن لا توجد فئة حظر أفقية.
تقييمات المطابقة عالية المخاطر. قانون الاتحاد الأوروبي للذكاء الاصطناعي يتطلّب تقييمات مطابقة وتوثيقاً تقنياً وعلامة CE لأنظمة الذكاء الاصطناعي عالية المخاطر. الإمارات لا تفرض تقييمات مطابقة على المستوى الفيدرالي. بعض القطاعات، خصوصاً الأجهزة الطبّية، تتطلّب تخليصاً تنظيمياً لمكوّنات الذكاء الاصطناعي، لكنّ هذا خاصّ بالمنتج لا بالذكاء الاصطناعي.
قواعد الذكاء الاصطناعي العامّة. قانون الاتحاد الأوروبي للذكاء الاصطناعي يفرض التزامات محدّدة على نماذج الذكاء الاصطناعي العامّة، بما في ذلك الشفافية والامتثال لحقوق النشر والتزامات المخاطر النظامية للنماذج الأكبر. لدى الإمارات إرشادات طوعية للذكاء الاصطناعي التوليدي عبر مجلس الذكاء الاصطناعي لكن لا يوجد نظام قانوني مكافئ.
العقوبات. قانون الاتحاد الأوروبي للذكاء الاصطناعي يسمح بغرامات تصل إلى 7% من إجمالي الإيرادات العالمية للأخطر من المخالفات. العقوبات الإماراتية قطاعية، مع توفير قانون حماية البيانات الشخصية للغرامات وتوفير القواعد القطاعية الأخرى لإنفاذها الخاصّ.
للشركات الأجنبية العاملة في كلتا الولايتين، الخلاصة العملية هي أنّ الامتثال لقانون الاتحاد الأوروبي للذكاء الاصطناعي يفوق مادّيّاً الامتثال الإماراتي في معظم الحالات. الشركات التي بَنَت بالفعل حوكمة الذكاء الاصطناعي للنظام الأوروبي ستجد التوقّعات الإماراتية متماشية بشكل عريض لكن أقلّ تفصيلاً مادّيّاً. العكس ليس صحيحاً: نشر متوافق مع الإمارات من غير المرجّح أن يستوفي الالتزامات الأوروبية دون عمل إضافي.
الإمارات مقابل سدايا السعودية وAI Verify السنغافوري والقواعد القطاعية الأمريكية
المقارنة مع الولايات الإقليمية والأقران الآخرين تساعد على تحديد الموقع الإماراتي بدقّة أكبر.
المملكة العربية السعودية (سدايا). الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا) أكثر مركزية من المكتب الفيدرالي الإماراتي، بسلطة مباشرة أوسع على سياسة البيانات والذكاء الاصطناعي. قانون حماية البيانات الشخصية السعودي لعام 2021، الموازي للقانون الإماراتي، فُعِّل بإنفاذ سدايا. مبادئ أخلاقيات الذكاء الاصطناعي السعودية وإرشادات الذكاء الاصطناعي التوليدي لعام 2024 مماثلة في النبرة لنظيراتها الإماراتية. كلتا الولايتين انتقلتا نحو قواعد قطاعية ملزمة؛ الإنفاذ السعودي كان أقلّ تطوّراً قليلاً من الإمارات، جزئياً لأنّ لدى الإمارات منظّمين ماليين ورعاية صحية أكثر نضجاً بممارسات إشراف راسخة.
سنغافورة (AI Verify). اختارت سنغافورة نهجاً طوعياً مُرَكَّزاً على الاختبار قائماً على إطار AI Verify وإطار حوكمة الذكاء الاصطناعي النموذجي وقانون حماية البيانات الشخصية. AI Verify يقدّم أدوات للتقييم الذاتي والمقارنة. المنظّمون القطاعيون بما في ذلك السلطة النقدية في سنغافورة للمالية ووزارة الصحّة للصحّة يضيفون إرشاداتهم الخاصّة. النهج السنغافوري متشابه هيكلياً مع الإمارات في تفضيله للإرشادات على القواعد الصارمة، مع تقديم AI Verify لأدوات تقييم ذاتي أكثر تطوّراً ممّا نشرته الإمارات حتّى الآن.
الولايات المتّحدة (قطاعية). تواصل الولايات المتّحدة تشغيل نظام ذكاء اصطناعي قطاعي ومتزايد على مستوى الولاية. الإجراءات الفيدرالية من خلال الأوامر التنفيذية وإرشادات NIST والمنظّمين القطاعيين بما في ذلك FTC وFDA وEEOC وCFPB وSEC كانت كبيرة لكن غير متساوية. تشريعات على مستوى الولاية بما في ذلك قانون الذكاء الاصطناعي في كولورادو وTRAIGA تكساس ونشاط خليفة SB 53 وSB 1047 في كاليفورنيا وغيرها تُضيف تعقيداً. النهج الإماراتي أقرب إلى النموذج القطاعي الأمريكي منه إلى الاتحاد الأوروبي أو الصين، مع لعب المكتب الفيدرالي دور تنسيق تفتقر إليه الولايات المتّحدة.
الصين. النهج الصيني أكثر تفصيلاً من الإمارات في التحكّم بالمحتوى وتسجيل الخوارزميات لكنّه أيضاً صديق للأعمال في كثير من النواحي. وضعت الإمارات نفسها عمداً بصفتها أكثر انفتاحاً من الصين فيما تظلّ متساهلة هيكلياً أكثر من الاتحاد الأوروبي.
الموقع المقارن كان خياراً سياساتياً إماراتياً متعمّداً. وضعت البلاد نفسها بصفتها وجهة تجمع بين الحوكمة الواضحة والتساهل العملي، موقف اجتذب استثمارات وشراكات كبيرة من شركات تكنولوجيا أمريكية وصينية وأوروبية.
التداعيات على المنصّات الكبرى
المنصّات الكبرى، بما في ذلك مايكروسوفت وغوغل وAWS وIBM وأوراكل، كلّها تشغّل مناطق إماراتية وقد بَنَت قدرات الذكاء الاصطناعي في تلك المناطق. عملياتها الإماراتية مُهيكَلة حول عدّة سمات مشتركة. أوّلاً، بنية تحتية مقيمة في الإمارات تستوفي شهادة الهيئة السحابية ومتطلّبات الأمن السيبراني الفيدرالية. ثانياً، ترتيبات سحابية سيادية لأعباء العمل الحسّاسة، غالباً بشراكة مع G42 أو جهات إماراتية أخرى. ثالثاً، خدمات الذكاء الاصطناعي المتاحة من خلال المنطقة الإماراتية مع نشر النموذج والضبط الدقيق وقدرات الاستدلال الخاضعة للضوابط المحلّية. رابعاً، أُطر تعاقدية متفاوض عليها مع المكتب الفيدرالي والمنظّمين القطاعيين تغطّي معالجة البيانات وسلوك النموذج والتدفّقات العابرة للحدود.
استثمار مايكروسوفت وOpenAI في G42، الذي أُعلِن في 2024 وتطوّر خلال 2025، هو أبرز مثال على تكامل المنصّات الكبرى مع سياسة الذكاء الاصطناعي الإماراتية. الترتيب يتضمّن استثمار مراكز بيانات ونشر نماذج الذكاء الاصطناعي وشراكة استراتيجية أوسع، مُهيكَلة لتلبية مخاوف الرقابة على الصادرات الأمريكية وتفضيلات السيادة الإماراتية. تغطية من وول ستريت جورنال ورويترز وثّقت الهيكل بالتفصيل.
للمنصّات الكبرى الأخرى، تقدّم الإمارات سوق حوسبة استراتيجية تجمع بين الطلب المحلّي الكبير وخطّ مشتريات الحكومة وبيئة تنظيمية صالحة للعمل للمشغّلين العالميين. قواعد الهيئة السحابية تتطلّب إقامة بيانات محلّية لأعباء العمل الفيدرالية لكنّها بخلاف ذلك تسمح بعمليات متكاملة عالميّاً. قواعد قانون حماية البيانات الشخصية للنقل عبر الحدود صالحة للعمل. القواعد القطاعية تنطبق على عمليات نشر محدّدة لكنّها تترك السحابة العامّة والبنية التحتية للذكاء الاصطناعي غير مُقَيَّدة بشكل عريض.
التداعيات على شركات الذكاء الاصطناعي الناشئة الأجنبية
لشركات الذكاء الاصطناعي الناشئة الأجنبية، تدور قرارات الدخول العملية إلى الإمارات حول أربعة أسئلة.
القطاع والترخيص. حدّد القطاع أو القطاعات التي يتناولها المنتج، ثمّ خَطِّط للمنظّم ذي الصلة. شركة ناشئة أجنبية للذكاء الاصطناعي السريري ستعمل مع هيئة الصحّة بدبي أو دائرة الصحّة بأبوظبي وستستخدم على الأرجح صندوق الذكاء الاصطناعي للرعاية الصحية مبدئياً. شركة ناشئة أجنبية للذكاء الاصطناعي للتقنية المالية ستعمل مع هيئة الأوراق المالية أو DFSA أو FSRA أو المصرف المركزي بحسب النشاط. منتج ذكاء اصطناعي استهلاكي أو عامّ أجنبي يواجه أساساً قانون حماية البيانات الشخصية وقواعد الهيئة.
الهيكل واختيار المنطقة الحرّة. معظم شركات الذكاء الاصطناعي الناشئة الأجنبية تتأسّس عبر DIFC أو ADGM، مستفيدةً من الولايات القضائية للقانون العامّ والبنية التحتية للابتكار المتطوّرة. الشركة ذات المسؤولية المحدودة الإماراتية البرّية أو التأسيس في المناطق الحرّة في المراكز الأحدث بما في ذلك واحة دبي للسيليكون وHub71 في أبوظبي شائعة أيضاً. الخيار يعتمد على القطاع والعميل المستهدف والاستراتيجية المؤسّسية الأوسع.
الصندوق الرملي أو الترخيص الكامل. للشركات الناشئة في القطاعات المنظّمة، الدخول إلى الصندوق الرملي يسبق عادةً الترخيص الكامل. ممرّ الصندوق الرملي يمكن أن يكون 6 إلى 18 شهراً، يُتوقَّع بعدها الترخيص الكامل. المؤسّسون يجب أن يخطّطوا لرأس المال والمعالم مع هذا المسار في الاعتبار.
البيانات والحوسبة. قرّر أين ستُعالَج البيانات الشخصية وأين ستُدَرَّب النماذج وأين سيحدث الاستدلال. الاستدلال المقيم في الإمارات هو الافتراضي بشكل متزايد للمنتجات التي تخدم العملاء الإماراتيين، بغضّ النظر عن مكان حدوث التدريب. شراكات الحوسبة مع المنصّات الكبرى أو البنية التحتية السيادية أسهل عادةً من بناء قدرة مخصّصة.
المؤسّسون الذين يقيّمون الدخول إلى الإمارات يجب أيضاً أن يأخذوا في الاعتبار أسئلة بيئة الأعمال الأوسع بما في ذلك الإقامة والمعاملة الضريبية والهيكل المؤسّسي. دليل ضريبة الشركات الإماراتية 2026 يغطّي الاعتبارات الرئيسية لشركات التكنولوجيا الأجنبية. تحليل المنطقة الحرّة في دبي مقابل البرّ الرئيسي 2026 يضع الخيارات الهيكلية.
التداعيات على المؤسّسات المالية التي تنشر الذكاء الاصطناعي
المؤسّسات المالية التي تنشر الذكاء الاصطناعي في الإمارات تواجه النظام القطاعي الأكثر تفصيلاً. المصارف وشركات التأمين والشركات المالية المرخّصة تنشر عادةً الذكاء الاصطناعي عبر عدّة حالات استخدام تشمل قرارات الائتمان وكشف الاحتيال ومراقبة معاملات مكافحة غسل الأموال وخدمة العملاء عبر الذكاء الاصطناعي التوليدي والاستشارة الآلية والتداول الخوارزمي والإبلاغ التنظيمي. كلّ حالة استخدام تشغّل توقّعات إشرافية مختلفة.
معايير المصرف المركزي لإدارة مخاطر النموذج تنطبق على نماذج الذكاء الاصطناعي المُستخدَمة في الصرافة والتأمين والمدفوعات. قواعد سلوك هيئة الأوراق المالية تنطبق على الذكاء الاصطناعي المُستخدَم في المشورة المالية المواجهة للعميل. مبادئ DFSA للأعمال تنطبق داخل DIFC. قواعد FSRA تنطبق داخل ADGM. قواعد مكافحة غسل الأموال وتمويل الإرهاب تنطبق عبر المنظّمين بتوقّعات محدّدة ذات صلة بالذكاء الاصطناعي بشأن التحقّق من النموذج ومراقبة المعاملات وقابلية التفسير.
حزمة الامتثال العملية لمصرف أو شركة مالية أجنبية تنشر الذكاء الاصطناعي تشمل عادةً جرد النماذج ووثائق التحقّق للنماذج الجوهرية ولجنة حوكمة بمساءلة كبيرة وإفصاحات العملاء للقرارات المدفوعة بالذكاء الاصطناعي وعمليات إشراف بشري للنتائج السلبية ومراقبة مستمرّة بإعادة تحقّق دورية والتكامل مع أطر المخاطر والامتثال الأوسع. المنظّمون القطاعيون لا يتطلّبون عادةً موافقة مسبقة على نماذج فردية لكنّهم يتوقّعون حواراً إشرافياً في الموقع وغوصاً عميقاً مخصّصاً في أداء النموذج.
التداعيات على الذكاء الاصطناعي للرعاية الصحية
عمليات نشر الذكاء الاصطناعي للرعاية الصحية تواجه البيئة التنظيمية الأكثر حساسية لإقامة البيانات. بيانات المرضى يجب في معظم الحالات أن تبقى داخل الإمارات تحت قواعد هيئة الصحّة بدبي ودائرة الصحّة بأبوظبي والقواعد الفيدرالية للبيانات الصحية. الذكاء الاصطناعي السريري يجب أن يُتحقَّق منه للسياق السريري المحدّد. الذكاء الاصطناعي المُصنَّف بصفته جهازاً طبّيّاً يتطلّب تخليصاً تنظيمياً. الذكاء الاصطناعي التوليدي في الإعدادات السريرية يخضع لإرشادات محدّدة تغطّي الاستخدامات المسموحة والمحظورة.
إرشادات الذكاء الاصطناعي لهيئة الصحّة بدبي هي القواعد القطاعية الأكثر تطوّراً للذكاء الاصطناعي في البلاد، بتوقّعات مفصّلة بشأن التحقّق والإشراف البشري وموافقة المريض ومعالجة البيانات. قواعد دائرة الصحّة بأبوظبي متماشية بشكل وثيق. تبادل المعلومات الصحية ملفّي في أبوظبي وتبادل نبض في دبي يقدّمان وصولاً مُهَيكَلاً إلى سجلّات المرضى لبائعي الذكاء الاصطناعي العاملين تحت التفويضات ذات الصلة.
بائعو الذكاء الاصطناعي السريري الأجانب يهيكلون عادةً عمليات النشر الإماراتية ببنية تحتية محلّية للبيانات وشراكات سريرية محلّية وإمّا ترخيص هيئة الصحّة بدبي أو دائرة الصحّة بأبوظبي بحسب إمارة العمل. صندوق الذكاء الاصطناعي للرعاية الصحية يقدّم ممرّاً لعمليات النشر الجديدة. بائعو الذكاء الاصطناعي السريري الأجانب الكبار بما في ذلك مزوّدو الذكاء الاصطناعي للتصوير ومزوّدو الذكاء الاصطناعي التشخيصي ومزوّدو دعم القرارات السريرية أنشأوا عمليات إماراتية تحت هذه الأطر خلال 2024 و2025.
إطار الذكاء الاصطناعي للدفاع والأمن الوطني
الذكاء الاصطناعي للدفاع والأمن الوطني يجلس في إطار تنظيمي منفصل غير مُفَصَّل علنياً. استثمرت الإمارات بشكل كبير في قدرات الذكاء الاصطناعي الدفاعية من خلال جهات تشمل مجموعة EDGE وشراكات ثنائية، والإطار التنظيمي لهذه الأنشطة يُدار من خلال قنوات الأمن الوطني لا من خلال المنظّمين المدنيين المذكورين أعلاه. الشركات الأجنبية التي تتعامل مع الذكاء الاصطناعي الدفاعي الإماراتي يجب أن تتوقّع تعاقداً مفصّلاً ومعالجة بيانات سرّية وحواراً تنظيمياً عبر جهات الأمن الوطني ذات الصلة بدلاً من المكتب الفيدرالي أو المنظّمين المدنيين القطاعيين.
لأسئلة التكنولوجيا ذات الاستخدام المزدوج وضوابط التصدير، البائعون الأجانب يجب أيضاً أن يأخذوا في الاعتبار نظام الرقابة على الصادرات الأمريكية الذي يؤثّر على حوسبة الذكاء الاصطناعي المتقدّمة وبعض النماذج الحدودية. تطوّرات تصدير الرقائق والنماذج عام 2024 و2025 شكّلت كيفية نشر حوسبة الذكاء الاصطناعي المقيمة في الإمارات، خصوصاً لأعباء العمل الحسّاسة.
التطوّرات المتوقّعة 2026-2027: قانون الذكاء الاصطناعي الفيدرالي
أكثر التطوّرات أهمّيّةً المتوقّعة هو قانون الذكاء الاصطناعي الفيدرالي، الذي ظلّ في صورة مسوّدة لبعض الوقت ويُتوقَّع على نطاق واسع إصداره خلال 2026 أو 2027. المسوّدات التي تداولت تغطّي إطاراً أفقياً لحوكمة الذكاء الاصطناعي، بما في ذلك:
التعاريف والنطاق. تعريف قانوني للذكاء الاصطناعي عريض بما يكفي لتغطية التعلّم الآلي والذكاء الاصطناعي التوليدي وأنظمة دعم القرارات، مع فئات محدّدة للاستخدامات عالية الأثر.
الحوكمة والمساءلة. أدوار المكتب الفيدرالي ومجلس الذكاء الاصطناعي والمنظّمين القطاعيين في الإشراف على الذكاء الاصطناعي، مع مساءلة صريحة لناشري ومزوّدي الذكاء الاصطناعي.
حالات الاستخدام عالية المخاطر. فئة عالية المخاطر أضيق من قانون الاتحاد الأوروبي للذكاء الاصطناعي، مُرَكَّزة على الاستخدامات ذات الأثر الكبير على السلامة والتوظيف والرعاية الصحية أو الحقوق الأساسية. التوقّع هو أنّ تقييمات المطابقة لن تُفرَض بالجملة لكنّ فئات عالية المخاطر محدّدة ستواجه التزامات توثيق وشفافية.
الذكاء الاصطناعي التوليدي. أحكام محدّدة للذكاء الاصطناعي العامّ والذكاء الاصطناعي التوليدي، تغطّي على الأرجح الشفافية ومنشأ بيانات التدريب ووسم أو تصنيف المحتوى الاصطناعي.
الالتزامات المتقاطعة. التزامات الشفافية والإشراف البشري والمتانة والمساءلة المنطبقة على عمليات نشر الذكاء الاصطناعي الجوهرية، مع توقّع تطبيقها بالمعايرة من خلال المنظّمين القطاعيين بدلاً من خلال وكالة ذكاء اصطناعي فيدرالية واحدة.
الشكل الدقيق للقانون سيعتمد على القرارات السياسية النهائية ونتائج المشاورات. الهدف الاستراتيجي كان واضحاً: تريد الإمارات إطاراً ملزماً وشاملاً بما يكفي لتقديم اليقين التنظيمي، لكن أخفّ مادّيّاً من قانون الاتحاد الأوروبي للذكاء الاصطناعي ومتوافقاً هيكلياً مع موقف الاستثمار للبلاد. الشركات الأجنبية يجب أن ترصد التطوّرات بدقّة خلال 2026.
المنظّمون القطاعيون مُتوقَّع أيضاً أن يُشَدِّدوا إرشاداتهم القائمة إلى قواعد ملزمة. هيئة الأوراق المالية وهيئة الصحّة بدبي ودائرة الصحّة بأبوظبي والهيئة العامّة لتنظيم قطاع الاتّصالات وسلطة DIFC كلّها أشارت إلى أنّ الإرشادات الاستشارية الحالية ستصبح أكثر قابلية للإنفاذ المباشر، خصوصاً للذكاء الاصطناعي التوليدي في المشورة المالية ودعم القرارات السريرية والخدمات الحكومية. توقّعات إقامة البيانات لأعباء العمل الفيدرالية من المرجّح أن تتشدّد تحت إجراء منسّق من مجلس الإمارات للأمن السيبراني والمكتب الفيدرالي والهيئة.
خارطة طريق الامتثال العملية للشركات الأجنبية
لشركة ذكاء اصطناعي أجنبية تدخل الإمارات، تبدو خارطة طريق الامتثال العملية تقريباً كما يلي.
1. خَطِّط المنتجات للقطاعات. حدّد أيّ المنظّمين القطاعيين الإماراتيين له ولاية على المنتج. ابنِ مصفوفة تنظيمية تغطّي قانون حماية البيانات الشخصية الفيدرالي والمنظّمين القطاعيين وسلطات المناطق الحرّة ومجلس الأمن السيبراني حيث ينطبق.
2. اختر الهيكل المؤسّسي وهيكل المنطقة الحرّة. قرّر بين الشركة ذات المسؤولية المحدودة الإماراتية البرّية أو DIFC أو ADGM أو منطقة حرّة أخرى. للخيار تداعيات ضريبية وتنظيمية وتشغيلية. قرارات الهيكل تحرّك عادةً كلّ شيء آخر.
3. أَنشِئ بنية معالجة البيانات. قرّر أين ستُخَزَّن البيانات الشخصية وتُعالَج وتُنقَل. ابنِ آليات النقل عبر الحدود والموافقات والعقود قبل الإطلاق. للبيانات الصحية والحكومية وبعض البيانات المالية توقّعات إقامة محدّدة داخل البلاد.
4. تعامل مع المنظّمين ذوي الصلة مبكّراً. للقطاعات المنظّمة، الحوار قبل التقديم مع المنظّم ذي الصلة طبيعي ومفيد. للأنشطة غير المنظّمة، يمكن أن يكون المكتب الفيدرالي نقطة اتّصال مفيدة للأسئلة الاستراتيجية.
5. ابنِ حوكمة الذكاء الاصطناعي داخلياً. اعتمد إطاراً داخلياً مُعايَراً مقابل مبادئ أخلاقيات الذكاء الاصطناعي الإماراتية، مع جرد النماذج ولجنة حوكمة وعمليات تحقّق ومراقبة مستمرّة. وَثِّق الإطار بطريقة يمكن تقديمها للمنظّمين.
6. خَطِّط للصندوق الرملي حيث ينطبق. إذا كان المنتج يناسب قطاعاً منظَّماً بصندوق رملي نشط، خَطِّط للدخول إلى الصندوق الرملي بصفته مساراً مُهَيكَلاً للترخيص الكامل.
7. راقب قانون الذكاء الاصطناعي الفيدرالي وتغييرات القواعد القطاعية. خلال 2026 و2027، راقب إصدار قانون الذكاء الاصطناعي الفيدرالي وتشدّد القواعد القطاعية وتشدّد إقامة البيانات. ابنِ قدرة داخلية لتحديث أُطر الامتثال مع تطوّر القواعد.
8. نَسِّق مع موقف الرقابة على الصادرات الأمريكية حيث ينطبق. لحوسبة الذكاء الاصطناعي الحدودية والنماذج، تطوّرات الرقابة على الصادرات الأمريكية تتفاعل مع النشر الإماراتي. الشركات الأجنبية يجب أن ترصد هذا البُعد بشكل منفصل.
الخلاصة
وصلت الإمارات في أبريل 2026 إلى بنية تنظيمية للذكاء الاصطناعي متماسكة وتساهلية بشكل مقصود تجمع بين التنسيق الفيدرالي عبر المكتب الفيدرالي ومجلس الذكاء الاصطناعي وقانون البيانات الفيدرالي الملزم عبر قانون حماية البيانات الشخصية لعام 2021 والقواعد الخاصّة بالقطاعات عبر هيئة الأوراق المالية والمصرف المركزي وDFSA وFSRA وهيئة الصحّة بدبي ودائرة الصحّة بأبوظبي والهيئة العامّة لتنظيم قطاع الاتّصالات ومجلس الأمن السيبراني وأنظمة المناطق الحرّة داخل DIFC وADGM ومبادئ أخلاقيات الذكاء الاصطناعي الطوعية التي تعمل بصفتها معايير مشتريات فعّالة وبنية صندوق رملي نشطة عبر منظّمين متعدّدين. النتيجة أخفّ مادّيّاً من قانون الاتحاد الأوروبي للذكاء الاصطناعي وأقلّ تقييداً من النظام الخوارزمي الصيني ومتشابهة هيكلياً مع النهج القطاعي السنغافوري والأمريكي.
للمنصّات الكبرى الأجنبية وشركات الذكاء الاصطناعي الناشئة والمؤسّسات المالية ومقدّمي الرعاية الصحية، صورة الامتثال العملية صالحة للعمل لكنّها تتطلّب تنقّلاً دقيقاً. وضعت الإمارات نفسها بصفتها وجهة لاستثمار وعمليات الذكاء الاصطناعي، والبنية التنظيمية تعكس هذا الوضع. قانون الذكاء الاصطناعي الفيدرالي المُتوقَّع في 2026 أو 2027 سيُضيف طبقة قانونية أفقية، لكنّ الهدف الاستراتيجي ظلّ متّسقاً: تقديم الحوكمة والمساءلة دون اعتماد التفصيل بأسلوب الاتحاد الأوروبي.
الشركات الأجنبية التي تفكّر في النشر في الإمارات في 2026 يجب أن تعامل البنية بصفتها فرصة لا حاجزاً. الجمع بين التنسيق الفيدرالي والخبرة القطاعية ومرونة المناطق الحرّة وممرّات الصندوق الرملي والتساهل العريض في معالجة البيانات للتدفّقات التجارية غير عادي عالميّاً. تغطية من فاينانشال تايمز وبلومبرغ ورويترز وأرابيان بزنس تواصل تتبّع البنية مع تطوّرها عبر نقاط الانعطاف المتوقّعة لـ 2026 و2027. The Middle East Insider سيواصل تغطية قانون الذكاء الاصطناعي الفيدرالي وتشدّد القواعد القطاعية والمسار الأوسع لسياسة الذكاء الاصطناعي الإماراتية.
