تقنية

قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي: كل ما تحتاج إلى معرفته


لقد استغرق إعداد كتاب قواعد الذكاء الاصطناعي القائم على المخاطر في الاتحاد الأوروبي – المعروف أيضًا باسم قانون الاتحاد الأوروبي للذكاء الاصطناعي – سنوات. لكن توقع أن تسمع الكثير عن اللائحة في الأشهر (والسنوات) المقبلة مع بدء المواعيد النهائية للامتثال. وفي الوقت نفسه، تابع القراءة للحصول على نظرة عامة على القانون وأهدافه.

إذن، ما الذي يحاول الاتحاد الأوروبي تحقيقه؟ عد بالزمن إلى أبريل 2021، عندما نشرت المفوضية الاقتراح الأصلي وكان المشرعون يصوغونه كقانون لتعزيز قدرة الكتلة على الابتكار في مجال الذكاء الاصطناعي من خلال تعزيز الثقة بين المواطنين. واقترح الاتحاد الأوروبي أن يضمن الإطار أن تظل تقنيات الذكاء الاصطناعي “متمحورة حول الإنسان” مع إعطاء الشركات أيضًا قواعد واضحة للعمل على سحر التعلم الآلي الخاص بها.

من المؤكد أن زيادة اعتماد الأتمتة عبر الصناعة والمجتمع لديه القدرة على زيادة الإنتاجية في مختلف المجالات. ولكنه يشكل أيضًا مخاطر حدوث أضرار سريعة النطاق إذا كانت المخرجات سيئة و/أو عندما يتقاطع الذكاء الاصطناعي مع الحقوق الفردية ويفشل في احترامها.

وبالتالي فإن هدف الكتلة من قانون الذكاء الاصطناعي هو دفع استيعاب الذكاء الاصطناعي وتنمية النظام البيئي المحلي للذكاء الاصطناعي من خلال وضع الشروط التي تهدف إلى تقليص المخاطر التي قد تسوء بها الأمور. يعتقد المشرعون أن وجود حواجز الحماية في مكانها الصحيح سيعزز ثقة المواطنين في الذكاء الاصطناعي واستيعابه.

لم تكن فكرة تعزيز النظام البيئي من خلال الثقة مثيرة للجدل إلى حد ما في الجزء الأول من العقد، عندما كان القانون قيد المناقشة والصياغة. ومع ذلك، أثيرت اعتراضات في بعض الأوساط، مفادها أنه من السابق لأوانه تنظيم الذكاء الاصطناعي، وأن الابتكار والقدرة التنافسية الأوروبية يمكن أن يتضررا.

من المحتمل أن يقول قليلون أن الوقت مبكر جدًا الآن، بالطبع، نظرًا لكيفية انتشار التكنولوجيا في الوعي السائد بفضل الطفرة في أدوات الذكاء الاصطناعي التوليدية. ولكن لا تزال هناك اعتراضات على أن القانون يحمي آفاق رواد الأعمال المحليين في مجال الذكاء الاصطناعي، على الرغم من إدراج تدابير الدعم مثل البيئة التجريبية التنظيمية.

ومع ذلك، فإن الجدل الكبير يدور الآن بين العديد من المشرعين كيف لتنظيم الذكاء الاصطناعي، ومع قانون الذكاء الاصطناعي، حدد الاتحاد الأوروبي مساره. السنوات المقبلة تدور حول تنفيذ الكتلة للخطة.

ماذا يتطلب قانون الذكاء الاصطناعي؟

معظم استخدامات الذكاء الاصطناعي هي لا يتم تنظيمها بموجب قانون الذكاء الاصطناعي على الإطلاق، لأنها تقع خارج نطاق القواعد القائمة على المخاطر. (من الجدير بالذكر أيضًا أن الاستخدامات العسكرية للذكاء الاصطناعي خارج النطاق تمامًا لأن الأمن القومي هو اختصاص قانوني لدولة عضو، وليس على مستوى الاتحاد الأوروبي).

بالنسبة للاستخدامات داخل نطاق الذكاء الاصطناعي، فإن النهج القائم على المخاطر في القانون يضع تسلسلًا هرميًا حيث يتم وضع عدد قليل من حالات الاستخدام المحتملة (على سبيل المثال، “تقنيات مموهة ضارة أو تلاعبية أو خادعة” أو “تسجيل اجتماعي غير مقبول”) على أنها تحمل “غير مقبول” خطر” وبالتالي فهي محظورة. ومع ذلك، فإن قائمة الاستخدامات المحظورة مليئة بالاستثناءات، مما يعني أنه حتى العدد الصغير من المحظورات في القانون يحمل الكثير من التحذيرات.

على سبيل المثال، فإن الحظر المفروض على إنفاذ القانون باستخدام تحديد الهوية البيومترية عن بعد في الوقت الحقيقي في الأماكن العامة التي يمكن الوصول إليها ليس هو الحظر الشامل الذي طالب به بعض البرلمانيين والعديد من مجموعات المجتمع المدني، مع وجود استثناءات تسمح باستخدامه في جرائم معينة.

المستوى التالي من المخاطر غير المقبولة/الاستخدام المحظور هو حالات الاستخدام “عالية المخاطر” – مثل تطبيقات الذكاء الاصطناعي المستخدمة للبنية التحتية الحيوية؛ إنفاذ القانون؛ التعليم والتدريب المهني؛ الرعاية الصحية؛ والمزيد – حيث يجب على صانعي التطبيقات إجراء تقييمات المطابقة قبل نشرها في السوق، وعلى أساس مستمر (مثل عندما يقومون بإجراء تحديثات جوهرية على النماذج).

وهذا يعني أن المطور يجب أن يكون قادرًا على إثبات استيفائه لمتطلبات القانون في مجالات مثل جودة البيانات والتوثيق وإمكانية التتبع والشفافية والإشراف البشري والدقة والأمن السيبراني والمتانة. ويتعين عليهم أن يضعوا أنظمة الجودة وإدارة المخاطر حتى يتمكنوا من إثبات الامتثال إذا جاءت سلطة إنفاذ القانون لإجراء عملية التدقيق.

ويجب أيضًا تسجيل الأنظمة عالية المخاطر التي تنشرها الهيئات العامة في قاعدة بيانات عامة للاتحاد الأوروبي.

وهناك أيضا فئة ثالثة، وهي “متوسطة المخاطر”، والتي تطبق التزامات الشفافية على أنظمة الذكاء الاصطناعي، مثل روبوتات الدردشة أو الأدوات الأخرى التي يمكن استخدامها لإنتاج الوسائط الاصطناعية. هنا يكمن القلق في إمكانية استخدامها للتلاعب بالأشخاص، لذلك يتطلب هذا النوع من التكنولوجيا إعلام المستخدمين بأنهم يتفاعلون مع المحتوى الذي ينتجه الذكاء الاصطناعي أو يشاهدونه.

تعتبر جميع الاستخدامات الأخرى للذكاء الاصطناعي تلقائيًا ذات مخاطر منخفضة/دنيا ولا يتم تنظيمها. وهذا يعني، على سبيل المثال، أن أشياء مثل استخدام الذكاء الاصطناعي لفرز محتوى الوسائط الاجتماعية والتوصية به أو الإعلانات المستهدفة ليس لها أي التزامات بموجب هذه القواعد. لكن الكتلة تشجع جميع مطوري الذكاء الاصطناعي على اتباع أفضل الممارسات طوعًا لتعزيز ثقة المستخدم.

تشكل هذه المجموعة من القواعد المتدرجة القائمة على المخاطر الجزء الأكبر من قانون الذكاء الاصطناعي. ولكن هناك أيضًا بعض المتطلبات المخصصة للنماذج متعددة الأوجه التي تدعم تقنيات الذكاء الاصطناعي التوليدية – والتي يشير إليها قانون الذكاء الاصطناعي بنماذج “الذكاء الاصطناعي للأغراض العامة” (أو GPAIs).

هذه المجموعة الفرعية من تقنيات الذكاء الاصطناعي، والتي تسميها الصناعة أحيانًا “النماذج التأسيسية”، تقع عادةً في مقدمة العديد من التطبيقات التي تنفذ الذكاء الاصطناعي. يستغل المطورون واجهات برمجة التطبيقات من واجهات GPAI لنشر إمكانات هذه النماذج في برامجهم الخاصة، وغالبًا ما يتم ضبطها بدقة لحالة استخدام محددة لإضافة قيمة. كل هذا يعني أن GPAIs اكتسبت بسرعة مكانة قوية في السوق، مع إمكانية التأثير على نتائج الذكاء الاصطناعي على نطاق واسع.

دخل GenAI إلى الدردشة …

لقد أدى ظهور GenAI إلى إعادة تشكيل أكثر من مجرد المحادثة حول قانون الذكاء الاصطناعي للاتحاد الأوروبي؛ لقد أدى ذلك إلى تغييرات في كتاب القواعد نفسه حيث تزامنت العملية التشريعية المطولة للكتلة مع الضجيج حول أدوات GenAI مثل ChatGPT. واغتنم المشرعون في البرلمان الأوروبي فرصتهم للرد.

اقترح أعضاء البرلمان الأوروبي إضافة قواعد إضافية لـ GPAIs، أي النماذج التي تكمن وراء أدوات GenAI. وقد أدى هذا بدوره إلى زيادة اهتمام صناعة التكنولوجيا بما كان يفعله الاتحاد الأوروبي بالقانون، مما أدى إلى بعض الضغوط الشرسة من أجل اقتطاع GPAIs.

وكانت شركة الذكاء الاصطناعي الفرنسية ميسترال واحدة من أعلى الأصوات، بحجة أن القواعد المفروضة على صانعي النماذج من شأنها أن تعيق قدرة أوروبا على التنافس ضد عمالقة الذكاء الاصطناعي من الولايات المتحدة والصين. كما شارك سام ألتمان من شركة OpenAI، حيث اقترح، في ملاحظة جانبية للصحفيين، أنها قد تسحب تقنيتها من أوروبا إذا ثبت أن القوانين مرهقة للغاية، قبل أن تتراجع بسرعة إلى الضغط التقليدي (الضغط) من قبل وسطاء القوة الإقليميين بعد أن اتصل به الاتحاد الأوروبي. على هذا التهديد الأخرق.

لقد كان حصول ألتمان على دورة تدريبية مكثفة في الدبلوماسية الأوروبية أحد الآثار الجانبية الأكثر وضوحًا لقانون الذكاء الاصطناعي.

وكانت نتيجة كل هذا الضجيج بمثابة رحلة صعبة لإنهاء العملية التشريعية. لقد استغرق الأمر أشهراً وجلسة مفاوضات نهائية ماراثونية بين البرلمان الأوروبي والمجلس والمفوضية لدفع الملف إلى ما هو أبعد من ذلك في العام الماضي. وتم التوصل إلى الاتفاق السياسي في ديسمبر 2023، مما مهد الطريق لاعتماد النص النهائي في مايو 2024.

لقد أشاد الاتحاد الأوروبي بقانون الذكاء الاصطناعي باعتباره “الأول من نوعه على مستوى العالم”. لكن كونك الأول في هذا السياق التكنولوجي المتطور يعني أنه لا يزال هناك الكثير من التفاصيل التي يتعين العمل عليها، مثل وضع المعايير المحددة التي سيتم تطبيق القانون عليها وإصدار إرشادات تفصيلية للامتثال (قواعد الممارسة) من أجل الإشراف والرقابة. نظام بناء النظام البيئي الذي يتصور القانون أن يعمل.

لذا، فيما يتعلق بتقييم نجاحه، يظل القانون عملاً قيد التقدم، وسيظل كذلك لفترة طويلة.

بالنسبة لـ GPAIs، يواصل قانون الذكاء الاصطناعي النهج القائم على المخاطر، مع متطلبات أخف (فقط) لمعظم هذه النماذج.

بالنسبة إلى GPAIs التجارية، يعني هذا قواعد الشفافية (بما في ذلك متطلبات التوثيق الفني والإفصاحات حول استخدام المواد المحمية بحقوق الطبع والنشر المستخدمة لتدريب النماذج). تهدف هذه الأحكام إلى مساعدة المطورين النهائيين في الامتثال لقانون الذكاء الاصطناعي الخاص بهم.

هناك أيضًا مستوى ثانٍ – لأقوى GPAIs (وربما تكون خطيرة) – حيث يفرض القانون التزامات على صانعي النماذج من خلال المطالبة بتقييم استباقي للمخاطر وتخفيف المخاطر لـ GPAIs ذات “المخاطر النظامية”.

وهنا يشعر الاتحاد الأوروبي بالقلق إزاء نماذج الذكاء الاصطناعي القوية للغاية التي قد تشكل مخاطر على حياة الإنسان، على سبيل المثال، أو حتى المخاطر التي قد تؤدي إلى فقدان صانعي التكنولوجيا السيطرة على التطوير المستمر لأنظمة الذكاء الاصطناعي التي تعمل على تحسين نفسها ذاتيا.

اختار المشرعون الاعتماد على عتبة الحوسبة للتدريب النموذجي كمصنف لمستوى المخاطر النظامية هذا. ستندرج GPAIs ضمن هذه الفئة استنادًا إلى المقدار التراكمي للحوسبة المستخدمة لتدريبها والذي يتم قياسه في عمليات الفاصلة العائمة (FLOPs) التي تزيد عن 1025.

حتى الآن، لا يُعتقد أن هناك نماذج في النطاق، ولكن بالطبع يمكن أن يتغير ذلك مع استمرار تطور GenAI.

هناك أيضًا بعض الفسحة لخبراء سلامة الذكاء الاصطناعي المشاركين في الإشراف على قانون الذكاء الاصطناعي للإبلاغ عن المخاوف بشأن المخاطر النظامية التي قد تنشأ في أماكن أخرى. (لمزيد من المعلومات حول هيكل الإدارة الذي ابتكرته الكتلة لقانون الذكاء الاصطناعي – بما في ذلك الأدوار المختلفة لمكتب الذكاء الاصطناعي – راجع تقريرنا السابق).

لقد أدى الضغط الذي قام به ميسترال وآخرون إلى تخفيف القواعد الخاصة بـ GPAIs، مع متطلبات أخف على موفري المصادر المفتوحة على سبيل المثال (ميسترال المحظوظ!). كما حصل البحث والتطوير أيضًا على استثناء، مما يعني أن GPAIs التي لم يتم تسويقها بعد تقع خارج نطاق القانون تمامًا، حتى دون تطبيق متطلبات الشفافية.

مسيرة طويلة نحو الامتثال

دخل قانون الذكاء الاصطناعي حيز التنفيذ رسميًا في جميع أنحاء الاتحاد الأوروبي في الأول من أغسطس 2024. وقد أطلق هذا التاريخ بشكل أساسي إشارة البداية حيث من المقرر أن تصل المواعيد النهائية للامتثال للمكونات المختلفة على فترات مختلفة من أوائل العام المقبل حتى منتصف عام 2027 تقريبًا.

بعض المواعيد النهائية الرئيسية للامتثال هي ستة أشهر من دخولها حيز التنفيذ، عندما تبدأ القواعد المتعلقة بحالات الاستخدام المحظورة؛ تسعة أشهر بعد بدء تطبيق قواعد الممارسة؛ 12 شهرًا لمتطلبات الشفافية والحوكمة؛ 24 شهرًا لمتطلبات الذكاء الاصطناعي الأخرى، بما في ذلك الالتزامات الخاصة ببعض الأنظمة عالية المخاطر؛ و36 شهرًا للأنظمة الأخرى عالية المخاطر.

يرجع جزء من السبب وراء هذا النهج المتدرج فيما يتعلق بالأحكام القانونية إلى منح الشركات الوقت الكافي لترتيب عملياتها. ولكن أكثر من ذلك، من الواضح أن الهيئات التنظيمية تحتاج إلى وقت لتحديد شكل الامتثال في هذا السياق المتطور.

في وقت كتابة هذا التقرير، كانت الكتلة مشغولة بصياغة إرشادات لمختلف جوانب القانون قبل هذه المواعيد النهائية، مثل قواعد الممارسة لصانعي GPAIs. ويجري الاتحاد الأوروبي أيضًا مشاورات بشأن تعريف القانون لـ “أنظمة الذكاء الاصطناعي” (أي البرامج التي ستكون ضمن النطاق أو خارجه) والتوضيحات المتعلقة بالاستخدامات المحظورة للذكاء الاصطناعي.

لا تزال الصورة الكاملة لما سيعنيه قانون الذكاء الاصطناعي بالنسبة للشركات داخل النطاق مظللة وموضحة. لكن من المتوقع أن يتم إغلاق التفاصيل الرئيسية في الأشهر المقبلة وفي النصف الأول من العام المقبل.

هناك شيء آخر يجب أخذه في الاعتبار: نتيجة لوتيرة التطور في مجال الذكاء الاصطناعي، فمن المرجح أن يستمر ما هو مطلوب للبقاء على الجانب الصحيح من القانون في التحول مع استمرار تطور هذه التقنيات (والمخاطر المرتبطة بها) أيضًا. لذا فإن هذا أحد كتب القواعد التي قد تحتاج إلى أن تظل وثيقة حية.

إنفاذ قواعد الذكاء الاصطناعي

يتم الإشراف على GPAIs بشكل مركزي على مستوى الاتحاد الأوروبي، حيث يلعب مكتب الذكاء الاصطناعي دورًا رئيسيًا. يمكن أن تصل العقوبات التي يمكن للمفوضية فرضها لفرض هذه القواعد إلى ما يصل إلى 3% من إجمالي مبيعات صانعي النماذج على مستوى العالم.

وفي أماكن أخرى، يعتبر تطبيق قواعد القانون لأنظمة الذكاء الاصطناعي لا مركزيًا، مما يعني أن الأمر سيعود إلى السلطات على مستوى الدولة الأعضاء (بشكل جماعي، حيث قد يكون هناك أكثر من هيئة رقابية معينة) لتقييم مشكلات الامتثال والتحقق منها بالنسبة للجزء الأكبر من تطبيقات الذكاء الاصطناعي. . ويبقى أن نرى مدى قابلية هذا الهيكل للتطبيق.

على الورق، يمكن أن تصل العقوبات إلى 7% من إجمالي المبيعات العالمية (أو 35 مليون يورو، أيهما أكبر) بسبب انتهاكات الاستخدامات المحظورة. ويمكن فرض عقوبات على انتهاكات الالتزامات الأخرى المتعلقة بالذكاء الاصطناعي بغرامات تصل إلى 3% من إجمالي المبيعات العالمية، أو ما يصل إلى 1.5% لتقديم معلومات غير صحيحة إلى الهيئات التنظيمية. لذا، هناك نطاق متدرج من سلطات إنفاذ العقوبات التي يمكن أن تصل إليه.



المصدر


اكتشاف المزيد من اشراق اون لاين

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

Related Articles

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Back to top button

اكتشاف المزيد من اشراق اون لاين

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading