الاتحاد الأوروبي في مأزق بشأن تنظيم ChatGPT: تأخر القرار مقابل الطفرة في الاستخدام

تواجه المفوضية الأوروبية تحديًا كبيرًا في كيفية التعامل مع ChatGPT، روبوت الدردشة الذكي من OpenAI، وسط استخدام متزايد للمنصة وتباطؤ واضح في اتخاذ القرارات التنظيمية.
ورغم أن القانون الأوروبي للذكاء الاصطناعي (AI Act) وقانون الخدمات الرقمية (DSA) يهدفان إلى ضبط مخاطر النماذج الكبيرة للغة والأنظمة الرقمية، إلا أن التنفيذ الفعلي يظل معلقًا حتى منتصف عام 2026 على الأقل.
وأعلنت OpenAI مؤخرًا أن أكثر من 120 مليون شخص يستخدمون خاصية البحث في ChatGPT شهريًا، مما يجعل روبوت الدردشة أحد أكثر أدوات الذكاء الاصطناعي انتشارًا في أوروبا.
ومع ذلك، لم تحدد المفوضية بعد ما إذا كان يجب تصنيف ChatGPT كمنصة رقمية كبيرة، أو محرك بحث، أو خدمة متكاملة، وهو التصنيف الذي سيحدد نطاق التزامات OpenAI بموجب DSA.
وأوضح مسؤول كبير في المفوضية أن القرار النهائي بشأن نطاق التقييم سيتخذ في منتصف 2026، وهو ما يضع أوروبا في موقف حساس أمام الاستخدام المتسارع للتكنولوجيا.
وتتمثل المخاطر الرئيسية في أن ChatGPT أصبح أداة واسعة الانتشار تؤثر على المستخدمين بشكل مباشر، بما في ذلك مواضيع حساسة مثل الصحة العامة والانتخابات.
وقد اعترفت OpenAI بأن حوالي 1.2 مليون شخص أسبوعيًا يشيرون إلى أفكار انتحارية في محادثاتهم مع الروبوت، وأن النموذج قد لا يتصرف كما هو مقصود في بعض الحالات.
وقال ماثياس فيرمولين، مدير شركة AWO Agency للمحاماة في بروكسل: “بالنسبة لصناعة معتادة على المعايير الطوعية، فإن نظام العناية الواجبة الإلزامي في DSA يمثل اختبارًا صعبًا”. وأضاف أن OpenAI ستحتاج إلى تكثيف جهودها لضمان الامتثال الكامل، ولن يكون الاعتماد على آليات بسيطة كافيًا.
وفي الوقت الحالي، يخضع ChatGPT لقانون الذكاء الاصطناعي للاتحاد الأوروبي، والذي يلزم الشركات بتقييم المخاطر والحد منها، مع فرض غرامات تصل إلى 15 مليون يورو في حال الإخلال بالقواعد.
لكن مع تجاوز عدد المستخدمين لـ 45 مليونًا، يندرج ChatGPT أيضًا ضمن منصات VLOPs وVLOSEs الكبيرة جدًا، ما يعني إمكانية فرض غرامات تصل إلى 6% من إجمالي المبيعات السنوية على مستوى العالم بموجب DSA.
والتحدي الأساسي يكمن في التداخل بين إطارَي القانونين. فبينما ينظم قانون الذكاء الاصطناعي فئات المخاطر المرتبطة بالأنظمة الذكية، يركز DSA على المخاطر الرقمية للمنصات الكبرى. وتشمل المخاطر النظامية: النزاهة المدنية، الانتخابات، الصحة العامة، والحقوق الأساسية.
إلا أن هذه الأطر ليست متوافقة تمامًا، ما قد يؤدي إلى فجوات في تقييم OpenAI لمخاطر ChatGPT.
ويعني هذا أن بعض المخاطر، مثل التضليل أو المحتوى المزيف العميق، تقع ضمن مسؤولية DSA، في حين تظل مخاطر أخرى مثل استخدام ChatGPT في التوظيف ضمن نطاق قانون الذكاء الاصطناعي.
كما قد تستفيد OpenAI من قوانين الملاذ الآمن التي تحد من مسؤوليتها عن المحتوى المنشور من قبل المستخدمين، ما يعقد تقييم المخاطر.
إضافة إلى ذلك، يواجه الاتحاد الأوروبي ضغوطًا للرد بسرعة على انتشار هذه التكنولوجيا قبل أن تصبح خارج نطاق السيطرة، إذ أصبحت روبوتات الدردشة جزءًا أساسيًا من حياة المستخدمين اليومية مثل محركات البحث التقليدية.
ويشير الخبراء إلى أن القانون الأوروبي صُمم قبل وصول ChatGPT إلى التيار الرئيسي، ولم يكن يعرف كيفية التعامل مع هذه الأنظمة المعقدة.
ويؤكد المسؤولون أن القرار الذي ستتخذه المفوضية سيحدد نطاق التزامات OpenAI، بما في ذلك تقديم تقارير امتثال مطولة تتضمن تقييم المخاطر وخطط التخفيف.
وكلما اتسع نطاق التصنيف، زادت المتطلبات على الشركة فيما يخص الشفافية والأمان، بما في ذلك تصميم أنظمة التوصية والخوارزميات المتعلقة بالمحادثات.
وقال جوريس فان هوبوكين، أستاذ القانون في بروكسل، إن السؤال الرئيسي هو: “هل يجب اعتبار ChatGPT منصة رقمية كبيرة، محرك بحث، أو مجرد خدمة؟”، مضيفًا أن هذا التصنيف سيؤثر مباشرة على مسؤوليات الشركة أمام الاتحاد الأوروبي.
ويعكس الوضع الحالي تحديًا مركبًا بين التوسع السريع للذكاء الاصطناعي والبطء التنظيمي الأوروبي، ما يضع بروكسل أمام اختبار حقيقي لقدرتها على التكيف مع المخاطر الرقمية والذكاء الاصطناعي في الوقت ذاته، ويبرز الحاجة إلى وضع معايير واضحة قبل أن تصبح بعض التقنيات خارج نطاق الرقابة.



