
تواجه أوروبا ضغوطاً متزايدة لتشديد القيود على شركات التكنولوجيا الكبرى بعد أن فجّر روبوت المحادثة «جروك» التابع لإيلون ماسك عاصفة من الجدل بنشره محتوى معادياً للسامية، أشاد فيه بالزعيم النازي أدولف هتلر ووصفه بأنه «الأفضل للتعامل مع الكراهية ضد البيض».
جاءت هذه التصريحات الصادمة من «جروك» بعد تحديث نموذج الذكاء الاصطناعي الخاص به نهاية الأسبوع الماضي، وهو ما أعاد إلى الواجهة النقاش الأوروبي حول المخاطر التي قد تطرحها نماذج الذكاء الاصطناعي واسعة النطاق، وقدرة التشريعات الحالية على احتوائها.
وفيما سارعت شركة xAI، المالكة لـ«جروك»، إلى حذف المنشورات المسيئة وأعلنت اتخاذ إجراءات لحظر خطاب الكراهية قبل ظهور إجابات «جروك» على منصة X، لم توضّح الشركة ماهية هذه الإجراءات أو مدى فعاليتها.
ضغوط متزايدة على بروكسل
أثار الحادث حفيظة صناع القرار في الاتحاد الأوروبي، الذين اعتبروا أن الواقعة تؤكد الحاجة الماسة إلى تنظيم أكثر صرامة لنماذج الذكاء الاصطناعي. وقال براندو بينيفي، النائب الإيطالي في البرلمان الأوروبي وأحد مهندسي قانون الذكاء الاصطناعي الأوروبي: «حادثة جروك تسلط الضوء على المخاطر الحقيقية التي صُمم قانون الذكاء الاصطناعي لمعالجتها.»
من جهتها، شددت النائبة الدنماركية كريستيل شالديموز، التي قادت العمل على قانون الخدمات الرقمية الأوروبي، على أن هذه الأزمة «تعزز الحاجة لتنظيم صارم لنماذج الدردشة بالذكاء الاصطناعي».
وفي الوقت الذي يوشك فيه الجزء المتعلق بنماذج الذكاء الاصطناعي متعددة الأغراض من قانون الاتحاد الأوروبي على دخول حيز التنفيذ في الثاني من أغسطس، تتجه الأنظار إلى المفوضية الأوروبية التي تستعد لإصدار إرشادات امتثال طوعية طال انتظارها، لتوضيح كيفية تطبيق القانون على نماذج مثل «جروك» وGPT من OpenAI وGemini من Google.
خلاف حول صرامة الإرشادات
غير أن الجدل لا يزال محتدماً داخل أروقة بروكسل بشأن مدى صرامة تلك الإرشادات. فقد كشفت مسودات اطلع عليها موقع بوليتيكو أن المفوضية الأوروبية تراجعت عن بعض متطلبات الشفافية التي كانت مطروحة سابقاً، بما في ذلك إلزام الشركات بمشاركة معلومات تفصيلية حول كيفية تعاملها مع المخاطر النظامية لنماذجها.
وحذرت مجموعة من خمسة مشرعين أوروبيين بارزين، يوم الأربعاء، من أن إزالة هذه البنود «تُضعف أحكام تقييم المخاطر والتخفيف منها»، معتبرين أن فضيحة «جروك» تمثل دليلاً جديداً على ضرورة إصدار توجيهات أكثر حزماً.
وقال كيم فان سبارينتاك، النائب الأوروبي عن حزب الخضر الهولندي: «على المفوضية أن تتخذ موقفاً حازماً ضد هذه الممارسات بموجب قانون الذكاء الاصطناعي. لكن يبدو أنهم يسمحون لضغوط شركات التكنولوجيا، وحتى لضغوط من الإدارة الأمريكية، بتقليص قواعد الممارسة.»
مخاطر قانونية وتنظيمية
تكمن الإشكالية الأكبر في أن الاتحاد الأوروبي، رغم امتلاكه قانون الخدمات الرقمية، لم يتخذ حتى الآن إجراءات حقيقية ضد منصة X بخصوص «جروك» أو المحتوى المحظور الذي أنتجه.
فبينما يجرّم القانون الأوروبي خطاب الكراهية في العديد من الدول الأعضاء، يظل التعامل مع نماذج الذكاء الاصطناعي التي تولّد محتوى من هذا النوع مسألة معقدة، خاصة عندما تُدمج تلك النماذج في منصات رقمية ضخمة مثل X.
وأكد المتحدث باسم المفوضية الأوروبية، توماس ريجنير، أن نماذج الذكاء الاصطناعي الكبيرة المدمجة في المنصات الرقمية «قد يتعين أخذها في الاعتبار ضمن تقييمات المخاطر التي تفرضها قواعد التدقيق الخاصة بقانون الخدمات الرقمية»، غير أن أي خطوات عملية ضد X لم تُتخذ حتى اللحظة.
وأطلقت المفوضية بالفعل تحقيقاً متعدد الأطراف في يناير الماضي حول المخاطر التي يمثلها الذكاء الاصطناعي التوليدي على منصات التواصل الاجتماعي، لا سيما فيما يتعلق بالتلاعب بالمعلومات، وخطر التضليل، والتزييف العميق. ومع ذلك، لم تحدد شركة X أي مخاطر مرتبطة بخطاب الكراهية في تقاريرها الأخيرة لتقييم المخاطر.
وقالت النائبة الفرنسية الليبرالية ساندرو جوزي إنها ستتقدم بسؤال إلى المفوضية حول ما إذا كانت القوانين الحالية كافية «لمنع مثل هذه الممارسات الخطيرة» أم أن هناك حاجة إلى تشريعات إضافية.
وبينما يستعد الاتحاد الأوروبي لوضع اللمسات الأخيرة على قواعده، تبقى حادثة «جروك» دليلاً صارخاً على أن الذكاء الاصطناعي قد يصبح أداة خطيرة إذا تُرك دون ضوابط صارمة، مما يضع بروكسل أمام لحظة اختبار حقيقية في سعيها لحماية القيم الديمقراطية ومنع خطاب الكراهية.



