أزمة ذكاء Canva الاصطناعي: استبدال فلسطين بأوكرانيا يثير جدلًا واسعًا

أزمة ذكاء Canva الاصطناعي: استبدال فلسطين بأوكرانيا يثير جدلًا واسعًا

أثارت أحدث مشكلة تتعلق بالذكاء الاصطناعي على منصة Canva المعروفة تساؤلات جديدة حول دقة وموثوقية أدوات التصميم التوليدي. فقد واجهت المنصة انتقادات حادة مؤخرًا، بعدما اكتشف مستخدمون أن ميزة ذكاء اصطناعي جديدة تقوم باستبدال كلمة “فلسطين” تلقائيًا بكلمة “أوكرانيا” داخل التصاميم. هذا الخطأ، الذي كان من المفترض أن يكون مجرد أداة تحرير بسيطة، سرعان ما تحول إلى نقاش واسع النطاق حول التحيز، والرقابة، وكيف تتخذ أنظمة الذكاء الاصطناعي قرارات غير متوقعة.

بدأ الأمر عندما أشار المستخدم @ros_ie9 على منصة X إلى هذه المشكلة لأول مرة، فشارك لقطات شاشة توضح كيف قامت ميزة “الطبقات السحرية” في Canva بتغيير عبارة “قطط من أجل فلسطين” إلى “قطط من أجل أوكرانيا”. انتشر المنشور بسرعة فائقة على الإنترنت، وتساءل العديد من المستخدمين عن السبب وراء قيام الأداة بتغيير النصوص دون أي تدخل منهم.

ميزة “الطبقات السحرية”: جدل واسع بعد خطأ غير مبرر

“الطبقات السحرية” هي إحدى أدوات الذكاء الاصطناعي الحديثة التي أطلقتها Canva، وهي مصممة خصيصًا لفصل الصور المسطحة إلى طبقات قابلة للتحرير بسهولة. تهدف هذه الميزة إلى تبسيط عملية تعديل أجزاء التصميم بشكل فردي، ما يعني أنها تفصل النصوص والرسومات والعناصر من الصورة النهائية لتسمح بتعديلها بشكل منفصل، وهي بالتأكيد ليست مصممة لإعادة صياغة الكلمات أو استبدال المصطلحات السياسية الحساسة.

ما زاد الأمر غرابةً هو أن المشكلة بدت محصورة بكلمة “فلسطين”. فبحسب شهادات المستخدمين الذين جربوا الميزة، لم تتغير كلمات أخرى مثل “غزة”. وقد ادعى بعض المعلقين على المنشور المنتشر أنهم تمكنوا من إعادة إنتاج النتيجة نفسها قبل أن تصدر Canva تحديثًا عاجلاً لإصلاح المشكلة، ما يؤكد صحة الخطأ.

Canva تعتذر وتؤكد إصلاح الخلل بعد واقعة الذكاء الاصطناعي

مع تصاعد الانتقادات والاستياء، ردت Canva باعتذار رسمي، معلنة حل المشكلة بشكل فوري. وصرح متحدث باسم الشركة لموقع The Verge بقوله: “علمنا بوجود مشكلة في ميزة Magic Layers، وسارعنا إلى التحقيق فيها وإصلاحها”. وأضافت Canva أن المشكلة قد حلت الآن بشكل نهائي، مؤكدة أنها تتخذ الإجراءات اللازمة لمنع تكرار أي شيء مماثل في المستقبل.

وأضاف المتحدث الرسمي: “نتعامل مع مثل هذه التقارير بجدية بالغة، ونعمل حاليًا على وضع إجراءات تدقيق إضافية لمنع تكرارها مستقبلاً. نأسف أيما أسف لأي إزعاج قد يكون سببه هذا الأمر غير المتوقع”. وأكدت Canva أن المشكلة كانت معزولة ولم تؤثر على التصاميم بشكل عام.

مع ذلك، لم توضح الشركة بشكل كامل كيفية حدوث تبديل الكلمات، ولا يزال من غير الواضح ما إذا كان الخطأ ناتجًا عن بيانات التدريب الضخمة، أو فلاتر الإشراف الداخلية المبرمجة مسبقًا، أو نظام آلي آخر يعمل في الخفاء دون إشراف كافٍ. هذا السؤال الذي لم تتم الإجابة عليه يعد محور الجدل الدائر حتى الآن.

تداعيات الخطأ وتحديات الذكاء الاصطناعي

يتساءل العديد من المستخدمين عن سبب قيام ميزة مصممة في الأساس لتحرير طبقات الصور بتغيير محتوى النص بشكل مستقل وغير مبرر. غالبًا ما يشير الخبراء إلى أن أنظمة الذكاء الاصطناعي قد تتصرف أحيانًا بشكل غير متوقع بسبب ضخامة مجموعات البيانات والقواعد المستخدمة في تدريبها المعقد. ومع ذلك، عندما تمس مثل هذه الأخطاء مواضيع جيوسياسية حساسة، تتفاقم تداعياتها بشكل كبير للغاية.

يعد التوقيت أيضًا غير مناسب تمامًا لشركة Canva، حيث تعمل الشركة بقوة على توسيع عروضها في مجال الذكاء الاصطناعي لمنافسة شركات عملاقة مثل Adobe وغيرها من شركات برامج التصميم بشكل مباشر. فميزة “الطبقات السحرية” هي جزء من حملة أوسع للذكاء الاصطناعي روجت لها Canva مؤخرًا، واعتبرتها المرحلة التالية في صناعة المحتوى الإبداعي. فبدلاً من أن تبرز هذه الأداة الابتكار، باتت الآن موضع تدقيق بسبب خطأ فادح يمس قضايا حساسة.

ليست هذه هي المرة الأولى التي تواجه فيها منصة ذكاء اصطناعي اتهامات بالتحيز فيما يتعلق بالرسائل المتعلقة بفلسطين والمنطقة. ففي حالات سابقة، وجهت انتقادات لشركات تقنية أخرى بسبب مخرجات إشكالية تتعلق بتوليد الصور واستخدام لغة سياسية غير مناسبة. كل حادثة جديدة من هذا النوع تزيد من المخاوف حول احتمال وجود تحيزات خفية وعميقة داخل أنظمة الذكاء الاصطناعي، سواءً في البيانات التي تتعلم منها هذه الأنظمة أو في القواعد المبرمجة لها بشكل ضمني.