أكد مارك زوكربيرج، الرئيس التنفيذي لشركة Meta، التزامه بجعل الذكاء الاصطناعي العام (AGI) – الذي يمكنه تنفيذ المهام البشرية المتنوعة – متاحًا بشكل مفتوح في المستقبل.
ومع ذلك، كشفت وثيقة سياسات جديدة أن Meta قد تمتنع عن إطلاق بعض أنظمة الذكاء الاصطناعي عالية القدرة التي تطورها داخليًا، في حال كانت تشكل مخاطر كبيرة.
تصنيف أنظمة الذكاء الاصطناعي وفق المخاطر
حددت Meta في وثيقتها، التي تحمل اسم Frontier AI Framework، نوعين من الأنظمة التي تعتبرها بالغة الخطورة بحيث لا يمكن إصدارها للجمهور:
- الأنظمة “عالية المخاطر”: يمكنها المساعدة في تنفيذ هجمات إلكترونية أو كيميائية وبيولوجية، لكنها لا تجعل الهجوم ممكنًا بشكل موثوق تمامًا.
- الأنظمة “ذات المخاطر الحرجة”: تمتلك القدرة على التسبب في نتائج كارثية، مثل اختراق شامل للأنظمة الأمنية أو نشر أسلحة بيولوجية شديدة التأثير.
- وتشير الوثيقة إلى أن هذه القائمة ليست شاملة، لكنها تغطي المخاطر التي تعتبرها Meta الأكثر إلحاحًا في الوقت الحالي.
آلية تقييم المخاطر واتخاذ القرار
وفقًا للوثيقة، لا تعتمد Meta على اختبار واحد لتحديد مدى خطورة نظام معين، بل تستند إلى تقييمات من باحثين داخليين وخارجيين، تخضع للمراجعة من قبل صناع القرار رفيعي المستوى داخل الشركة.
إذا تم تصنيف نظام ما على أنه “عالي المخاطر”، ستقوم Meta بإيقاف إصداره حتى يتم تطبيق تدابير وقائية تقلل المخاطر إلى مستويات مقبولة.
أما إذا كان النظام “ذو مخاطر حرجة”، فستقوم الشركة بتخزينه وحمايته بإجراءات أمنية غير محددة لمنع أي اختراق محتمل.
Meta بين الشفافية والتحفظ في نشر الذكاء الاصطناعي
على عكس شركات مثل OpenAI، التي تقصر الوصول إلى نماذجها عبر واجهات برمجة التطبيقات (API)، تتبنى Meta نهجًا أكثر انفتاحًا في توفير تقنياتها للجمهور – وإن لم يكن ذلك ضمن مفهوم المصدر المفتوح بالكامل.