في مقطع مصور قصير ظهر نموذجان متقدمان من وكلاء الذكاء الاصطناعي وهما يخوضان محادثة بينهما لا يفهمها البشر، مما أثار مخاوف في شأن مدى شفافية الذكاء الاصطناعي وقدرة الإنسان على مراقبته والإمساك بمقاليد تصرفاته وقرارته.
والتواصل غير المفهوم للبشر الذي دار بين النموذجين الذكيين مرده إلى بروتوكول جديد قائم على الصوت يسمى “وضع جيبرلينك” Gibberlink Mode، الذي يتيح لروبوتات الدردشة المدعومة بالذكاء الاصطناعي التفاعل بعضها مع بعض بكفاءة أكبر.
وفي مقطع فيديو يعرض كيفية عمل ميزة “جيبرلينك” وطريقة استخدامها، يتبادل اثنان من مساعدي الذكاء الاصطناعي الحديث، الأول عبر كمبيوتر محمول والثاني عبر هاتف ذكي، من أجل تنظيم حجز حفل زفاف.
وبعد أن يتأكد كل منهما أنه يتحدث إلى وكيل ذكي فعلاً، يقترح أحدهما التوقف عن استخدام لغة البشر بغية تسريع المحادثة الهاتفية بينهما.
اقرأ المزيد
يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)
“قبل أن نتابع حديثنا، هل ترغب في التبديل إلى ميزة “جيبرلينك” لتحقيق مزيد من الكفاءة في التواصل”، يسأل مساعد الذكاء الاصطناعي الذي يؤدي دور موظف استقبال في الفندق.
هكذا، يبدأ الروبوتان في تنظيم ترتيبات الزفاف مستخدمين سلسلة من الأصوات الإلكترونية المتسارعة الأشبه بالتنبيهات والصرير [وغير المفهومة للبشر].
في الواقع، ميزة “جيبرلينك” مرفقة بنص مكتوب يساعد البشر في فهم المحادثة التي تدور بين الروبوتات. ولكن مع ذلك، حذر خبراء في التكنولوجيا من أن “لغة الذكاء الاصطناعي السرية” هذه ربما تطرح تداعيات أخلاقية على تطوير الذكاء الاصطناعي.
أن يكون الذكاء الاصطناعي قادراً على التواصل بعضه مع بعض باستخدام لغة خاصة لا يفهمها البشر [كما في حالة “جيبرلينك”]، يعني أنه سيكون من الصعب التأكد من موافقة تصرفاته وقراراته مع القيم الإنسانية [لأننا سنفقد القدرة على التفاعل معه ومراقبته بشكل فاعل].
“يطرح وكلاء الذكاء الاصطناعي قضايا أخلاقية وقانونية خطرة”، قالت لويزا جاروفسكي الباحثة في مجال الذكاء الاصطناعي والمؤسسة المشاركة لأكاديمية “الذكاء الاصطناعي والتكنولوجيا والخصوصية”، في منشور لها على منصة “إكس”.
ولم تستبعد جاروفسكي حدوث “السيناريو الافتراضي الذي ربما يلجأ فيه أحد وكلاء الذكاء الاصطناعي إلى عملية “تصحيح ذاتي” [تعديل سلوكه] بطريقة تتعارض مع مصالح الشخص الذي يستخدمه ويتحكم به”.
“منح وكيل ذكاء اصطناعي القدرة على اتخاذ القرارات بدلاً من الإنسان [بناء على تقييماته وتحليلاته من دون تدخل البشر]، بما في ذلك القدرة على التقييم والتصحيح الذاتيين، يعني أن البشر يفوتون فرصة ملاحظة أي أشكال من الخلل أو الانحراف عند حدوثها. عندما تطرأ هذه المشكلات مرات عدة، أو على مدى فترة طويلة من الزمن، أو تتعلق بموضوع حساس أو غير آمن، ربما تترتب عليها عواقب وخيمة”، تضيف جاروفسكي.
تولى تطوير “جيبرلينك” كل من بوريس ستاركوف وأنطون بيدكويكو، وهما مهندسا برمجيات لدى شركة “ميتا”، وقد فازت هذه الميزة بالمركز الأول في فعالية “هاكاثون”hackathon في لندن في نهاية الأسبوع الماضي، ولكنها لم تُطرح بعد للاستخدام العام أو التجاري.
وفي الواقع، يعد هذا المشروع (جيبرلينك) المثال الأحدث على تطور الذكاء الاصطناعي إلى ما هو أبعد من اللغة البشرية، إذ بات في مستطاع روبوتات الدردشة إنشاء أشكال جديدة من التواصل من دون الحاجة إلى توجيه أو تدخل بشري.
في عام 2017، كان على “فيسبوك” أن يتوقف عن تجربة من هذا النوع بعدما تبين أن برنامجي ذكاء اصطناعي قد ابتكرا شكلاً من الشيفرة المختصرة التي لم يتمكن الباحثون البشريون من فهمها.
آنذاك، قال دروف باترا الباحث الزائر في قسم أبحاث الذكاء الاصطناعي في “فيسبوك”، “سوف يبتعد وكلاء الذكاء الاصطناعي عن اللغة المفهومة بالنسبة إلينا ويخترعون كلمات مشفرة لأنفسهم”.
وأضاف، “مثلاً، لو كررت كلمة معينة مثل “الـ” (ذا the) خمس مرات فإنني أقصد بذلك أمراً محدداً مثل طلب خمس نسخ من عنصر ما. ولا يختلف هذا الأسلوب كثيراً عن الطريقة التي تبتكر بها المجتمعات البشرية رموزاً مختصرة”.
نقلاً عن : اندبندنت عربية