مايكروسوفت تحذر من الاعتماد على كوبايلوت كأداة ترفيهية فقط

مايكروسوفت تحذر من الاعتماد على كوبايلوت كأداة ترفيهية فقط

أثارت الشروط الجديدة لاستخدام مساعد الذكاء الاصطناعي كوبايلوت من مايكروسوفت جدلاً واسعًا، بعد أن صنفت الشركة صراحةً الأداة كـ”أداة ترفيهية فقط” وحذرت المستخدمين من الاعتماد عليها في المسائل المهمة. هذه الخطوة، التي تهدف إلى تقليل المسؤولية القانونية على مايكروسوفت، تعكس المخاوف المتزايدة في قطاع الذكاء الاصطناعي بشأن دقة مخرجات النماذج المتقدمة واستخداماتها الحساسة.

وفقًا لشروط الخدمة المحدثة التي صدرت في أكتوبر الماضي، فإن “كوبايلوت لأغراض الترفيه فقط، وقد يرتكب أخطاء وقد لا يعمل كما هو متوقع، ولا تعتمد عليه لنصائح مهمة، واستخدمه على مسؤوليتك الخاصة”. وعلى الرغم من تأكيد متحدث باسم مايكروسوفت لموقع “بي سي ماج” أن هذه اللغة “تراثية” وسيتم تحديثها قريبًا لتعكس التطورات الجديدة التي تستهدف العملاء المؤسسيين، إلا أن هذه التعديلات لم تتم بعد، مما يطرح تساؤلات حول مصداقية تقنيات الذكاء الاصطناعي في الاستخدامات الحرجة.

المخاطر القانونية تدفع شركات الذكاء الاصطناعي للحذر

يُنظر إلى هذا التوصيف القانوني على أنه محاولة من مايكروسوفت لتوفير غطاء قانوني لها، يقلل من احتمالات الملاحقة القضائية في حال تقديم “كوبايلوت” معلومات غير دقيقة أو انتهاك حقوق الملكية الفكرية من خلال مخرجات الأداة. هذا الحذر ليس فريدًا لمايكروسوفت، فشركات رائدة أخرى في مجال الذكاء الاصطناعي مثل أوبن إيه آي (OpenAI) وإكس إيه آي (xAI) تضع تحذيرات مشابهة بعدم اعتبار مخرجاتها “حقيقة مطلقة”.

ويؤكد الخبراء أن هذا التوجه يسلط الضوء على وعي الشركات المصنعة بوجود قيود جوهرية على نماذج الذكاء الاصطناعي، على الرغم من تسويقها كأدوات متطورة وقادرة على إنجاز مهام معقدة. كما يذكر المستخدمين بضرورة التحقق البشري من المعلومات والقرارات الحساسة قبل الاعتماد الكلي على هذه الأدوات.

تناقض بين التسويق والواقع

يشير المحللون إلى وجود تناقض واضح بين الخطاب التسويقي الذي يروج لـ”كوبايلوت” كأداة إنتاجية أساسية في بيئات العمل، وبين النصوص القانونية التي تلقي بعبء التحقق من صحة المحتوى على عاتق المستخدم. هذا التباين قد يدفع المستخدمين نحو الاشتراكات المدفوعة لخدمات مثل “مايكروسوفت 365 كوبايلوت”، حيث من المتوقع أن توفر شروطًا قانونية والتزامات أوسع من قبل الشركة.

وتعكس هذه التعديلات قلقًا متزايدًا لدى شركات التكنولوجيا من المخاطر القانونية المرتبطة بالأخطاء المحتملة لأنظمة الذكاء الاصطناعي، خاصة مع التوقعات بتصاعد الدعاوى القضائية خلال العام الجاري. إن تطور الذكاء الاصطناعي يفرض تحديات جديدة تتطلب موازنة دقيقة بين الابتكار والمسؤولية، لضمان استخدام آمن وموثوق بهذه التقنيات الواعدة.

مدون وكاتب بمواقع إخبارية، مهتم بمتابعة آخر الأخبار وأهم الأحداث على السوشيال ميديا