
دراسة جديدة تكشف عن “هلوسة” تطبيقات الذكاء الصناعي
كتبت ضحى ناصر
كشف بحث جديد نشرته هيئة الإذاعة البريطانية، واتحاد الإذاعات الأوروبية (بي.بي.سي)، الأربعاء، أن تطبيقات الذكاء الاصطناعي الرائدة تحرف محتوى الأخبار في نصف ردودها تقريبا.
الأخطاء نابعة من المصادر
واستندت نتائج البحث على مايزيد عن 3 آلاف رد على أسئلة عن الأخبار من مساعدي الذكاء الاصطناعي المتمثلة في تطبيقات برمجية تستخدم الذكاء الاصطناعي لفهم أوامر اللغة الطبيعية لإكمال المهام المقدمة للمستخدم.
وخضع مساعدي الذكاء الاصطناعي إلى تقييمات بما يصل إلى 14 لغة من حيث الدقة والمصادر والقدرة على التمييز بين الرأي والحقيقة.
وأوضحت الدراسة أن ثلث إجابات مساعدي الذكاء الاصطناعي قد أظهرت عدد من الأخطاء جسيمة في المصادر، مثل الإسناد المفقود أو المضلل أو غير الصحيح أي أن نحو 72% من ردود جيميناي، مساعد الذكاء الاصطناعي من غوغل، كانت بها مشكلات كبيرة في المصادر، مقارنة بأقل من 25% لجميع المساعدين الآخرين.
شات جي بي تي وجيمناي ضمن القائمة
وكشفت الدراسة أن هذه التطبيقات المساعدة هي:
تشات جي.بي.تي وكوبايلوت وجيميناي وبربليكستي
حيث أظهر البحث أن 45% من ردود الذكاء الاصطناعي، التي خضعت للدراسة احتوت على مشكلة كبرى واحدة على الأقل، و81% منها تتضمن شكلا من أشكال المشكلات.
من جهتهما فقد أوضحت شركتا أوبن إيه.آي ومايكروسوفت في وقت سابق إنهما تسعيان لحل ما وصفتاه بـ “مشكلة الهلوسة” والتي تحدث عندما يولد نموذج الذكاء الاصطناعي معلومات غير صحيحة أو مضللة، غالبا بسبب عوامل مثل عدم كفاية البيانات.