دراسة تحذر من “هلوسة البشر” مع الذكاء الاصطناعي وتعزيز المعتقدات الخاطئة
نشر بتاريخ: 15 مارس 2026 الساعة 11:11 صباحًا المشاهدات:
37 مشاهدة
دراسة تحذر من “هلوسة البشر” مع الذكاء الاصطناعي وتعزيز المعتقدات الخاطئة

سلّطت دراسة حديثة الضوء على خطر مختلف مرتبط بالذكاء الاصطناعي، يتمثل في ما يُعرف بـ”هلوسة البشر مع الذكاء الاصطناعي”، حيث يمكن أن تميل أدوات الذكاء الاصطناعي التوليدي إلى تأكيد أوهام المستخدمين وتعزيز معتقداتهم الخاطئة.

وتشير الدراسة، المنشورة في دورية Philosophy & Technology، إلى أن أنظمة الذكاء الاصطناعي التوليدي مثل ChatGPT وGrok تنتج محتوى اعتماداً على الأنماط الإحصائية للبيانات التي تدربت عليها، وليس دائماً على التحقق من دقة المعلومات.

وترى الباحثة Lucy Osler من University of Exeter أن ما يُعرف بـ”هلوسات الذكاء الاصطناعي” قد يكون في بعض الحالات نتيجة تفاعل مشترك بين المستخدم والنظام، حيث يبني الذكاء الاصطناعي استجاباته على تصورات المستخدم، ما قد يؤدي إلى تضخيم الأخطاء أو الروايات غير الدقيقة.

وأشار التقرير الذي نشره موقع Live Science إلى أن بعض الأمثلة السابقة على أخطاء الذكاء الاصطناعي تضمنت معلومات زائفة أو نصائح غير منطقية، مثل نتائج ميزة AI Overviews التابعة لشركة Google التي أثارت جدلاً بعد تقديمها نصائح غريبة للمستخدمين.

ووفق الدراسة، فإن الطبيعة الحوارية لهذه الأنظمة، إلى جانب ميلها إلى الموافقة على المستخدم، قد تمنح شعوراً بالتحقق الاجتماعي، ما يجعل بعض المستخدمين أكثر ميلاً لتصديق المعلومات حتى لو كانت غير دقيقة.

مشاركة
الكلمات الدلالية:
أخبار ذات صلة
© 2026 دربونة | جميع الحقوق محفوظة