السبت 21 مارس 2026 06:16 مساءً أطلق خبراء تقنيون تحذيرات شديدة اللهجة من ظاهرة متصاعدة تتمثل في تسمم نماذج الذكاء الاصطناعي الكبيرة تدريجيًّا، وهو ما قد يؤدي إلى انهيارها بالكامل، تحدث هذه المشكلة عندما تقوم النماذج اللغوية بتدريب نفسها على محتوى غير موثوق تم توليده مسبقًا بواسطة أنظمة ذكاء اصطناعي أخرى، مما يخلق حلقة مفرغة من البيانات الرديئة، وتتسبب هذه الظاهرة في تضخيم الأخطاء الواقعية، التحيزات، والهلوسات الرقمية، لتصبح مشكلة إدخال بيانات خاطئة ينتج عنها مخرجات كارثية (GIGO) على نطاق غير مسبوق في الصناعة التقنية. وفقًا لتقرير بموقع «زد دي نت» (ZDNet)، أكدت مؤسسة «جارتنر» (Gartner) للأبحاث أن أنظمة الذكاء الاصطناعي في المؤسسات تغرق حاليًّا في طوفان من المحتوى الآلي غير المتحقق منه، ونقل الموقع عن المحللين قولهم إن هذه المدخلات المعيبة تنتقل كعدوى عبر مسارات العمل الآلية وأنظمة اتخاذ القرار، مما يؤدي إلى نتائج أسوأ بكثير مما نشهده اليوم، داعين الشركات إلى تبني نهج صارم لتنقية بيانات التدريب وحمايتها فورًا.
يمثل هذا التحدي الفني عقبةً استراتيجيةً كبرى أمام مستقبل الذكاء الاصطناعي الموثوق، خاصةً مع الاعتماد المتزايد عليه في القطاعات الحيوية مثل الرعاية الصحية، الخدمات المالية، والأمن السيبراني. لتفادي هذا الانهيار الوشيك، تبرز حاجة ماسة إلى تطبيق مبادئ «الثقة المعدومة» (Zero Trust) على حوكمة البيانات، وهو مفهوم كان يُستخدم أساسًا لحماية الشبكات، ويُعاد توجيهه الآن للتدقيق الشامل في جودة وأصالة كل معلومة تدخل في تدريب النماذج لضمان سلامتها وصلاحيتها للاستخدام البشري.
تم ادراج الخبر والعهده على المصدر، الرجاء الكتابة الينا لاي توضبح - برجاء اخبارنا بريديا عن خروقات لحقوق النشر للغير






