اخبار العرب -كندا 24: الأحد 8 فبراير 2026 12:15 مساءً مع كل قفزة يحققها الذكاء الاصطناعي في الطب، يتسلّل إلى الوعي الجمعي شعور مريح بالاطمئنان: أن هذه الخوارزميات لا «تحتفظ» ببيانات المرضى، بل تتعلّم منها ثم تمضي، كما يفعل الطبيب حين يستخلص الخبرة دون أن يحمل أسرار مرضاه معه.
غير أن هذا الاطمئنان، الذي بدا طويلاً بديهياً، بدأ يتآكل بهدوء داخل المختبرات البحثية الغربية، مع ظهور دراسات حديثة أعادت فتح سؤال كان يُفضَّل تأجيله: ماذا لو كان الذكاء الاصطناعي لا يكتفي بالتعلّم من البيانات، بل يحتفظ ببعضها في ذاكرته الخفية؟ وماذا لو تحوَّل هذا التذكُّر، غير المقصود، إلى خطر صامت لا يُرى في الاستخدام اليومي، لكنه يظهر حين لا ينبغي له أن يظهر؟
الذاكرة الخفية
في مطلع عام 2026، كشف فريق بحثي من معهد ماساتشوستس للتقنية، عبر معهد جميل للذكاء الاصطناعي في الصحة، عن دراسة علمية دقيقة أعادت فتح واحد من أكثر الملفات حساسية في الطب الرقمي: قدرة النماذج الطبية الذكية على الاحتفاظ غير المقصود بجزء من البيانات التي تتدرَّب عليها. ولا تشكك الدراسة في القيمة السريرية المتزايدة للذكاء الاصطناعي، ولا تقلّل من دوره في تحسين التشخيص ودعم القرار الطبي، لكنها تلفت الانتباه إلى أثر جانبي خفيّ قد يتنامى بصمت كلما اتّسع نطاق استخدام هذه النماذج داخل البيئات السريرية. فمع تعاظم حجم البيانات وتعقيد الخوارزميات، قد يتحوَّل ما يُفترض أنه «تعلّم آمن» إلى شكل من أشكال الذاكرة الرقمية غير المرئية، بما يحمله ذلك من تبعات أخلاقية وتنظيمية لم تُحسم بعد.
* متى يتحوَّل التعلّم إلى تذكّر؟ صُمِّمت النماذج الذكية، من حيث المبدأ، لاستخلاص الأنماط العامة من البيانات الصحية، لا للاحتفاظ بتفاصيل تعود إلى أفراد بعينهم. فهي تتعلَّم الاتجاهات، لا القصص الشخصية، وتستنتج العلاقات، لا السجلات الفردية. غير أن هذا الفصل النظري بين التعلُّم والتخزين يبدأ في التآكل مع تضخُّم أحجام النماذج وزيادة عمقها الحسابي، ومع تغذيتها بملايين السجلات الصحية الإلكترونية المتشابكة.
وفي هذه المرحلة، لا تعود الحدود واضحة تماماً، خصوصاً عندما تُختبر النماذج عبر استفسارات دقيقة ومتكررة قد تدفعها - من دون قصد - إلى استدعاء تفاصيل جزئية من بيانات حقيقية، فتتحوّل القدرة على التعلّم، في بعض الحالات، إلى شكل من أشكال التذكّر غير المرئي.
* خصوصية طبية لا تحتمل التساهل. تختلف البيانات الطبية جذرياً عن سائر أشكال البيانات الرقمية، لأنها لا تتعلَّق بعادات الاستهلاك أو أنماط التصفُّح، بل تمسُّ الجسد والهوية والصحة والكرامة الإنسانية. فهي تحمل في طياتها قصص المرض والألم والهشاشة، وقد تترتَّب على تسريبها أو إساءة استخدامها تبعات اجتماعية وقانونية ونفسية طويلة الأمد. لذلك، فإن أي خلل في التعامل مع هذه البيانات لا يمكن اختزاله في خطأ تقني عابر أو ثغرة برمجية مؤقتة، بل يجب النظر إليه بوصفه احتمالاً حقيقياً لإلحاق أذى إنساني مباشر، يطال المريض قبل النظام، والثقة قبل التقنية
مفارقة الذكاء المتقدّم
تسلّط الدراسة الضوء على مفارقة علمية دقيقة في صميم تطوّر الذكاء الاصطناعي الطبي: فالنماذج الأكثر تقدّماً، والأعلى دقة في التنبؤ والتحليل، هي نفسها الأكثر عرضة للاحتفاظ بتفاصيل فردية من البيانات التي تتدرّب عليها. فالسعة الحسابية الهائلة، وعمق البنية الخوارزمية، وهما مصدر قوة هذه النماذج، قد يتحوّلان في الوقت ذاته إلى نقطة ضعف خفية، تجعلها أقل قدرة على «النسيان». وهكذا، يصبح التقدّم التقني ذاته سيفاً ذا حدّين، يرفع كفاءة التشخيص من جهة، ويضاعف التحديات الأخلاقية المرتبطة بالخصوصية من جهة أخرى.
* بين الحلّ التقني والمسؤولية الأخلاقية. يقترح الباحثون بالفعل حلولاً تقنية متقدمة تهدف إلى الحدّ من قابلية النماذج الذكية على الاحتفاظ بتفاصيل فردية، من خلال أساليب تدريب أكثر حذراً وآليات إخفاء للبيانات الحساسة. غير أن الدراسة تؤكد بوضوح أن التقنية وحدها لا تكفي لحل الإشكال. فالمسألة في جوهرها ليست حسابية فحسب، بل أخلاقية وتنظيمية بامتياز، وتتطلب أطر مساءلة واضحة تحدد من يتحمّل المسؤولية عند الخطأ، وكيف تُدار المخاطر قبل وقوعها لا بعدها. وفي غياب هذا الإطار، قد يتحوَّل الذكاء الاصطناعي من أداة دعم سريري إلى منطقة رمادية تُختبر فيها الحدود دون مرجع أخلاقي ثابت.
* اتساع الاستخدام واتساع المخاطر. مع توسُّع استخدام الذكاء الاصطناعي في أنظمة سحابية ومنصات صحية رقمية عابرة للحدود، لم تعد البيانات الطبية محصورة داخل جدران مستشفى أو خوادم محلية يمكن التحكم بها بسهولة. بل أصبحت تتنقّل بين بيئات تقنية متعددة، تخضع لتشريعات مختلفة، وتدار أحياناً من جهات لا ترى المريض ولا تتحمَّل مسؤوليته المباشرة. وفي هذا السياق، تتسع دائرة المخاطر المحتملة بقدر اتساع دائرة الاستخدام، ويزداد السؤال إلحاحاً حول الجهة التي تتحمّل المسؤولية عند حدوث انتهاك غير مقصود للخصوصية: هل هي المؤسسة الصحية التي استخدمت النظام، أم الجهة المطوّرة للخوارزمية، أم المنصة السحابية التي تستضيف البيانات؟ هذا الغموض في تحديد المسؤولية لا يقل خطورة عن الخلل التقني ذاته، لأنه يترك المريض في منطقة رمادية، بلا حماية واضحة ولا مساءلة محددة.
* ذكاء يعرف متى يصمت. لا يدعو هذا البحث إلى التراجع عن الذكاء الاصطناعي في الطب، ولا إلى كبح قدراته أو التشكيك في جدواه، بل إلى نضجه. فالنضج هنا لا يعني مزيداً من المعرفة أو سرعةً أعلى في التحليل، بل قدرة واعية على احترام الحدود.
أن نعلّم الخوارزميات كيف تستنتج وتربط وتنبّه، نعم، لكن أيضاً كيف تنسى، ومتى تتوقف عن الاستدعاء، وما الذي لا يجوز لها الاحتفاظ به أصلاً. ففي الطب، كما في الأخلاق، لا تُقاس الحكمة بكمّ ما يُقال، بل بوعي ما ينبغي أن يبقى صامتاً.
يعيد هذا البحث إحياء مبدأ طبي قديم بلغة رقمية معاصرة: أولاً- لا تُلحق ضرراً. فالذكاء الاصطناعي، مهما بلغت قدراته التحليلية، يظل أداة تحتاج إلى ضبط ومساءلة، لا عقلاً يُترك بلا حدود. نعم، قد يغيّر مستقبل الطب ويمنحه دقة غير مسبوقة، لكنه لا ينبغي أن يُعفى من المحاسبة، ولا أن يُطلق بذاكرة مفتوحة في عالم شديد الفضول وسريع الاستغلال.
وحتى إشعار آخر، سيبقى القرار الطبي الحقيقي قراراً إنسانياً في جوهره، تُعينه الخوارزميات على الرؤية... لكنها لا تحفظه عن ظهر قلب.
تم ادراج الخبر والعهده على المصدر، الرجاء الكتابة الينا لاي توضبح - برجاء اخبارنا بريديا عن خروقات لحقوق النشر للغير






