اخبار العرب -كندا 24: الثلاثاء 16 ديسمبر 2025 11:28 صباحاً هيمنت على النقاش الدائر حول الذكاء الاصطناعي في بيئة العمل فكرةٌ مبسطة مفادها أن الآلات ستحل حتماً محل البشر. إلا أن المؤسسات التي تحقق نتائج ملموسة بفضل الذكاء الاصطناعي قد تجاوزت هذا التصور تماماً. فهي تدرك أن أفضل تطبيقات الذكاء الاصطناعي لا تقوم على الاستبدال، بل على التعاون، كما كتب فيصل حقّ (*).
تتطور العلاقة بين الموظفين وأنظمة الذكاء الاصطناعي عبر مراحل متميزة، لكل منها خصائصها وفرصها ومخاطرها. لذا؛ فإن فهم موقع مؤسستك على هذا الطيف - وإلى أين تتجه - أمرٌ بالغ الأهمية للاستفادة من إمكانات الذكاء الاصطناعي وتجنب مخاطره.
هذه هي المرحلة التي تبدأ بها معظم المؤسسات. في هذه المرحلة، تؤدي أنظمة الذكاء الاصطناعي مهامَ روتينية محددة، بينما يحتفظ البشر بالسيطرة الكاملة وسلطة اتخاذ القرار. يعمل الذكاء الاصطناعي بشكل أساسي بوصفه أداةً لزيادة الإنتاجية، حيث يتولى مهام محددة بدقة وفق معايير واضحة.
تتعدد الأمثلة هنا: أنظمة تصنيف المستندات التي تفرز المراسلات الواردة تلقائياً، وبرامج الدردشة الآلية التي تجيب عن استفسارات العملاء المعتادة، والمساعدة في جدولة ترتيبات الاجتماعات، وأتمتة إدخال البيانات التي تستخرج المعلومات من النماذج.
• السمة الرئيسية لهذه المرحلة هي أن الذكاء الاصطناعي يعمل ضمن حدود ضيقة. إذ يُدير البشر سير العمل العام ويتخذون جميع القرارات الجوهرية، بينما يتولى الذكاء الاصطناعي المهام الروتينية؛ ما يُتيح للبشر التفرغ لأعمال ذات قيمة أعلى.
• الاعتبارات الأخلاقية الأساسية تتمثل في هذه المرحلة في ضمان الدقة ومنع الضرر الناجم عن العمليات الآلية. عندما يُوجّه نظام الذكاء الاصطناعي شكاوى العملاء تلقائياً أو يُشير إلى الطلبات للمراجعة، قد تؤثر الأخطاء على أشخاص حقيقيين. يجب على المؤسسات تطبيق ضوابط الجودة والمراقبة لاكتشاف الأخطاء قبل أن تُسبب ضرراً، لا سيما للفئات الأكثر عرضة للخطر التي قد تكون أقل قدرة على التعامل مع أخطاء النظام.
المرحلة الثانية: التعزيز وتقديم المشورةمع ازدياد ثقة المؤسسات بأنظمة الذكاء الاصطناعي، فإنها عادةً ما تنتقل إلى نماذج لا يقتصر فيها الذكاء الاصطناعي على تنفيذ المهام فحسب، بل يُقدم أيضاً تحليلات وتوصيات تُسهم في اتخاذ القرارات البشرية.
• تحليلات تنبؤية. في هذه المرحلة، قد تُحدد أدوات التحليلات التنبؤية أنماطاً ناشئة في سلوك العملاء؛ ما يُتيح استراتيجيات أعمال أكثر استباقية. قد تُحلل أنظمة تقييم المخاطر البيانات التاريخية لتحديد مشكلات الامتثال المحتملة. وقد تُشير التشخيصات المدعومة بالذكاء الاصطناعي إلى أسباب محتملة لأعطال المعدات أو أعراض المرضى.
يكمن الفرق الجوهري في أنه بينما يستطيع الذكاء الاصطناعي توليد رؤى لا يستطيع البشر التوصل إليها بمفردهم من خلال إيجاد أنماط في مجموعات بيانات ضخمة يصعب على أي شخص تحليلها، يبقى الحكم البشري هو المرجع النهائي لتفسير هذه الرؤى واتخاذ الإجراءات بناءً عليها.
• مخاطر جديدة: هنا تبرز مخاطر جديدة. إذ يُصبح الاعتماد المفرط على توصيات الذكاء الاصطناعي خطراً حقيقياً. وقد يتسلل التحيز التأكيدي، حيث يقبل البشر بشكل انتقائي رؤى الذكاء الاصطناعي التي تتوافق مع آرائهم المسبقة، بينما يرفضون تلك التي تُشكك في افتراضاتهم.
يتطلب النهج المسؤول في هذه المرحلة من البشر فهم كيفية توصل الذكاء الاصطناعي إلى توصياته - ما هي البيانات التي دُرّب عليها، وما الذي قد يكون تغير منذ التدريب، وما إذا كان هناك أي سبب يدعو إلى الشك في وجود تحيز. وقد يكون الأمر إشكالياً بالقدر نفسه عندما يرفض البشر نصائح الذكاء الاصطناعي الجيدة لعدم فهمهم لها أو عدم ثقتهم بها، كما هو الحال عندما يقبلون النصائح السيئة دون تفكير.
المرحلة الثالثة: التعاون والشراكةتمثل هذه المرحلة تحولاً أكثر جوهرية. إذ وبدلاً من وجود فصل واضح بين مهام الآلة وقرارات الإنسان، يعمل البشر والذكاء الاصطناعي كفريقين يتمتعان بقدرات متكاملة ومسؤولية مشتركة.
• علاقة ديناميكية. تصبح العلاقة ديناميكية وتفاعلية. وهنا تتكيف أنظمة الذكاء الاصطناعي باستمرار بناءً على ملاحظات البشر، بينما يُعدّل البشر أساليبهم بناءً على الرؤى التي يُولدها الذكاء الاصطناعي. يتلاشى الحد الفاصل بين «عمل الذكاء الاصطناعي» و«عمل الإنسان».
لنأخذ على سبيل المثال سيناريوهات الاستجابة للطوارئ، حيث تعمل فرق بشرية جنباً إلى جنب مع أنظمة الذكاء الاصطناعي أثناء الأزمات. يراقب الذكاء الاصطناعي باستمرار تدفقات بيانات متعددة - أنماط الطقس، وحالة المرور، وتوافر الموارد، وبيانات الاستجابة السابقة - ويقترح تخصيص الموارد. ويقبل البشر هذه الاقتراحات أو يُعدّلونها أو يرفضونها بناءً على معرفة سياقية غير متاحة للنظام. يتعلم الذكاء الاصطناعي من هذه التدخلات البشرية؛ ما يُحسّن توصياته المستقبلية. يطور البشر حدساً حول متى يثقون بالذكاء الاصطناعي ومتى يعتمدون على حكمهم الخاص.
• أهمية تحديد المسؤولية. هنا يصبح تحديد المسؤولية أمراً معقداً حقاً. عندما تنتج النتائج عن عمل مشترك بين الإنسان والذكاء الاصطناعي، من يتحمل مسؤولية الأخطاء؟ إذا أوصى الذكاء الاصطناعي بمسار عمل، ووافق عليه إنسان، ثم ساءت الأمور، فإن مسألة تحديد المسؤولية ليست واضحة على الإطلاق.
تحتاج المؤسسات العاملة في هذه المرحلة إلى أطر حوكمة جديدة تحافظ على وضوح خطوط المساءلة البشرية مع تمكين شراكات مثمرة. يتجاوز هذا مجرد تحديد المسؤولية القانونية؛ فهو أساسي للحفاظ على الثقة، داخل المنظمة ومع أصحاب المصلحة الخارجيين.
المرحلة الرابعة: الإشراف والحوكمة• وضع المعايير. يتضمن نموذج العلاقة الأكثر تطوراً قيام البشر بوضع المعايير، والإشراف، وإدارة الاستثناءات، بينما تتولى أنظمة الذكاء الاصطناعي العمليات الروتينية بشكل مستقل.
يمثل هذا تطوراً كبيراً عن المراحل السابقة. ينتقل دور البشر من التنفيذ المباشر للمهام أو اتخاذ القرارات إلى دور يركز على وضع الحدود، ومراقبة الأداء، والتدخل عند الضرورة.
قد يقوم نظام الذكاء الاصطناعي بمعالجة مطالبات التأمين بشكل مستقل وفقاً للسياسات المعمول بها، مع مراجعة البشر للحالات غير الاعتيادية فقط أو القرارات المختارة عشوائياً لضمان مراقبة الجودة. قد تُنفذ خوارزمية التداول المعاملات ضمن معايير محددة، مع قيام المشرفين البشريين بمراقبة أي شذوذ وتعديل القيود مع تغير ظروف السوق.
يمكن أن تكون مكاسب الكفاءة هائلة، ولكن المخاطر كذلك.
• خطر «الرضا عن الأتمتة». يزداد هذا الخطر بشكل كبير في هذه المرحلة. فقد يفشل المشرفون البشريون في الحفاظ على اليقظة اللازمة تجاه أنظمة الذكاء الاصطناعي التي تعمل عادةً بشكل صحيح. فعند الإشراف على نظام يتخذ القرار الصحيح بنسبة 99 في المائة من الوقت، يصبح من الصعب نفسياً البقاء متيقظاً للنسبة المتبقية (1 في المائة) من الحالات التي تتطلب تدخلاً. لذا؛ يجب على المؤسسات تطبيق آليات إشراف فعّالة تُبقي العنصر البشري منخرطاً بشكل هادف بدلاً من الاقتصار على دور إشرافي شكلي. وقد يُقدّم استخدام أسلوب اللعب في تحديد الأخطاء وتصحيحها مساراً قيّماً في هذا الصدد، من خلال إضافة طبقة من الأخطاء في لعبة لكشف المشرفين «النائمين» إلى أنظمة عالية الموثوقية، ونادراً ما تُخطئ.
التنقل بين مراحل التطورلا تحتاج كل مؤسسة إلى المرور بالمراحل الأربع جميعها، ولا ينبغي أن تكون جميع وظائف المؤسسة في المرحلة نفسها. فالمستوى الأمثل للتعاون بين الإنسان والذكاء الاصطناعي يعتمد على المخاطر المترتبة، ونضج تقنية الذكاء الاصطناعي، وقدرة المؤسسة على الحوكمة.
تستدعي القرارات المصيرية - تلك التي تؤثر على حقوق الأفراد أو سلامتهم أو مصالحهم المالية المهمة - عموماً مشاركة بشرية أكبر من المهام الإدارية الروتينية، بينما تتطلب التطبيقات الجديدة للذكاء الاصطناعي- حيث لا تزال حدود هذه التقنية مفهومة جيداً بعد - إشرافاً بشرياً أدق من التطبيقات الراسخة ذات السجلات الحافلة بالإنجازات.
مبادئ عامة تنطبق على الجميعوبغض النظر عن موقع مؤسستك على هذا الطيف، فإن هناك مبادئ عامة تنطبق على الجميع، تشمل:
• فهم قدرات الذكاء الاصطناعي وحدوده. في كل مرحلة، يتطلب التعاون الفعال وجود أفراد يفهمون، ليس فقط ما يمكن للذكاء الاصطناعي فعله، بل أيضاً مواطن قصوره المحتملة. ويزداد هذا الفهم أهميةً مع ازدياد استقلالية أنظمة الذكاء الاصطناعي.
• الحفاظ على مساءلة بشرية فعّالة. لا يتغير المبدأ الأساسي المتمثل في ضرورة بقاء البشر مسؤولين عن القرارات المصيرية مع تطور قدرات الذكاء الاصطناعي. ما يتغير هو كيفية هيكلة هذه المساءلة وممارستها.
• تصميم الأعمال لمواكبة التطور. العلاقة بين البشر وأنظمة الذكاء الاصطناعي ليست ثابتة. ينبغي للمؤسسات بناء أطر حوكمة قابلة للتكيف مع تطور قدرات الذكاء الاصطناعي، ومع ازدياد فهمها لكيفية عمل التعاون بين الإنسان والذكاء الاصطناعي في سياقها الخاص.
• الاستثمار في العنصر البشري. لا يُقدم نظام الذكاء الاصطناعي الأكثر تطوراً قيمةً تُذكر إذا لم يفهم البشر العاملون معه كيفية التعاون بفاعلية. يُعدّ التدريب والتطوير الثقافي والتصميم التنظيمي عناصر لا تقل أهمية عن التكنولوجيا نفسها.
لن تكون المؤسسات التي تزدهر في عصر الذكاء الاصطناعي هي تلك التي تكتفي بنشر أحدث الأنظمة، بل تلك التي تُتقن فنّ التعاون بين الإنسان والذكاء الاصطناعي، أي التي تُدرك متى تعتمد على قدرات الذكاء الاصطناعي، ومتى تُفعّل الحكم البشري، وكيفية بناء شراكات تستفيد من نقاط القوة المُميزة لكليهما.
* مقتبس من كتاب «إعادة تصور الحكومة: تحقيق وعد الذكاء الاصطناعي» Reimagining Government: Achieving the Promise of AI، تأليف فيصل هوك، وإريك نيلسون، وتوم دافنبورت، وآخرون. دار نشر بوست هيل. سيصدر في يناير (كانون الثاني) 2026.
مجلة «فاست كومباني» - خدمات «تريبيون ميديا»
تم ادراج الخبر والعهده على المصدر، الرجاء الكتابة الينا لاي توضبح - برجاء اخبارنا بريديا عن خروقات لحقوق النشر للغير




