اخبار العرب -كندا 24: الأربعاء 4 فبراير 2026 09:27 صباحاً مع نضوج الذكاء الاصطناعي خلال عام 2025، استخلصت الشركات في مختلف القطاعات دروساً بالغة الأهمية حول قابلية التوسع، والكفاءة، والموثوقية، والتطبيق العملي. فبدلاً من السعي وراء اختراقات تكنولوجية هائلة أو نماذج ذكاء اصطناعي ضخمة، ركز العديد من المؤسسات على البنية التحتية، والقدرة على التنبؤ، وحل المشكلات التي من شأنها أن تسمح للذكاء الاصطناعي بالتوسع بشكل موثوق وفعَّال في الواقع، كما كتب كولاولي صموئيل أديبايو(*).
تحديات المرحلة وقدرات التكيّفوقد أبرزت هذه الدروس التحديات المتنامية والتحولات في الاستراتيجية مع تكيف القطاع مع التحديات العملية بدلاً من الانسياق وراء الضجة الإعلامية المحيطة بالإمكانات التحويلية للذكاء الاصطناعي.
1. البنية التحتية أولاً. كان أهم ما تم استخلاصه في عام 2025 هو الحاجة إلى بنية تحتية قوية للذكاء الاصطناعي.
وهذا هو مثال ليئور بوزين، الرئيس التنفيذي لشركة AutoDS، وهي منصة لأتمتة التجارة الإلكترونية مدعومة بالذكاء الاصطناعي، الذي تعلَّم هذا الدرس بشكل مباشر. في البداية، أعطت شركته الأولوية للتوظيف السريع للذكاء الاصطناعي، معتقدةً أن السرعة هي مفتاح النجاح. مع ذلك، ومع نمو الشركة، اتضح جلياً أنه من دون حوكمة سليمة، وتنظيم بيانات فعَّال، وبنية تحتية متينة، لن تتمكن تقنيات الذكاء الاصطناعي من التوسع بكفاءة. لذا، حوَّلت الشركة تركيزها إلى إرساء الأساس الصحيح - بناء طبقات بيانات مشتركة وهياكل ملكية أكثر وضوحاً - ما سمح لميزات الذكاء الاصطناعي بأن تصبح جزءاً لا يتجزأ من عملياتها التجارية.
وبالمثل، واجهت شركة RavenDB، المتخصصة في قواعد البيانات، صعوبة في دمج الذكاء الاصطناعي بسبب ضعف البنية التحتية التي جعلت تدفق البيانات معقداً وغير موثوق. بوعد فشل تعاونها مع «مايكروسوفت» لبناء مساعد ذكاء اصطناعي للتوثيق، عمدت هذه الشركة إلى دمج الذكاء الاصطناعي بشكل أعمق في نظام قاعدة بياناتها، ما يضمن عمل النماذج بالقرب من البيانات التي تعتمد عليها، وبالتالي زيادة القدرة على التنبؤ والموثوقية.
وقد أدركت هذه الشركات أن الإمكانات الحقيقية للذكاء الاصطناعي لا يمكن إطلاقها إلا عند دمجه بسلاسة في الأنظمة القائمة ذات الأسس المتينة للبيانات.
الكفاءة أم القدرات العالية؟2. كفاءة الذكاء الاصطناعي تفوق أهمية «القدرة الخام» له. بينما استمر العديد من العاملين في مجال الذكاء الاصطناعي في السعي وراء نماذج أكبر وموارد حوسبة أقوى، اتخذت شركات مثل Oculeus، وهي شركة برمجيات لقطاع الاتصالات، نهجاً مختلفاً، إذ أولى الرئيس التنفيذي أرند بارانوفسكي الأولوية لكفاءة أنظمة الذكاء الاصطناعي بدلاً من التركيز على قدرتها الحاسوبية.
في قطاع الاتصالات، حيث يُعدّ الكشف الفوري عن الاحتيال والكشف عن الحالات الشاذة أمراً بالغ الأهمية، تُعتبر الموثوقية والاتساق أساسيين. بالنسبة لبارانوفسكي، لم تكن «القدرة الخام» هي الحل، بل كان المهم: القدرة على التنبؤ والمخرجات المحددة. كانت أنظمة الذكاء الاصطناعي التي تُنتج نتائج متسقة أكثر قيمة بكثير من تلك القادرة على توليد مخرجات عشوائية.
وبالمثل، ردد مؤسس RavenDB، أورين إيني، هذا الرأي، مؤكداً أن الهدف لم يكن إنشاء ذكاء اصطناعي «أذكى»، بل بناء ذكاء اصطناعي قادر على التعامل مع المهام الروتينية بسلاسة. اكتسب هذا التركيز على الموثوقية والكفاءة بدلاً من قدرات الذكاء الاصطناعي الخام زخماً مع إدراك الشركات للتكاليف الباهظة للحوسبة واستهلاك الطاقة. ومع تزايد الطلب على الذكاء الاصطناعي الموفر للطاقة، ستأتي الموجة التالية من النجاح من أولئك القادرين على تحقيق أقصى أداء للذكاء الاصطناعي دون تكاليف إضافية غير ضرورية.
--------
* * مفتاح النجاح في عام 2025 لم يتمثل في الإنجازات البراقة بل التحسينات الحقيقية التي يمكن تطبيقها بفعالية على جميع العمليات * *
-------
حدود الثقة وأهمية الرقابة3. الثقة تتطلب حدوداً. كان على صناعة الذكاء الاصطناعي في عام 2025 أيضاً أن تتعامل مع مسألة الثقة، إذ تُستخدم أنظمة الذكاء الاصطناعي بشكل متزايد في خدمة العملاء والمعاملات واتخاذ القرارات، غير أنها تفتقر إلى المساءلة التي يتمتع بها الموظفون البشريون.
وقد سلَّطت قضية روبوت الدردشة التابع لشركة طيران كندا، الذي وعد بخصم وهمي على تذاكر السفر في حالات الوفاة، الضوء على مخاطر أنظمة الذكاء الاصطناعي غير الخاضعة للرقابة. ولمعالجة هذه المشكلة، وضعت شركات مثل AutoDS وRavenDB ضوابط وإجراءات لضمان دقة وموثوقية وأمان مخرجات الذكاء الاصطناعي. فعلى سبيل المثال، شكَّلت الشركة الأولى فريقاً للتحقق من مخرجات الذكاء الاصطناعي، بينما طبقت الثانية سلسلة من إجراءات الموافقة للحد مما يمكن لأنظمة الذكاء الاصطناعي وعده.
أكد هذا الدرس على حقيقة أنه يجب التعامل مع الذكاء الاصطناعي، على الرغم من قوته، كأداة تتطلب ضوابط وإشرافاً وإدارة دقيقة. وتزداد الثقة في أنظمة الذكاء الاصطناعي عندما تحدد الشركات توقعات واضحة، وتضمن الشفافية. في عام 2026، ستحتاج الشركات إلى التعامل مع الذكاء الاصطناعي كقضية ثقة، لضمان أن تكون تطبيقات الذكاء الاصطناعي قائمة على حوكمة مسؤولة.
خطوات صغيرة... لا من برامج طموحة4. حلول بسيطة تتفوق على المشاريع الطموحة. بينما كان قطاع الذكاء الاصطناعي لا يزال مفتوناً بالطموحات الكبيرة كالذكاء الاصطناعي العام (AGI) والمركبات ذاتية القيادة، ركزت الشركات التي حققت تقدماً ملموساً على حل المشكلات الصغيرة اليومية على نطاق واسع.
تمثلت الفكرة الرئيسية لعام 2025 في أن التحسينات التدريجية يمكن أن تؤدي إلى تغييرات جذرية. ففي شركة RavenDB، أتاحت فرص تمكين الموظفين العاديين من تطوير ميزات الذكاء الاصطناعي في غضون أيام - بدلاً من الاعتماد على كبار المهندسين - للشركة، تحقيق تقدم مستمر. وبالمثل، ركزت شركة AutoDS على جعل الموظفين أسرع وأكثر كفاءة، بدلاً من السعي وراء مشروعات مبهرة ولكنها غير قابلة للتوسع.
وكما قال أورين إيني، فإن إصلاح العديد من المشكلات الصغيرة يمكن أن يؤدي إلى تقدم شامل أكبر من محاولة حل تحدٍ واحد هائل. ومثلما أحدثت تقنيات مثل أجهزة الصراف الآلي ونقاط الدفع الذاتي ثورة في المهام اليومية، فإن حل المشكلات الصغيرة المزعجة باستخدام الذكاء الاصطناعي له تأثير تحويلي تراكمي.
لم يكن مفتاح النجاح في عام 2025 هو الإنجازات البراقة، بل التحسينات الحقيقية القابلة للقياس والتي يمكن تطبيقها بفعالية على جميع العمليات.
الاستعداد استباقاً للتطورات5. الاستعداد أهم من رد الفعل. كشف الصعود السريع للذكاء الاصطناعي في عامي 2024 و2025 عن مدى عدم استعداد العديد من القطاعات لهذه التقنية الجديدة. لاحظ ستيف بريرلي، الرئيس التنفيذي لشركة الحوسبة الكمومية «ريفرلين»، كيف سارعت الشركات للتكيف مع أدوات الذكاء الاصطناعي مثل «تشات جي بي تي»، مما أجبرها على مواجهة تحديات تتعلق بالتنظيم، وقابلية التوسع، وجاهزية البيانات، وتدريب القوى العاملة. وكانت خلاصة رأيه أن على القطاعات أن تتعلم استباق التقنيات الناشئة كالذكاء الاصطناعي، بدلاً من انتظار رد الفعل بعد ظهور تأثيرها.
كما برزت الحاجة إلى استعداد أفضل في تنظيم الذكاء الاصطناعي. فمع دخول قوانين الذكاء الاصطناعي حيز التنفيذ في عام 2025، كافحت الشركات لترجمة المتطلبات القانونية إلى تغييرات تشغيلية قابلة للتنفيذ. وكانت المعايير الدولية لحوكمة الذكاء الاصطناعي ضرورية لتعزيز الثقة وضمان سلامة نشر الذكاء الاصطناعي من الناحيتين الأخلاقية والقانونية. وكانت الشركات التي استثمرت في الاستعداد لهذه التحديات مسبقاً أكثر قدرة على التعامل مع التعقيدات التي ظهرت لاحقاً.
نظرة مستقبليةتُبرز الدروس المستفادة في عام 2025 قطاعاً للذكاء الاصطناعي أصبح أكثر رسوخاً في الواقع العملي. تركز الشركات حالياً على بناء بنية تحتية موثوقة، ووضع ضوابط، وحل مشكلات واقعية. مع ذلك، ومع ازدياد اندماج الذكاء الاصطناعي في المجتمع، تبرز تحديات جديدة، لا سيما في مجالي الأمن السيبراني والأخلاقيات، إذ يتزايد استغلال مجرمي الإنترنت لقدرات الذكاء الاصطناعي، مما يستدعي تعزيز إجراءات الحماية وأطر الحوكمة.
في عام 2026، سيتجاوز تطور الذكاء الاصطناعي مرحلة الإعجاب والضجة الأولية، ليصبح أداة موثوقة وشفافة، لا ابتكاراً ثورياً بقدر ما هو شريك هادئ يندمج بسلاسة في العمل اليومي. وسيتمحور مستقبل الذكاء الاصطناعي حول الاتساق والكفاءة والحلول العملية، بدلاً من السعي وراء مشروعات طموحة أو أحلام مثالية.
والشركات الناجحة هي تلك التي تفهم هذا الواقع الجديد وتتكيف معه.
* مجلة «فاست كومباني».
تم ادراج الخبر والعهده على المصدر، الرجاء الكتابة الينا لاي توضبح - برجاء اخبارنا بريديا عن خروقات لحقوق النشر للغير
أخبار متعلقة :