أخبار عاجلة
قصف إسرائيلي يستهدف مناطق في جنوب لبنان -

لماذا تريدك شركات التكنولوجيا أن تخاف منها؟

لماذا تريدك شركات التكنولوجيا أن تخاف منها؟
لماذا تريدك شركات التكنولوجيا أن تخاف منها؟
رسم إيضاحي لأيادي تمسك بلوحة برمجة إلكترونية وسهم يدل على علامة خطر

الجمعة 1 مايو 2026 04:50 صباحاً صدر الصورة، Serenity Strull/ BBC/ Getty Images

Article Information

صنعوه. يخافون منه. ويبيعونه رغم ذلك.

أوقفني إن كنت سمعت هذه القصة من قبل: شركة تقنية تقول إنها طورت نموذج ذكاء اصطناعي جديداً، قوياً إلى حد يثير الخوف. ويبدو أنه أخطر من أن يُطرح للعالم، لأن العواقب ستكون كارثية. لحسن حظنا، سيبقونه مغلقاً في الوقت الحالي. أرادوا فقط أن نعرف ذلك.

هذا بالضبط ما تقوله لنا شركة الذكاء الاصطناعي "أنثروبيك" عن أحدث نماذجها، "كلود ميثوس". تقول الشركة إن قدرة ميثوس على العثور على ثغرات في الأمن السيبراني تتجاوز بكثير قدرات الخبراء البشر، وإن وصول تقنية مشابهة إلى الأيدي الخطأ قد تكون له عواقب تغيّر العالم.

وكتبت "أنثروبيك" في منشور على مدونتها مطلع أبريل/نيسان: "قد تكون التداعيات، على الاقتصادات والسلامة العامة والأمن القومي، خطيرة". وذهب بعض المعلّقين المتحمسين إلى التحذير من أن "ميثوس" قد يجبرك قريباً على استبدال كل جهاز تقني في حياتك، حتى جهاز الميكروويف المتصل بالواي فاي، اتقاءً لهذا الجنون الرقمي.

يشكك بعض خبراء الأمن في هذه المزاعم، لكن لنترك ذلك جانباً الآن. فالأمر ليس جديداً. إذ يطلق مسؤولون تنفيذيون في كبرى شركات الذكاء الاصطناعي، بانتظام، تحذيرات من أن منتجات صناعتهم قد تدمّر البشرية.

فلماذا تريد شركات الذكاء الاصطناعي أن نخاف منها؟

إنها طريقة غريبة لكي تتحدث أي شركة عن عملها. لا نسمع مثلاً ماكدونالدز تعلن أنها ابتكرت شطيرة لذيذة إلى حد مرعب، بحيث يصبح من غير الأخلاقي شيّها وتقديمها للناس.

إليكم إحدى النظريات. فبحسب منتقدين، تستفيد شركات الذكاء الاصطناعي من إبقائنا مشدودين إلى سيناريوهات نهاية العالم، لأن ذلك يصرف الانتباه عن الأضرار الواقعية التي تتسبب بها بالفعل. ويقول قادة التكنولوجيا إنهم لا يفعلون سوى تحذيرنا من مستقبل لا مفر منه، وإن السلامة أولوية قصوى، الآن ولاحقاً. لكن آخرين يرون أن ما نشهده في الحقيقة هو ترويج للخوف، يضخّم قدرات هذه التكنولوجيا ويساعد في رفع أسعار الأسهم. كما يعزز سردية مفادها أن على الجهات التنظيمية أن تقف جانباً، لأن شركات الذكاء الاصطناعي وحدها قادرة على ردع الأشرار وبناء هذه التكنولوجيا بمسؤولية.

وتقول شانون فالور، أستاذة أخلاقيات البيانات والذكاء الاصطناعي في جامعة إدنبرة في بريطانيا: "إذا تم تصوير هذه التقنيات كأن خطرها شبه خارق للطبيعة، فإن ذلك يجعلنا نشعر بأننا عاجزون وبأننا الطرف الأضعف. وكأن الجهة الوحيدة التي يمكن أن نلجأ إليها هي الشركات نفسها".

ليوقفني أحد

قال لي متحدث باسم "أنثروبيك" إن الشركة كانت واضحة في موقفها من هذه القضايا. وأرسل إليّ روابط لتدوينات نشرتها منظمات أخرى تؤيد ما تقوله الشركة عن القدرات السيبرانية لنموذج "ميثوس"، لكنه لم يرد على النقاط المطروحة في هذا المقال، باستثناء تعليق واحد سأورده لاحقاً.

وليست هذه المرة الأولى التي يعمل فيها داريو أمودي، رئيس "أنثروبيك"، على أداة تصفها الشركة التي يعمل لديها بأنها أخطر من أن تُطرح للجمهور. ففي عام 2019، حين كان أمودي مسؤولاً تنفيذياً في "أوبن إيه آي"، أعلنت الشركة عن نموذج "جي بي تي-2". وقال هو ومسؤولون آخرون فيها إنهم لا يستطيعون طرحه ببساطة، بسبب "مخاوف من الاستخدامات الخبيثة للتكنولوجيا".

وكان ذلك النموذج أقل تطوراً بكثير من "تشات جي بي تي". ومع ذلك، طرحته الشركة بعد أشهر. ونشر سام ألتمان، الرئيس التنفيذي لـ"أوبن إيه آي"، تدوينة قال فيها إن الشركة تتعامل مع عدم اليقين كجزء من عملها، مقراً بأن المخاوف بشأن "جي بي تي-2" كانت "في غير محلها".

وانتقد ألتمان "التسويق القائم على الخوف" لدى "أنثروبيك"، في مقابلة حديثة ضمن برنامج بودكاست. لكن وصفة ألتمان الخاصة من نوع "لقد صنعتُ وحشاً" ليست جديدة.

ففي عام 2015، قال ألتمان: "من المرجح جداً أن يؤدي الذكاء الاصطناعي إلى نهاية العالم، لكن في هذه الأثناء ستكون هناك شركات عظيمة". وبعد سنوات، قال ألتمان إنه لم يعد ينام ليلاً وهو يتساءل عما إذا كان "قد فعل شيئاً بالغ السوء بإطلاق تشات جي بي تي". يا ليت أحداً حذّره.

رسم توضيحي لإشارات الخطر الصادرة على شاشة كمبيوتر ترفعها ايدي بشرية

صدر الصورة، Serenity Strull/ BBC/ Getty Images

التعليق على الصورة، تقول شركات الذكاء الاصطناعي إن تقنيتها قد تنهي العالم. كما أنها تريدك أن تشتريها

وقع مئات من قادة قطاع التكنولوجيا، بينهم سام ألتمان وداريو أمودي وبيل غيتس وديميس هاسابيس، الرئيس التنفيذي لـ"غوغل ديب مايند"، على بيان مقتضب في عام 2023 جاء فيه: "ينبغي أن يكون الحد من خطر انقراض البشرية بسبب الذكاء الاصطناعي أولوية عالمية، إلى جانب مخاطر أخرى على مستوى المجتمع كله، مثل الأوبئة والحرب النووية".

وفي العام نفسه، وقّع عدد من كبار رجال التكنولوجيا، بينهم إيلون ماسك، رسالة تدعو إلى وقف تطوير نماذج الذكاء الاصطناعي المتقدمة لمدة ستة أشهر. وبعد أقل من ستة أشهر، أعلن ماسك تأسيس شركته الجديدة للذكاء الاصطناعي، "إكس إيه آي".

وتقول إميلي إم بندر، أستاذة اللسانيات الحاسوبية ومعالجة اللغة الطبيعية في جامعة واشنطن، والمؤلفة المشاركة لكتاب The AI Con، إن الأمر "ليس سوى جزء من نمط متكرر من ادعاءات القوة غير المدعومة بأدلة".

وترى بندر أن هذا لا يقتصر على "أوبن إيه آي" و"أنثروبيك"، بل يمثل الموقف المعتاد في صناعة الذكاء الاصطناعي كلها. وتضيف: "كأنهم يقولون: انظروا هنا، ولا تلتفتوا إلى الدمار البيئي، واستغلال العمالة، وكل الأنظمة التي نساهم في تدميرها داخل المجتمع. ما علينا سوى القلق من ألّا يتحول هذا الشيء إلى النسخة الشريرة التي تدمر البشرية".

وسألت "أوبن إيه آي" عن كل ذلك. فأرسل متحدث باسمها تدوينة حديثة لألتمان كتب فيها أن الشركة "ستقاوم احتمال أن تؤدي هذه التكنولوجيا إلى تركيز السلطة في أيدي قلة"، مضيفاً أن "القرارات الأساسية بشأن الذكاء الاصطناعي ينبغي أن تُتخذ عبر عمليات ديمقراطية وبمبادئ قائمة على المساواة، لا أن تنفرد بها مختبرات الذكاء الاصطناعي".

هل ميثوس سيئ لهذه الدرجة؟

تقول "أنثروبيك" إن نموذجها الجديد عثر بالفعل على آلاف الثغرات "العالية الخطورة" في أنحاء المشهد التقني، وبمستوى يتجاوز قدرات الخبراء البشر. كما أعلنت عن شراكة جديدة مع أكثر من 40 شركة ومجموعة، في "محاولة عاجلة" لسدّ الثغرات قبل أن يستغلها القراصنة. وقال متحدث باسم الشركة إن "أنثروبيك" تعمّدت إقامة شراكات مع منظمات للعمل على ترقيع أنظمة الحوسبة الأساسية، التي تمثل "النصيب الأكبر" من المشكلة.

لكن هذه المزاعم تثير شكوكاً كبيرة، ولم تبدي هايدي خلاف، كبيرة علماء الذكاء الاصطناعي في معهد "إيه آي ناو"، اقتناعاً بها. فقد أمضت خلاف مسيرتها المهنية في بناء وتدقيق النوع نفسه من أدوات تحليل الشيفرات البرمجية التي تقول "أنثروبيك" إن نموذجها تجاوزها. كما عملت في مجال السلامة الرقمية في المنشآت النووية.

وتقول خلاف إن أبرز مؤشر مقلق كان غياب معدلات "النتائج الإيجابية الكاذبة"، وهو مقياس معتمد في القطاع يوضح عدد المرات التي تُبلغ فيها أداة أمنية عن مشكلة لا وجود لها فعلياً. وتضيف: "هذا ليس مقياساً مجهولاً. بل يمكن القول إنه أكبر مؤشر على مدى فائدة أداتك". ولم تذكر "أنثروبيك" هذا المقياس، كما تجنبت الإجابة عنه عندما طلبتُ تعليقها. ولم تختبر "أنثروبيك" نموذج ميثوس أيضاً في مواجهة الأدوات الحالية التي يعتمد عليها مهندسو الأمن منذ عقود.

كما ظهرت مزاعم بأن "أنثروبيك" ربما أخّرت طرح ميثوس على نطاق واسع لأنها لم تكن قادرة على تحمل كلفة القدرة الحاسوبية اللازمة. ولم ترد الشركة أيضاً عندما سألتها عن ذلك.

ولا يعني أي من هذا أن التهديد وهمي. تقول خلاف: "قد يكون ميثوس قادراً فعلاً". فأدوات الذكاء الاصطناعي مناسبة بالفعل لمسح قواعد برمجية ضخمة، كما أن العثور الآلي على الثغرات الأمنية خطر حقيقي وملحّ. لكن خلاف تشكك في مزاعم "أنثروبيك" ما لم تتمكن الشركة من إثباتها. وتقول: "أعتقد أن هناك الكثير من الثغرات في هذه السردية التي تقول إن ميثوس فائق القدرة، وإننا لا نستطيع طرحه".

هل الأمر بهذه الخطورة؟

الوقوف في وجه نهاية العالم هو، أصلاً، السبب الذي تقول "أوبن إيه آي" و"أنثروبيك" إنهما تأسستا من أجله. فقد أنشئت "أوبن إيه آي" كمؤسسة غير ربحية، متعهدة ببناء الذكاء الاصطناعي بطريقة آمنة، قبل أن تسبقها إليه عمالقة التكنولوجيا التي تصوَّر على أنها أقل مسؤولية، مثل "غوغل" و"ميتا".

ولاحقاً، غادرت مجموعة منشقة "أوبن إيه آي" لتؤسس "أنثروبيك"، قائلة إن الشركة السابقة لم تكن ملتزمة بما يكفي بمعايير السلامة. واليوم، تعمل المؤسستان كلتاهما على التحول إلى شركتين مدرجتين في البورصة وبيع أسهمهما في السوق.

وتقول شانون فالور: "إذا أردت أن تفهم كيف ستتصرف منظمة ما، ولا سيما شركة، فانظر إلى الحوافز التي تحركها".

فقد تخلت "غوغل" عن خطوطها الحمراء بشأن تطوير أسلحة تعمل بالذكاء الاصطناعي. وخاضت "أوبن إيه آي" معركة قانونية للتخلص من وضعها كمؤسسة غير ربحية. أما "أنثروبيك"، فتخلت عن سياستها الأبرز، التي كانت تقضي بعدم تدريب أي نموذج ذكاء اصطناعي إذا لم تستطع الشركة ضمان تدابير سلامة كافية.

وتقول فالور: "لن أراهن على أن أياً من هذه الشركات سيتخلى عن فرصة الهيمنة على السوق كي يبقى في موقع الطرف الخيّر".

وفي الوقت نفسه، يتزايد الدفع نحو إدخال الذكاء الاصطناعي في الرعاية الصحية، رغم مخاوف جدية من أخطاء التشخيص. وقد تتسبب مراكز البيانات العاملة بالغاز في انبعاثات من الغازات الدفيئة تفوق ما تطلقه دول بأكملها. وتفيد تقارير بأن الذكاء الاصطناعي يدفع أعداداً كبيرة من الأشخاص الضعفاء إلى أزمات نفسية حادة. وتشير مجموعة متنامية من الأبحاث إلى صلة محتملة بين استخدام الذكاء الاصطناعي والتراجع المعرفي. أما التزييف العميق، فقد تجاوز نقطة اللاعودة. لم أستطع حتى إقناع عمتي بأنني لست روبوتاً.

وتقول شركات الذكاء الاصطناعي إنها تأخذ هذه القضايا على محمل الجد. فقد أرسلت لي "أوبن إيه آي" روابط توضح موقفها من الصحة النفسية، ودقة الذكاء الاصطناعي، والاحتيال وعمليات الخداع. ويقول ألتمان إن الشركة ملتزمة بمعالجة المشكلات في كل مرحلة من مراحل تطوير الذكاء الاصطناعي.

لكن، بحسب فالور، هناك سبب يجعل هذه الشركات لا تطلق جرس الإنذار إلا عندما يكون الحديث عن نهاية العالم. فإذا كان الذكاء الاصطناعي قد يدمر المجتمع، بدت كل هذه المشكلات الأخرى أقل شأناً بكثير.

وتضيف: "لقد نجحت هذه الاستراتيجية. فالحديث عن منتجاتهم كما لو أنها قد تنهي العالم لم يضر بهذه الشركات، ولم يحد من قوتها. بل على العكس، يجعل الناس يشعرون بأن الجهة الوحيدة التي يمكن أن يلجأوا إليها طلباً للحماية هي الشركات نفسها".

شياطين أم مخلصون؟

في الوقت نفسه تقريباً، لا يكتفي بعض الذين يحذرون من الدمار بالتخويف، بل يقدّمون وعوداً بالخلاص أيضاً. ففي مقال نشرعام 2024، توقّع ألتمان أن تصبح "الإنجازات المذهلة، من إصلاح المناخ، إلى إنشاء مستعمرة فضائية، واكتشاف قوانين الفيزياء كاملة، أموراً عادية في نهاية المطاف". أما أمودي، فوعد بـ"بلد من العباقرة داخل مركز بيانات".

وترى فالور أن اليوتوبيا ونهاية العالم تنتميان إلى المنطق نفسه. ففي الحالتين، كما تقول، تقدّم التكنولوجيا بحجم هائل وأسطوري، إلى درجة تبدو معها أدوات مثل التنظيم والحوكمة والقانون عاجزة عن التعامل معها. وتضيف: "يدفع ذلك الناس إلى الاعتقاد بأن لا شيء بوسعهم فعله سوى الجلوس والانتظار: هل ستتحول هذه التقنيات إلى شياطين تنهي الحضارة، أم إلى مخلّصين يمنحوننا المدينة الفاضلة؟". حتى اسم "ميثوس" نفسه يبدو كأنه اختير لإثارة رهبة شبه دينية.

لكن هذه ليست آلهة، كما تقول فالور، بل منتجات تصنعها شركات بهدف الربح. وقد سبق أن أخضعنا للتنظيم تقنيات أشد خطراً بكثير من روبوتات الدردشة. وتقول: "مع كل تقنية أخرى، حتى الطاقة النووية والأسلحة البيولوجية، لم نسمح لمثل هذه السرديات بأن تقنعنا بأننا أمام قوى تفوق السيطرة البشرية". وتضيف: "لا شيء في هذه التقنيات يجعلها عصية على الحوكمة، إلا إذا اخترنا نحن أن نتركها بلا حوكمة".

ولنكن واضحين: من الناحية النظرية، قد يسيطر الذكاء الاصطناعي على العالم. لست عرّافاً. لكن اسأل نفسك: ألا تشبه هذه الفكرة قصصاً أخرى سمعناها من وادي السيليكون من قبل؟

ألم يكن يفترض بنا، بحسب الوعود، أن نعيش الآن في ميتافيرس مارك زوكربيرغ؟ ألم تكن بيتكوين ستستبدل كل عملات العالم؟ ألا تذكرون كيف قيل لنا، في العقد الثاني من الألفية، إن وسائل التواصل الاجتماعي ستنقذ الديمقراطية؟ ربما يحدث كل ذلك يوماً ما. وربما لا.

تم ادراج الخبر والعهده على المصدر، الرجاء الكتابة الينا لاي توضبح - برجاء اخبارنا بريديا عن خروقات لحقوق النشر للغير

السابق "رواتب مجزئة.. وحماية محدودة"... كيف يعمل عمال توصيل الطلبات في مصر؟
التالى اتهام عيسى سليمان بمحاولة قتل رجلين يهوديين في غولدرز غرين بلندن، وطهران تنفي مسؤوليتها

 
c 1976-2025 Arab News 24 Int'l - Canada: كافة حقوق الموقع والتصميم محفوظة لـ أخبار العرب-كندا
الآراء المنشورة في هذا الموقع، لا تعبر بالضرورة علي آراء الناشرأو محرري الموقع ولكن تعبر عن رأي كاتبيها
Opinion in this site does not reflect the opinion of the Publisher/ or the Editors, but reflects the opinion of its authors.
This website is Educational and Not for Profit to inform & educate the Arab Community in Canada & USA
This Website conforms to all Canadian Laws
Copyrights infringements: The news published here are feeds from different media, if there is any concern,
please contact us: arabnews AT yahoo.com and we will remove, rectify or address the matter.