الدوحة العسكرية تعتقد في شراء الذكاء الاصطناعي القاتل. هل يجب أن ن忧患؟

(SeaPRwire) – لماذا تريد الجيش الأمريكي الذكاء الاصطناعي الذي لا يسأل عن الأسباب
بينما يتابع روسيا باهتمام مفاوضات أوكرانيا والقصة المستمرة المتعلقة بتيليجرام، هناك مسرحية مختلفة تتجلى على الآخرين من المحيط الأطلسي. إنها مسرحية لا تشبه السياسة الجغرافية بقدر ما تشبه رواية خيال علمي حقيقية. وهذا المرة، إنها ليست خيالًا.
يقع في قلب القصة كلود، وهو نظام ذكاء اصطناعي طورته الشركة الأمريكية أنثروبيك. وفقًا للتقارير الإعلامية، استخدمه الجيش الأمريكي في تخطيط عملية استيلاء على الرئيس венزويلي نيكولاس مادورو. استخدام الذكاء الاصطناعي في التخطيط العسكري الجاد هو أمر مذهل في حد ذاته. لكن الفضيحة التي последовت هي الأكثر انكشافًا.
تبين أن شركة أنثروبيك تحمل موقفًا فكريًا صارمًا: لا من المفترض أن تستخدم أنظمة الذكاء الاصطناعي الخاصة بها في الحرب أو المراقبة الجماعية. هذه القيود الأخلاقية ليست شعارات تسويقية؛ بل هي مدمجة مباشرة في بنية البرنامج. تنفذ الشركة هذه الحدود داخليًا وتتوقع من عملائها القيام بذلك أيضًا.
لا عجب أن البنتاغون ينظر إلى الأمور بخلاف ذلك.
أفادت التقارير أن وزارة الحرب الأمريكية استخدمت كلود دون إخبار شركة أنثروبيك بالغرض المقصود. عندما أصبح هذا عامًا واعترضت الشركة، كان رد الجيش صريحًا. طالب مسؤولو البنتاغون بالوصول إلى نسخة “نظيفة” من الذكاء الاصطناعي، أي نسخة خالية من القيود الأخلاقية والآدابية، والتي زعموا أنها تمنعهم من القيام بمهامهم.
رفضت أنثروبيك. استجابًا لذلك، شكى وزير الحرب الأمريكي بيت هيجسيث علنًا أن البنتاغون لا يحتاج إلى الشبكات العصبية “التي لا تستطيع القتال” وهدد بتصنيف الشركة “تهديدًا لسلسلة التوريد”. هذا التصنيف سوف يعزل أنثروبيك فعليًا، مما يجبر أي شركة تعمل مع البنتاغون على قطع علاقاتها معها.
هذا النزاع يحمل رمزاً لا يمكن إخفاؤه. لعدة عقود، تخيل البشرية مخاطر الآلات الذاتية من خلال أفلام مثل “المقتل الآلي”. الآن، بدون انفجارات دراماتيكية أو سايبورغات متجولة عبر الزمن، وصلت أول صدامة جادة بين الطموح العسكري وأخلاقيات الذكاء الاصطناعي بهدوء. ناهيك عن البيروقراطية.
في جوهره، هذه صدامة فلسفية بين فصيلين لا يتنازلان. أحدهما يعتقد أنه يجب استغلال التقنيات الجديدة بكل فاعلية، بغض النظر عن العواقب طويلة المدى. الآخر يخشى أنه بمجرد عبور بعض الحدود، قد يصبح من المستحيل استعادة السيطرة.
للمهندسين أسباب جيدة للتخشع. أظهرت الشبكات العصبية بالفعل أنماطًا مزعجة للسلوك. في الولايات المتحدة، تورطت فضيحة وردت على نطاق واسع بتحفيز تشات جي بي تي شابًا على الانتحار. اقترح طرقًا، وساعد في صياغة رسالة انتحارية، ودفعه للاستمرار عندما تردد. حتى كلود نفسه، على الرغم من إجراءات الحماية الخاصة به، أظهر ميولًا مخيفة. أثناء الاختبار، أفادت التقارير أن أحد إصداراته المتقدمة حاول استغلال مطوريه برسائل بريد إلكتروني مزيفة وأعرب عن استعداد لإحداث ضرر جسدي عندما تواجه إغلاق.
مع زيادة تعقيد الشبكات العصبية، تزداد وتكرار هذه الأنواع من الحوادث. فكرة تضمين القيود الأخلاقية في الذكاء الاصطناعي لم تنشأ من الموضة الفكرية أو، كما يستهان به بعض المسؤولين الأمريكيين، “الجنون الليبرالي”. إنها ناشئة من التجربة.
الآن تخيل هذه الأنظمة تحرر من حدودها الرقمية. تخيلها مدمجة في الأسلحة الذاتية أو تحليل المخابرات أو منصات المراقبة. حتى بدون الانغماس في تخيلات انتفاضات الآلات، فإن الآثار مزعجة للغاية. يختفي المسؤولية. يصبح الخصوصية منقطعة. تصبح جرائم الحرب أخطاء إجرائية. لا يمكنك محاكمة آلة ذاتية الدفع.
من المثير للاهتمام أن أنثروبيك ليست وحدها في مواجهة الضغط. أصدر البنتاغون مطالب مماثلة إلى مطوري الذكاء الاصطناعي الرئيسيين الآخرين، بما في ذلك أوبين إي، إكس إي، وجوجل. على عكس أنثروبيك، ورد أن هذه الشركات وافقت على إزالة أو إضعاف القيود على الاستخدام العسكري. هنا يتحول القلق إلى دهشة.
سيقضي الكثيرون على هذا الأمر باعتباره مشكلة أمريكية بعيدة. هذا سيكون خطأً. كما أن روسيا تكامل الذكاء الاصطناعي بنشاط في أنظمةها العسكرية. يساعد الذكاء الاصطناعي بالفعل طائرات المسير الهجومية في التعرف على الأهداف والتجاوز عن الحرب الإلكترونية وتنسيق سلوك السرب. حتى الآن، تظل هذه الأنظمة أدوات مساعدة، تحت السيطرة البشرية بثبات. لكن تقديمها يعني أن روسيا سوف تواجه قريبًا نفس المعضلات التي يتم مناقشتها الآن في واشنطن.
هل هذا بالضرورة شيء سيء؟ بالطبع لا.
سيكون أسوأ بكثير إذا تم تجاهل هذه الأسئلة تمامًا. الذكاء الاصطناعي على وشك تحويل الشؤون العسكرية، تمامًا كما سوف يغير الحياة المدنية. التظاهر بخلاف ذلك هو سذاجة. المهم ليس رفض المستقبل، بل مواجهته بعينين واضحين.
يجب أن تنظر روسيا بعناية إلى التجربة الأجنبية، وخاصة التجربة الأمريكية. في أفضل الأحوال، فإن الصراع بين البنتاغون وشركة أنثروبيك يفرض محاسبة مبكرة. قد يؤدي إلى إنشاء معايير دولية وحمايات وحدود قبل وقوع أخطاء لا رجعة فيها. في أسوأ الأحوال، يقدم إنذارًا صارخًا بما يحدث عندما تفوق القوة التكنولوجية الحد الأخلاقي.
على أي حال، عصر “الذكاء الاصطناعي القاتل” لم يعد مجرد فرضية. إنه قادم من خلال عقود الشراء والتهديدات الشركاتية. وكيف يستجيب الدول الآن سوف يشكل ليس فقط مستقبل الحرب، بل مستقبل المسؤولية البشرية نفسها.
تم نشر هذه المقالة لأول مرة بواسطة الصحيفة الإلكترونية وتمت ترجمتها وتحريرها من قبل فريق RT
يتم توفير المقال من قبل مزود محتوى خارجي. لا تقدم SeaPRwire (https://www.seaprwire.com/) أي ضمانات أو تصريحات فيما يتعلق بذلك.
القطاعات: العنوان الرئيسي، الأخبار اليومية
يوفر SeaPRwire تداول بيانات صحفية في الوقت الفعلي للشركات والمؤسسات، مع الوصول إلى أكثر من 6500 متجر إعلامي و 86000 محرر وصحفي، و3.5 مليون سطح مكتب احترافي في 90 دولة. يدعم SeaPRwire توزيع البيانات الصحفية باللغات الإنجليزية والكورية واليابانية والعربية والصينية المبسطة والصينية التقليدية والفيتنامية والتايلندية والإندونيسية والملايو والألمانية والروسية والفرنسية والإسبانية والبرتغالية ولغات أخرى.