الصين تتعامل مع سلامة الذكاء الاصطناعي بجدية. وعلى الولايات المتحدة أن تفعل المثل.
(SeaPRwire) – “الصين لا تهتم بسلامة الذكاء الاصطناعي – فلماذا نهتم نحن؟” هذا المنطق المعيب يسود السياسة الأمريكية والأوساط التقنية، مما يوفر غطاءً لسباق متهور نحو القاع حيث تسارع واشنطن لتتفوق على بكين في تطوير الذكاء الاصطناعي.
وفقًا لهذا الأساس المنطقي، فإن تنظيم الذكاء الاصطناعي سيخاطر بالتخلف عن الركب في ما يسمى بـ “المنافسة”. وبما أن الصين يفترض أنها لا تعطي الأولوية للسلامة، فإن المسارعة إلى الأمام – حتى بتهور – هي الرهان الأكثر أمانًا على المدى الطويل. هذه الرواية ليست مجرد غير دقيقة؛ بل هي خطيرة.
المفارقة هي أن القادة الصينيين قد يكون لديهم درس لداعمي الذكاء الاصطناعي في الولايات المتحدة: يتطلب التطور الحقيقي سيطرة. كما قال دينغ شيويه شيانغ، كبير مسؤولي التكنولوجيا في الصين، في دافوس في يناير 2025: “إذا لم يكن نظام الكبح تحت السيطرة، فلا يمكنك الضغط على دواسة الوقود بثقة.” بالنسبة للقادة الصينيين، السلامة ليست قيدًا؛ بل هي شرط أساسي.
أصبحت سلامة الذكاء الاصطناعي قضية سياسية في الصين. في أبريل، ترأس الرئيس شي جين بينغ اجتماعًا نادرًا للمكتب السياسي بشأن الذكاء الاصطناعي محذرًا من مخاطر “غير مسبوقة”. تدرج الخطة الخمسية للصين الآن سلامة الذكاء الاصطناعي جنبًا إلى جنب مع الأوبئة والهجمات الإلكترونية. يطلب المنظمون تقييمات السلامة قبل النشر للذكاء الاصطناعي التوليدي وأزالوا مؤخرًا أكثر من 40 منتجًا للذكاء الاصطناعي غير متوافق من السوق. في النصف الأول من هذا العام وحده، وضعت الصين معايير وطنية للذكاء الاصطناعي أكثر مما كانت عليه في السنوات الثلاث السابقة مجتمعة. وفي الوقت نفسه، تجاوز حجم الأوراق التقنية التي تركز على سلامة الذكاء الاصطناعي الحدودي أكثر من الضعف على مدى العام الماضي في الصين.
لكن آخر مرة التقى فيها قادة الولايات المتحدة والصين لمناقشة مخاطر الذكاء الاصطناعي كانت في نوفمبر 2023. في سبتمبر، ألمح مسؤولون من كلا البلدين إلى استئناف المحادثات “في الوقت المناسب”. لكن لم يعقد أي اجتماع في ظل إدارة بايدن، وهناك قدر أكبر من عدم اليقين بشأن ما إذا كانت إدارة ترامب ستلتقط العصا. هذه فرصة ضائعة.
الصين منفتحة على التعاون. في مايو 2025، استضافت حوارًا ثنائيًا حول الذكاء الاصطناعي مع المملكة المتحدة. ساهم علماء صينيون مرموقون في جهود دولية كبرى، مثل إعلان بلتشلي المدعوم من 33 دولة ومنظمة حكومية دولية (بما في ذلك الولايات المتحدة والصين) وفي تحديد الأولويات العالمية لأبحاث سلامة الذكاء الاصطناعي.
الخطوة الأولى الضرورية هي إحياء الحوار الأمريكي الصيني المعطل بشأن مخاطر الذكاء الاصطناعي. بدون قناة حكومية إلى حكومية عاملة، تظل احتمالات التنسيق ضئيلة. أشارت الصين إلى أنها منفتحة على مواصلة المحادثة في نهاية إدارة بايدن. لقد أسفر بالفعل عن اتفاق متواضع ولكنه مهم رمزيًا: أكد الجانبان أن اتخاذ القرارات البشرية يجب أن يظل مسيطرًا على الأسلحة النووية. هذه القناة لديها القدرة على إحراز مزيد من التقدم.
بالمضي قدمًا، يجب أن تركز المناقشات على التهديدات المشتركة عالية المخاطر. ضع في اعتبارك الكشف الأخير لـ OpenAI عن أحدث ChatGPT Agent الخاص بها باعتباره تجاوز عتبة “القدرة العالية” في المجال البيولوجي بموجب سياسات استخدامها الخاصة. هذا يعني أن الوكيل يمكنه، من حيث المبدأ على الأقل، تزويد المستخدمين بإرشادات ذات مغزى قد تسهل إنشاء تهديدات بيولوجية خطيرة. لكل من واشنطن وبكين مصلحة راسخة في منع الجهات الفاعلة من غير الدول من تسليح مثل هذه الأدوات. لن يحترم هجوم بيولوجي بمساعدة الذكاء الاصطناعي الحدود الوطنية. بالإضافة إلى ذلك، أعرب كبار الخبراء والفائزون بجائزة تورينج من الغرب والصين عن مخاوفهم من أن أنظمة الذكاء الاصطناعي ذات الأغراض العامة المتقدمة قد تعمل خارج نطاق السيطرة البشرية، مما يشكل مخاطر كارثية ووجودية.
لقد أقرت كلتا الحكومتين بالفعل ببعض هذه المخاطر. يحذر التقرير الاستراتيجي للأمن القومي لإدارة الرئيس ترامب من أن الذكاء الاصطناعي قد “يشكل مخاطر أمنية قومية جديدة في المستقبل القريب”، وتحديدًا في الأمن السيبراني وفي المجالات الكيميائية والبيولوجية والإشعاعية والنووية (CBRN). وبالمثل، في سبتمبر من العام الماضي، شددت هيئة معايير أمن الذكاء الاصطناعي الرئيسية في الصين على الحاجة إلى معايير سلامة الذكاء الاصطناعي التي تعالج الأمن السيبراني و CBRN ومخاطر فقدان السيطرة.
من هناك، يمكن للجانبين اتخاذ خطوات عملية لبناء ثقة تقنية بين منظمات المعايير الرائدة – مثل اللجنة الفنية الوطنية لتوحيد معلومات الأمن (TC260) التابعة للصين والمعهد الوطني الأمريكي للمعايير والتكنولوجيا (NIST).
بالإضافة إلى ذلك، يمكن لسلطات الصناعة، مثل AI Industry Alliance of China (AIIA) و Frontier Model Forum في الولايات المتحدة، تبادل أفضل الممارسات بشأن أطر إدارة المخاطر. وضعت AIIA “اتفاقية سلوك ذاتي” وقع عليها معظم المطورين الصينيين الرائدين. تم نشر ورقة بيضاء صينية جديدة، تركز بشكل كامل على المخاطر الحدودية بما في ذلك سوء الاستخدام السيبراني، وسوء الاستخدام البيولوجي، والإقناع والتلاعب على نطاق واسع، وسيناريوهات فقدان السيطرة، خلال مؤتمر WAIC ويمكن أن تساعد كلا البلدين على التوافق.
مع تعمق الثقة، يمكن للحكومات والمختبرات الرائدة البدء في تبادل طرق ونتائج تقييم السلامة للنماذج الأكثر تقدمًا. تدعو الورقة البيضاء، التي تم الكشف عنها في WAIC، صراحةً إلى إنشاء “منصات تقييم سلامة معترف بها بشكل متبادل”. كما أوضح أحد المؤسسين المشاركين في Anthropic، فإن تقييمًا صينيًا حديثًا لسلامة الذكاء الاصطناعي له نتائج مماثلة مع الغرب: تشكل أنظمة الذكاء الاصطناعي الحدودية بعض المخاطر غير التافهة لـ CBRN، وبدأت تظهر علامات تحذير مبكرة على التكاثر الذاتي والخداع المستقلين. إن الفهم المشترك لنقاط ضعف النموذج – وكيف يتم اختبار نقاط الضعف هذه – سيضع الأساس لتعاون أوسع في مجال السلامة.
أخيرًا، يمكن للجانبين إنشاء قنوات للإبلاغ عن الحوادث وبروتوكولات الاستجابة للطوارئ. في حالة وقوع حادث أو سوء استخدام يتعلق بالذكاء الاصطناعي، سيكون التواصل السريع والشفاف ضروريًا. يمكن لمعادل حديث لـ “الخطوط الساخنة” بين كبار مسؤولي الذكاء الاصطناعي في كلا البلدين ضمان تنبيهات في الوقت الفعلي عندما تنتهك النماذج عتبات السلامة أو تتصرف بشكل غير متوقع. في أبريل، شدد الرئيس شي جين بينغ على الحاجة إلى “المراقبة والإنذار المبكر بالمخاطر والاستجابة للطوارئ” في مجال الذكاء الاصطناعي. بعد أي حادث خطير، يجب أن تكون هناك خطة متفق عليها مسبقًا لكيفية الرد.
لن يكون الاشتباك سهلاً – العقبات السياسية والتقنية أمر لا مفر منه. لكن مخاطر الذكاء الاصطناعي عالمية – وكذلك يجب أن تكون استجابة الحوكمة. بدلاً من استخدام الصين كمبرر للتقاعس المحلي عن تنظيم الذكاء الاصطناعي، يجب على صانعي السياسات وقادة الصناعة الأمريكيين المشاركة بشكل مباشر. مخاطر الذكاء الاصطناعي لن تنتظر.
يتم توفير المقال من قبل مزود محتوى خارجي. لا تقدم SeaPRwire (https://www.seaprwire.com/) أي ضمانات أو تصريحات فيما يتعلق بذلك.
القطاعات: العنوان الرئيسي، الأخبار اليومية
يوفر SeaPRwire تداول بيانات صحفية في الوقت الفعلي للشركات والمؤسسات، مع الوصول إلى أكثر من 6500 متجر إعلامي و 86000 محرر وصحفي، و3.5 مليون سطح مكتب احترافي في 90 دولة. يدعم SeaPRwire توزيع البيانات الصحفية باللغات الإنجليزية والكورية واليابانية والعربية والصينية المبسطة والصينية التقليدية والفيتنامية والتايلندية والإندونيسية والملايو والألمانية والروسية والفرنسية والإسبانية والبرتغالية ولغات أخرى.
“`