تقرير بتكليف حكومي: يجب على الولايات المتحدة التحرك “بشكل حاسم” لتجنب تهديد “مستوى الانقراض” من الذكاء الاصطناعي
(SeaPRwire) – يجب على الحكومة الأمريكية التحرك “بسرعة وحزم” لتفادي مخاطر الأمن القومي الكبيرة الناشئة عن الذكاء الاصطناعي (AI) التي قد تتسبب في أسوأ الحالات في “تهديد انقراض البشرية”، وفقًا لتقرير حكومي صدر الاثنين.
“تطوير الذكاء الاصطناعي الحديث يشكل مخاطر عاجلة ومتزايدة للأمن القومي”، وفقًا للتقرير الذي حصلت عليه TIME مسبقًا قبل نشره، “وللذكاء الاصطناعي العام المتقدم (AGI) القدرة على زعزعة استقرار الأمن العالمي بطريقة تذكر بتقديم الأسلحة النووية”. والـ AGI هو تقنية افتراضية قد تؤدي معظم المهام على مستوى الإنسان أو فوقه. لا توجد مثل هذه الأنظمة حاليًا، لكن مختبرات الذكاء الاصطناعي الرائدة تعمل على تحقيقها وقد تتحقق خلال الخمس سنوات القادمة أو أقل.
عمل المؤلفون الثلاثة للتقرير عليه لأكثر من عام، حيث تحدثوا مع أكثر من 200 موظف حكومي وخبير وعامل في شركات الذكاء الاصطناعي الرائدة – مثل ، ، و – كجزء من بحثهم. وتشير حسابات بعض تلك المحادثات إلى أن العديد من عاملي سلامة الذكاء الاصطناعي داخل المختبرات الرائدة يشعرون بالقلق بشأن الحوافز غير المتوازنة التي تقود اتخاذ القرارات من قبل المدراء الذين يسيطرون على شركاتهم.
التقرير النهائي، المعنون “خطة عمل لزيادة سلامة وأمن الذكاء الاصطناعي المتقدم”، يوصي بمجموعة من الإجراءات السياسية الشاملة وغير المسبوقة التي إذا تم تنفيذها فستعيد هيكلة صناعة الذكاء الاصطناعي. يجب على الكونغرس جعل تدريب نماذج الذكاء الاصطناعي باستخدام أكثر من مستوى معين من قدرة الحوسبة غير قانوني، وفقًا للتوصية. ويجب تحديد هذا الحد من قبل وكالة فيدرالية جديدة للذكاء الاصطناعي، على الرغم من أن التقرير يقترح أن تضع الوكالة الحد قليلاً فوق مستويات قدرة الحوسبة المستخدمة حاليًا لتدريب نماذج متقدمة مثل GPT-4 لشركة OpenAI و Gemini لشركة جوجل. كما يجب على الوكالة الجديدة المطلوبة أن تتطلب الحصول على موافقة حكومية من شركات الذكاء الاصطناعي في مقدمة الصناعة لتدريب ونشر نماذج جديدة أعلى من حد أدنى أقل، وفقًا للتقرير. كما يجب على السلطات “الاستعجال” في النظر في حظر نشر “أوزان” أو التركيب الداخلي لنماذج الذكاء الاصطناعي القوية، على سبيل المثال تحت رخص مفتوحة المصدر، مع إمكانية فرض عقوبات بالسجن على المخالفات، وفقًا للتقرير. كما يجب على الحكومة أن تشدد أكثر على الرقابة على تصنيع وتصدير أشباه الموصلات للذكاء الاصطناعي، وتوجيه التمويل الفيدرالي نحو أبحاث “التوافق” التي تسعى إلى جعل الذكاء الاصطناعي المتقدم أكثر أمانًا، وفقًا للتقرير.
تم تكليف التقرير من قبل وزارة الخارجية الأمريكية في نوفمبر 2022 كجزء من عقد فيدرالي بقيمة 250 ألف دولار، وفقًا للسجلات العامة. تم كتابته من قبل شركة Gladstone AI، وهي شركة تضم أربعة أشخاص تقيم برامج تقنية حول الذكاء الاصطناعي لموظفي الحكومة. (توصي أجزاء من خطة العمل بأن تستثمر الحكومة بشكل كبير في تثقيف المسؤولين حول الأسس التقنية لأنظمة الذكاء الاصطناعي لكي يتمكنوا من فهم مخاطرها بشكل أفضل.) تم تسليم التقرير كمستند يبلغ 247 صفحة إلى وزارة الخارجية الأمريكية في 26 فبراير. لم ترد وزارة الخارجية الأمريكية على عدة طلبات للتعليق على التقرير. وينص الصفحة الأولى من التقرير على أن “التوصيات لا تعكس وجهات نظر وزارة الخارجية الأمريكية أو الحكومة الأمريكية”.
تأتي توصيات التقرير، الكثير منها غير متوقعة من قبل، بعد سلسلة مذهلة من التطورات الكبرى في مجال الذكاء الاصطناعي أدت إلى إعادة تقييم الكثيرين لموقفهم من هذه التقنية. كان دردش ChatGPT، الذي أطلق في نوفمبر 2022، هو المرة الأولى التي أصبح فيها هذا التغير السريع ظاهرًا للمجتمع بأكمله، مما دفع الكثيرين إلى طرح أسئلة حول ما إذا كانت الذكاء الاصطناعية المستقبلية قد تشكل مخاطر وجودية على البشرية. واستمرت شركات التكنولوجيا الكبرى في إطلاق أدوات جديدة ذات قدرات أكبر بسرعة متزايدة منذ ذلك الحين. في حين تناقش الحكومات حول العالم كيفية تنظيم الذكاء الاصطناعي بشكل أفضل، بدأت أكبر شركات التكنولوجيا بسرعة في بناء البنية التحتية لتدريب أجيال أكثر قوة من الأنظمة – في بعض الحالات باستخدام 10 أو 100 مرة أكثر من قدرة الحوسبة. في الوقت نفسه، يعتقد أكثر من 80٪ من الجمهور الأمريكي أن الذكاء الاصطناعي قد يسبب حادثًا كارثيًا عن طريق الخطأ، ويعتقد 77٪ من الناخبين أن الحكومة يجب أن تفعل المزيد لتنظيم الذكاء الاصطناعي، وفقًا لاستطلاعات حديثة من معهد سياسات الذكاء الاصطناعي.
حظر تدريب أنظمة الذكاء الاصطناعي المتقدمة فوق عتبة معينة، وفقًا للتقرير، قد يساعد على “تعديل ديناميكيات السباق بين جميع مطوري الذكاء الاصطناعي” والمساهمة في تباطؤ وتيرة صناعة أشباه الموصلات في إنتاج أجهزة أسرع. مع مرور الوقت، قد ترفع الوكالة الفيدرالية للذكاء الاصطناعي العتبة وتسمح بتدريب أنظمة الذكاء الاصطناعي الأكثر تقدمًا بمجرد توفر أدلة كافية على سلامة نماذج مقدمة، وفقًا للتقرير. كما أنه يمكن للحكومة خفض عتبة السلامة إذا تم اكتشاف قدرات خطيرة في النماذج الحالية.
يتم توفير المقال من قبل مزود محتوى خارجي. لا تقدم SeaPRwire (https://www.seaprwire.com/) أي ضمانات أو تصريحات فيما يتعلق بذلك.
القطاعات: العنوان الرئيسي، الأخبار اليومية
يوفر SeaPRwire تداول بيانات صحفية في الوقت الفعلي للشركات والمؤسسات، مع الوصول إلى أكثر من 6500 متجر إعلامي و 86000 محرر وصحفي، و3.5 مليون سطح مكتب احترافي في 90 دولة. يدعم SeaPRwire توزيع البيانات الصحفية باللغات الإنجليزية والكورية واليابانية والعربية والصينية المبسطة والصينية التقليدية والفيتنامية والتايلندية والإندونيسية والملايو والألمانية والروسية والفرنسية والإسبانية والبرتغالية ولغات أخرى.
من المرجح أن يواج