موظفون يقولون إن شركتي OpenAI وGoogle DeepMind تخفيان الأخطار عن الجمهور
(SeaPRwire) – نشرت مجموعة من الموظفين الحاليين والسابقين في شركتي الذكاء الاصطناعي الرائدتين و ورسالة يوم الثلاثاء حذروا فيها من مخاطر الذكاء الاصطناعي المتقدم حيث يزعمون أن الشركات تعطي الأولوية للمكاسب المالية مع تجنب الرقابة.
قام ثلاثة عشر موظفًا، أحد عشر منهم موظفون حاليون أو سابقون في الشركة التي تقف وراء ، بالتوقيع على بعنوان: “الحق في التحذير من الذكاء الاصطناعي المتقدم”. أما الموقعان الآخران فهما موظفان حاليان وسابقان في . ستة أفراد مجهولون.
تحذر المجموعة من أن أنظمة الذكاء الاصطناعي قوية بما يكفي لتشكل أضرارًا جسيمة بدون تنظيم مناسب. تقول الرسالة: “تتراوح هذه المخاطر من مزيد من ترسيخ أوجه عدم المساواة الحالية إلى التلاعب والمعلومات المضللة وفقدان السيطرة على أنظمة الذكاء الاصطناعي المستقلة مما قد يؤدي إلى الانقراض البشري”.
وقالت المتحدثة باسم : “نحن فخورون بسجلنا الحافل في توفير أنظمة الذكاء الاصطناعي الأكثر كفاءة وأمانًا ونؤمن بنهجنا العلمي في معالجة المخاطر”. و”نتفق على أن النقاش الصارم أمر بالغ الأهمية نظرًا لأهمية هذه التكنولوجيا، وسنواصل التعاون مع الحكومات والمجتمع المدني والمجتمعات الأخرى حول العالم”.
لم تعلق على الرسالة علنًا ولم ترد على طلب التعليق الذي تقدمت به مجلة TIME.
تحدث قادة شركات الذكاء الاصطناعي الثلاث الرائدة، و و، عن المخاطر في الماضي. ففي بيان صادر في مارس 2023، والذي تمت الإشارة إليه في الرسالة، “إذا قمنا ببناء نظام ذكاء اصطناعي أكثر كفاءة من الخبراء البشريين بشكل كبير ولكنه يسعى وراء أهداف تتعارض مع مصالحنا الفضلى، فقد تكون العواقب وخيمة… سيكون التقدم السريع للذكاء الاصطناعي مزعجًا للغاية، مما سيغير التوظيف والاقتصاد الكلي وبنى السلطة… [لقد واجهنا بالفعل] السمية والتحيز وعدم الموثوقية وعدم الأمانة” شركة أبحاث وسلامة الذكاء الاصطناعي . (كان أحد الموقعين على الرسالة والذي يعمل حاليًا في يعمل سابقًا في .)
تزعم المجموعة التي تقف وراء الرسالة أن شركات الذكاء الاصطناعي لديها معلومات عن مخاطر تقنية الذكاء الاصطناعي التي تعمل عليها، ولكن نظرًا لأنها غير ملزمة بالإفصاح كثيرًا مع الحكومات، فإن القدرات الحقيقية لأنظمتها تظل سرية. وهذا يعني أن الموظفين الحاليين والسابقين هم الوحيدون الذين يمكنهم محاسبة الشركات أمام الجمهور، كما يقولون، ومع ذلك فقد وجد الكثير منهم أن أيديهم مقيدة باتفاقيات السرية التي تمنع العمال من التعبير عن مخاوفهم علنًا. وكتبت المجموعة: “إن حماية المبلغين عن المخالفات العادية غير كافية لأنها تركز على الأنشطة غير القانونية، في حين أن العديد من المخاطر التي تقلقنا لم يتم تنظيمها بعد”.
وقال محامي المجموعة المجاني لورانس ليسيج لصحيفة New York Times “الموظفون هم خط دفاع مهم عن السلامة، وإذا لم يتمكنوا من التحدث بحرية دون انتقام، فسيتم إغلاق هذه القناة”.
قدم كاتبو الرسالة أربعة مطالب لشركات الذكاء الاصطناعي المتقدمة: توقف عن إجبار الموظفين على إبرام اتفاقيات تمنعهم من انتقاد صاحب عملهم بسبب “مخاوف تتعلق بالمخاطر”، وإنشاء عملية مجهولة الهوية للموظفين يبلغون فيها مخاوفهم إلى أعضاء مجلس الإدارة والمنظمين أو المنظمات ذات الصلة الأخرى، ودعم ” ثقافة النقد المفتوح،” وعدم اتخاذ أي إجراءات انتقامية ضد الموظفين السابقين والحاليين الذين يشاركون “معلومات سرية تتعلق بالمخاطر بعد فشل العمليات الأخرى.”
تحركت الحكومات في جميع أنحاء العالم لتنظيم الذكاء الاصطناعي، على الرغم من أن التقدم متأخر عن . في وقت سابق من هذا العام، أقرت الاتحاد الأوروبي أول تشريع شامل للذكاء الاصطناعي في العالم. وقد تم متابعة الجهود المبذولة للتعاون الدولي من خلال في المملكة المتحدة وكوريا الجنوبية، و . في أكتوبر 2023. وقع الرئيس جو بايدن الذي يتطلب من شركات الذكاء الاصطناعي، من بين أمور أخرى، الكشف عن خطط تطوير واختبار السلامة الخاصة بها لوزارة التجارة. ومع ذلك، لا يُطلب الإفصاح عن المعلومات علنًا، مما قد يمنع الرقابة الأوسع التي يريدها الموقعون على الرسالة.
– مع تقرير إضافي من ويل هينشال / واشنطن
المزيد من المجلة TIME
يتم توفير المقال من قبل مزود محتوى خارجي. لا تقدم SeaPRwire (https://www.seaprwire.com/) أي ضمانات أو تصريحات فيما يتعلق بذلك.
القطاعات: العنوان الرئيسي، الأخبار اليومية
يوفر SeaPRwire تداول بيانات صحفية في الوقت الفعلي للشركات والمؤسسات، مع الوصول إلى أكثر من 6500 متجر إعلامي و 86000 محرر وصحفي، و3.5 مليون سطح مكتب احترافي في 90 دولة. يدعم SeaPRwire توزيع البيانات الصحفية باللغات الإنجليزية والكورية واليابانية والعربية والصينية المبسطة والصينية التقليدية والفيتنامية والتايلندية والإندونيسية والملايو والألمانية والروسية والفرنسية والإسبانية والبرتغالية ولغات أخرى.