مارس 1, 2024

الذكاء الاصطناعي الأخلاقي لا يقع اللوم عليه في كارثة شركة Gemini التابعة لشركة جوجل

By أنور

في هذه الصورة التوضيحية، يظهر شعار Google Gemini

(SeaPRwire) –   في وقت سابق من هذا الشهر، أصدرت شركة جوجل نظامها الذي طال انتظاره “Gemini”، مما يتيح للمستخدمين الوصول إلى تقنية توليد الصور بالذكاء الاصطناعي لأول مرة. وبينما وافق معظم المستخدمين الأوائل على أن النظام كان رائعًا، حيث ينشئ صورًا مفصلة لنصوص تحفيزية في ثوانٍ، سرعان ما اكتشف المستخدمون أنه كان من الصعب على النظام إنشاء صور لأشخاص بيض، وسرعان ما عرضت التغريدات الفيروسية أمثلة مُحيرة مثل .

وبعض الناس أخطأوا Gemini لكونه “متيقظًا للغاية”، مستخدمين Gemini كأحدث سلاح في حرب ثقافية متصاعدة حول أهمية إدراك آثار التمييز التاريخي. وقال الكثيرون إنه يعكس الوهن داخل جوجل، وبعضهم مجال “أخلاقيات الذكاء الاصطناعي” باعتباره محرجًا.

إن فكرة أن عمل الذكاء الاصطناعي الأخلاقي هو المسؤول أمر خاطئ. في الواقع، أظهر Gemini لشركة جوجل دروس أخلاقيات الذكاء الاصطناعي. حيث تركز أخلاقيات الذكاء الاصطناعي على معالجة حالات الاستخدام المتوقعة – مثل التصوير التاريخي – يبدو أن Gemini قد اختار نهج “مقاس واحد يناسب الجميع”، مما أدى إلى مزيج محرج من المخرجات المتنوعة بشكل منعش والمقززة.

يجب أن أعلم. لقد عملت في مجال أخلاقيات الذكاء الاصطناعي داخل شركات التكنولوجيا لأكثر من 10 سنوات، مما يجعلني أحد كبار الخبراء في العالم في هذا الأمر (إنه مجال حديث!). كما أسست وشاركت في قيادة فريق “الأخلاقيات في الذكاء الاصطناعي” التابع لشركة جوجل، قبل أن يفصلوني أنا وزملائي في القيادة بعد تقريرنا الذي يحذر من هذا النوع من المشكلات بالضبط فيما يتعلق بلغة التوليد. انتقد الكثير من الناس جوجل بسبب قرارهم، معتقدين أنه يعكس التمييز المنهجي وإعطاء الأولوية للسرعة المتهورة على الاستراتيجية المحسوبة جيدًا في الذكاء الاصطناعي. ومن الممكن أن أوافق بشدة.

كشفت كارثة جيميني مرة أخرى عن استراتيجية جوجل غير الخبيرة في المجالات التي أنا مؤهل بشكل فريد للمساعدة فيها، والتي يمكنني الآن مساعدة الناس على فهمها بشكل عام. ستناقش هذه القطعة بعض الطرق التي يمكن بها لشركات الذكاء الاصطناعي تقديم أداء أفضل في المرة القادمة، وتجنب إعطاء أقصى اليمين ذخيرة غير مفيدة في الحروب الثقافية، وضمان إفادة الذكاء الاصطناعي لأكبر عدد ممكن من الأشخاص في المستقبل.

تتمثل إحدى القطع المهمة في تشغيل أخلاقيات الذكاء الاصطناعي في التعبير عن الاستخدام المتوقع، بما في ذلك الاستخدام الضار وسوء الاستخدام. وهذا يعني العمل من خلال أسئلة مثل بمجرد نشر النموذج الذي نفكر في بنائه، كيف سيستخدمه الناس؟ وكيف يمكننا تصميمه ليكون مفيدًا قدر الإمكان في هذه السياقات؟ يعترف هذا النهج بالأهمية المركزية لـ “سياق الاستخدام” عند إنشاء أنظمة الذكاء الاصطناعي. إن هذا النوع من الاستبصار والتفكير السياقي، القائم على تفاعل المجتمع والتكنولوجيا، أصعب بالنسبة للبعض من البعض الآخر – وهذا هو المكان الذي يتمتع فيه الأشخاص ذوو الخبرة في التفاعل بين الإنسان والحاسوب والعلوم الاجتماعية والعلوم المعرفية بمهارات خاصة (والتحدث إلى أهمية التعددية في التوظيف التقني). لا يتم منح هذه الأدوار السلطة والنفوذ بقدر أدوار الهندسة، وأعتقد أن هذا كان صحيحًا في حالة Gemini: لم يتم تمكين الأشخاص الأكثر مهارة في التعبير عن الاستخدامات المتوقعة، مما أدى إلى نظام لا يمكنه التعامل مع أنواع متعددة من الاستخدام المناسب، مثل تصوير المجموعات البيضاء تاريخيًا.

تحدث الأمور بشكل خاطئ عندما تعامل المنظمات جميع حالات الاستخدام كحالة استخدام واحدة، أو لا تنمذج حالات الاستخدام على الإطلاق. وعلى هذا النحو، بدون تحليل أخلاقي لحالات الاستخدام في سياقات مختلفة، قد لا تحتوي أنظمة الذكاء الاصطناعي على نماذج “تحت الغطاء” تساعد في تحديد طلب المستخدم (وما إذا كان يجب إنشاؤه). بالنسبة لشركة Gemini، يمكن أن يتضمن ذلك تحديد ما إذا كان المستخدم يبحث عن صور تاريخية أو متنوعة، وما إذا كان طلبه غامضًا أو ضارًا. ورأينا مؤخرًا نفس الفشل في بناء نماذج قوية للاستخدام المتوقع مما أدى إلى .

وللمساعدة، وضعت منذ سنوات الرسم البياني التالي. تتمثل المهمة في ملء الخلايا؛ لقد ملأتها اليوم ببعض الأمثلة ذات الصلة ب Gemini على وجه التحديد.

الخلايا الخضراء (الصف العلوي) هي الخلايا التي يكون فيها الذكاء الاصطناعي المفيد ممكنًا بدرجة أكبر (وليس حيث سيكون الذكاء الاصطناعي مفيدًا دائمًا). والخلايا الحمراء (الصف الأوسط) هي تلك التي يكون فيها الذكاء الاصطناعي الضار هو الأكثر احتمالاً (ولكن قد يكون أيضًا مكانًا قد يحدث فيه ابتكار مفيد غير متوقع). ومن المرجح أن تكون الخلايا الأخرى ذات نتائج مختلطة – بعض النتائج جيدة والبعض الآخر سيئة.

وتتضمن الخطوات التالية معالجة الأخطاء المحتملة في سياقات مختلفة ومعالجة الأخطاء غير المتناسبة للفئات الفرعية الخاضعة للتمييز. ويبدو أن مطوري Gemini نجحوا في هذا الجزء إلى حد كبير. يبدو أن الفريق كان لديه بعد النظر ليدرك خطر الإفراط في تمثيل الأشخاص البيض في المواقف المحايدة أو الإيجابية، مما من شأنه أن يضخم وجهة نظر عالمية يهيمن عليها البيض. وبالتالي، من المحتمل أن تكون هناك وحدة نمطية فرعية داخل Gemini مصممة لإظهار درجات لون البشرة الداكنة للمستخدمين.

قد يكون سبب ظهور هذه الخطوات في Gemini، ولكن ليس الخطوات التي تنطوي على الاستخدام المتوقع، جزئيًا بسبب زيادة الوعي العام بالتحيز في أنظمة الذكاء الاصطناعي: كان التحيز المؤيد للبيض كابوسًا للعلاقات العامة يمكن التنبؤ به بسهولة، مما يعكس، في حين أن النهج الدقيق للتعامل مع “سياق الاستخدام” لم يكن كذلك. وكان التأثير الصافي هو نظام “أخطأ الهدف” في أن يكون شاملاً لحالات الاستخدام المناسبة المتوقعة.

يتم توفير المقال من قبل مزود محتوى خارجي. لا تقدم SeaPRwire (https://www.seaprwire.com/) أي ضمانات أو تصريحات فيما يتعلق بذلك.

القطاعات: العنوان الرئيسي، الأخبار اليومية

يوفر SeaPRwire تداول بيانات صحفية في الوقت الفعلي للشركات والمؤسسات، مع الوصول إلى أكثر من 6500 متجر إعلامي و 86000 محرر وصحفي، و3.5 مليون سطح مكتب احترافي في 90 دولة. يدعم SeaPRwire توزيع البيانات الصحفية باللغات الإنجليزية والكورية واليابانية والعربية والصينية المبسطة والصينية التقليدية والفيتنامية والتايلندية والإندونيسية والملايو والألمانية والروسية والفرنسية والإسبانية والبرتغالية ولغات أخرى. 

النقطة الرئيسية هي أنه من الممكن امتلاك تقنية تفيد المستخدمين وتقلل من الضرر إلى الحد الأدنى لأولئك الذين يتوقع أن يتأثروا سلبًا. ولكن يجب أن يكون لديك أشخاص قادرون على القيام بذلك في قرارات التطوير والنشر. وغالبًا ما يُحرم هؤلاء الأشخاص من السلطة (أو ما هو أسوأ) في مجال التكنولوجيا. ليس بالضرورة أن تكون الأمور كذلك: يمكن أن يكون لدينا مسارات مختلفة للذكاء الاصطناعي تمكن الأشخاص المناسبين لما هم مؤهلون لمسوعدته بشأنه أكثر. حيث يتم البحث عن وجهات نظر مختلفة، وليس إلغائها. للوصول إلى هناك يتطلب بعض العمل الش