يناير 19, 2024

لوقف الذكاء الاصطناعي من قتلنا جميعا، يجب تنظيم الصور المزيفة أولاً، يقول باحث كونور ليهي

By أنور

(SeaPRwire) –   يتذكر كونور ليهي المرة الأولى التي أدرك فيها أن الذكاء الاصطناعي سيقتلنا جميعًا.

كان ذلك في عام 2019، وقد أطلقت شركة أوبن إيه آي نموذج اللغة الكبير GPT-2 حديثًا. تنزيل ليهي النموذج الناشئ للغة الكبيرة إلى حاسوبه المحمول، وأخذه معه إلى ماراثون للهاكرز في الجامعة التقنية في ميونخ، حيث كان يدرس. في غرفة صغيرة مزدحمة، جالسًا على كنبة محاطًا بأربعة أصدقاء، شغل نظام الذكاء الاصطناعي. حتى لو كان لا يستطيع تركيب جمل متسلسلة بشكل صحيح، اكتشف ليهي في GPT-2 شيئًا كان مفقودًا من كل نموذج ذكاء اصطناعي آخر حتى ذلك الوقت. “رأيت برقة العمومية”، يقول قبل الضحك على نفسه في التأمل “الآن أستطيع أن أقول هذا ولا أبدو مجنونًا. في ذلك الوقت، بديت مجنونًا”.

“اعتقدت أن لدي الوقت لمهنة طبيعية بأكملها، وعائلة، وأشياء من هذا القبيل” يقول. “كل ذلك زال. لا، إن الوقت الحرج الآن”.

اليوم، ليهي هو الرئيس التنفيذي لشركة Conjecture، وهي شركة أمان الذكاء الاصطناعي. مع شارب طويل وشعر كتف طويل نبيئي، فهو أيضًا ربما أحد أبرز الوجوه في مجال “المخاطر الوجودية” في عالم الذكاء الاصطناعي، مرفعًا تحذيرات بأن الذكاء الاصطناعي يتجه نحو أن يتفوق سريعًا على قدرة البشرية على السيطرة عليه. في 17 كانون الثاني (يناير)، تحدث في حدث طرفي في الاجتماع السنوي للمنتدى الاقتصادي العالمي في دافوس، سويسرا، حيث يجتمع قادة العالم سنويًا لمناقشة المخاطر التي تواجه الكوكب. ركزت معظم الاهتمامات في دافوس هذا العام على الصراع المتصاعد في الشرق الأوسط وتفاقم آثار تغير المناخ، لكن ليهي يجادل بأن مخاطر الذكاء الاصطناعي المتقدم يجب مناقشتها مباشرة في قمة جدول الأعمال.

على الرغم من تحذيراته بأن النهاية من المرجح أن تكون قريبة، فإن ليهي ليس مهزومًا. جاء إلى دافوس مسلحًا بكل من الحلول السياسية واستراتيجية سياسية. تلك الاستراتيجية: التركيز أولاً على حظر الفيديوهات المزيفة أو الصور المولدة بواسطة الذكاء الاصطناعي التي يتم استخدامها الآن على نطاق واسع لإنشاء صور جنسية غير موافق عليها للنساء والفتيات بشكل رئيسي. وفقًا لليهي، فإن الفيديوهات المزيفة هي خطوة جيدة أولى لأنه يمكن للجميع تقريبًا الاتفاق على أنها سيئة. إذا تمكن السياسيون من التعامل مع الفيديوهات المزيفة، فربما يتمكنون من التعامل أيضًا مع المخاطر التي يفرضها ما يسمى بالذكاء العام الاصطناعي أو AGI.

تحدثت TIME مع ليهي قليلاً قبل وصوله إلى دافوس. تم تكثيف وتحرير هذا الحوار للوضوح.

ماذا تفعل في دافوس؟

سأنضم إلى لوحة نقاشية للحديث عن الفيديوهات المزيفة وما يمكننا القيام به بشأنها، وعن مخاطر أخرى من الذكاء الاصطناعي. الفيديوهات المزيفة هي حالة محددة من مشكلة أكثر عمومية. إذا أردت التعامل مع أشياء مثل هذه، فلن يكفي ملاحقة مستخدمي النهاية، الذين يحاول الذين يستفيدون ماليًا من وجود الفيديوهات المزيفة الدفع به. إذا كنت مجتمعًا تريد القدرة على التعامل مع مشاكل من هذا النوع – التي الفيديوهات المزيفة مثال محدد عليها والذكاء الاصطناعي العام هو مثال آخر – يجب أن نتمكن من استهداف سلسلة التوريد بأكملها. لا يكفي مجرد معاقبة، على سبيل المثال، الأشخاص الذين يستخدمون التقنية لتسبب الضرر. كما يجب أيضًا معاقبة الأشخاص الذين يبنون هذه التقنية. نفعل بالفعل هذا بالنسبة لمثلا المواد الإباحية للأطفال؛ لا نعاقب فقط الأشخاص الذين يستهلكونها، بل نعاقب أيضًا الأشخاص الذين ينتجونها ويوزعونها ويضيفونها. وهذا ما يجب القيام به إذا كنت مجتمعًا جادًا يريد التعامل مع مشكلة رقمية خطيرة.

أعتقد أنه يجب فرض المسؤولية بشكل أساسي. يمكننا البدء ببساطة مع الفيديوهات المزيفة، لأن هذا هو موقف سياسي شعبي للغاية. إذا قمت بتطوير نظام يمكن استخدامه لإنتاج فيديوهات مزيفة، أو توزيع هذا النظام، أو استضافته، الخ، فيجب أن تتحمل المسؤولية عن الضرر الناجم والاتهامات الجنائية المحتملة. إذا فرضت تكلفة على المجتمع، فيجب أن تتحمل هذه التكلفة. إذا قمت ببناء منتج جديد، وأصاب مليون شخص، يجب تعويض هؤلاء الملايين من الناس بطريقة ما، أو لا يجب السماح لك بفعل ذلك. وفي الوقت الحالي، ما يحدث في جميع أنحاء مجال الذكاء الاصطناعي هو أن الناس يعملون يوميًا لتجنب تحمل المسؤولية عما هم في الواقع يفعلونه، وكيف يؤثر فعلاً على الناس. الفيديوهات المزيفة هي مثال محدد على ذلك. لكنها فئة أوسع من المشاكل. وهي فئة من المشاكل التي لا يتعامل معها مجتمعنا حاليًا بشكل جيد، ويجب أن نتعامل معها بشكل جيد إذا أردنا أن نأمل في التعامل مع الذكاء الاصطناعي العام.

بالنسبة للفيديوهات المزيفة، أحد المشاكل الرئيسية هو أنه في كثير من الأحيان لا يمكنك معرفة، من الصورة وحدها، أي نظام تم استخدامه لتوليدها. وإذا كنت تطلب المسؤولية، كيف تربط النقطتين بطريقة قانونية قابلة للتنفيذ؟

يتم توفير المقال من قبل مزود محتوى خارجي. لا تقدم SeaPRwire (https://www.seaprwire.com/) أي ضمانات أو تصريحات فيما يتعلق بذلك.

القطاعات: العنوان الرئيسي، الأخبار اليومية

يوفر SeaPRwire تداول بيانات صحفية في الوقت الفعلي للشركات والمؤسسات، مع الوصول إلى أكثر من 6500 متجر إعلامي و 86000 محرر وصحفي، و3.5 مليون سطح مكتب احترافي في 90 دولة. يدعم SeaPRwire توزيع البيانات الصحفية باللغات الإنجليزية والكورية واليابانية والعربية والصينية المبسطة والصينية التقليدية والفيتنامية والتايلندية والإندونيسية والملايو والألمانية والروسية والفرنسية والإسبانية والبرتغالية ولغات أخرى. 

الشيء الجيد بشأن المسؤولية والإنفاذ الجنائي هو أنه إذا قمت به على النحو الصحيح، لا تحتاج إلى القبض على كل شيء؛ يكفي أن يكون هناك خطر. لذلك تحاول تسعير هذا الخطر في عملية صنع القرار لدى الأشخاص الذين ينتجون مثل هذه الأنظمة. في الوقت الحالي، عندما يطور باحث منظومة فيديو مزيفة جديدة وأفض