تتعلم الذكاء الاصطناعي التحدث مثل طفل رضيع
(SeaPRwire) – تخيل مشاهدة العالم من وجهة نظر طفل عمره ستة أشهر. ليس لديك الكلمات لوصف أي شيء. كيف يمكنك بالمرة فهم اللغة، عندما يكون لكل صوت يصدر من أفواه الأشخاص حولك عدد لا نهائي محتمل من المعاني؟
هذا السؤال دفع العديد من علماء النفس إلى افتراض أن البشر يجب أن يكون لديهم بعض القدرة اللغوية الجوهرية لمساعدتنا على البدء في اكتساب اللغة. لكن دراسة نُشرت في مجلة “ساينس” هذا الأسبوع وجدت أن نظام AI بسيط نسبيًا تم تغذيته ببيانات مصورة من وجهة نظر طفل بدأ في تعلم الكلمات.
الورقة تبني على دراسة مقاطع فيديو تم تصويرها من كاميرا مثبتة على خوذة ارتداها طفل أسترالي على مدار ثمانية عشر شهرًا، بين أعمار ستة إلى 25 شهرًا. قام مساعدو البحث بالتدقيق وتحديد 37،5000 تعبير – مثل “ترى هذه الكتلة المثلث”، التي قالها والد بينما كان الطفل يلعب بمجموعة مكعبات – من 61 ساعة من مقاطع الفيديو. يُظهر مقطع مشارك مع TIME الطفل وهو يتناول مجموعة الألعاب قبل أن ينتبه إلى قط غير مبال.
قام الباحثون من مركز علوم البيانات وقسم علم النفس في جامعة نيويورك بتغذية هذا المجموعة من البيانات في نظام AI متعدد الوسائط – واحد قادر على استيعاب كل من النص والصور. وجدوا أن نموذج AI كان قادرًا على تحديد العديد من الأشياء المختلفة، كل في اختبارات استخدمت بيانات من كاميرا الرأس المثبتة وفي اختبارات استخدمت مجموعة بيانات صور مثالية لأشياء مختلفة، على الرغم من أن دقته كانت مازالت محدودة إلى حد ما.
كان نظام AI أفضل في تسمية الأشياء التي شاهدها بكثرة، بما في ذلك التفاح (الذي يكثر وجوده في كتب الأطفال) والمهد. كما كان أفضل في التعرف على الأشياء التي لم تكن مخفية في صور كاميرا الرأس. كان أسوأ بكثير في التعرف على السكاكين، وفقًا لـ واي كين فونغ، أحد مؤلفي الورقة.
يعتقد بعض علماء النفس وعلماء اللغة أنه لن يكون بإمكان الأطفال تشكيل ارتباطات بين الكلمات والأشياء دون أن يكون لديهم قدرة لغوية جوهرية. لكن الحقيقة أن نموذج AI البسيط نسبيًا كان قادرًا حتى على بدء تعلم ارتباطات الكلمات على مجموعة بيانات صغيرة هكذا تحدى هذه النظرة، وفقًا لفونغ.
مع ذلك، من المهم ملاحظة أن المقاطع الملتقطة بواسطة الكاميرا تصور الطفل وهو يتفاعل مع العالم، ووالديه يتفاعلان معه. هذا يعني أن نموذج AI يستخلص ما تعلمه ذلك الطفل،” مما يعطيه ميزة في تطوير ارتباطات الكلمات، وفقًا لأندريه باربو، باحث علمي في معهد ماساتشوستس للتكنولوجيا للعلوم الحاسوبية والذكاء الاصطناعي. “إذا أخذت هذا النموذج ووضعته على روبوت، وأعطيته ليعمل لمدة 61 ساعة، لن تحصل على نوع البيانات التي حصلوا عليها هنا، والتي ستكون بعد ذلك مفيدة لتحديث نموذج مثل هذا.”
منذ كتابة نتائجهم، قام الباحثون في جامعة نيويورك بنسخ أربع مرات أكثر من البيانات من مقاطع فيديو كاميرا الرأس، التي ينوون تغذيتها في نموذجهم. يأملون في فحص كم سيتعلم النموذج AI أكثر عندما يُعطى مزيدًا من البيانات. كما يأملون في اختبار ما إذا كان النموذج قادرًا على بدء تعلم كلمات وسلوكيات لغوية أكثر تحديًا تميل إلى التطور في وقت لاحق من الحياة.
يمكن أن تلقي هذه التجارب المزيد من الضوء على كيفية تعلم الأطفال التحدث، فضلاً عن مساعدة الباحثين في فهم الاختلافات بين الذكاء البشري والاصطناعي. “هناك الكثير لاستخلاصه من دراسة كيفية اكتساب البشر للغة”، وفقًا لفونغ، “وكيف نفعلها بكفاءة كبيرة مقارنة بالآلات الآن”.
يتم توفير المقال من قبل مزود محتوى خارجي. لا تقدم SeaPRwire (https://www.seaprwire.com/) أي ضمانات أو تصريحات فيما يتعلق بذلك.
القطاعات: العنوان الرئيسي، الأخبار اليومية
يوفر SeaPRwire تداول بيانات صحفية في الوقت الفعلي للشركات والمؤسسات، مع الوصول إلى أكثر من 6500 متجر إعلامي و 86000 محرر وصحفي، و3.5 مليون سطح مكتب احترافي في 90 دولة. يدعم SeaPRwire توزيع البيانات الصحفية باللغات الإنجليزية والكورية واليابانية والعربية والصينية المبسطة والصينية التقليدية والفيتنامية والتايلندية والإندونيسية والملايو والألمانية والروسية والفرنسية والإسبانية والبرتغالية ولغات أخرى.