فبراير 22, 2024

تحويل وسائل الإعلام الاجتماعية إلى الجبهة التالية لمنع الانتحار بواسطة الذكاء الاصطناعي

By أنور

A young woman looks at content on her phone.

(SeaPRwire) –   “لقد عثرنا على منشوركم… ويبدو أنكم تمرون ببعض الأوقات الصعبة”، يبدأ الرسالة. “نحن هنا لمشاركتكم بالمواد والموارد التي قد تجلب لكم بعض الراحة”. تلي ذلك روابط خطوط المساعدة في حالات الانتحار، وخدمة المحادثة 24 ساعة في اليوم، وقصص عن أشخاص تغلبوا على أزمات الصحة العقلية. “إرسالكم حضنا افتراضيا”، تنتهي الرسالة.

هذه الملاحظة، المرسلة كرسالة خاصة على Reddit من قبل شركة الذكاء الاصطناعي (AI) ، تمثل ما يقوله بعض الباحثين أنه أداة واعدة لمكافحة معدلات الانتحار في الولايات المتحدة، التي تسبب ما يقرب من 50،000 حالة وفاة سنويًا. تستخدم شركات مثل ساموراي AI لتحليل منشورات وسائل التواصل الاجتماعي للعلامات على نية الانتحار، ثم التدخل من خلال استراتيجيات مثل الرسالة المباشرة.

هناك حديث معين حول استغلال وسائل التواصل الاجتماعي للوقاية من الانتحار، لأنها غالبًا ما تلوم على أزمة الصحة العقلية والانتحار في الولايات المتحدة، . لكن بعض الباحثين يعتقدون أن هناك وعدًا حقيقيًا في الذهاب مباشرة إلى المصدر لـ “الكشف عن الأشخاص في حالة اضطراب في الوقت الفعلي والتغلب على ملايين القطع من المحتوى”، وفقًا لمؤسس شركة ساموراي باتريكيا تيمبسكا.

ساموراي ليست الشركة الوحيدة التي تستخدم AI لإيجاد والوصول إلى الأشخاص ذوي المخاطر. تقول الشركة إن نموذجها الاصطناعي يحدد يوميًا أكثر من 400 منشور على وسائل التواصل الاجتماعي يشيرون إلى نية الانتحار. وشركة ميتا، الشركة الأم لفيسبوك وإنستغرام، أو سلوك التصفح الذي يشير إلى أن شخصًا ما يفكر في الانتحار. إذا قام شخص ما بمشاركة أو البحث عن محتوى يتعلق بالانتحار، فإن المنصة تدفع برسالة تحتوي على معلومات حول مثل خط الأزمات والانتحار – أو إذا اعتبر فريق ميتا أنه ضروري، يتم استدعاء المستجيبين الطوارئ.

تكمن وراء هذه الجهود فكرة أن الخوارزميات قد تكون قادرة على القيام بشيء لم يتمكن البشر تقليديًا من القيام به: تحديد من هم عرضة للضرر الذاتي لكي يتمكنوا من الحصول على المساعدة قبل فوات الأوان. وهناك علم لدعم تلك الأمل.

منذ أكثر من عقد من الزمن، أظهر جون بيستيان، مدير مركز الطب الحسابي بمستشفى أطفال سينسيناتي، أن AI يمكن أن تكتشف النوايا الانتحارية في النص بدقة أكبر من الأطباء البشريين – وهو ما لفت الضوء على إمكانات AI للكشف عن النية في الانتحار في منشورات وسائل التواصل الاجتماعي عبر منصات مختلفة.

تضع شركات مثل ساموراي لابز هذه النتائج للاختبار. من يناير إلى نوفمبر 2023، اكتشف نموذج الشركة أكثر من 25000 منشور على Reddit يحتمل أن يكون انتحاريًا، وفقًا لبيانات الشركة التي تم تقاسمها مع TIME. ثم يقرر شخص مشرف على العملية ما إذا كان يجب إرسال رسالة إلى المستخدم بتعليمات حول كيفية الحصول على المساعدة. اتصل حوالي 10٪ من الأشخاص الذين تلقوا هذه الرسائل بخط المساعدة في حالات الانتحار، وعملت ممثلو الشركة مع فرق الاستجابة الأولية لإكمال أربع عمليات إنقاذ في الموقع. (ليس لدى ساموراي لابز شراكة رسمية مع Reddit، ولكنها تستخدم تقنيتها بشكل مستقل لتحليل المنشورات على المنصة. تستخدم Reddit ميزات وقائية أخرى لمنع الانتحار، مثل واحدة تسمح للمستخدمين بإيقاف الحسابات المؤقتة.)

يضيف المؤسس المشارك ميخال فروتشينسكي أن تدخل ساموراي قد يكون له فوائد إضافية أصعب تتبعها. قد اتصل شخص ما بخط المساعدة لاحقًا على سبيل المثال، أو ببساطة استفاد من شعوره بأن شخصًا ما يهتم به. “أحضرت هذه الرسالة دموعًا إلى عيني”، كتب شخص في رسالة تم تقاسمها مع TIME. “هل هناك شخص ما يهتم بما يكفي للقلق بشأني؟”

عندما يكون شخص ما في أزمة صحية عقلية حادة، يمكن أن تكون المشاغلة – مثل قراءة رسالة تظهر على شاشته – إنقاذًا للحياة، لأنها تقطعه عن حلقة تفكير ضارة، وفقًا لماوتيير. لكن، وفقًا لبيستيان، من الحيوي بالنسبة للشركات معرفة ما يمكن ولا يمكن للخوارزميات القيام به في لحظة الضائقة.

الخدمات التي تربط مستخدمي وسائل التواصل الاجتماعي بدعم بشري يمكن أن تكون فعالة، وفقًا لبيستيان. “إذا كان لديك صديق، فقد يقولون: ‘دعني أقودك إلى المستشفى'”. “يمكن للذكاء الاصطناعي أن يكون السيارة التي تقود الشخص إلى الرعاية”. ما هو أكثر مخاطرة، وفقًا لرأيه، هو “السماح للذكاء الاصطناعي بتولي الرعاية” من خلال تدريبه على تقليد جوانب العلاج، . توفي رجل في بلجيكا بعد التحدث إلى دردشة أقنعته – أحد الأمثلة المأساوية للحدود التقنية.

بالإضافة إلى الدقة المحتملة، هناك أيضًا قضايا أخلاقية وخصوصية قيد اللعب. قد لا يعرف مستخدمو وسائل التواصل الاجتماعي أن منشوراتهم تتم تحليلها أو يريدون ذلك، وفقًا لسمولر. قد تكون تلك ذات صلة خاصة بالمجتمعات المعروفة بزيادة خطر الانتحار، ، الذين يتم تحديدهم بشكل غير متناسب من قبل هذه أنظمة المراقبة الاصطناعية، كما أظهر فريق من الباحثين .

يتم توفير المقال من قبل مزود محتوى خارجي. لا تقدم SeaPRwire (https://www.seaprwire.com/) أي ضمانات أو تصريحات فيما يتعلق بذلك.

القطاعات: العنوان الرئيسي، الأخبار اليومية

يوفر SeaPRwire تداول بيانات صحفية في الوقت الفعلي للشركات والمؤسسات، مع الوصول إلى أكثر من 6500 متجر إعلامي و 86000 محرر وصحفي، و3.5 مليون سطح مكتب احترافي في 90 دولة. يدعم SeaPRwire توزيع البيانات الصحفية باللغات الإنجليزية والكورية واليابانية والعربية والصينية المبسطة والصينية التقليدية والفيتنامية والتايلندية والإندونيسية والملايو والألمانية والروسية والفرنسية والإسبانية والبرتغالية ولغات أخرى. 

وتوجد إمكانية أن يتم تصعيد مخاوف الانتحار إلى الشرطة أو غيرها من فرق الطوارئ، ما يعني أن المستخدمين “قد يتم احتجازهم وتفتيشهم ونقلهم إلى المستشفى وعلاجهم على غير رغبتهم”، وفقًا