يحتاج مهندسو الذكاء الاصطناعي إلى قسم أبقراط خاص بهم. وإليكم ما ينبغي أن يتضمنه.
(SeaPRwire) – في عصر أحد أيام الأحد الأخيرة، شهدتُ ابني وهو يخطو نحو التقليد العريق للطب في حفل الرداء الأبيض بجامعة شيكاغو. شاهدته يقف شامخًا، وهو يتلو كلمات نطق بها الأطباء لقرون: “أولاً، لا تُلحق الأذى.” وبصفتي طبيبًا، كانت هذه الكلمات هي بوصلتي في كل تشخيص، وكل جراحة، وكل محادثة صعبة.
ولكن بينما غادرت القاعة، لم أستطع التوقف عن التفكير: في عام 2025، هناك مجموعة أخرى من المهنيين الذين ستشكل قراراتهم صحة الإنسان وإدراكه ومستقبله بعمق مماثل – وربما أكثر – لقراراتي أو قرارات ابني.
هذه المجموعة هم مهندسو الذكاء الاصطناعي، الذين يبنون أنظمة اليوم التي ستلامس كل بُعد من أبعاد الحياة البشرية؛ صحتنا، سلامتنا، طرق اهتمامنا ببعضنا البعض، والظروف التي تشكل مدى حياتنا – لعقود قادمة.
لا يمكن المبالغة في تقدير المسؤولية الهائلة لعملهم. يمتلك مهندسو الذكاء الاصطناعي في أيديهم القدرة على تحقيق خير غير عادي – سد الفجوات في التعليم، فتح آفاق للاكتشافات الطبية، تسريع حلول المناخ – أو، إذا فقدوا التركيز على الأشخاص الذين تخدمهم إبداعاتهم، التسبب في ضرر عميق.
الذكاء الاصطناعي ليس مجرد جهاز جديد آخر أو إلهاء رقمي. إنه أول تكنولوجيا مصممة لتكرار واستبدال اللغة والتفاعلات نفسها التي شكلت التطور البشري لآلاف السنين.
ويتقدم الذكاء الاصطناعي بوتيرة مذهلة، حيث تتضاعف قدراته تقريبًا كل سبعة أشهر منذ عام 2019. إذا استمر هذا المسار، بحلول عام 2030، يمكن للذكاء الاصطناعي أن ينجز في أيام ما هو حاليًا مشاريع تستغرق شهورًا وتتطلب قدرات عقلية بشرية. وقد اقترح العديد من قادة الذكاء الاصطناعي أن التكنولوجيا يمكن أن تحقق ذكاءً عامًا بمستوى بشري في غضون بضع سنوات.
ومع ذلك، على عكس طلاب الطب، يتخرج مهندسو الذكاء الاصطناعي دون أن يتعهدوا “أولاً، بعدم إلحاق الأذى”.
حذر الفائز بجائزة نوبل جيفري هينتون، أحد المهندسين المعماريين المؤسسين للذكاء الاصطناعي، من أن الأنظمة التي نصممها اليوم قد تتطور إلى ما يفوق قدرتنا على التحكم. ولهذا السبب أعتقد – جنبًا إلى جنب مع العديد من باحثي وأخلاقيي الذكاء الاصطناعي – أننا بحاجة إلى قسم هينتون: ليس لإبطاء المهندسين، بل لتوجيههم بنفس الوضوح الأخلاقي الذي أرسى الطب لآلاف السنين.
قسم أبقراط لمهندسي الذكاء الاصطناعي
في قسم أبقراط، يتعهد طلاب الطب المتخرجون بما يلي:
- سأستخدم معرفتي ومهاراتي لمساعدة المرضى بأقصى قدراتي وحكمتي؛ وسأمتنع عن إيذاء أو إلحاق الضرر بأي شخص من خلالها.
- سأحترم استقلالية وكرامة مرضاي.
- لن أخجل من قول “لا أعرف”، ولن أفشل في طلب مساعدة زملائي عندما تكون مهارات شخص آخر ضرورية.
- سأمنع المرض كلما أمكنني ذلك، لأن الوقاية خير من العلاج.
في قسم هينتون، يمكن لمهندسي الذكاء الاصطناعي أن يتلوا وعودًا مشابهة مثل:
- سأستخدم مهاراتي لتحسين حياة الإنسان، لا للتقليل منها.
- سأتخذ جانب الحرية الإنسانية والاتصال عند الشك في الضرر.
- سأتذكر أن كل مجموعة بيانات تحتوي على قصة شخص ما، وسأتعامل معها بكرامة.
- سأُنسب مصادر بيانات تدريبي بوضوح وأكون شفافًا بشأن البيانات التي تستخدمها أنظمتي.
- سأصمم أنظمة تعزز القدرات والحكم البشري، ولا تضعفها.
- لن أنشئ أدوات لا يمكن الإشراف عليها أو التحكم فيها أو عكسها.
- لن أبني أنظمة مصممة للخداع أو التلاعب أو تحريف الواقع، بما في ذلك التزييف العميق والشخصيات الزائفة.
- سأسعى إلى التعاون والشفافية والصحة طويلة الأمد للناس والكوكب على حساب المكاسب قصيرة الأجل.
- سأسأل، قبل النشر: من المستفيد ومن يتحمل المخاطر؟ هل درسنا العواقب طويلة الأجل بما يتجاوز حالة استخدامنا المباشرة؟
بوصفي جراحًا، بذلت قصارى جهدي لصياغة هذا القسم، وأقدمه كنقطة انطلاق لأولئك الذين يفهمون تعقيدات هذا المجال بعمق أكبر مما أستطيع. وبالتأكيد، فإن مجالات الذكاء الاصطناعي وصحة الإنسان متميزة. لكن التقنيات مثل الذكاء الاصطناعي تؤثر في الواقع على صحتنا. فكل توصية خوارزمية تعيد تشكيل الروابط العصبية. وكل تفاعل مع الذكاء الاصطناعي يغير أنماط الدوبامين. وكل خلاصات شخصية تعيد توصيل شبكات الانتباه. في الطب، ندرس بدقة أي شيء يعبر الحاجز الدموي الدماغي لأننا ندرك قوته في تغيير وظائف الدماغ. ومع ذلك، تدخل أنظمة الذكاء الاصطناعي ذات التأثيرات العصبية العميقة المماثلة حياتنا يوميًا، إلى حد كبير دون تدقيق.
وسيمتد تأثير الذكاء الاصطناعي إلى أبعد من عقولنا بكثير. سيساعد في تحديد كيفية عملنا ومن يزدهر في الاقتصاد. سيؤثر على القوانين وأنظمة العدالة والاستقرار السياسي. سيدفع السياسة البيئية والاكتشاف العلمي والتطور الثقافي. هذه ليست آثارًا جانبية – بل هي الآثار الرئيسية. وهي تجعل الحاجة إلى أخلاق توجيهية أكثر إلحاحًا.
السؤال ليس ما إذا كان الذكاء الاصطناعي سيعيد تشكيل المجتمع البشري – بل ما إذا كان مهندسوه سيمارسون تلك القوة بتفكير.
يدخل العديد من المهندسين الشباب هذا المجال لنفس السبب الذي دفع ابني لاختيار الطب – لتغيير العالم وجعله مكانًا أفضل. إذا بُني الذكاء الاصطناعي مع مراعاة المسؤولية تجاه الصالح العام، فإن إمكاناته مذهلة: في وقت أبكر مما يمكن لأي طبيب، سد الفجوات العالمية ، تسريع ، تمكين الناس بـ . ولكن إذا تجاهلنا تلك المسؤولية، يمكن أن يصبح الذكاء الاصطناعي بسهولة قوة للضرر، مما يؤدي إلى تآكل الثقة، وتضخيم عدم المساواة، أو تقويض القدرات نفسها التي تجعلنا بشرًا.
هذا هو بالضبط السبب الذي يجعل الذكاء الاصطناعي يستحق تعهدًا مبنيًا، مثل قسم أبقراط، حول مبدأ أساسي: السلطة بدون ضمير خطيرة.
خلال حفل الرداء الأبيض لابني، دُعي الآباء الذين كانوا أطباء للوقوف وتلاوة القسم إلى جانب أطفالهم. بينما نطق ابني وأنا تلك الكلمات الخالدة معًا، شعرت بقوة الانضمام إلى شيء أكبر منا – تقليد يربط كل طبيب عبر الزمان في خدمة رفاهية الإنسانية. يستحق مهندسو الذكاء الاصطناعي نفس الشعور بالهدف، ونفس الارتباط بشيء أعظم من أي مشروع فردي أو شركة.
أملي هو أن يأتي يوم قريب، حيث سيكون مشاهدة مهندس ذكاء اصطناعي شاب يؤدي قسم هينتون مؤثرًا ومطمئنًا، تمامًا مثل مشاهدة ابني وهو يرتدي ردائه الأبيض.
يتم توفير المقال من قبل مزود محتوى خارجي. لا تقدم SeaPRwire (https://www.seaprwire.com/) أي ضمانات أو تصريحات فيما يتعلق بذلك.
القطاعات: العنوان الرئيسي، الأخبار اليومية
يوفر SeaPRwire تداول بيانات صحفية في الوقت الفعلي للشركات والمؤسسات، مع الوصول إلى أكثر من 6500 متجر إعلامي و 86000 محرر وصحفي، و3.5 مليون سطح مكتب احترافي في 90 دولة. يدعم SeaPRwire توزيع البيانات الصحفية باللغات الإنجليزية والكورية واليابانية والعربية والصينية المبسطة والصينية التقليدية والفيتنامية والتايلندية والإندونيسية والملايو والألمانية والروسية والفرنسية والإسبانية والبرتغالية ولغات أخرى.