بقلم جون بي. ديزموند، محرر اتجاهات الذكاء الاصطناعي
يميل المهندسون إلى رؤية الأشياء بمصطلحات لا لبس فيها، وهو ما قد يسميه البعض مصطلحات الأبيض والأسود، مثل الاختيار بين الصواب والخطأ، والخير والشر. يعتبر النظر في الأخلاقيات في الذكاء الاصطناعي دقيقًا للغاية، مع وجود مناطق رمادية ضخمة، مما يجعل من الصعب على مهندسي برمجيات الذكاء الاصطناعي تطبيقها في عملهم.
وكان ذلك ختام الجلسة حول مستقبل المعايير والذكاء الاصطناعي الأخلاقي حكومة الذكاء الاصطناعي العالمية عُقد المؤتمر شخصيًا وافتراضيًا في الإسكندرية، فيرجينيا. هذا الاسبوع.
الانطباع العام من المؤتمر هو أن مناقشة الذكاء الاصطناعي والأخلاقيات تجري تقريبًا في كل ربع من مجالات الذكاء الاصطناعي في المشروع الضخم للحكومة الفيدرالية، وقد برز اتساق وجهات النظر التي تم التعبير عنها عبر هذه الجهود المتنوعة والمستقلة.
قالت بيث آن شولك ليتش، الأستاذة المشاركة في الإدارة الهندسية وريادة الأعمال في جامعة وندسور، أونتاريو، كندا، متحدثة في مؤتمر مستقبل الأخلاقيات: “نحن المهندسين غالبًا ما نفكر في الأخلاقيات على أنها شيء غامض لم يشرحه أحد حقًا”. جلسة الذكاء الاصطناعي. “المهندسون الذين يبحثون عن حدود صارمة قد يجدون صعوبة في إخبارهم بأنهم أخلاقيون. يصبح الأمر معقدًا حقًا لأننا لا نعرف ماذا يعني ذلك في الواقع.
بدأت شولكه ليتش حياتها المهنية كمهندسة، ثم قررت الحصول على درجة الدكتوراه في السياسة العامة، وهي تجربة تسمح لها برؤية الأشياء كمهندسة وعالمة اجتماع. وقالت: “لقد حصلت على درجة الدكتوراه في العلوم الاجتماعية وتم إرجاعي إلى عالم الهندسة حيث أشارك في مشاريع الذكاء الاصطناعي، ولكني أقيم في كلية الهندسة الميكانيكية”.
وقالت إن المشروع الهندسي له هدف يصف الغرض، ومجموعة من الميزات والوظائف المطلوبة، ومجموعة من القيود، مثل الميزانية والإطار الزمني، “وتصبح المعايير واللوائح جزءًا من القيود”. “إذا كنت أعرف أنني يجب أن ألتزم به، سأفعل ذلك. ولكن إذا أخبرتني أن هذا أمر جيد، فقد أقبله أو لا أقبله.
يعمل Schuelke-Leech أيضًا كرئيس للجنة جمعية IEEE المعنية بالآثار الاجتماعية لمعايير التكنولوجيا. وعلقت قائلة: “إن معايير الامتثال الطوعية مثل IEEE ضرورية للأشخاص في الصناعة ليجتمعوا معًا ويقولوا إن هذا هو ما نعتقد أننا يجب أن نفعله كصناعة.”
بعض المعايير، مثل قابلية التشغيل البيني، ليس لها قوة القانون، لكن المهندسين يلتزمون بها حتى تعمل أنظمتهم. وتوصف المعايير الأخرى بأنها ممارسة جيدة، ولكن ليس من الضروري اتباعها. وقالت: “سواء كان ذلك يساعدني على تحقيق هدفي أو يعيقني عن تحقيق هدفي، فهكذا ينظر المهندس إلى الأمر”.
البحث عن أخلاقيات الذكاء الاصطناعي يوصف بأنه “فوضوي وصعب”
تعمل سارة جوردان، كبيرة مستشاري منتدى مستقبل الخصوصية، في جلسة مع Schuelke-Leech، على التحديات الأخلاقية للذكاء الاصطناعي والتعلم الآلي وهي عضو نشط في مبادرة IEEE العالمية بشأن الأخلاقيات والأنظمة المستقلة والذكية. “الأخلاق فوضوية وصعبة، ومليئة بالسياق. وقالت: “لدينا العديد من النظريات والأطر والبنيات”، مضيفة: “إن ممارسة الذكاء الاصطناعي الأخلاقي ستتطلب تفكيرًا متكررًا وصارمًا في السياق”.
قال شولك ليتش: “الأخلاق ليست النتيجة النهائية. إنها عملية يتم اتباعها. لكنني أبحث أيضًا عن شخص يخبرني بما يجب أن أفعله للقيام بعملي، ويخبرني كيف أكون أخلاقيًا، وما هي القواعد التي يجب أن أتبعها، لإزالة الغموض.
وقالت: “يصمت المهندسون عندما تستخدم كلمات مضحكة لا يفهمونها، مثل كلمة وجودية، فهم يدرسون الرياضيات والعلوم منذ أن كانوا في الثالثة عشرة من عمرهم”.
لقد وجدت صعوبة في إشراك المهندسين في محاولة تطوير معايير الذكاء الاصطناعي الأخلاقي. وقالت: “المهندسون مفقودون من الطاولة”. “إن المناقشات حول ما إذا كان بإمكاننا الوصول إلى الأخلاقيات بنسبة 100% هي محادثات لا يجريها المهندسون.”
واختتمت قائلة: “إذا طلب منهم المديرون أن يفهموا الأمر، فسيفعلون. علينا أن نساعد المهندسين على عبور جسر منتصف الطريق. ومن الضروري ألا يتخلى علماء الاجتماع والمهندسون عن هذا الأمر».
وصفت لجنة القائد دمج الأخلاقيات في ممارسات تطوير الذكاء الاصطناعي
أصبح موضوع الأخلاقيات في مجال الذكاء الاصطناعي مدرجا بشكل متزايد في المناهج الدراسية للكلية الحربية البحرية الأمريكية في نيوبورت بولاية رود آيلاند، والتي تأسست لتقديم دراسات متقدمة لضباط البحرية الأمريكية وتقوم الآن بتثقيف القادة من جميع الخدمات. شارك روس كوفي، أستاذ الأمن القومي العسكري بالمؤسسة، في لجنة القادة حول الذكاء الاصطناعي والأخلاق والسياسة الذكية في حكومة الذكاء الاصطناعي العالمية.
وقال كوفي: “تنمو المعرفة الأخلاقية لدى الطلاب بمرور الوقت أثناء تعاملهم مع هذه القضايا الأخلاقية، مما يجعلها مسألة ملحة لأنها ستستغرق وقتًا طويلاً”.
شاركت عضو اللجنة كارول سميث، وهي باحثة أولى في جامعة كارنيجي ميلون والتي تدرس التفاعل بين الإنسان والآلة، في دمج الأخلاقيات في تطوير أنظمة الذكاء الاصطناعي منذ عام 2015. واستشهدت بأهمية “إزالة الغموض” عن الذكاء الاصطناعي.
وقالت: “إن اهتمامي ينصب على فهم نوع التفاعل الذي يمكننا خلقه حيث يثق الأشخاص في النظام الذي يعملون معه بشكل مناسب، وليس كثيرًا أو قليلًا جدًا”، مضيفة: “بشكل عام، لدى الناس توقعات أعلى مما ينبغي لهم الأنظمة “.
وكمثال على ذلك، استشهدت بميزة Tesla Autopilot، التي تنفذ قدرة السيارة ذاتية القيادة إلى حد ما، ولكن ليس بشكل كامل. “يفترض الناس أن النظام يمكنه القيام بمجموعة من الأنشطة أوسع بكثير مما تم تصميمه للقيام به. من المهم مساعدة الناس على فهم القيود المفروضة على النظام. وقالت: “يحتاج الجميع إلى فهم النتائج المتوقعة للنظام وما قد تكون عليه بعض الظروف المخففة”.
يرى عضو اللجنة تاكا أريجا، أول كبير علماء البيانات المعين في مكتب محاسبة الحكومة الأمريكية ومدير مختبر الابتكار التابع لمكتب محاسبة الحكومة، وجود فجوة في معرفة القراءة والكتابة حول الذكاء الاصطناعي لدى القوى العاملة الشابة القادمة إلى الحكومة الفيدرالية. “لا يتضمن تدريب علماء البيانات دائمًا الأخلاقيات. إن الذكاء الاصطناعي المسؤول هو بناء جدير بالثناء، ولكنني لست متأكداً من أن الجميع سيتقبلونه. وقال: “نحن بحاجة إلى أن تتجاوز مساءلتهم الجوانب الفنية وأن نكون مسؤولين أمام المستخدم النهائي الذي نحاول خدمته”.
وتساءلت مديرة الجلسة أليسون بروكس، الحاصلة على درجة الدكتوراه ونائب رئيس الأبحاث للمدن والمجتمعات الذكية في شركة أبحاث السوق IDC، عما إذا كان من الممكن مشاركة مبادئ الذكاء الاصطناعي الأخلاقي عبر الحدود الوطنية.
“ستكون لدينا قدرة محدودة لكل دولة على التوافق مع نفس النهج، ولكن سيتعين علينا التوافق بطريقة ما مع ما لن نسمح به للذكاء الاصطناعي وما سيكون البشر مسؤولين عنه أيضًا”. وقال سميث من CMU.
وأشاد المشاركون بالمفوضية الأوروبية لكونها في طليعة هذه القضايا الأخلاقية، وخاصة في مجال الإنفاذ.
واعترف روس من الكلية الحربية البحرية بأهمية إيجاد أرضية مشتركة حول أخلاقيات الذكاء الاصطناعي. “من منظور عسكري، يجب أن تنتقل قابلية التشغيل البيني لدينا إلى مستوى جديد تمامًا. علينا أن نجد أرضية مشتركة مع شركائنا وحلفائنا حول ما سنسمح للذكاء الاصطناعي بفعله وما لن نسمح للذكاء الاصطناعي بفعله. وقال: “لسوء الحظ، لا أعرف ما إذا كانت هذه المناقشة تجري”.
واقترح سميث أنه ربما يمكن إجراء مناقشة حول أخلاقيات الذكاء الاصطناعي كجزء من بعض الاتفاقيات القائمة
قد يكون من الصعب اتباع العديد من المبادئ والأطر وخرائط الطريق الأخلاقية المقدمة عبر العديد من الوكالات الفيدرالية. قال تيك: “آمل أن نشهد اندماجًا في العام أو العامين المقبلين.”
لمزيد من المعلومات والوصول إلى الجلسات المسجلة، انتقل إلى حكومة الذكاء الاصطناعي العالمية.