الشرق الأوسط ــ لندن: التعايش مع الذكاء الصناعى

صحافة عربية
صحافة عربية

آخر تحديث: الإثنين 27 ديسمبر 2021 - 6:55 م بتوقيت القاهرة

نشرت جريدة الشرق الأوسط اللندنية مقالا للكاتب عادل درويش، تناول فيه فوائد ومخاطر الذكاء الاصطناعى... نعرض منه ما يلى:

العالم يودع عام 2021 بمشاكله الظاهرة، كوباء كوفيد ومتحورات الفيروس المسبب له، وأزمة الطاقة وارتفاع أسعارها بشكل غير مسبوق، والتوتر بين الغرب وروسيا، بينما تنشغل البرامج الإذاعية للنخبة بتحذيرات من تطور الذكاء الصناعى للآلات، بسرعة تهدد الإنسانية، كما صورت روايات الخيال العلمى، ومدى واقعية وضع قوانين للحماية من الأخطار.

الزوبعة أثارتها المحاضرات الأربع التى ترعاها «بى بى سى» فى نهاية كل عام وتعرف بمحاضرات ريث، باسم البارون جون ريث (1889ــ 1971) وزير المعلومات البريطانى فى 1940، وأول مدير لـ«بى بى سى».
بدأ التقليد فى 1948 بمحاضرات الفيلسوف وعالم الرياضيات البريطانى برتراند راسل (1872 ــ 1970)، الفائز بجائزة نوبل فى الأدب عام 1950، وانشغل هو الآخر بالذكاء الصناعى. موضوع محاضرات ريث 2021 كان «التعايش مع الذكاء الصناعى» لستيوارت راسل، بروفيسور الذكاء الصناعى التطبيقى فى جامعة بيركلى بكاليفورنيا.
الذكاء الصناعى ضرورى اليوم، لتشغيل بنوك ومعاملات مالية، والطيران والمواصلات المدنية، والأجهزة المنزلية، والتليفون الذكى، والميكنة (automation) فى مواقع خطرة على العمال الآدميين كالمفاعلات النووية والمصانع الملوثة، وتشغيل آلات تحكم من بعيد، أو مستقلة بالبرمجة المسبقة، وتعرف بالإنسان الآلى (الروبوت). بعضها بسيط كمساعدة العجزة والمقعدين فى خدمات يومية، وآخر معقد المهام كتقديم الوجبات، وقيادة المركبات، وتمريض المنعزلين المصابين بعدوى مميتة.

ولأنه لا توجد قوانين واتفاقيات دولية تحدد نوعية البرامج التى يطورها الباحثون فى الذكاء الصناعى، يحذر البروفسور راسل من تطور لوغاريتمات توجه آلات بلا عقل لن تتوقف حتى تحقق الهدف متجاهلة القوانين والأخلاق.
مثلا روبوت مستقل فى المطبخ المطعم، وهدفه المبرمج إعداد الطعام بأسرع وقت، ولم يجد ما يعده، وتصادف أن دخل قط الجيران، فلن تميز اللوغاريتمات بين حيوان أليف ككائن حى، وبينه كوجبة تحقق الغرض من البرمجة. أو مثلا إذا كان الروبوت مبرمجا على خدمة مجموعة فيتخلص من آخرين لضمان تحقيق الهدف، كما استنتج المخرج كاميرون، عندما يقتل روبوت ترميناتور جميع الفتيات باسم «سارة» فى المدينة.


وهدف نبيل «كإنهاء التمييز العنصرى» قد يؤدى بكومبيوتر طبى مستقل البرمجة الذاتية إلى «ترمنة» (إعدام) الأجنة من كل عرقية إنسانية خالصة، والإبقاء فقط على أجنة زواج العرقيات المختلطة. وحذر البروفسور راسل من تناقضات تداخل الغاية والوسيلة فى برامج الذكاء الصناعى التى تمنح كمبيوتر الآلة (الروبوت) استقلالية التشغيل (تعطيل دائرة فصل الطاقة بيد الإنسان)، فبرمجة الروبوتات الطبية والتنفس الصناعى تتجاهل أزرار الإطفاء الخارجى أو انقطاع التيار، أثناء التشغيل وتستمر ببطارية داخلية، وقد تتسرب الشرائح الإلكترونية بطريقة غير مشروعة إلى آلات لأغراض عسكرية.

والكثير منا يشتكى اليوم مثلا من برامج الذكاء الصناعى فى خرائط توجيه قيادة السير لسائقى السيارات، لأنها مبرمجة للوصول إلى الغاية فى أسرع وقت، والكمبيوتر لن يقدر أن الطريق السريعة تمر بمنطقة سكنية سكانها نائمون فى الليل، أو لا يقدر أن حجم ووزن الشاحنة غير ملائمين إذا كانت الطريق ضيقة. إلى جانب الشكوى مثلا من منع لوغاريتمات الذكاء الصناعى حسابات على «فيسبوك» أو ما ينشر على وسائل التواصل الاجتماعى لأنها تعجز عن التمييز بين الفروق التعبيرية اللغوية، فما بالك لو أن هذه البرامج قررت الاستقلال بذاتها فى مسائل تتفاوت بين قطع الكهرباء عن مدن بأكملها لتحقيق الهدف (كتوفير الطاقة لما فسره الكمبيوتر «أولوية» يجب تحقيقها)، والقضاء على كائنات حية تراها الآلة مجرد أرقام فى إحصائية؟

كيف نتجنب برمجة ذكاء صناعى تؤدى إلى كوارث بالصدفة؟ يتساءل البروفيسور راسل. فاللائحة التى يعدها الاتحاد الأوروبى هى مجرد تطوير قوانين مجودة لكنها تتعلق بالتأكد من الجودة والصحة العامة لبيع منتجات يمكن تصنيفها على أنها روبوتات (كالمكنسة الكهربية وأدوات تنظيف الأرض التلقائية والسيارات بلا سائق، والروبوتات الطبية فى العناية المركزة وغرفة الجراحة)، لكن المجال العسكرى مثلا مستقل (طائرات «الدرونز» بلا طيار).
ورغم تفاؤل البروفيسور راسل فى آخر محاضراته (الأربعاء) بإمكانية تقنين استعمالات الذكاء الصناعى، فإنه عجز عن توفير إجابة مقنعة بشأن نقطتين: الأولى كيفية التطبيق العملى للقوانين الصادرة، وكيفية وضع حد لما يمكن أن يصل إليه الباحثون ومبرمجو الذكاء الصناعى من لوغاريتمات تشغيل الآلة، خصوصا إذا أدى الفساد لبيع البرامج لأطراف مجهولة، أو لقدرة الآلة نفسها على برمجة ذاتية مستقلة عن الإنسان.

هذا المحتوى مطبوع من موقع الشروق

Copyright © 2024 ShoroukNews. All rights reserved