الدردشة مع تطبيقات الذكاء الاصطناعي هي الترند حالياً في عالم التقنية، خصوصاً عندما يتعلّق الأمر بالنسخة المطورة “شات جي بي تي- 4” التي تم إطلاقها منتصف شهر مارس/آذار الحالي، وهي التي تتوفر على خصائص جديدة تتعدى بكثير النسخة السابقة.
وإن كان التطوّر الكبير في الذكاء الاصطناعي يجلب الاهتمام، خصوصاً قدرته تقديم أجوبة فيها نسب من الدقة، وقدرته كذلك القيام بعدد من المهام البشرية في العديد من المهن، ومن ذلك مهام الكتابة والترجمة والمحاسبة وجمع المعلومات والتحليل المالي وغير ذلك، فإنه في الجانب الآخر يثير مخاوف كبيرة تهدّد الكثير من الناس ليس فقط بفقدان وظائفهم.
لا يتوقف ضرر الذكاء الاصطناعي على الوظائف فقط، بل هناك تحديات أخلاقية كبيرة بات تصاحبه. هذا الأسبوع شهد أول حالة وفاة ناجمة عن استخدام تطبيق للدردشة، ووقعت تحديدا في بلجيكا، إذ انتحر باحث ومهتم بالبيئة بعد استخدام مفرط للمحادثة مع منصة إليزا، إحدى أقدم منصات الذكاء الاصطناعي، وهي معروفة بتقديم المشورة النفسية ودعم الأفراد نفسياً عندما يحتاجون الحديث.
وأكدت زوجة الباحث لوسائل إعلام بلجيكية أن زوجها كان يعيش حياة عادية قبل أن يتحول شغفه بالمجال البيئي إلى قلق مفرط خوفاً على الكوكب من الكوارث التي تنتظره بسبب التغيّر المناخي وما إلى ذلك من الظواهر المناخية السلبية، وأضحى الزوج منعزلاً للغاية، كما بدأ يعتقد أن الحل لن يكون سوى في الذكاء الاصطناعي.
اليونسكو تتدخل
منظمة اليونسكو من جهتها دعت العالم إلى تطبيق توصية أصدرتها عام 2021 على طرق تطوير هذا الذكاء. تشدد التوصية على “إنشاء أداة تشريعية لتنظيم الذكاء الاصطناعي ومراقبته” تضمن كذلك “الأمن الكامل للبيانات الشخصية والحساسة”.
وتؤكد اليونسكو أنه يجب استحضار البعد الأخلاقي في طموح الدول الاستفادة من هذا التطوّر التقني حتى يتم تقليل المخاطر الناجمة عنه. وتؤكد المنظمة الاممية أن هذه التقنية تخلق حالياً تحديات كبيرة، خصوصا إمكانية نشرها لمعلومات مضللة، وأخرى فيها انتهاك لحقوق الأفراد والمجموعات.
خبراء التقنية يحذرون
كان مثيراً للاهتمام وجود أسماء مهتمة كثيرة بالتطور التكنولوجي، كإيلون ماسك، مالك تويتر ومؤسس شركتي سبايس اكس وتيسلا، والمؤسس المشارك لشركة “آبل” ستيف فوزنياك، في عريضة منشورة على موقع “فيوتشر اوف لايف” (futureoflife.org) لأجل المطالبة بالتوقف لمدة ستة أشهر عن تطوير أبحاث الذكاء الاصطناعي.
الخبراء الموقعون على العريضة، طالبوا بوقف موقّت لعمليات تطوير برامج الذكاء الاصطناعي إلى حين اعتماد أنظمة حماية، تتيح تنظيم هذه العمليات ومراقبتها وتحليل المعلومات الواردة فيها، وكذلك معالجة ما قد ينجم من استخدامها من اختلالات. ويولي ماسك اهتماماً كبيراً بالعريضة، إذ يعدّ ممولاً رئيسياً لموقع المنظمة الذي نُشرت فيه.
ومن الموقعين الآخرين، المؤرخ يوفال نوح هراري، وعماد موستاكي مؤسس “ستابيليتي أي إيه” ويان تالين، مؤسس مشارك في سكايب، وكرين لارسن مؤسس مشارك في “ريبل”، وكريغ بيترس، مؤسس موقع “غيتي للصور”.
وتتساءل العريضة عن جدوى تطوير “عقول غير بشرية قد تفوقنا عددا وتتفوق علينا في النهاية”؟ وعن خطر المجازفة بفقدان السيطرة على الحضارة البشرية، كما تطالب بعدم منح قرارات تغيّر وجه الذكاء الاصطناعي لقادة في عالم التقنية لم يتم انتخابهم، ولذلك تطالب بوقف أيّ تطوير لأيّ نظام ذكاء اصطناعي يفوق قوة آخر إصدار من “شات جي بي تي 4”.
وسبق لماسك ومجموعة من الباحثين أن نشروا عام 2017 عريضة تحتوي على 23 بنداً، 13 منها موجه للإشكاليات الأخلاقية. ومن هذه البنود، توصية تخصّ ضمان أمان المستخدمين، واعتماد إجراءات شفافة، وضمان تصميم هذه الأنظمة بما يتوافق مع الكرامة الإنسانية والحقوق والحريات والتنوع الثقافي، فضلاً عن ضمان الخصوصية، وأن تكون الاستفادة الاقتصادية من هذه الأنظمة مفتوحة أمام الجميع.
ومن الموقعين على هذه العريضة حينها، ديمس هاسابيس، مؤسس منصة “ديب مايند” للذكاء الاصطناعي، وإيليا سوتسكيفر، مؤسس مشارك في شركة “أوبن إيه أي” التي طوّرت “شات جي بي تي”، ويان ليكون، مدير أبحاث الذكاء الاصطناعي في فيسبوك، وجيف دين، مدير مشروع “غوغل برين” (عقل غوغل).
وطالبت هذه العريضة حينها بأن يكون دور الأبحاث العلمية في الذكاء الاصطناعي هو خلق ذكاء مفيد، وليس ذكاء غير موجه، كما دعت إلى أن الاستثمار في هذه التقنيات يجب أن يصاحبه تمويل للأبحاث التي تطمح إلى ترشيد الاستخدام، وطالبت العريضة كذلك بتحديث النظام القضائي حتى يستطيع البت في قضايا تخصّ هذا الذكاء.
المصدر: dw.com