اليونسكو تدعو الدول إلى تطبيق توصيتها بشأن الذكاء الاصطناعي حذرت من “مخاطر كبيرة على البشرية”.
نشر: بتاريخ 2023/04/12 المشاهدات:
75 مشاهدة

دعت منظمة الأمم المتحدة للتربية والعلم والثقافة (يونسكو) بلدان العالم إلى تطبيق توصيتها الصادرة عام 2021 لتنظيم الذكاء الاصطناعي، بعدما دعا إيلون ماسك (رئيس تويتر ومؤسس شركتي سبيس إكس وتسلا) ومئات الخبراء إلى وقف تطوير هذه البرامج 6 أشهر محذرين من مخاطر كبيرة على البشرية.

 

وقالت المديرة العامة لليونسكو أودري أزولاي في بيان “يحتاج العالم إلى قواعد أخلاقية أقوى للذكاء الاصطناعي، وهذا هو التحدي الذي نواجهه في وقتنا الحاضر. لقد وضعت توصية اليونسكو بشأن أخلاقيات الذكاء الاصطناعي الإطار التقني المناسب”.

خريطة طريق للبلدان

 

وكانت الدول الأعضاء الـ 193 باليونسكو أقرت بالإجماع في نوفمبر/تشرين الثاني 2021 “إطار العمل المعياري العالمي الأول للاستخدام الأخلاقي للذكاء الاصطناعي” وهي “خريطة طريق للبلدان، تصف طريقة الإفادة القصوى من فوائد الذكاء الاصطناعي مع تقليل المخاطر الناجمة عن هذه التكنولوجيا” بحسب المنظمة.

 

 

وصدر هذا النص بعد جهود استمرت 3 سنوات، ويفصّل الإجراءات التي يتعين القيام بها، ولا سيما إنشاء أداة تشريعية لتنظيم الذكاء الاصطناعي ومراقبته، أو “ضمان الأمن الكامل للبيانات الشخصية والحساسة” أو حتى تثقيف الجماهير حول موضوعها.

 

 

وعادت أزولاي لتقول “الوقت حان لتنفيذ الإستراتيجيات والأنظمة على الصعيد الوطني، وعلينا أن نحيل الأقوال إلى أفعال” معتبرة أن “من الواضح أنّ التنظيم الذاتي للقطاع غير كاف لتجنّب هذه الآفات الأخلاقية”.

 

 

وأشارت المنظمة الأممية إلى أن أكثر من 40 بلداً من جميع مناطق العالم تعمل مع اليونسكو لتطوير ضوابط وموازين الذكاء الاصطناعي على المستوى الوطني، استناداً إلى التوصية.

 

أخلاقيات الذكاء الصناعي

 

دعت اليونسكو جميع البلدان للانضمام إلى الحركة التي تقودها لتطوير ذكاء اصطناعي “أساسه الأخلاق” مشيرة إلى أن تقريراً مرحلياً سيُقدّم خلال منتدى المنظمة لأخلاقيات الذكاء الاصطناعي الذي يُقام في سلوفينيا في ديسمبر/كانون الأول 2023.

 

وقد وقّع مئات الخبراء العالميين، بينهم ماسك، وستيف فوزنياك المؤسس المشارك لشركة “آبل” -الأربعاء- دعوة للتوقف لمدة 6 أشهر عن تطوير أبحاث الذكاء الاصطناعي.

 

وفي العريضة المنشورة عبر موقع “فيوتشر أوف لايف” (futureoflife.org) طالب الخبراء بوقف موقّت لعمليات تطوير برامج الذكاء الاصطناعي إلى حين اعتماد أنظمة حماية منها، كإنشاء هيئات تنظيمية جديدة خاصة بهذا المجال، ومراقبة أنظمة الذكاء الاصطناعي، وتقنيات تساعد على تمييز الأعمال الفعلية من تلك المُبتكرة من برامج للذكاء الاصطناعي، وإنشاء مؤسسات قادرة على التعامل مع “المشاكل الاقتصادية والسياسية التي تتسبّب بها هذه البرامج”.

 

 

وسأل هؤلاء “هل يجب أن نسمح للآلات بإغراق قنواتنا الإعلامية بالدعاية والأكاذيب؟.. هل يجب أن نجازف بفقدان السيطرة على حضارتنا؟.. لا ينبغي تفويض هذه القرارات لقادة تكنولوجيين غير منتخبين”.

تحذيرات ومخاطر

تساءل عن  الأسئلة الأخلاقية المطروحة بالصدد من قبيل: هل نسمح مثلا لشركات التقنية بجمع وتحليل الحمض النووي للأفراد، وبيع هذه البيانات لشركات تصنيع الدواء من أجل إنقاذ الأرواح؟ وهل من الممكن تطوير برمجية تتخذ القرارات بشأن عقود التأمين على الحياة والموافقة على تقديم القروض؟ وهل يجب على الحكومات حظر أجهزة الروبوت التي تقدم الخدمات الجنسية للإنسان بشكل يحاكي الواقع؟ وكم يجب أن نستثمر في هذه التكنولوجيا التي تسببت في خسارة ملايين الناس لوظائفهم؟

 

وفي مقالهما المشترك بصحيفة واشنطن بوست (Washington Post) أشار الكاتبان دارين واكر (رئيس مؤسسة فورد) وهمانت تانيغا (رئيس شركة جنرال كاتاليست) إلى أن الذكاء الاصطناعي له القدرة على توسيع نطاق جميع الإخفاقات البشرية ونشرها، من تجاهل الحريات المدنية وإدامة العنصرية والطائفية وعدم المساواة، التي هي كلها متوطنة في المجتمع الأميركي.

 

وخلال ذلك ستقوم خوارزميات التعلم الآلي -التي تحاكي التعلم البشري- بتكرار الخطأ البشري والتحيز بطرق لا يمكن تمييزها غالبا، حتى نصطدم بالعواقب المتمثلة في القسوة الوحشية والاعتقالات الظالمة وفقدان الرعاية الحرجة لملايين السود، على سبيل المثال لا الحصر.

وأضاف الكاتبان أن الشركات التي تبحث وتطور الذكاء الاصطناعي تشارك أداة قوية مع جمهور قد لا يكون مستعدا لاستيعابها أو استخدامها بمسؤولية. كما أن الحكومات غير مستعدة بما فيه الكفاية لتنظيم هذه التقنية بطريقة تحمي المستخدمين لها، أو أولئك الذين قد يتضررون منها.

 

 

وختما المقال بالتأكيد على أن الذكاء الاصطناعي ليس مجرد اختراق تقني، وأننا إذا أردنا أن نحمي أنفسنا فعلينا أن نبادر بمواجهته ونطوق أنفسنا بحواجز توفر تلك الحماية ويجب أن يكون ذلك في أسرع وقت ممكن.

الإعلام والصحافة

 

وضمن الحديث عن أخلاقيات الذكاء الصناعي، تبرز عدة تساؤلات حول دوره في مجالات الصحافة والإعلام، ومؤخرا قامت المخرجة جنى المسلماني -من خلال الفيلم الوثائقي “إعادة التفكير بالصحافة في عصر الذكاء الاصطناعي”- بتسليط الضوء على أخلاقيات الآلة، داعية للتوعية بضرورة تحديد البوصلة الأخلاقية لتكنولوجيا الذكاء الاصطناعي وإيجاد معايير أخلاقية تنظم استخدامها بمجال الإعلام.

 

 

وقالت المسلماني للجزيرة نت “من المهم أن نعي تأثير الذكاء الاصطناعي على الإعلام والمجتمع، ولكن من الأهم أن نتناول الجانب الأخلاقي لاستخدام هذه التكنولوجيا” وأضافت “نرغب في تسليط الضوء على الحاجة إلى تطوير معايير أخلاقية تحكم تطبيق الذكاء الاصطناعي في الصحافة للحفاظ على نزاهة المهنة وضمان حماية الحقوق الأساسية للأفراد”.

 

 

وتضيف المخرجة أن الفيلم يهدف إلى فتح نقاش بنّاء حول كيفية استخدام تكنولوجيا الذكاء الاصطناعي بشكل مسؤول ومستدام في مجال الإعلام.

 

 

ويشجع الفيلم أصحاب القرار والمهتمين بهذا المجال على المشاركة في إيجاد حلول مشتركة، ووضع معايير ملائمة تحمي الجمهور والصحفيين على حد سواء من أي استخدام غير أخلاقي للتكنولوجيا.

 

ومن خلال تناول هذه القضايا الأخلاقية، تسعى المسلماني إلى جعل الفيلم منبرا للنقاش والتفكير حول تأثير الذكاء الاصطناعي على مستقبل الصحافة، وتوجيه الجهود الفكرية والعملية نحو استخدام مسؤول وأخلاقي لهذه التكنولوجيا.

المصدر: دربونة | Drbona
اقرأ ايضاً
© 2024 جميع الحقوق محفوظة الى دربونة