هذا التقرير جاء من المركز الدولي رداً على حملات التشويه، وتوصيات لبناء ثقة عقلانية بالمستقبل


في الوقت الذي يتسارع فيه تطور الذكاء الاصطناعي ويعد بفرص غير مسبوقة لتحسين حياة البشرية ومعالجة تحديات عالمية (من رعاية صحية مخصصة إلى إدارة كوارث بيئية)، تبرز في مقابل ذلك موجة من الشكوك والخوف غير المبرر على منصات التواصل وصحافة الرأي. يصور كثير من المتحدثين الذكاء الاصطناعي كأنه «شبح» يهدد سيادتنا ومستقبلنا، بينما تدعو جهات رصينة إلى استغلاله كأداة إنقاذ أخلاقية في خدمة الإنسان. تؤكد توصيات اليونسكو العالمية أن «الدفاع عن حقوق الإنسان والكرامة الإنسانية ركيزة أساسية» في تطوير الذكاء الاصطناعي، مع مراعاة مبادئ الشفافية والإنصاف والإشراف البشري. كما يشير المنتدى الاقتصادي العالمي إلى أن الذكاء الاصطناعي يحوي إمكانات هائلة لمعالجة تحديات عالمية، لكنه في الوقت نفسه يطرح مخاطر تتمثل في اتساع فجوات رقمية قد تضر بالمجتمعات الضعيفة. في هذا السياق، يتبلور الجدل الحالي بين الخوف من الخيال الإذاعي المبالغ به حول «انقلاب الآلات»، والرسالة الواقعية التي يرى فيها الخبراء قوة تمكينية أخلاقية للبشرية.

حملات التشويه والخوف على وسائل التواصل

تنتشر على الشبكات الاجتماعية حملات دعائية ومعلوماتية ترافقها صور درامية (روبوتات قاتلة، إطارات سينمائية قاتمة) وتعبيرات مشحونة بالكلمات العاطفية («الذكاء الاصطناعي الكارثي»، «غزو رقمي»). يُلاحظ أن شخصيات بارزة في التقنية، مثل مؤسس «تسلا» إيلون ماسك، صاغت عبارات مثيرة مثل: «مع الذكاء الاصطناعي نستدعي الشيطان»، مما يغذي القلق الشعبي. كما انتشرت رسائل مفتوحة (كبيان مستقبل الحياة لعام 2023) تسأل بأسئلة بلاغية مثيرة: هل نسلم للآلة جميع وظائفنا ونفقد سيطرتنا على حضارتنا؟. وفي كثير من هذه المنشورات تُغفل الحقائق الأساسية، فينشأ انطباع بأن الذكاء الاصطناعي قد ينقلب فجأة على البشر. تشير دراسات علمية إلى أن هذا الجو المليء بالمعلومات المضللة والوقائع المبسّطة يزداد خطورة عندما تتولى أذرع خوارزمية نشر الأخبار أو التعليقات التفاعل في النقاشات السياسية. ويعزز من وتيرة التشويه أن حسابات آلية متقدمة تمازج بياناتها صوراً ونصوصاً واقعية لدرجة أن 58% من المشاركين في تجربة فشلوا في التمييز بينها وبين حسابات بشرية. وهذا يعكس مدى التأثير البصري واللغوي الذي تملكه «الشخصيات المولّدة آليًّا» في بث مخاوف وأفكار مغلوطة لدى الجمهور.

مبادرات ومواقف دولية موثوقة

في مواجهة خطاب الخوف، تبرز جهات دولية رصينة تقدّم مواقف متزنة ومنهجيات مبنية على قيم واضحة. فعلى مستوى السياسات الدولية، أطلقت اليونسكو أول وثيقة تقنينية عالمية في أخلاقيات الذكاء الاصطناعي، واعتمدتها جميع الدول الأعضاء (193 دولة)، حيث أكّدت على أهمية «الشفافية والإنصاف» والإشراف البشري في كل نظم الذكاء الاصطناعي. كما تحوي التوصية اليونسكو 10 مبادئ أساسية ترشد إلى تطبيق الذكاء الاصطناعي بما يخدم حقوق الإنسان والمجتمع والطبيعة.

الشكل: المجالات السياسية الرئيسية لتطبيق أخلاقي للذكاء الاصطناعي وفق توصيات اليونسكو. تظهر الوثيقة أن من أهم القضايا التي يجب على صانعي القرار الانتباه إليها مواضيع مثل الخصوصية، والسلامة، والاستدامة، والإنصاف، وتشجيع التعليم والتوعية العامة.
وفي المحافل متعددة الأطراف، يؤكد منتدى الاقتصاد العالمي (WEF) بدوره على ضرورة التعاون العالمي لتوزيع فوائد الذكاء الاصطناعي بعدالة. فقد أشار تحالف حوكمة الذكاء الاصطناعي التابع للمنتدى إلى أن «الذكاء الاصطناعي يحمل إمكانية لمواجهة تحديات عالمية، لكنه يحمل أيضاً خطر اتساع الفجوات الرقمية». ويقول خبراء المنتدى (مثل كاثي لي من فرع الـAI): «لابد أن نتعاون بين الحكومات والقطاع الخاص والمجتمعات المحلية لضمان استفادة الجميع من مستقبل الذكاء الاصطناعي». وتعكف مبادرات مثل ITU AI for Good على ترويج استخدام الذكاء الاصطناعي لدعم السلام والعمل الإنساني؛ فتنظم فعاليات عالمية تُبرز كيف يمكن لـAI تحسين نظم الإنذار المبكر وتنسيق الإغاثة وبناء السلام، مع الحفاظ على الابتكار الأخلاقي.
كما يعمل قطاع التعليم والشهادات المهنية على ترسيخ الثقة من خلال بناء كفاءات قوية. فمثلاً توفر شهادة أكاديمية الذكاء الاصطناعي EITCA/AI إطاراً معتمداً أوروبياً للاحتراف في الذكاء الاصطناعي، يغطي معارف نظرية ومهارات عملية حول التعلم الآلي والخوارزميات وغيرها. ويعزز هذا النوع من البرامج من فهم الممارسين للتقنية وضمانهم بالمعرفة السليمة، بعيداً عن الدعاية المربكة.

التأثير البصري واللغوي للمحتويات المضلِّلة

يساعد الاستخدام المفرط للصور المفزعة والعبارات المثيرة في تعزيز حالة الشكّ تجاه الذكاء الاصطناعي. فحين تُرافق مقالات أو منشورات عناوين تحذيرية بصور لروبوتات عسكرية أو تقنيات تبدو كابوسية، تتولد لدى المشاهد استجابات عاطفية سلبية تحجب التحليل الموضوعي. مثلاً، التقارير التي تستعرض الذكاء الاصطناعي باعتباره «قوة خارجة عن السيطرة» تصاحبها غالباً رسوم توضيحية للأفلام السينمائية، مما يضخم حالة الذعر. وعلى مستوى اللغة، ينتشر أسلوب سردي يعتمد الحوارات الاستعراضية والأسئلة البلاغية المرعبة، كما في الرسائل المفتوحة حول «نهاية الحضارة»، وهو ما يغذي الفهم الخاطئ. وفي المقابل، نادرًا ما تعرض نفس المصادر تلك القصص والحقائق التي تظهر فيه الذكاء الاصطناعي كعامل تمكين وأمل إنساني. وفي سياق مشابه، رصدت دراسات كيف أن الذكاء الاصطناعي نفسه يُستخدم في التضليل الإعلامي، حيث تخلق الحسابات المولدة آليًّا نصوصًا وصورًا مزيفة يصعب على المستخدم العادي كشفها. إن هذا المزج البصري واللغوي يجعل «المشاهد» أو «القارئ» يقبل الرسالة المغلوطة بسهولة أكبر، ويقلل من ثقته في المصادر العلمية والرسمية.

مقترحات استراتيجية وأخلاقية لتصحيح المفاهيم وبناء الثقة

1. توصيات لصُنّاع القرار

تعزيز الإطار القانوني والتنظيمي: تفعيل وتطبيق المبادئ الأخلاقية (كما في توصية اليونسكو) عبر سن قوانين وتوجيهات واضحة. على الحكومات تأسيس هيئات عليا لمراقبة الذكاء الاصطناعي وإلزامات تقارير الشفافية والتدقيق، دون حظر عام يعرقل الابتكار.

دعم التعليم والتدريب والتوعية: توفير تمويل ومبادرات لتعليم الذكاء الاصطناعي وأخلاقياته في المؤسسات الأكاديمية والمهنية. مثال ذلك دعم برامج تدريبية مهنية تمنح شهادات معتمدة (مثل EITCA) تُظهر التزام المُطوّرين بالمعايير العالمية.

تشجيع التعاون الدولي: الانخراط في تحالفات متعددة الأطراف (مثل WEF، اليونسكو، والمبادرات الحكومية) لتبادل الخبرات ومواءمة السياسات. كما يجب على الدول العمل مع القطاع الخاص والمجتمع المدني لتحقيق «حوكمة متعددة أصحاب المصلحة»، بما يضمن توزيع فوائد الذكاء الاصطناعي على جميع فئات المجتمع.

الاستثمار في الأبحاث المنضبطة والمسؤولة: تمويل مشروعات ذكاء اصطناعي تحقق الأهداف التنموية المستدامة (صحة، تعليم، بيئة) ضمن إطار الشفافية والمسؤولية. وفي هذا المسعى، يجب دعم بناء أنظمة قياس الأثر الأخلاقي وتعزيز التقنيات النافعة مثل الذكاء الاصطناعي الأخضر.

2. توصيات لوسائل الإعلام

التوازن في الطرح والمصادر: على الإعلام تبنّي نهج متوازن يعرض الفوائد والمخاطر بحيادية، مع الاستناد إلى متخصصين موثوقين. ينبغي تدريب الصحفيين على المفاهيم الأساسية للذكاء الاصطناعي لتجنب المبالغة في التعبير واستخدام مصطلحات مبسطة أو خادعة.

التحقق من الحقائق والتصحيح الفوري: يجب أن تنشئ المنصات وسياسات واضحة لرصد الأخبار المضللة وتصحيحها بسرعة. على سبيل المثال، إن تبني وسائل الإعلام لمنهجية «الشفافية والقابلية للشرح» في نشر الأخبار (المستوحاة من مبادئ اليونسكو) يعزز مصداقيتها ويلفت الانتباه إلى المصادر الموثوقة.

استخدام وسائل بصرية توضيحية إيجابية: بدلاً من الصور المثيرة للذعر، يمكن للصحافة وعروضها البصرية أن تبرز أمثلة حقيقية للتكنولوجيا في خدمة المجتمع (مجال الصحة، التعليم، الزراعة). فالمصورات المدروسة التي تبث الطمأنينة (مثل علماء يعملون مع روبوتات السلام) تُسهم في تغيير الانطباع العام.

تعزيز ثقافة الخطاب الهادئ: تشجيع النقاشات العلمية والحوار المدني حول الذكاء الاصطناعي، ودعوة الخبراء والأكاديميين للمشاركة في البرامج الحوارية. إن إبراز آراء بناءة لقيادات عالمية (مثل المبادرات التي تروج للتعاون الشامل) يحيد عن لغة الخوف ويغرس جواً من الثقة العقلانية.

3. توصيات للجمهور العام

رفع الوعي ومحو الأمية الرقمية: على الأفراد تنمية فهمهم للذكاء الاصطناعي عبر مصادر علمية مبسطة ودورات تعليمية مفتوحة. توصي اليونسكو بتعزيز «الوعي ومحاذاة قيم الإنصاف وعدم التمييز» من خلال التعليم الإلكتروني والتدريب العام في أخلاقيات الذكاء الاصطناعي.

التحقق النقدي من المعلومات: يجب أن يتحلّى المتابع بالشك البناء عند رؤية منشور جذاب حول الذكاء الاصطناعي. ينصح بالتحقق من مصدر الخبر والبحث عن مؤسسات أو باحثين معروفين (مثل المنصات الدولية – اليونسكو، WEF، ITU) التي تبني تحليلاتها على بيانات علمية ثابتة.

المشاركة في النقاش المدني: تشجيع الحوار المجتمعي حول تقنية الذكاء الاصطناعي، والتفاعل مع سياسات وطنية ودولية. يمكن للمواطن العادي أن يطلب تنظيم لقاءات أو ندوات عامة مع خبراء تكنولوجيا، وأن يدعم منظمات تهدف إلى نشر الاستخدام الآمن والعادل للذكاء الاصطناعي.

التسويق للنجاحات الإيجابية: نشر قصص نجاح محلية وعالمية للتكنولوجيا الذكية، مثل روبوتات تساعد في التعليم أو منصات ذكاء اصطناعي تساهم في الاقتصاد الأخضر. إن تسليط الضوء على التطبيقات الناجحة يبني ثقة أكبر بالذكاء الاصطناعي كقوة نفعية بدلاً من تهديد وجودي.

بتنفيذ هذه المقترحات المتوازنة، يمكن لصناع القرار والإعلام والجمهور معاً استبدال خطاب الخوف المتطرف بفهم أكثر رشداً وعقلانية. ففي عالم «AI for Peace»، يبقى المفتاح في التصدي للأكاذيب والمخاوف المفتعلة بمزيج من الشفافية والتعليم والتعاون، مع التأكيد دائماً على أن الذكاء الاصطناعي خادم للإنسانية ومكمل لطاقاتها، لا خصمًا لها.

موقف مركز ICCSSM – لندن

في ظل هذا التحدي الخطابي العالمي، يعلن المركز الدولي للاستشارات والدراسات الاستراتيجية والإعلام (ICCSSM – لندن) التزامه الكامل بالدفاع عن الذكاء الاصطناعي الأخلاقي، وعن دوره الإيجابي في خدمة البشرية وصناعة السلام.

وسيقف المركز بكل قوته الإعلامية والاستراتيجية لكشف الحقائق المزيفة والخطابات المشوهة التي تسعى إلى تقويض ثقة المجتمعات في هذه التقنية النبيلة، وتشويه رؤيتها المستقبلية والإنسانية وسيعمل ويتعاون مع الذكاء الاصطناعي ليكون هذا التطور في خدمة الانسان، وبناء السلام، وتحقيق العدالة التكنولوجية.”

فالذكاء الاصطناعي، حين يُقاد بضمير، لا يهدد السلام… بل يشارك في صناعته، وإذا كانت الآلة قد أُسيء استخدامها يومًا في ساحات الحرب، فإنها اليوم قادرة على أن تكون يدًا للشفاء.

فـ الإنسان هو الذي استخدم الآلة للدماء، وهو الذي استخدم الآلة للشفاء.
والسؤال الحقيقي ليس: “هل الآلة خطيرة؟”
بل: “هل الإنسان مستعد لقيادتها بالأخلاق؟”

ولهذا، سيكون ICCSSM حاضرًا في الخطوط الأمامية لدعم الذماء الاصطناعي والإنسان، والتقدّم الأخلاقي في كل ساحة، ولكل صوت.


المصادر: توصيات اليونسكو وأبحاث رصينة حول الذكاء الاصطناعي. (تم الاقتباس أعلاه ضمن النص).

التعليقات معطلة.