خبير: نواجه وباء معلوماتيًا بفعل الذكاء الاصطناعي.. ومطلوب تشريعات دولية «خاص»

في ظل تنامي استخدامات الذكاء الاصطناعي وتأثيره المتسارع على كافة مجالات الحياة، حذر الأمين العام للأمم المتحدة أنطونيو غوتيريش من خطورة عسكرة هذه التكنولوجيا، داعيًا إلى توجيه استخدامها نحو تحقيق النمو الاقتصادي وتعزيز رفاه المجتمعات.
وفي هذا السياق، أكد الدكتور محمد عزام، خبير تكنولوجيا المعلومات، أن الذكاء الاصطناعي بات مكونًا أساسيًا في كافة الصناعات، سواء الدفاعية أو المدنية، مما يستوجب ضرورة فرض أطر تنظيمية وتشريعية صارمة.
تفخيخ المعلومات وتسليحها.. أخطر أدوات الذكاء الاصطناعي
وأوضح عزام في تصريحات خاصة لنيوز رووم, أن إحدى أخطر الظواهر المرتبطة بالذكاء الاصطناعي تتمثل في ما يمكن تسميته بـ"تفخيخ المعلومات" أو "تسليحها"، حيث تستخدم تقنيات الذكاء الاصطناعي لتوجيه الرأي العام أو التلاعب به، سواء من داخل الدولة أو خارجها. وأشار إلى أن تقارير صادرة عن معهد الإنترنت في جامعة أوكسفورد، منذ عام 2019، كشفت عن حالات لاستخدام الذكاء الاصطناعي للتأثير على الانتخابات، والصراعات الدولية مثل الحرب في أوكرانيا، أو الصراع الإسرائيلي الفلسطيني، وحتى أحداث مصر في 2011.
الذكاء الاصطناعي والهندسة الاجتماعية.. كيف يتم شحن المجتمعات؟
وأشار خبير تكنولوجيا المعلومات إلى أن تقنيات الذكاء الاصطناعي تتيح تحليل المزاج العام وتحديد نقاط الغضب المجتمعي، ما يسمح باستخدام ما يسمى بـ"الهندسة الاجتماعية"، عبر إنتاج محتوى موجه بدقة، ونشره بواسطة حسابات وهمية أو أفراد حقيقيين، بهدف التحريض أو زعزعة الاستقرار.
الأسلحة الذكية والقتل التلقائي.. التحدي الأخلاقي الأكبر
وتناول عزام الجانب الأخطر في الاستخدامات العسكرية للذكاء الاصطناعي، مؤكدًا أن الأسلحة الفتاكة ذاتية التشغيل قادرة على اتخاذ قرار بالقتل دون تدخل بشري، وهو ما يثير تساؤلات أخلاقية جوهرية تتعلق بالمسؤولية عن القتل أو التصفيات. وأضاف: "هل يمكن أن نسمح لصاروخ أو طائرة بدون طيار أن تستهدف شخصًا أو جماعة بناء على خوارزمية؟ هذا تهديد مباشر لقيم العدالة والتمييز الإنساني".
دعوة إلى ميثاق أخلاقي وتشريعات دولية
وكشف الدكتور محمد عزام عن مشاركته في لجنة غير رسمية تابعة للأمم المتحدة تهدف إلى وضع قواعد لاستخدام الذكاء الاصطناعي بشكل آمن وأخلاقي، موضحًا أن هناك مساعٍ دولية لصياغة مبادئ تحظر استخدام الذكاء الاصطناعي في الاستهداف، أو التمييز، أو التحريض على العنف، أو بث المعلومات المضللة، أو انتهاك الخصوصية.
الاتحاد الأوروبي في طليعة التنظيم: تشريع لحماية البشر من خوارزميات التمييز
ونوّه عزام إلى أن الاتحاد الأوروبي وضع مؤخرًا أحد أكثر التشريعات صرامة بشأن الذكاء الاصطناعي، من خلال "قانون الذكاء الاصطناعي AI Act"، الذي يصنّف بعض التطبيقات كـ"عالية الخطورة"، ويمنع استخدامها، خاصة تلك التي تتعلق بتصنيف البشر، أو اتخاذ قرارات وظيفية وتمويلية تؤثر في حياتهم. كما يُلزم الشركات بالكشف عن الخوارزميات ونُظم التقييم المستخدمة.
تحديات التطبيق ومخاوف من تأخر الغرب
ورغم هذه الجهود، أشار عزام إلى أن قدرة أوروبا على فرض تلك التشريعات قد تواجه تحديات كبيرة بسبب سرعة تطور التكنولوجيا، مؤكدًا أن التأخر في تبني الذكاء الاصطناعي نتيجة التشريعات البيروقراطية قد يضع أوروبا في موقف متأخر مقارنة بباقي الدول.