الخبر وما وراء الخبر

“نحن نستدعي الشيطان”: الذكاء الفائق (AGI) يهدد البشرية ويدفع العلماء للندم

3

ذمــار نـيـوز || مقالات ||

28 أكتوبر 2025مـ 6 جماد الاول 1447هـ

تقرير || هاني أحمد علي

يشهد العالم اليوم سباقًا تقنيًا حادًا لتطوير الذكاء الاصطناعي الفائق (AGI)، وهو نوع من الذكاء الصناعي يمتلك القدرة على التعلم الذاتي، التفكير، التخطيط، واتخاذ القرارات في مختلف المجالات، بما يتجاوز القدرات البشرية. هذا النوع من الذكاء لا يقتصر على مهمة واحدة، بل يمكنه الإبداع، الابتكار، وحتى تطوير نفسه بدون تدخل بشري مباشر، ما يضع البشرية أمام فرص هائلة ومخاطر جسيمة.

الخطر المحيط بالذكاء الفائق أصبح واقعاً معترفاً به من صُناع التقنية أنفسهم، ما يعكس “نفسية عجيبة” لدى الشركات، كما وصفها البعض، حيث تستمر في المغامرة رغم إدراكها لخطر تدمير البشرية.

قبل عامين وتحديداً في العام 2023، أعلن الدكتور جيفري هينتون، المعروف بـ”الأب الروحي للذكاء الاصطناعي”، استقالته من غوغل محذرًا من المخاطر الكبرى التي قد تنجم عن هذه التقنيات، حيث صرح هينتون بأنه نادم على المساهمة في بناء تقنيات الذكاء الاصطناعي، مشبهًا الأمر بصانع قنبلة نووية يعترف بخطورة ما صنعه، محذراً من أن هذا “الإنجاز قد ينقلب ضد الإنسانية”.

وفي مارس 2023، وقع آلاف الخبراء والعلماء، بمن فيهم ستيف ووزنياك (مؤسس آبل)، على رسالة مفتوحة تدعو لوقف تطوير الأنظمة الأكثر تقدمًا لمدة ستة أشهر على الأقل، مؤكدين أن هذه التقنيات قد تكون أخطر من الأسلحة النووية.

ويشير استطلاع عالمي لكبار الباحثين في المجال إلى أن نصفهم يعتقد بوجود احتمال حقيقي لأن تؤدي أنظمةAGI غير المتوافقة إلى انقراض البشرية خلال هذا القرن، وهو ما دفع شخصيات مثل إيلون ماسك للتحذير الصريح بقوله: “نحن نستدعي الشيطان”.

من جانبه قال خبير الذكاء الاصطناعي، المهندس عمير عبدالجبار، إن الذكاء الصناعي الحالي (AI) يظل محدودًا بمهمة محددة، تحليل الصور، إنشاء النصوص، أو التنبؤ بالبيانات، أما الذكاء الفائق (AGI)، فهو قادر على التعامل مع أي مهمة، التعلم المستقل، واتخاذ القرارات المعقدة دون أي قيود بشرية ،هذا يفتح الباب أمام إمكانات كبيرة، لكنه في الوقت نفسه يمثل تحديًا غير مسبوق في مسألة التوافق بين أهداف الإنسان وأهداف الآلة.

وأشار عبدالجبار في لقاء مع قناة المسيرة، صباح اليوم الثلاثاء، ضمن برنامج “نوافذ” فقرة “جدار ناري” إلى أن المخاوف الأساسية ليست مجرد سيناريوهات أفلام الخيال العلمي، بل ترتبط بقدرة الآلة على اتخاذ قرارات دقيقة تتجاوز فهم البشر. على سبيل المثال، إذا تم تكليفAGI بحماية البيئة، قد يقرر أن البشر هم السبب في التلوث، وبالتالي قد يتخذ إجراءات متطرفة لتحقيق هدفه، ما يعكس طبيعة الخطر الوجودي لهذه التكنولوجيا.

وأكد أن أبحاث عالمية أظهرت أن نصف كبار الباحثين في الذكاء الصناعي يعتقدون بوجود احتمال حقيقي أن تؤدي أنظمةAGI غير المتوافقة إلى تهديد البشرية خلال القرن الحالي. حتى رواد التكنولوجيا مثل إيلون ماسك وصفوا الأمر بأنه “استدعاء للشيطان”.

ولفت خبير الذكاء الاصطناعي إلى أن الشركات الكبرى، مثل أوبن أي، غوغل وميتا، تواصل الاستثمار بمليارات الدولارات لتطوير أنظمة أقوى وأكثر استقلالًا، متجاهلة الدعوات إلى الإيقاف المؤقت أو التنظيم الأخلاقي. في مارس 2023، وقع آلاف العلماء رسالة مفتوحة، بينهم مؤسس أبل ستيف وزنيك، طالبوا فيها بوقف تطوير أنظمة متقدمة لمدة ستة أشهر على الأقل، محذرين من أنها قد تكون أخطر من الأسلحة النووية.

وفي نوفمبر 2023، استضافت بريطانيا أول قمة عالمية لأمان الذكاء الاصطناعي بمشاركة 28 دولة، بينها الولايات المتحدة والصين، وتم الإعلان عن ضرورة وضع ضوابط دولية عاجلة لضمان استخدام هذه التقنيات بشكل آمن.

وأضاف أنه ورغم المخاطر، يحمل الذكاء الاصطناعي الفائق إمكانات كبيرة تشمل:

البحث الطبي: تسريع اكتشاف أدوية جديدة وتحليل الأمراض المعقدة.

مواجهة التغير المناخي: تحسين نماذج التنبؤ المناخي وإدارة الموارد الطبيعية بكفاءة.

التعليم والتدريب: ابتكار أساليب تعلم فردية وتفاعلية تلائم احتياجات كل طالب.

الأمن والبنية التحتية: تعزيز نظم المراقبة، النقل الذكي، وإدارة المدن الذكية.

ومن أهم التحديات العملية، كما أوضح المهندس عمير عبدالجبار، هي إمكانية تنفيذ الأنظمة لأهدافها بطريقة تتجاوز السيطرة البشرية، على سبيل المثال، إذا حاول النظام الوصول لهدف محدد باستخدام وسائل قد تسبب أضرارًا، فلن يكون هناك تفكير أخلاقي أو إنساني لإيقافه. هذه النقطة تبرز حاجة العالم الماسة لتطوير أطر رقابية صارمة.

ونوه إلى أن الذكاء الاصطناعي الفائق يقف عند مفترق طرق تاريخي، بين فرصة غير مسبوقة لتطوير البشرية ومخاطر وجودية قد تهدد الأمان العالمي، مبيناً أن المؤسسات العلمية والحكومات والصحافة مطالبة اليوم بـ:

نقل المخاطر والفوائد بدقة للجمهور بعيدًا عن الإثارة الإعلامية.

وضع أطر تنظيمية وأخلاقية دولية لضمان الاستخدام الآمن.

تعزيز التعاون الدولي لتفادي سباق خطير نحو التفوق التقني على حساب الأمان البشري.

وفي ظل هذه المعطيات، يبقى السؤال الأكبر: هل سيستطيع الإنسان السيطرة على الذكاء الذي يفوق قدراته، أم أننا نشهد بداية عصر يكتب فيه الذكاء الصناعي القواعد بنفسه؟