الذكاء الاصطناعي بين الحقيقة والوهم
ذمــار نـيـوز || متابعات ||
5 نوفمبر 2025مـ 14 جماد الاول 1447هـ
تقرير | هاني أحمد علي: في زمنٍ تتغير فيه الحقائق بسرعة الضوء، لم يعد السؤال: من كتب المعلومة؟ بل أصبح: هل كتبها إنسان أم آلة؟
الذكاء الاصطناعي اليوم لم يعد مجرد أداة مساعدة، بل تحول إلى كاتب ومحلل وصحفي، وإلى محاور قادر على توليد أفكار بلغة بشرية متقنة، غير أن هذا التطور الهائل ترافق مع خلل جوهري يهدد مصداقية المعرفة: ظاهرة الهلوسة المعلوماتية.
وأوضحت مهندسة اتصالات متخصصة في إدارة المشاريع والتخطيط الاستراتيجي، المهندسة غادة الأسدي، أن الهلوسة المعلوماتية تحدث عندما ينتج الذكاء الاصطناعي مخرجات لغوية تبدو صحيحة شكلاً، لكنها في جوهرها خاطئة أو مختلقة بالكامل، فالنظام عند مواجهته سؤالاً لا يعرف إجابته، لا يعترف بعدم المعرفة، بل “يُخمن” استكمالاً للنص، فيقدّم معلومة واثقة لكنها زائفة.
وأضافت الأسدي في لقاء مع قناة المسيرة، صباح اليوم الأربعاء، ضمن برنامج “نوافذ” فقرة “جدار ناري”، أن تقارير حديثة صادرة عن جامعتي ستانفورد وأوبن آي أشارت إلى أن دقة أفضل النماذج لم تتجاوز 45% فقط في الاختبارات المعرفية، أي أن نصف ما ينتجه الذكاء الاصطناعي يمكن أن يكون ببساطة خطأ محسوباً إحصائياً، مما يخلق ما يسميه الخبراء بـ”الثقة الزائفة”.
وبشأن المخاطر النفسية والاجتماعية، حذرت من الاعتماد المفرط على الذكاء الاصطناعي، فقبول الإجابات دون تحقق يؤدي إلى تراجع مهارات التفكير والتحليل والإبداع لدى الإنسان، كما أن استبدال التواصل الإنساني بالمحادثات الآلية يعزز العزلة الاجتماعية، ويضعف التفاعل الحقيقي مع المحيط، لافتة إلى أن تداول معلومات غير دقيقة منسوبة للذكاء الاصطناعي يسهم في انتشار الشائعات وتشويه الوعي الجمعي.
ولفتت مهندسة اتصالات متخصصة في إدارة المشاريع والتخطيط الاستراتيجي، إلى أن استخدام الذكاء الاصطناعي كمصدر للتشخيص أو الاستشارة الطبية يمثل خطراً مباشراً، لأن هذه النماذج ليست أنظمة طبية معتمدة، ولا تملك القدرة على تقييم الحالات الصحية بشكل دقيق، وقد يؤدي الاعتماد عليها إلى تأخير العلاج أو الخطأ في التشخيص، مبينة أن الذكاء الاصطناعي يُدرَّب على التنبؤ بالنصوص وليس على فهم الحقائق الطبية.
وعن المسؤولية القانونية في حال تسببت المعلومات الخاطئة بأضرار، بينت المهندسة الأسدي أن المسؤولية مشتركة بين الشركات المطوّرة والمستخدمين، لكنها تميل غالباً إلى المستخدم إذا تجاهل التحذيرات التي ترفقها الأنظمة بوضوح، مثل تنبيه “تحقق من المعلومات الهامة” الموجود في أشهر النماذج.
وفسرت هذه الثقة بكون الذكاء الاصطناعي ظاهرة جديدة مبهرة، لكنها تؤكد أن المشكلة تكمن في سوء فهم آلية عمله، موضحة أن الآلة لا تفكر كالبشر، بل تعتمد على أنماط إحصائية لتوليد نص منطقي ظاهرياً، لذلك يجب التعامل معها كمساعد ذكي لا أكثر، وليس كبديل للعقل أو للخبرة الإنسانية.
وأوصت مهندسة اتصالات متخصصة في إدارة المشاريع والتخطيط الاستراتيجي، المستخدمين بعدة خطوات لضمان الاستخدام الآمن، أهمها:
تحديد الهدف من استخدام الذكاء الاصطناعي بدقة.
اعتبار المخرجات “اقتراحات أولية” لا إجابات نهائية.
التحقق من المعلومات عبر مصادر متعددة.
تقنين وقت الاستخدام وعدم الاعتماد عليه في اتخاذ القرارات المصيرية.
وأفادت أن نشر الوعي بهذه المبادئ مسؤولية الحكومات والمؤسسات التعليمية والإعلامية، من خلال دمج مفاهيم “محو الأمية الرقمية والذكاء الاصطناعي” في المناهج الدراسية وبرامج التدريب، مؤكدة أن الذكاء الاصطناعي أداة قوية، لكنه ليس بديلاً عن الإنسان، لذا يجب أن نستخدمه كمساعد ذكي فقط، وأن نبقي عقولنا هي المرجع الأول والأخير للتحقق والتفكير والتمييز بين الحقيقة والوهم
