رئيس التحرير

سالم أحمد الناشي
اعداد: م. أمجد ذياب 29 يناير، 2026 0 تعليق

عالم التقنية والذكاء الاصطناعي .. الذكاء الاصطناعي «التوليدي» بين الإدارة والعمل الخيري

  •  يجب عدم استخدام الذكاء الاصطناعي في التواصل مع المتبرعين دون مراجعة تضمن حفظ المقاصد الشرعية واحترام الخصوصية
  •  الذكاء الاصطناعي التوليدي يُنتج نصوصًا لكنه لا يُنتج حُكمًا شرعيا لأنه لا يفـقـه النصــوص ولا مـقاصدها

ظهر في السنوات الأخيرة نوع خاص من الذكاء الاصطناعي يسمَّى (الذكاء الاصطناعي التوليدي)؛ حيث يستطيع إنتاج نصوص وصور وملخصات وتقارير تشبه ما يكتبه البشر إلى حدٍّ كبير، وقد أغرى هذا التطور كثيرًا من المؤسسات - ومنها الخيرية والدعوية - بالاعتماد على هذه الأدوات لتوفير الوقت والجهد، لكن هذا الأمر قد يحمل في طيّاته مخاطر إذا اختلطت حدود (المسودة) بـ(الفتوى) وحدود (المعونة) بـ(الاستبدال).

مسودات أولية وليست أحكاما شرعية

       الذكاء الاصطناعي التوليدي يُنتج نصوصًا، لكنه لا يُنتج حُكمًا شرعيًا؛ لأنه لا يفقه النصوص ولا مقاصدها، بل يعالج أنماطًا لغوية وإحصائية مبنية على بيانات سبق تغذيته بها، وقد نبَّه العلماء قديمًا إلى أن الاجتهاد لا يُؤخذ من الكتب وحدها دون أهل العلم؛ فكيف يُؤخذ من خوارزميات صمّمها مبرمجون لا يُشترط فيهم العلم بالشرع ولا مراعاة مقاصده!

        ومن الخطأ الجسيم أن تُترك الأداة التوليدية تصوغ الفتاوى أو الخطب أو الأجوبة الشرعية المباشرة للجمهور دون مراجعة علمية مؤهلة؛ لأن ما يبدو في ظاهره نصًا (منضبطًا) قد يخفي خللًا في الاستدلال أو في تنزيل الحكم أو في ترتيب الأولويات؛ لذلك يجب ترسيخ قاعدة واضحة: (كل ما ينتجه الذكاء الاصطناعي في المجال الدعوي إنما هو مسودات أولية قابلة للتعديل أو الرفض، وليست أحكامًا نهائية أو خطابات جاهزة للنشر).

تنظيم المعرفة لا استبدال العلماء

       في المقابل، يمكن للذكاء الاصطناعي التوليدي أن يؤدي دورًا مهمًّا في تنظيم المعرفة الشرعية وخدمة العلماء والدعاة؛ لا في الحلول محلهم بل بالمساعدة في صياغة الفتوى وجمع المعلومات حولها، ومن ذلك: فهرسة الفتاوى والمقالات، واقتراح المراجع ذات الصلة بسؤال معين، وتلخيص البحوث المطوّلة إلى نقاط رئيسة تساعد العالِم أو الباحث على سرعة الإحاطة بالمادة.

        ويمكن لهذه الأدوات أن تبني (قواعد معرفية) داخل المؤسسة الخيرية، بحيث تجمع فيها المواد المعتمدة شرعيًا وإداريًا، ثم تتيح للعاملين البحث الذكي داخلها؛ فيجد الموظف أو الداعية الجواب الأقرب من مواد المؤسسة الموثوقة، لا من فضاء الإنترنت المفتوح، ومع ذلك، يبقى التكييف والترجيح والنظر المقاصدي في النوازل من اختصاص العلماء والهيئات الشرعية، لا من اختصاص النماذج التوليدية.

استخدامات إدارية وعملية مفيدة

        على الصعيد الإداري، يمكن للذكاء الاصطناعي التوليدي أن يختصر وقتًا كبيرًا في الأعمال الكتابية المتكررة داخل المؤسسات الخيرية، فهو قادر مثلًا على إنتاج مسودات: التقارير الدورية، المراسلات الرسمية، مذكرات التفاهم، عروض المشاريع، الخطط الأولية للحملات الإعلامية، ثم يتولى الموظف المختص مراجعتها وتكييفها مع سياق المؤسسة وثقافتها.

        وهذا النمط من الاستخدام يوفّر للموظفين وقتًا أثمن يمكن تخصيصه للتفكير الاستراتيجي وبناء العلاقات والتخطيط بعيد المدى، بدل الغرق في تفاصيل الصياغة المتكررة التي لا تضيف قيمة نوعية لكنه يظل مشروطًا بالمراجعة البشرية الإلزامية؛ فالمسؤول لا يوقّع على وثيقة لم يقرأها؛ بحجة أنها (من إنتاج الذكاء الاصطناعي).

سياسة مكتوبة وحدود واضحة

        ومن هذا المنطلق لا يكفي الإقناع النظري في العمل المؤسسي؛ بل لابد من سياسة مكتوبة تنظم التعامل مع الذكاء الاصطناعي التوليدي، توضّح: في أي مجالات يُسمح باستخدامه؟ ومن يملك صلاحية ذلك؟ وكيف تُوثَّق المراجعة البشرية؟ وما أنواع المحتوى المحظور توليده أو نشره عبر هذه الأدوات (كالفتوى المباشرة أو العقود الملزِمة)؟

         ولا شك أن وجود مثل هذه السياسة يحمي المؤسسة من الارتجال، ويحفظ العاملين من التورط في ممارسات قد تسيء للثقة أو تتعارض مع المرجعية الشرعية.

توصيات للقيادات الخيرية في مجال الأتمتة

  •  لا تسمح باستخدام الذكاء الاصطناعي في التواصل مع المتبرعين دون مراجعة بشرية تضمن حفظ المقاصد الشرعية واحترام خصوصيات الناس.
  •  ابدأ بتجربة صغيرة في حملة واحدة أو قسم واحد، مع أهداف قابلة للقياس، ثم تعلّم من التجربة قبل التعميم على المؤسسة كلها.
  •  راقب أثر الأتمتة والتحليل الذكي على رضا الموظفين، لا على الأرقام وحدها؛ فالتقنية وُجدت لتخفيف العبء وتعزيز المعنى الإنساني، لا لتحويل العاملين إلى ملحقات لبرامج جامدة.

مصطلحات في الذكاء الاصطناعي التوليدي

من المفيد توضيح بعض المصطلحات المرتبطة بهذا الباب:

  •  (Generative AI): أنظمة قادرة على توليد محتوى جديد (نصوص، وصور، وصوت…) استنادًا إلى أنماط تعلّمتها من بيانات سابقة.
  •  (Human-in-the-loop):

نموذج عمل يُشترط فيه وجود الإنسان في كل مرحلة حساسة؛ فيُراجع، ويوافق، أو يرفض ما تنتجه الأنظمة الذكية.

  •  قاعدة المعرفة: مستودع منظم للمعلومات والوثائق والفتاوى والتقارير، يُستخدم للإجابة عن الأسئلة المتكررة وتوحيد مرجعية المؤسسة.
  •  المراجعة البشرية الإلزامية: سياسة داخلية تمنع اعتماد أي محتوى مولّد آليا للنشر أو التوقيع قبل تدقيق إنساني موثَّق.

ولا شك أن مثل هذه المفاهيم تجعل الحديث عن الذكاء الاصطناعي التوليدي داخل المؤسسة أكثر انضباطًا ووضوحًا، بدل الاكتفاء بالشعارات العامة.

لاتوجد تعليقات

أضف تعليقك