عالم التقنية والذكاء الاصطناعي .. نحو تحول آمن ومسؤول في العمل الخيري
- يقصد بالذكاء الاصطناعي الأخلاقي تصميم الأنظمة الذكية واستخدامها بطريقة تحترم الكرامة الإنسانية، وتحفظ الخصوصية، وتقلّل الانحياز، وتُبقي الإنسان حاضرًا في القرارات الحساسة
- الذكاء الاصطناعي ليس غاية في ذاته ولا ميدان تنافس شكلي بين المؤسسات؛ بل وسيلة لتعظيم أثر العمل الخيري وتحسين عدالته وشفافيته وحفظ الكرامة والخصوصية
بعد استعراض الأبعاد التقنية والشرعية والأمنية للذكاء الاصطناعي في العمل الخيري، تأتي هذه الحلقة لتجمع تلك الأبعاد المهمة في إطار أخلاقي واضح، وتقدّم خارطة طريق عملية للتحول نحو (منظمة ذكية) لا تنفصل فيها التقنية عن القيم الأخلاقية.
القيم حاكمة للتقنية
يذكّرنا قوله -تعالى-: {وَتَعَاوَنُوا عَلَى الْبِرِّ وَالتَّقْوَى} بأن الوسائل - مهما بلغت من التقدم - لا قيمة لها إن لم تُسخّر للبرّ والتقوى، وإن استُخدمت في غير ذلك تحوّلت إلى أدوات ضرر وفساد، والذكاء الاصطناعي في هذا المنظور ليس غاية في ذاته ولا ميدان تنافس شكلي بين المؤسسات؛ بل وسيلة لتعظيم أثر العمل الخيري وتحسين عدالته وشفافيته وحفظ الكرامة والخصوصية، ومن هنا يجب أن تُعرض كل مبادرة تقنية على ميزان المقاصد الشرعية: هل تقرّبنا من خدمة المستفيدين بكرامة وعدل؟ هل تحمي المتبرعين وتحترم نيّاتهم؟ أم تدفعنا إلى الاستعراض الرقمي والتضخم الشكلي للأرقام؟سياسات حيّة لا أوراق منسية
لا قيمة لسياسة مكتوبة تُحفظ في الأدراج؛ المهم أن تصبح جزءًا من ثقافة المؤسسة، ولذلك من الضروري:- مراجعة السياسات التقنية سنويًا كما تُراجع الميزانية والخطة الاستراتيجية.
- إشراك ممثلين عن مختلف الأقسام في صياغتها، حتى تعكس الواقع اليومي للعمل لا مجرد (نموذج مثالي شكلي!).
- تدريب الموظفين الجُدد على هذه السياسات ضمن برنامج التهيئة، لا الاكتفاء بتوقيعهم عليها.
الأمن مسؤولية الجميع
على الرغم من تطور أدوات الحماية الرقمية وتعقّد أنظمة الأمن السيبراني، يظلّ الإنسان هو العنصر الأكثر تأثيرًا في حماية المؤسسة أو تعريضها للخطر؛ فالهجمات السيبرانية الحديثة لم تعد تعتمد فقط على كسر التشفير أو استغلال الثغرات التقنية، بل تستهدف -بالدرجة الأولى- السلوك البشري: رسالة بريد مُقنعة، رابط يبدو موثوقًا، أو طلب عاجل يتجاوز الإجراءات بدافع الحرص على المصلحة، ومن هنا ينبع مفهوم الجدار البشري؛ أي مجموعة الأفراد الواعين الذين يشكّلون خط الدفاع الأول قبل أي نظام أو برنامج.- وفي بيئة العمل الخيري، تتضاعف حساسية هذا الدور، لأن طبيعة العمل قائمة على الثقة، وحسن الظن، وسرعة الاستجابة للحالات الإنسانية، وهي صفات نبيلة قد تُستغل إذا لم تُدعّم بوعي أمني راسخ؛ فالموظف أو المتطوع الذي يدرك مخاطر مشاركة البيانات، ويتحقق من الطلبات غير المعتادة، ويلتزم بالإجراءات حتى في أوقات الضغط، يساهم فعليًا في حماية المستفيدين والمتبرعين وسمعة المؤسسة.
- إن بناء الجدار البشري لا يعني تحويل الموظفين إلى خبراء تقنيين، بل ترسيخ قناعة أن الأمن (السيبراني) سلوك يومي، لا مهمة موسمية ولا عبء إداري؛ فكل كلمة مرور قوية، وكل امتناع عن مشاركة غير مسوغة، وكل بلاغ مبكر عن تصرف مشبوه، هو لبنة في هذا الجدار، وحين يشعر العاملون أن الأمن جزء من الأمانة -لا من التعقيد-، تتحول الحماية من أوامر مكتوبة إلى ممارسة تلقائية واعية.
توصيات عملية لتعزيز «الجدار البشري»
- إدراج الوعي السيبراني ضمن التدريب الأساسي لجميع الموظفين والمتطوعين.
- تنفيذ حملات توعوية قصيرة ومتكررة بدل دورات طويلة متباعدة.
- تشجيع ثقافة الإبلاغ دون لوم عن الأخطاء أو الاشتباهات الأمنية.
- تبسيط الإجراءات الأمنية حتى لا يُنظر إليها كعائق للعمل.
- ربط الالتزام الأمني بالقيم المؤسسية والأمانة الشرعية، لا بالخوف من العقوبة فقط.
مراحل التحول إلى منظمة ذكية
يمكن رسم خارطة طريق مبسطة من أربع مراحل للتحول الرقمي:- الوعي: نشر فهم صحيح داخل المؤسسة حول ماهية الذكاء الاصطناعي، وفرصه ومخاطره، مع تجنب التهويل أو التهوين، وربط الموضوع بالمقاصد الشرعية والغايات المؤسسية.
- التجريب المنضبط: وذلك من خلال إطلاق مشاريع صغيرة محددة الأهداف والمؤشرات، في مجالات مثل التقارير أو إدارة التبرعات أو تنظيم المتطوعين، مع توثيق الدروس المستفادة.
- التوسع الآمن: من خلال تعميم التطبيقات الناجحة تدريجيا على باقي الإدارات أو الفروع، مع تقوية البنية التحتية الرقمية والسيبرانية، وضبط السياسات الداخلية.
- التقييم المستمر: مراجعة دورية للأثر (إيجابيًّا وسلبيًّا)، وضبط الخوارزميات والعمليات بما ينسجم مع المتغيرات والضوابط الشرعية والأخلاقية.

مصطلحات حوكمة الذكاء الاصطناعي:
من المصطلحات التي أصبحت ضرورية في هذا السياق:- الذكاء الاصطناعي الأخلاقي (Ethical AI): ويُقصد به تصميم واستخدام الأنظمة الذكية بطريقة تحترم الكرامة الإنسانية، وتحفظ الخصوصية، وتقلّل الانحياز، وتُبقي الإنسان حاضرًا في القرارات الحساسة. ولا يتحقق هذا المبدأ بالشعارات، بل بسياسات واضحة تمنع إساءة الاستخدام وتلزم بالمراجعة البشرية حيث يلزم.
- إدارة المخاطر التقنية (Technology Risk Management): وهي عملية مستمرة تهدف إلى التنبؤ بالمخاطر المحتملة المرتبطة باستخدام التقنيات الذكية - سواء كانت انحيازًا في الخوارزميات، أو اعتمادًا مفرطًا على الأتمتة، أو تهديدات أمنية - ووضع خطط عملية للوقاية والاستجابة، بدل الاكتفاء بردود الفعل بعد وقوع الضرر.
- التوعية الأمنية (Security Awareness): وتُعدّ من أهم عناصر الحوكمة، إذ لا قيمة لأي سياسات أو أنظمة متقدمة إذا لم يُدرك العاملون طبيعة المخاطر المرتبطة بالتقنية، ولم يلتزموا بالسلوكيات الآمنة في التعامل مع البيانات والأدوات الذكية، خاصة في البيئات الخيرية التي يغلب عليها عنصر الثقة وحسن الظن.
لاتوجد تعليقات