top of page
Search

كيف تؤثر الثقافة المؤسسية على تبنّي ذكاء اصطناعي أخلاقي في القطاع الحكومي


ربما لاحظت السرعة الكبيرة التي تحدث في مجال تبني الذكاء الاصطناعي داخل القطاع الحكومي، ولكن هل تبين لك في خضم هذه الحركة او تحققت من مدى موائمة الثقافة المؤسسية لهذا التغيير؟ إذا كنتَ مثلي مؤمناً بأن "المشكلة ليست كامنة بالأنظمة، بل بالطريقة والعقلية الكامنة خلفها" فربما تؤمن أيضاً بأنه من دون تطوير عادات أخلاقية قوية في المؤسسة فإن الفشل حتى لأكثر أنظمة الذكاء الاصطناعي تقدماً في القطاع الحكومي ممكناً وبالتالي قد تفشل في حماية الناس الذين صُمِّمت لأجلهم.

مقدمة: لماذا تعتبر الثقافة مهمة في أخلاقيات الذكاء الاصطناعي

ترتبط استمرارية أخلاقيات الذكاء الاصطناعي أو حتى موتها بحسب الثقافة السائدة في المؤسسة والسؤال هنا: كيف يكون ذلك؟ مثلاً عندما تُقدّر المؤسسة الشفافية والعدالة وتعتبرها أولوية تصبح فرق العمل أكثر قدرة على اكتشاف التحيّز وطرح الأسئلة الصعبة حول الأتمتة الخطرة. إن تغيير الثقافة السائدة في المؤسسة يحتاج إلى قادة حقيقين، يمكنك ان تتخيل عند وجود قادة "الفعل" يتبنون الاخلاق كأولوية وليس فقط بالشعارات عندها حتماً سيتبعهم الموظفون، أضف الى ذلك الحوافز التي تلعب دوراً أساسياً عند مكافئة القرارات المسؤولة.ولأن السلوكيات مهمة في أخلاقيات الذكاء الاصطناعي فإنه من الضروري تعزيز النقاشات المفتوحة حول المخاطر والمساءلة وجعلها ممارسة يومية وليست استثناءً. إن المؤسسات التي تتمتع بمنظومات حوكمة قوية وانضباط أخلاقي تكون أكثر قدرة على التعامل مع التحيّز الخصوصية والشفافية بثقة وكفاءة اعلى. والخلاصة هنا: ابنِ ثقافة تمكّن الناس من طرح الأسئلة الصعبة عندها ستصبح أنظمة الذكاء الاصطناعي أكثر أماناً وذكاءً وثقة.

المعايير الثقافية المؤسّسة للذكاء الاصطناعي الأخلاقي

الذكاء الاصطناعي الأخلاقي يتجاوز المسألة التقنية، فالثقافة في جوهره. لاحظ مثلا انه في المؤسسة التي يستطيع فيها الموظفون تحدّي الافتراضات دون خوف وبشكل سلس فحتماً ستظهر التحيّزات مبكراً سواء في خوارزميات المشتريات أو تصميم الدردشة الآلية لخدمة المواطنين او غيرها. ان التعاون الفعّال في المؤسسة يلغي ما يمكن ان نسميه النقاط العمياء وسيساعد وجود معايير شفافية البيانات وأدوات الرقابة العمل أكثر موثوقية.ان تبني وجود عقلية "التأنّي عند الحاجة" والتي تتيح الاختبار قبل إطلاق أنظمة الذكاء الاصطناعي يمنع الأخطاء عالية المخاطر في الصحة العامة مثلا وغيرها من المجالات الحساسة، وهذا النوع من الوعي الاستباقي بالمخاطر يساعد المخططين الحضريين مثلا على معالجة مشكلات العدالة على المدى الطويل والناتجة عن استخدام أدوات الذكاء الاصطناعي قبل ترسيخها في السياسات وعند التنفيذ. وعليه فان تبنّي مثل هذه المعايير يقلّل الأذى ويبني قطاعاً عاماً أكثر أماناً وذكاءً ويتماشى مع القيم المجتمعية.

المعايير الثقافية التي تعيق الذكاء الاصطناعي الأخلاقي

وكما ذكرنا سابقاً فإن فشل الذكاء الاصطناعي الأخلاقي سريعاً وحتمياً في حال اعاقت الثقافة تقدّمه. فمثلاً وفي كثير من المؤسسات الحكومية المبنية بشكل هرمي تقضي الهرمية على النقاش الصريح والهادف، ويمكنك تصور إذا لم يستطع الموظفون تقديم انتقادات لخوارزميات شراء خاطئة على سبيل المثال، فهل سنُفاجأ بانتشار التحيّز في المؤسسة بعد ذلك؟ ان ثقافة الخوف في المؤسسة الحكومية قد تزيد الأمر سوءاً حيث يتردد الناس في رفع المخاوف الى أصحاب القرار فتتسلّل بناء على ذلك أدوات الذكاء الاصطناعي الخطرة دون مراجعة حقيقية.هل مررت بما أسميه "الامتثال الشكلي"؟ يعمل هذا النوع من الامتثال على التركيز على تلبية الحد الأدنى من المتطلبات بدلاً من السؤال المهم عند مراجعة أنظمة الذكاء الاصطناعي: "هل هذا فعلاً عادل؟" مشكلة أخرى هي الثقة العمياء في الذكاء الاصطناعي والتي تُضخم الأخطاء وتنقلها الى مستوى آخر ومثال ذلك الاعتماد المفرط على نماذج تخطيط المدن والتي قد تؤدي إلى استثمارات خاطئة بالكامل. أضف الى ذلك عندما تعمل الفرق في عزلة والذي يقود الى ان يفقد الجميع الصورة الكبيرة والنظرة من الاعلى. مثل هذه التحديات تتجاوز وضع العقبات امام المؤسسة الى مشاكل أكبر مثل اضعاف ثقة الجمهور وتُقوِّيض الأخلاق ولذلك سيتوجب علينا دائما ًإصلاح الثقافة كخطوة أولى نحو ذكاء اصطناعي مسؤول.

سلوكيات قيادية تشكّل استخدام الذكاء الاصطناعي الأخلاقي

لن تحتاج إلى ساحر لجعل الذكاء الاصطناعي الأخلاقي حقيقة وهو ايضاً لن يحدث بالصدفة. ان ما تحتاجه ان يقوم قادة حقيقيون بوضع الأساس لذكاء اصطناعي أخلاقي منذ اليوم الأول. فعلى الصعيد العملي على القادة أن يحددوا توقعات وان يضعوا متطلبات واضحة حول العدالة والشفافية والمسؤولية المطلوبة وأن يدعموا هذه التوقعات بإجراءات حقيقية مثل طلب تنفيذ عمليات تدقيق أخلاقية وتوضيح كيفية اتخاذ القرارات والبيانات المستخدمة في أنظمة الذكاء الاصطناعي.كما يجب ايضاً أن يموّل القادة أدوات الحوكمة والتدريب ليتمكن الموظفون من اكتشاف المخاطر مبكراً وتغذية العملية بوجهات نظر متنوعة لأن الابتكار الحقيقي لا يأتي من منظور واحد فقط. وعندما يشعرون بأن شيئاً ما غير صحيح في منظومة العمل في الذكاء الاصطناعي فيصبح التأني في الاندفاع نحو الذكاء الاصطناعي من الحكمة مع المطالبة بتحليل دوري أعمق والتأكيد على منع إطلاق أنظمة غير مختبرة بشكل كاف تجنباً للأذى. مثل هذه السلوكيات المتوقعة من القادة ستساعد حتما على تبني ثقافة واضحة الأولويات حيث تكون القيم الإنسانية هي الحارس الحقيقي للتكنولوجيا.

خطوات عملية لبناء ثقافة داعمة للذكاء الاصطناعي الأخلاقي

ان بناء ثقافة مؤسسية داعمة للذكاء الاصطناعي الأخلاقي يبدأ من الممارسات اليومية في المؤسسة. ولذلك فإن أول ما يجب عمله هو تضمين الأخلاق في مراحل المشتريات ومراجعة المشاريع بحيث تُفحَص كل أداة ذكاء اصطناعي من ناحية العدالة والشفافية قبل إطلاقها، كما يجب وجود فريق حوكمة متعدد التخصصات (سياسات، قانون، تقنية، تفاعل مجتمعي) لضمان اتخاذ قرارات متوازنة.ولا يمكن هنا تجاهل التدريب العملي المستمر على اكتشاف التحيّز والمخاطر كأمر أساسي وليس نشاطاً لمرة واحدة. كذلك يجب تمكين الموظفين من الاعتراض على القرارات الخوارزمية دون خوف أو تردد، وعند ظهور سلوكيات قيادية أخلاقية فيجب مكافأتها. بهذه الخطوات يصبح الذكاء الاصطناعي المسؤول أكثر من مجرد شعار، بل يرتقي ليصبح معياراً يحافظ على مصداقية المؤسسات وثقة المجتمع واستعدادها للمستقبل.

خاتمة

في النهاية، إن الذكاء الاصطناعي الأخلاقي ليس أمراً تقنياً بقدر ما هو ثقافي، فالأنظمة التي تبنيها ستعكس السلوكيات السائدة في مؤسستك. وقبل ان تمضي قدماً في رحلة الذكاء الاصطناعي اسأل نفسك: هل تعمل مؤسستك في مسار نحو الشفافية والشجاعة والمساءلة أم نحو الإنجاز فقط؟ إن مستقبل الذكاء الاصطناعي الأخلاقي في مؤسستك يبدأ بالعقلية التي تبنيها اليوم.


References:

[1]          M. Rezaei, M. Pironti, and R. Quaglia, “AI in knowledge sharing, which ethical challenges are raised in decision-making processes for organisations?,” MD, Apr. 2024, doi: 10.1108/MD-10-2023-2023.

[2]          B. Diab and M. El Hajj, “Ethics in the age of artificial intelligence: unveiling challenges and opportunities in business culture,” Cogent Business & Management, vol. 11, no. 1, p. 2408440, Dec. 2024, doi: 10.1080/23311975.2024.2408440.

[3]          C. Cannavale, L. Claudio, and D. Koroleva, “Digitalisation and artificial intelligence development. A cross-country analysis,” European Journal of Innovation Management, vol. 28, no. 11, pp. 112–130, Dec. 2025, doi: 10.1108/EJIM-07-2024-0828.

[4]          E. Özkan, “The importance of cultural diversity in Artificial Intelligence systems,” 2025.

[5]          A. Tlili, M. Denden, M. Abed, and R. Huang, “Artificial intelligence ethics in services: are we paying attention to that?!,” The Service Industries Journal, vol. 44, no. 15–16, pp. 1093–1116, Dec. 2024, doi: 10.1080/02642069.2024.2369322.

[6]          H. Wang and V. Blok, “Why putting artificial intelligence ethics into practice is not enough: Towards a multi-level framework,” Big Data & Society, vol. 12, no. 2, p. 20539517251340620, June 2025, doi: 10.1177/20539517251340620.

[7]          J. Rose, “The Ethics of Artificial Intelligence in Education: Practices, Challenges, and Debates: edited by Wayne Holmes and Kaśka Porayska-Pomsta, New York, NY, Routledge, 2023, 288 pp., $52.95 (paperback), $180 (hardback), $47.69 (ebook), 9780367349721, 9780367349714, 9780429329067,” The Serials Librarian, vol. 85, no. 5–6, pp. 169–171, July 2024, doi: 10.1080/0361526X.2024.2427948.

[8]          J. Guo, J. Chen, and S. Cheng, “Perception of Ethical Risks of Artificial Intelligence Technology in the Context of Individual Cultural Values and Intergenerational Differences: The Case of China,” Feb. 15, 2024, In Review. doi: 10.21203/rs.3.rs-3901913/v1.

 
 
 

Comments


CONTACT ME

  • Black LinkedIn Icon
  • Black Facebook Icon
  • X
  • Black Instagram Icon

Thanks for submitting!

BUSINESS & DIGITAL TRANSFORMARTION LEADER

Phone:

+971 (50) 562-5541

+974 3388 8071

Email:

© 2023 By Amer Maithalouni. 

bottom of page