top of page
Search

الضجيج الأسرع، عندما يضعف الذكاء الاصطناعي المعرفة بدل أن يعزّزها


قد تكون أحدث بوابة معرفة في كثير من مؤسسات اليوم هي اكثر من مجرد مستودع وثائق او مجلدات أو حتى بوابة داخلية تحفظ المستندات الأساسية، بل بالغالب ما تكون روبوت محادثة يعمل بالذكاء الاصطناعي. عندما تسأله عن سياسة مؤسسية معينة، أو قرار تم اتخاذه في موضوع ما، أو الإجراءات الواجب اتباعها لتنفيذ عملية محددة فبالتأكيد سيجيبك فوراً وبوضوح. ليس الخطر هنا في كون الإجابة صحيحة أو خاطئة، الخطورة هي في أنك مع مرور الوقت تتوقف عن معرفة إلى أي مدى كانت هذه الإجابات دقيقة واي جزء من هذه الإجابة كان مفترضاً، أو كان مجرد تخمين مكتوب بأسلوب جيد.

بحسب سيمكيوت (Simkute) وزملاءه، فإن إدخال الذكاء الاصطناعي التوليدي إلى أعمال المعرفة غالباً ما ينقل دور المستخدمين من منتجين نشطين الى العمل في أدوار أكثر سلبية، حيث يقتصر فيها دورهم على تقييم النصوص التي تنتجها الآلة وتصحيحها وتجميعها. ويطلق سيمكيوت (Simkute) وزملاءه على هذا التحول اسم "التحول من الإنتاج إلى التقييم" والذي يعدّونه أحد أبرز تحديات الإنتاجية في أنظمة الذكاء الاصطناعي التوليدي.

ليس من المستغرب أن يصل هذا التحول الآن إلى مجال إدارة المعرفة، فقد أصبح روبوت المحادثة هو الواجهة الأولى وأحياناً وللأسف الوحيدة للوصول إلى المعرفة المؤسسية بالنسبة لكثير من المستخدمين ونقصد هنا بالمعرفة المؤسسية مثلاً السياسات المؤسسية ومعلومات المشاريع والدروس المستفادة وأي شي يتعلق ب"كيف نقوم بالأمور هنا".

عندما يُطبَّق الذكاء الاصطناعي بشكل سيئ في إدارة المعرفة، فلن يحدث الفشل بشكل صاخب ابداً، بل بالعكس، سيحدث بصمت. فقد تبدو الإجابات المنطقية والمصحوبة بدرجة كبيرة من الثقة في مكانها، وبينما تستمر المؤسسة في العمل هكذا تتراكم أضرار صغيرة في الخفاء ومن دون ملاحظة أحد. تدرك المؤسسات مع مرور الوقت أن الخطر الحقيقي ليس في إجابة خاطئة هنا وهناك، بل في الارتباك والضياع بين ما تعرفه المؤسسة وما لا تعرفه ولماذا تعرفه، والأهم من ذلك كله: هل يمكن الوثوق به؟

من المهم جداً إدراك أن الذكاء الاصطناعي التوليدي يضخّم كل ما يُغذّى به. فبغض النضر عن إذا كانت البيانات المستخدمة غير متسقة، أو قديمة، أو تفتقر إلى السياق، أو حتى خاطئة، فإن الذكاء الاصطناعي سيقوم في النهاية بتلخيصها على أي حال، وينتج نصوصاً مصقولة تماماً، وفي اغلب الأحيان من دون إبراز الفجوات. هنا تصل المؤسسات ما اسميه "تسريع الضجيج" بدلاً من خلق المعرفة واضحة، والتي فيها يتحول الغموض إلى فقرة منظمة، ويُصاغ التناقض بأسلوب جميل ليبدو كأنه "رأي متوازن" وفي بعض الأحيان "مقنع". لقد ساعد الذكاء الاصطناعي في هذا الاطار خلق مزيداً من الالتباس، فهل يمكن اعتبار إضافة ذلك إلى المعرفة المؤسسية "فهماً" أو "تعلمًا"؟

ان دور الإنسان في عملية التعلم داخل المؤسسات محوري، وعلى المؤسسات أن تولي اهتماماً حقيقياً بآليات التعلم لديها وبأهمية التفكير النقدي لتحقيق نتائج أفضل في إدارة المعرفة. انظر في هذا السياق وعلى سبيل المثال إلى دراسة لي وزملاءه (Lee) والتي عرضت نتائج استطلاع شمل 319 من اخصائي المعرفة والتي أظهرت أن الثقة الأعلى في الذكاء الاصطناعي التوليدي ترتبط بانخفاض مستوى التفكير النقدي في حين أن الثقة بالنفس ارتبطت بزيادة التفكير النقدي، ألا يبدو هذا مألوفاً او منطقياً؟

يجب أن يقلق هكذا أمر أي قائد او مسؤول يراهن على "التعلم المدعوم بالذكاء الاصطناعي". تخيل فقط انه إذا كان الأفراد يوكلون صنع المعنى او الفائدة إلى أداة قد تكون قد تعلمت من مصادر غير صحيحة، فهل هم يتعلمون بشكل أفضل وأسرع، أم أنهم يمارسون التفكير النقدي بدرجة أقل؟

لذلك، لا تتعلق المسألة فقط بـ"هلوسات" الذكاء الاصطناعي، فالخطر الأكبر في عمليات المعرفة هو تدهور التفكير النقدي وذلك عندما يُفوَّض العمل إلى أداة والذي قد يؤدي إلى أخطاء قد تبدو واقعية لكنها غير قابلة للتحقق كما يؤكد ساركار وزملاءه(Sarkar). قد تصبح عبارات مثل "هذا جيد بما يكفي" أو "يبدو مقبولاً في هذه المرحلة" أمراً طبيعياً مع مرور الوقت، ومعها يقل التحدي وبالتالي يقل التدقيق ويزداد القبول لأي نص يبدو جيد الصياغة.

ان النقاش حول إدارة المعرفة والذكاء الاصطناعي يجعل من الضروري طرح مسألة المساءلة، فعندما تؤثر إجابة مولّدة بالذكاء الاصطناعي في قرار ما، يبرز السؤال الجوهري الدائم: من يتحمل مسؤولية عواقب هكذا قرار؟ هل هو الموظف، أم مالك النظام، أم "النموذج" نفسه؟ في أبحاثهم حول الذكاء الاصطناعي في مشاركة المعرفة، يذكر رضائي وزملاءه تحديات أخلاقية رئيسية في هذا السياق مثل الشفافية وقابلية التفسير، إلى جانب المساءلة والمسؤولية وذلك باعتبارها عناصر تؤثر بشكل مباشر في جودة اتخاذ القرار.

أضف الى ذلك أنه قد تصبح الثقة في المعرفة المؤسسية هشة. فمثلاً عندما يجيب الذكاء الاصطناعي عن الأسئلة أو يولد معرفة من دون توضيح صلتها بالسياق، فقد ينتهي الأمر بالموظفين إما إلى فقدان الثقة بالأداة، أو فقدان الثقة بالمعرفة نفسها. الأسوأ من ذلك أن مخرجات الذكاء الاصطناعي قد تتحول بصمت وربما دون وعي إلى "المعرفة المؤسسية الجديدة" لتعيد كتابة الذاكرة المؤسسية بالكامل على شكل ملخصات وتفسيرات مصقولة تُخزَّن مرة أخرى في مستودعات المعلومات والوثائق المؤسسية والعروض التقديمية وإجراءات التشغيل القياسية والعمليات.

على القادة أن يدركوا هنا أن فجوات حوكمة الذكاء الاصطناعي قد تجعل هذا التآكل صعب الملاحظة. فقد ذكر بلوك ووانغ (Wang  & Blok، أن التركيز على الأداة وحدها قد يخلق العديد من التحديات في المؤسسة مثل صعوبة بناء الثقة وظهور أضرار خفية وغير معروفة على المدى الطويل. لذلك، أرى أن السؤال الحقيقي لقادة إدارة المعرفة لم يعد: "كيف نحصل على الإجابات أسرع؟" بل أصبح: كيف نضمن أن الذكاء الاصطناعي يدعم المعرفة المؤسسية بدلاً من أن يقوضها تدريجياً؟

والسؤال الآن هو: ما هي أولوية مؤسستكم: بناء معرفة أوضح، أم تحقيق ضجيج سريع؟

References

[1] H.-P. Lee, A. Sarkar, L. Tankelevitch, I. Drosos, S. Rintel, R. Banks, and N. Wilson, “The impact of generative AI on critical thinking: Self-reported reductions in cognitive effort and confidence effects from a survey of knowledge workers,” in Proc. CHI Conf. Human Factors in Computing Systems (CHI ’25), ACM, 2025, doi: 10.1145/3706598.3713778.

[2] M. Rezaei, M. Pironti, and R. Quaglia, “AI in knowledge sharing: Which ethical challenges are raised in decision-making processes for organisations?” Management Decision, 2024, doi: 10.1108/MD-10-2023-2023.

[3] A. Sarkar, X. Xu, N. Toronto, I. Drosos, and C. Poelitz, “When Copilot becomes Autopilot: Generative AI’s critical risk to knowledge work and a critical solution,” arXiv, arXiv:2412.15030v1, 2024.

[4] A. Simkute, L. Tankelevitch, V. Kewenig, A. E. Scott, A. Sellen, and S. Rintel, “Ironies of generative AI: Understanding and mitigating productivity loss in human-AI interaction,” Int. J. Human–Computer Interaction, vol. 41, no. 5, pp. 2898–2919, 2025, doi: 10.1080/10447318.2024.2405782.

[5] H. Wang and V. Blok, “Why putting artificial intelligence ethics into practice is not enough: Towards a multi-level framework,” Big Data & Society, pp. 1–14, 2025, doi: 10.1177/20539517251340620.

 
 
 

Comments


CONTACT ME

  • Black LinkedIn Icon
  • Black Facebook Icon
  • X
  • Black Instagram Icon

Thanks for submitting!

BUSINESS & DIGITAL TRANSFORMARTION LEADER

Phone:

+971 (50) 562-5541

+974 3388 8071

Email:

© 2023 By Amer Maithalouni. 

bottom of page