9 مارس، 2026

واشنطن بوست: هل يمكن الوثوق بالذكاء الاصطناعي عند تقرير زيادتك السنوية؟

تشير واشنطن بوست إلى أن قرارات الموارد البشرية—من الرواتب إلى تقييم الأداء والترقيات—تُتخذ على نحو متزايد بمساعدة أدوات ذكاء اصطناعي، لكن “فجوة الثقة” والشفافية ما تزالان عائقًا كبيرًا أمام تبنٍ سريع وآمن.

ونقل التقرير تجربة مونيكا سايتر، مديرة الرواتب في جامعة ليندن وود في سانت لويس، التي تستخدم أداة “Payroll Agent” داخل منصة ووركداي (Workday) لأتمتة مهام كانت تتطلب ساعات من التدقيق اليدوي—مثل رصد البيانات الناقصة قبل موعد الصرف، وتنبيه المديرين لزيادات الحد الأدنى للأجور التي قد تؤثر على الميزانية.

وتوضح الصحيفة أن هذه “الوكلاء” المصممين لمهام محددة يُسوَّق لهم بوصفهم أدوات كفاءة ودعم قرار، لكنهم يدخلون إلى أكثر ملفات العلاقة بين الموظف وصاحب العمل حساسية: من يستحق زيادة؟ ومن يترقى؟ ومن يُستغنى عنه؟ وهنا يبرز اعتراض باحثين مثل جامعة كورنيل: الناس لا يريدون أن يُقيَّموا عبر “صندوق أسود” لا يفهم أحد آليته بالكامل.

وفي مؤشر على اتساع الظاهرة، يذكر التقرير أن مدراء يستخدمون نماذج عامة مثل تشات جي بي تي (ChatGPT) وجيميناي (Gemini) من غوغل لصياغة تقييمات الأداء واتخاذ قرارات مؤثرة. وبحسب استطلاع أجرته ResumeBuilder، أفاد أكثر من 60% من المديرين أنهم يستخدمون هذه الأدوات، وقال أكثر من نصف هؤلاء إنهم يعتمدون عليها للمساعدة في تحديد الزيادات والترقيات وحتى قرارات التسريح.

وتضيف الصحيفة أن مكاسب الوقت قد تكون كبيرة—إذ يقدّر تحليل لـ باين آند كومباني إمكانية توفير ما يصل إلى 25% من وقت المديرين—لكن المخاطر القانونية تتصاعد مع ضعف التدريب: فثلث المستخدمين فقط تلقوا تدريبًا رسميًا، وحوالي 20% يسمحون للذكاء الاصطناعي باتخاذ القرار غالبًا دون تدخل بشري.

في المقابل، تقول Syndio إن “قابلية التفسير” هي شرط الثقة، عبر أنظمة تشرح منطق توصيات الرواتب بوضوح. بينما تصر ووركداي (Workday) على أن القرار النهائي يجب أن يبقى بيد الإنسان—لا أن يستبدل الحكم البشري—خصوصًا في الجوانب التي يصعب قياسها خوارزميًا مثل “كيف” حقق الموظف النتائج وبنى العلاقات داخل الفريق.