لم يعد كثيرون يلجؤون إلى المنتديات والمجموعات العامة لطرح الأسئلة التي قد يخجلون من الاعتراف بجهلهم بها. وبحسب تقرير لصحيفة واشنطن بوست، أصبحت روبوتات الدردشة وأدوات البحث المعتمدة على الذكاء الاصطناعي — مثل تشات جي بي تي (ChatGPT) — “مساحة آمنة” لطرح ما يُسمّى بالأسئلة غير الجادة أو البديهية داخل نافذة خاصة لا يشاهدها أحد ولا يحاكم صاحبها.

ويطرح التقرير سؤالًا مقابلًا: ماذا نخسر عندما نبتعد عن سؤال البشر والمجتمعات ونعتمد على “إجابات آلية” في أسئلة إنسانية فوضوية؟ وتنقل الصحيفة عن الباحثة كيسي فيسلر من جامعة كولورادو بولدر أن إجابات البشر تختلف لأنها غالبًا ما تكون مشبعة بالتجربة الشخصية والتعاطف: شخص مرّ بالسؤال نفسه، يشاركك نصيحة تعلّمها من خطأ، أو يطمئنك أنك لست وحدك.
ويشير التقرير إلى أن الاعتماد على إجابة واحدة من روبوت دردشة قد يكون أقل موثوقية من “حكمة الجمهور”؛ ففي منصات مثل ريديت (Reddit) قد يحصل المستخدم على عشر إجابات يوازن بينها وفق سمعة المعلّق أو تفاعل الآخرين، بينما تميل الروبوتات إلى تقديم جواب واحد وقد “تخمن” بدل الاعتراف بعدم اليقين — وهو ما ناقشته أوبن إيه آي (OpenAI) سابقًا، وفق التقرير (مع الإشارة إلى وجود شراكة محتوى بين الصحيفة وأوبن إيه آي).
كما يلفت التقرير إلى ظاهرة “انحياز الأتمتة”: افتراض صحة جواب الآلة ما لم يظهر العكس. وفي الوقت نفسه، يرى أن الذكاء الاصطناعي بدأ يتسلل حتى إلى المساحات التي يفترض أنها بشرية بالكامل؛ إذ تُلصق أحيانًا إجابات مولّدة بالذكاء الاصطناعي في كورا (Quora) أو ريديت، وتعرض غوغل ملخصات آلية أعلى نتائج البحث، بينما تقترح ميتا أسئلة متابعة عبر فيسبوك.
ويخلص التقرير إلى أن “سؤال البشر” لا يمنح معلومة فقط، بل قد يفتح نقاشًا ويبني روابط داخل المجتمع — وهي قيمة يصعب على النوافذ المعقمة والإجابات الآلية تعويضها بالكامل.