هل يفهمك الذكاء الاصطناعيّ؟

هل يفهمك الذكاء الاصطناعيّ؟

المصدر: النهار
3 شباط 2025

شهدت السنوات الأخيرة تطوراً كبيراً في أنظمة الذكاء الاصطناعي، مثل “شات جي بي تي” ومساعدات رقمية مثل “سيري” و”أليكسا”، التي تساعد المستخدمين في مهام يومية متعدّدة. لكن رغم هذا التقدّم، لا تزال هذه الأنظمة تواجه صعوبة في فهم التنوّع اللغوي البشري، ما يخلق تحدّيات عند استخدامها في مواقف معينة.

أظهرت الأبحاث أنّ أنظمة التعرّف على الكلام تعمل بدقّة أقل عند التعامل مع فئات معينة، مثل الأشخاص الذين يتحدثون بلكنة إقليمية، أو لهجات مثل اللغة الإنجليزية الأميركية الأفريقية (AAVE)، أو غير الناطقين الأصليين باللغة، أو حتى النساء وكبار السنّ والأطفال. تختلف هذه الأنظمة عن البشر في افتقارها لما يُعرف بـ”الاستماع المتعاطف”، حيث تعتمد فقط على الصوت دون أخذ إشارات إضافية مثل النبرة أو تعابير الوجه.

مع انتشار استخدام هذه الأنظمة في مجالات حيوية كالرعاية الصحية والطوارئ والتعليم، قد تؤدّي الأخطاء إلى عواقب خطيرة. على سبيل المثال، إذا اتصل شخص بخدمة الطوارئ باستخدام نظام آلي لا يفهمه بشكل جيّد، فقد يتسبّب ذلك في تأخير استجابة المساعدة.

أحد أسباب هذه التحدّيات هو التحيّزات في البيانات التي تُستخدم لتدريب الأنظمة، حيث يتمّ تدريبها غالباً باستخدام أصوات تعكس فئة محددة، مثل البيض الناطقين بالإنجليزية القياسية. تحسين دقّة الأنظمة يتطلب جمع بيانات متنوّعة تغطي مختلف الأعمار، الأعراق، اللهجات، واللغات، وهو ما يحتاج إلى موارد هائلة.

بالإضافة إلى ذلك، تواجه اللغات الأخرى تحديات أكبر، إذ أن معظم الأنظمة الحالية مصمّمة لخدمة اللغة الإنجليزية، ما يجعلها أقلّ كفاءة في التعامل مع اللغات ذات البصمة الرقمية الصغيرة.

في المستقبل، قد تتحسّن هذه الأنظمة لتصبح أكثر شمولًا، لكن لا يزال البشر الخيار الأفضل للتواصل، خاصّة في المواقف الحساسة، بفضل قدرتهم على الفهم والتعاطف، وهو ما يظلّ الذكاء الاصطناعي غير قادر على تحقيقه.