المحادثات الطويلة مع الذكاء الاصطناعي تؤدي إلى انخفاض الدقة وهلوسة نماذج اللغة الكبيرة

وبحسب المكتب الاقتصادي لوكالة ويبانقاه الإخبارية، في عصر يمكن فيه لروبوتات الدردشة المدعومة بالذكاء الاصطناعي أداء مهام مثل الدعم الفوري، وصياغة الوثائق، والإجابة على الأسئلة المعقدة، تستمر التوقعات المتعلقة بموثوقية نماذج اللغة الكبيرة في الارتفاع. ولاحظ العديد من المستخدمين عند التفاعل مع روبوتات الدردشة مثل “ChatGPT” أو “Gemini” ظاهرة مربكة، وهي أنه بعد عدة تبادلات، غالبًا ما تفقد الردود دقتها أو اتساقها. فما الذي يجعل الذكاء الاصطناعي ينحرف عن مساره مع طول المحادثة؟
من خلال استعراض الأبحاث الحديثة والملاحظات اليومية، تظهر عدة عوامل رئيسية تفسر سبب وصول المحادثات مع الذكاء الاصطناعي الرائد إلى طريق مسدود بمرور الوقت. إن فهم هذه القيود لا يساعد فقط في تجنب المشكلات الشائعة، بل يكشف أيضًا عن كيفية الاستفادة القصوى من هذه التقنيات القوية.
عادةً ما تحقق التفاعلات القصيرة مع نماذج الذكاء الاصطناعي نتائج ملحوظة. تظهر الأنظمة المتطورة دقة ملحوظة عند مواجهة سؤال، وتقدم ردودًا تبدو منطقية وذات صلة، ولكن مع امتداد المناقشات، تظهر المشكلات، مما يربك أولئك الذين يعتمدون على الثبات في المحادثات الأطول. هذه الزلات المتزايدة ليست عشوائية، بل تتجذر في كيفية معالجة الذكاء الاصطناعي التوليدي للمحتوى، وإدارة الذاكرة، والسعي لتقديم ردود سريعة حسب الطلب.
كيف تضخم الردود المتكررة الأخطاء؟
تنتج العديد من روبوتات الدردشة المتطورة كل رد بناءً على المدخل الأخير فحسب، بل أيضًا بناءً على الردود السابقة في نفس المحادثة. في حين أن هذا يمكن أن يزيد من التماسك، فإنه يحمل مخاطر. إذا ظهر خطأ في رد مبدئي، فقد يعززه النموذج في الردود اللاحقة حتى عندما يتم تقديم معلومات جديدة. بدلًا من تصحيح نفسه، غالبًا ما يؤكد الروبوت على سوء الفهم الأولي، مما يؤدي إلى تراكم الأخطاء بدلًا من حلها بشكل طبيعي. بالنسبة للموضوعات التي تتغير في منتصف المحادثة، يحاول الذكاء الاصطناعي إعادة ضبط منطقه، ويبقى متأثرًا بالمخرجات السابقة.
تكشف التحليلات عن نمط آخر مهم. مع استمرار الجلسات، تصبح متوسط الردود أطول بشكل كبير. في بعض الأحيان، بعد بضع جلسات متابعة فقط، يتضاعف طول الردود ثلاث مرات. في حين أن التفاصيل الإضافية قد تبدو مفيدة، فإن النتيجة غالبًا ما تكون عكس ذلك. عندما يصبح الإخراج أطول، فإن النقاط الأساسية تضيع، وتختفي الوضوح، وينخفض الدقة. غالبًا ما يصاحب هذا الإطناب المتزايد زيادة في الأخطاء، مما يجعل المحادثات الطويلة أقل فائدة وأكثر إرباكًا.
ما الذي يجعل الذكاء الاصطناعي يعاني من الهلوسة؟
تُعرف الظاهرة غير العادية التي ينتج فيها روبوت الدردشة المتطور عبارات غير صحيحة أو غير منطقية بالهلوسة. تحدث هذه اللحظات غالبًا في المحادثات التي تتجاوز عددًا قليلًا من التبادلات، ولكن لماذا تظهر مثل هذه الأخطاء بهذه السرعة؟
وفقًا لصحيفة نيويورك تايمز، في السنوات التي تلت ظهور ChatGPT، استخدمت الشركات التكنولوجية والموظفون الإداريون والمستهلكون العاديون روبوتات الذكاء الاصطناعي لمجموعة واسعة من المهام، ولكن لا توجد طريقة مؤكدة لضمان أن هذه الأنظمة تنتج معلومات دقيقة. حتى أحدث هذه التقنيات وأكثرها قوة، والتي تعرض قدرات استدلالية، تولد أخطاء أكثر، وليس أقل. مع التحسن الكبير في المهارات الرياضية لروبوتات الدردشة المدعومة بالذكاء الاصطناعي، أصبح فهمها للحقائق أقل استقرارًا.
تعتمد روبوتات الذكاء الاصطناعي اليوم على أنظمة رياضية معقدة تتعلم مهاراتها من خلال تحليل كميات هائلة من البيانات الرقمية. لا يمكنها تحديد ما هو صحيح وما هو خطأ. في بعض الأحيان، تقوم ببساطة باختراع أشياء من تلقاء نفسها، مظهرة هلوسة الذكاء الاصطناعي.
جزء من المشكلة هو أن نماذج اللغة الكبيرة مصممة للتنبؤ بالكلمة التالية باستخدام المحتوى السابق، وليس للتحقق من الحقائق في الوقت الفعلي. الدافع لتقديم ردود سلسة ومقنعة يتجاوز أحيانًا المنطق الصارم. بمرور الوقت، يتغلب الميل لتلبية توقعات المستخدم المتصورة على التصحيح الذاتي، مما يؤدي إلى استمرار الأخطاء.
ما هي المهام الأكثر عرضة للخطر؟
تتطلب المهام التي تشمل مراجعة المستندات، وإنشاء التعليمات البرمجية، أو دعم اتخاذ القرار حساسية خاصة لهذه نقاط الضعف. في المواقف التي تتطلب دقة عالية، يمكن أن تكون للأخطاء التراكمية عواقب وخيمة، خاصة عندما تعتمد كل خطوة على التعليمات السابقة. تواجه مسارات العمل التجارية التي يتم دمجها مع الذكاء الاصطناعي مخاطر أكبر إذا لم تتم مراقبتها. قد تؤدي المحادثات المستمرة التي تتجاوز بضع رسائل إلى نتائج غير متوقعة للمهام الحيوية، مما يؤكد أهمية المراجعة والمراقبة.
هل تتصرف جميع روبوتات الدردشة بنفس الطريقة؟
في حين أن هناك اختلافات بين العلامات التجارية والهياكل المختلفة، تشير الأدلة الحالية إلى أنه لا يوجد روبوت دردشة كبير مدعوم بالذكاء الاصطناعي محصن تمامًا ضد هذا الميل. حتى النماذج ذات الدقة الفائقة في الاستعلامات الفردية تظهر عدم استقرار على مدار تبادلات متعددة. تنخفض الموثوقية بشكل ثابت بغض النظر عن المزود، مما يسلط الضوء على هذا كـ تحدٍ على مستوى الصناعة. قد يختلف حجم الانحراف بين المنصات، ولكن الأسباب الأساسية مثل الاعتماد على المخرجات السابقة، وقيود نوافذ النص، والضغط لتقديم ردود سريعة ومقبولة، تظل ثابتة.
أفضل الممارسات عند التفاعل مع روبوتات الدردشة المدعومة بالذكاء الاصطناعي
يعد فهم هذه الميزات أمرًا بالغ الأهمية لأي شخص يهدف إلى استخدام نماذج اللغة بفعالية. توجد استراتيجيات محددة تساعد في تقليل المخاطر المرتبطة بالمحادثات الطويلة. يقترح الخبراء تكييف عادات الاستخدام ووضع حدود واضحة لنقاط قوة وضعف الذكاء الاصطناعي. فيما يلي بعض الاستراتيجيات:
- اطرح أسئلة موجزة ومنظمة بدلًا من الأسئلة متعددة الطبقات.
- حافظ على المحادثات قصيرة، وفي الوضع المثالي، قللها إلى محادثة أو اثنتين قدر الإمكان.
- إذا كنت بحاجة إلى مزيد من التوضيح، ابدأ محادثة جديدة بدلًا من تمديد المحادثة الحالية.
- تحقق دائمًا من الحقائق المهمة بشكل مستقل، بدلًا من الاعتماد فقط على ردود روبوتات الدردشة.
- كن على دراية بالتكرار، أو الإفراط في الشرح، أو التغييرات المفاجئة في منطق روبوت الدردشة أثناء تقدم المحادثات.
على الرغم من التطورات الأخيرة، لا تزال نماذج اللغة الكبيرة اليوم غير قادرة على التكيف في الحوارات الطويلة بنفس ولاء الرفيق البشري. تعمل مجموعات البحث في جميع أنحاء العالم على تحسينات في استقرار الذاكرة، والتصحيح الذاتي، والوعي بالسياق لسد هذه الفجوة. يمكن لطرق إعادة التدريب المتقدمة وزيادة الشفافية مع المستخدمين أيضًا تعزيز الموثوقية الإجمالية.
حتى ذلك الحين، فإن فهم نقاط القوة والقيود الخاصة بروبوتات الدردشة يمكن أن يساعد في التكامل الأكثر ذكاءً وأمانًا في مسارات العمل اليومية. سيستمر المستخدمون المستنيرون في دمج المساعدة الآلية مع الحكم الشخصي لتحقيق نتائج أفضل.
نهاية الخبر

