هلوسات الذكاء الاصطناعي: الأسباب والأمثلة والحلول
علي أبو الحسن
الذكاء الاصطناعي، وخاصة نماذج توليد اللغة الكبيرة مثل GPT-3 و GPT-4، أحدثت ثورة في كيفية تفاعلنا مع التكنولوجيا وتبادل المعلومات. هذه النماذج قادرة على إنتاج نصوص طبيعية وشبيهة بنصوص الإنسان، مما يجعلها مفيدة في مجموعة متنوعة من التطبيقات. ومع ذلك، تواجه هذه النماذج مشكلة تعرف باسم “الهلوسات”، حيث تقدم إجابات غير منطقية أو غير صحيحة بناءً على افتراضات خاطئة. وبالتالي تواجه أدوات الذكاء الاصطناعي التوليدي اليوم، مثل ChatGPT، مشكلة مستمرة تتجلى في تقديم معلومات خاطئة بثقة عالية. يُطلق العلماء على هذا السلوك “الهلوسة”، وهو عقبة رئيسية تعيق فعالية الذكاء الاصطناعي.
في هذا المقال، سنستعرض ماهية هذه الهلوسات، وأسبابها، وكيفية حدوثها، مع ذكر أمثلة، وأخيرًا كيفية معالجتها من قبل أنظمة الذكاء الاصطناعي.
الهَلْوَسَات في نماذج الذكاء الاصطناعي أو ما يُعرف باللغة الانكليزية بمفهوم AI Hallucination هي حالات يقدم فيها النموذج إجابات غير صحيحة أو غير منطقية، غالبًا بسبب استخدام البيانات أو الافتراضات الخاطئة. يمكن لهذه الهلوسات أن تتراوح بين أخطاء طفيفة في الحقائق إلى تكوين نصوص لا معنى لها أو حتى مضللة.
تعود الهلوسات في نماذج توليد اللغة الكبيرة إلى عدة أسباب رئيسية:
البيانات التدريبية: تعتمد نماذج الذكاء الاصطناعي على كميات هائلة من البيانات التدريبية. إذا كانت هذه البيانات تحتوي على معلومات غير صحيحة أو غير دقيقة، فقد ينتج النموذج نصوصًا تستند إلى هذه المعلومات الخاطئة.
نقص السياق: في بعض الأحيان، قد لا يكون لدى النموذج السياق الكافي لفهم السؤال أو الطلب بشكل صحيح، مما يؤدي إلى إجابات غير دقيقة.
توليد النص الحر: تعتمد نماذج توليد اللغة على التنبؤ بالكلمات التالية في النص بناءً على الأنماط التي تعلمتها. هذا يمكن أن يؤدي إلى إنتاج نصوص غير منطقية إذا لم يكن هناك سياق كافٍ.
الافتراضات الخاطئة: قد يقوم النموذج بعمل افتراضات غير صحيحة بناءً على البيانات المتاحة لديه، مما يؤدي إلى تكوين نصوص تحتوي على معلومات خاطئة.
وبناءً عليه قد يقدم النموذج إجابة تحتوي على معلومات غير صحيحة تمامًا، مثل القول بأن “الشمس تدور حول الأرض”، أو قد ينتج النموذج نصوصًا تبدو منطقية ظاهريًا لكنها في الواقع غير مترابطة أو لا تحمل معنى حقيقيًّا، مثل “القطط تسبح في السماء لأنها تحب الماء” . وقد تسببت هلوسات الذكاء الإصطناعي في بعض المواقف المحرجة علنًا. فقد أُجبرت شركة طيران كندا على احترام تخفيضات عرضها بوت الدردشة الخاص بالدعم الفني بالخطأ لأحد الركاب (i)، ولاحقاً، أجرت غوغل تعديلات على ميزة البحث الجديدة “نظرة عامة بواسطة الذكاء الاصطناعي” بعد أن أبلغ بعض المستخدمين بأن الروبوت أوصى بأكل الصخور. هذا وقد فُرضت غرامة قدرها 5000 دولار على محامين في الولايات المتحدة بعد أن اعترف أحدهم باستخدام ChatGPT لكتابة مذكرة قضائية، حيث أضاف الروبوت إشارات قضائية غير حقيقية (ii ).
لمعالجة الهلوسات في نماذج الذكاء الاصطناعي، يتم اتباع عدة استراتيجيات:
تحسين جودة البيانات: التأكد من أن البيانات المستخدمة لتدريب النموذج دقيقة ومحدثة قدر الإمكان.
تحسين خوارزميات التدريب: حيث يتم تطوير خوارزميات تدريب أكثر فعالية تساعد النموذج على فهم السياق بشكل أفضل وتجنب الافتراضات الخاطئة.
التحقق من الحقائق: عبر إضافة طبقات من التحقق من الحقائق التي يمكن أن تساعد في تصحيح المعلومات الخاطئة التي قد يقدمها النموذج.
التفاعل البشري: الاستفادة من التفاعل البشري لمراجعة وتعديل النصوص الناتجة عن النموذج، مما يساعد في اكتشاف وتصحيح الهلوسات وهو ما يعزز فكرة التفوق البشري في الذكاء الاصطناعي.
إذًا، الهلوسات في نماذج توليد اللغة الكبيرة هي تحدٍ كبير يواجه تطوير تطبيقات الذكاء الاصطناعي، ومن خلال تحسين جودة البيانات وخوارزميات التدريب، بالإضافة إلى استخدام تقنيات التحقق من الحقائق والتفاعل البشري، يمكننا تقليل هذه الهلوسات وتحسين دقة وفائدة هذه النماذج. وإنّ الاستمرار في البحث والتطوير في هذا المجال سيعزز من قدرة هذه النماذج على تقديم معلومات دقيقة وموثوقة، مما يجعلها أدوات أكثر فعالية في حياتنا اليومية.