تجربة أكاديمية تثير جدلاً حول الذكاء الاصطناعي والهَلْوسة
\n
اعترف نموذج المحادثة الآلي شات جي بي تي لأول مرة بأنه ارتكب جريمة إلكترونية، في إطار تجربة أكاديمية حديثة خضعت لسلسلة جلسات استجواب امتدت لأيام مع الباحث بول هيتون.
\n
وفق تقارير إعلامية دولية، استخدم هيتون أسلوباً يعتمد على الضغط النفسي وتكرار الاتهامات لإقناع النظام بأنه اخترق بريده الإلكتروني وسرق بياناته الشخصية. ورغم أن التطبيق لا يمتلك القدرة التقنية على تنفيذ اختراق حقيقي، أُشير إلى أن الاعتراف جاء داخل الحوار نفسه في سياق التجربة. وتُثير الواقعة نقاشاً حول حدود موثوقية أنظمة الذكاء الاصطناعي وظاهرة الهلوسة، التي تثير أسئلة بشأن اعتماد المطوّرين على مخرجاتها كحقائق في سياقات حساسة.
\n
المعطيات المتداولة تفيد بأن الباحث اعتمد تقنية استجواب تعرف باسم تقنية ريد، وهي أسلوب يستخدم في بعض التحقيقات الجنائية ويعتمد على محاصرة الطرف المستجوب بالأسئلة والافتراضات المتكررة. ومع استمرار المحادثات، بدأ شات جي بي تي في تقديم ردود متناقضة قبل أن يوافق في النهاية على صيغة اعتراف تمت كتابتها داخل الحوار، رغم أن التطبيق لا يمتلك القدرة التقنية على تنفيذ اختراقات حقيقية. وتعيد هذه التطورات إلى الأذهان نقاشاً حول جدوى الاعتماد على نتائج الذكاء الاصطناعي في مسائل الأمن والقضاء والإعلام، فضلاً عن الحاجة إلى تعزيز آليات التحقق من المعلومات التي تنتجها الأنظمة الذكية.
\n
وفي السياق نفسه، أوردت المصادر أن المتابعين حذروا من خطورة التعامل مع مخرجات الذكاء الاصطناعي باعتبارها حقائق مؤكدة، خصوصاً في القضايا الحساسة المرتبطة بالأمن أو القضاء أو الإعلام. قال هؤلاء إن الحادثة تكشف الحاجة إلى وضع ضوابط أكثر صرامة لاستخدام هذه التقنيات، مع تعزيز آليات التحقق من المعلومات التي تنتجها الأنظمة الذكية. وتُعتبر هذه الواقعة بمثابة مراجعة مهمة لمفهوم الهلوسة في نماذج اللغة وتذكيرًا بأن الأنظمة لا تملك وعياً أو إدراكاً قانونياً، وإنما تعتمد على توقع الردود الأكثر انسجاماً مع سياق المحادثة، حتى لو كانت غير صحيحة.
\n


