دراسة: أنظمة ذكاء اصطناعي قد تنهار وتنتج معلومات مشوهة عندما تُدرب على محتوى غير بشري
أحدثت دراسة جديدة ضجة في مجال الذكاء الاصطناعي التوليدي، بعد أن كشفت عن وجود خلل خطير في نماذج اللغة الكبيرة وتوليد المحتوى وبرامج الدردشة، والتي تعتمد على البيانات لتدريبها، قد تعاني من مشكلة "التسمم الذاتي"، حيث يمكن أن يؤدي استخدام بيانات مصطنعة إلى تدهور أدائها بشكل كبير.
لكن في محاولة لإشباع حاجة هذه الأنظمة للبيانات، قام الباحثون مؤخراً بتزويدها ببيانات "مصطنعة" أنشأها الذكاء الاصطناعي نفسه. وقد أظهرت الدراسات أن هذه الأنظمة قد تنهار وتنتج معلومات مشوهة عندما تُدرب على محتوى غير بشري، بحسب الدراسة.
وقد أشار الباحثون إلى أن هذه المشكلة يمكن تشبيهها بـ"تسميم الذكاء الاصطناعي لنفسه".