اضطرت شركة ميتا، مالكة فيس بوك، لإيقاف تجربة عامة للذكاء الاصطناعي مؤقتاً، بعد أن بدأت في نشر معلومات مضللة وتعليقات مسيئة.

وكان الهدف من مشروع غالاكتيكا، زيادة المعلومات في العلوم باستخدام الذكاء الاصطناعي لغربلة 48 مليون ورقة وكتاب دراسي. ولكن بدلاً من ذلك، وجد المختبرون أن البرنامج يقول كل أنواع الهراء، وبعض الأشياء التي كان يقولها “مهين وخطير”، من بينها فوائد تناول الزجاج المسحوق والبيض، وفقاً لما ذكرته TNW التي جربت هذا النظام.

كما أعطت التجربة تعليمات غير صحيحة حول كيفية صنع النابالم – المادة المستخدمة في صنع قنبلة – في حوض الاستحمام. وفي غضون أيام من إصدار البرنامج، اضطر الرؤساء في ميتا إلى سحبه من الإنترنت، بحسب صحيفة ذا صن البريطانية.

وقالت الشبكة الاجتماعية “لا توجد ضمانات لمخرجات صادقة أو موثوقة من نماذج اللغة، حتى النماذج الكبيرة المدربة على بيانات عالية الجودة مثل غالاكتيكا. لا تتبع أبداً نصيحة من أحد النماذج اللغوية دون التحقق منها”.

وقالت الشركة أيضاً إن النظام لا يعمل بشكل جيد، إذ تتوفر معلومات أقل حول موضوع معين. وأضافت “غالباً ما يتم الوثوق بالنماذج اللغوية ولكنها عادة ما تكون مخطئة. وقد تبدو بعض النصوص التي تم إنشاؤها في غالاكتيكا أصيلة للغاية وذات موثوقية عالية، ولكنها قد تكون خاطئة من نواح مهمة”.

وأعلنت المجموعة عن انتهاء التجربة في الوقت الحالي بالقول: “شكراً لكم جميعاً على تجربة نموذج غالاكتيكا. نحن نقدر التعليقات التي تلقيناها حتى الآن من المجتمع، وقد أوقفنا التجربة مؤقتاً في الوقت الحالي. نماذجنا متاحة للباحثين الذين يرغبون في معرفة المزيد عن هذا العمل والنتائج التي توصلنا إليها”.