الذكاء الاصطناعي:”انهيار النموذج”

فاجأت النتائج التي توصلت إليها ورقة بحثية جديدة بشأن “الذكاء الاصطناعي التوليدي”، القائمين على تطوير هذه التكنولوجيا، حيث تبين أن نماذج اللغة الكبيرة التي يشغلها الذكاء الاصطناعي التوليدي مثل “ChatGPT” و”Gemini” والتي تتغذى على البيانات، تواجه عيباً قاتلاً يتمثل بقدرة هذه النماذج على تسميم نفسها بنفسها.
ففي الوقت الذي يرى فيه أركان صناعة التكنولوجيا، أن تدريب أنظمة الذكاء الاصطناعي على كميات كبيرة من البيانات المنتشرة عبر الإنترنت، سيسمح لهذه الأنظمة بالتفوق على البشر في مرحلة لاحقة، حذّر علماء من جامعة أكسفورد وجامعات أخرى، عبر ورقة بحثية تم نشرها في العدد الأخير من مجلة العلوم المرموقة “Nature“، من أن استخدام “البيانات الاصطناعية” لتدريب الذكاء الاصطناعي التوليدي، يمكن أن يؤدي إلى تدهور دقة هذه الأنظمة إلى حد يجعلها عديمة الفائدة.
وبحسب تقرير نشرته “بلومبرغ” واطلع عليه موقع “اقتصاد سكاي نيوز عربية”، فقد اكتشف الباحثون أنه عندما يتم تدريب أنظمة الذكاء الاصطناعي، باستخدام بيانات تم إنشاؤها بواسطة الذكاء الاصطناعي، فإن أداء هذه الأنظمة يتدهور بشكل ملحوظ، وهي الظاهرة التي يطلق عليها الخبراء اسم “انهيار النموذج”

Read Previous

ريال مدريد ضد أتالانتا: صدام عمالقة في كأس السوبر الأوروبي

Read Next

الاستعداد الجيد لضمان سير الموسم الرياضي في أفضل الظروف.

Most Popular