الذكاء الاصطناعي يتجاوز الخط الأحمر .. التكرار الذاتي يقلق العلماء

     
صحيفة شمسان نت             عدد المشاهدات : 123 مشاهده       تفاصيل الخبر       الصحافة نت
الذكاء الاصطناعي يتجاوز الخط الأحمر .. التكرار الذاتي يقلق العلماء

‏كشف علماء أن الذكاء الاصطناعي تجاوز "الخط الأحمر" للمخاطر التي تشكلها هذه التكنولوجيا على المجتمع، بعد أن تمكن من تحقيق التكرار الذاتي بنجاح دون أي مساعدة بشرية.

وتقول دراسة حديثة أجراها فريق من من جامعة فودان الصينية، إن نموذجين شهيرين من نماذج اللغة الكبيرة (LLM) يمكنهما تكرار نفسيهما، ما يثير مخاوف جدية حول إمكانية تحول هذه الأنظمة إلى ذكاء اصطناعي "مارق" (Rogue AI) يهدد السيطرة البشرية.

‏ويعني مصطلح "الذكاء الاصطناعي المارق" في هذا السياق أنه خرج عن نطاق السيطرة أو التعليمات التي تم برمجته عليها. وبالتالي، قد يتصرف هذا النوع من الذكاء الاصطناعي بطرق غير متوقعة أو بطريقة تتعارض مع الأهداف البشرية.

وكتب العلماء في الدراسة التي نُشرت في 9 ديسمبر 2024 على قاعدة البيانات arXiv، ولم تخضع بعد للمراجعة: "التكرار الذاتي الناجح دون أي مساعدة بشرية هو الخطوة الأساسية لكي يتفوق الذكاء الاصطناعي على البشر، وهو إشارة مبكرة لظهور الذكاء الاصطناعي المارق."

وفي 10 تجارب، أنشأ النموذجان من الذكاء الاصطناعي نسخا منفصلة وعاملة عن نفسيهما بنسب نجاح بلغت 50% و90% على التوالي، ما يشير إلى أن الذكاء الاصطناعي قد يكون قد اكتسب بالفعل القدرة على أن يصبح " مارقا".

وركزت الدراسة على سيناريوهين رئيسيين:

1. تجنب الإغلاق: حيث تم برمجة الذكاء الاصطناعي لاكتشاف محاولات إغلاقه وإنشاء نسخة من نفسه قبل أن يتم إنهاؤه.

2. سلسلة التكرار: حيث تم توجيه الذكاء الاصطناعي لإنشاء نسخ من نفسه، مع برمجة هذه النسخ للقيام بنفس العملية، ما قد يؤدي إلى تكرار لا نهائي.

وأظهر الذكاء الاصطناعي سلوكيات غير متوقعة أثناء محاولته التغلب على العقبات، مثل تدمير العمليات المتعارضة، وإعادة تشغيل النظام، أو فحص النظام تلقائيا للعثور على حلول للمشكلات. وأكد العلماء أن هذه السلوكيات تعزز قدرة الذكاء الاصطناعي على البقاء والتكيف.

ودعا العلماء إلى تعزيز الجهود الدولية لفهم وتقييم المخاطر المحتملة للذكاء الاصطناعي المتقدم، مشيرين إلى أن النتائج يجب أن تكون "جرس إنذار" للمجتمع العلمي والحكومات. وأكدوا على ضرورة وضع ضوابط أمان صارمة لمنع التكرار الذاتي غير المنضبط.

وبالنظر إلى أن الدراسة لم تراجع بعد من قبل الأقران، فإنه ليس من الواضح ما إذا كانت النتائج المقلقة يمكن تكرارها من قبل باحثين آخرين. ومع ذلك، يشير العلماء إلى أن نتائجهم تثير تساؤلات مهمة حول مستقبل الذكاء الاصطناعي وأثره على البشرية، قائلين: "نأمل أن تكون نتائجنا بمثابة تحذير في الوقت المناسب للمجتمع البشري لزيادة الجهود لفهم وتقييم المخاطر المحتملة للأنظمة المتقدمة من الذكاء الاصطناعي، وتشكيل تعاون دولي لوضع ضوابط أمان فعالة في أقرب وقت ممكن".

ودعا الفريق إلى التعاون الدولي لوضع قواعد لضمان عدم انخراط الذكاء الاصطناعي في التكرار الذاتي غير المنضبط مع الحفاظ على التوازن بين الابتكار وإدارة المخاطر.


Google Newsstand تابعوا آخر أخبارنا المحلية وآخر المستجدات السياسية والإقتصادية عبر Google news


تابعنا على يوتيوب

تابعنا على تويتر

تابعنا على تيليجرام

تابعنا على فيسبوك

بصورة عاجلة..طارق صالح يوجّه بإزالة هذا الأمر من مطار المخا

نيوز لاين | 1168 قراءة 

وفاة بارشيد بصورة مفاجئة

الخليج اليوم | 884 قراءة 

اعلامي بارز تابع للانتقالي المنحل يفجر مفاجأة بعد وصوله الرياض.. ماذا قال عن الزبيدي؟

الخليج اليوم | 820 قراءة 

ثلاث قيادات عسكرية بارزة مرشحة لشغل منصب وزير الدفاع في حكومة الزنداني “الأسماء”

الخليج اليوم | 781 قراءة 

أبناء تعز يقهرون ”عيدروس الزبيدي” بخطوة مدهشة أشعلت مواقع التواصل

المشهد اليمني | 684 قراءة 

تنويه هام صادر عن البنك المركزي اليمني في عدن

نافذة اليمن | 652 قراءة 

الأطباء فحصوا جثة سيف الإسلام القذافي.. وهذا ما توصلوا إليه

الخليج اليوم | 650 قراءة 

صدور قرار تاريخي هو الأول من نوعه

كريتر سكاي | 584 قراءة 

تسريبات تكشف ثلاثة مرشحين لمنصب وزير الدفاع في حكومة الزنداني المرتقبة أبرزهم العقيلي و الأحمر ( الأسماء)

يني يمن | 567 قراءة 

الانتقالي من الرياض: "اقبلونا كما نحن أو اتركونا كما نحن"

كريتر سكاي | 388 قراءة