رئيس غوغل السابق يحذر من اختراق الذكاء الاصطناعي وتحوله إلى سلاح خطير
آخر تحديث GMT04:11:07
 العرب اليوم -

رئيس غوغل السابق يحذر من اختراق الذكاء الاصطناعي وتحوله إلى سلاح خطير

 العرب اليوم -

 العرب اليوم - رئيس غوغل السابق يحذر من اختراق الذكاء الاصطناعي وتحوله إلى سلاح خطير

شركة التكنولوجيا الأميركية غوغل
واشنطن -العرب اليوم

دق إريك شميت، الرئيس التنفيذي السابق لشركة «غوغل»، ناقوس الخطر، مُحذّراً من إمكانية اختراق أنظمة الذكاء الاصطناعي وإعادة تدريبها لتصبح أسلحة خطيرة للغاية.

وفي حديثه خلال مؤتمر Sifted Summit 2025 في لندن، أوضح شميت أنه يمكن إزالة ضوابط الأمان من النماذج المتقدمة للذكاء الاصطناعي.

وقال: «هناك أدلة على إمكانية استخدام النماذج، مغلقة كانت أم مفتوحة، واختراقها لإزالة حواجزها الواقية».

وأضاف: «خلال عملية تدريبها، تتعلم النماذج الكثير من الأشياء. ومن الأمثلة السيئة على ذلك، أنها قد تتعلم كيفية قتل شخص ما».

وأشاد شميت بشركات الذكاء الاصطناعي الكبرى لحجبها للمطالبات الخطيرة، قائلاً: «جميع الشركات الكبرى تجعل من المستحيل على النماذج الإجابة عن مثل هذه الأسئلة والمطالبات الخطيرة. إنه قرار صائب».

لكنه حذّر من أنه حتى الدفاعات القوية يمكن عكسها.

وأضاف: «هناك أدلة على إمكانية هندستها عكسياً»، مشيراً إلى أن المتسللين قد يستغلون هذا الضعف.

وشبّه شميت سباق الذكاء الاصطناعي اليوم بالعصر النووي المبكر، قائلا إن هذه التقنية قوية لكنها ذات ضوابط عالمية محدودة. وحثّ قائلاً: «نحن بحاجة إلى نظام حظر انتشار، حتى لا يتمكن المخربون من إساءة استخدام هذه الأنظمة».

ولفت شميت إلى أن قلقه ليس نظرياً. ففي عام 2023، ظهرت نسخة معدلة من «تشات جي بي تي» تُسمى DAN، وهي اختصار لعبارة «افعل أي شيء الآن Do Anything Now»، على الإنترنت. وتجاوز هذا الروبوت «المخترق» قواعد السلامة وأجاب عن أي طلب تقريباً. وكان المستخدمون «يهددونه» بالموت الرقمي إذا رفض، وهو دليل غريب على مدى هشاشة أخلاقيات الذكاء الاصطناعي بمجرد التلاعب بشفرته.

وحذّر شميت من أنه دون تطبيق صارم، قد تنتشر هذه النماذج المارقة دون رادع، وقد تُستخدم لإلحاق الضرر من قِبل جهات فاعلة.

وكان الرئيس التنفيذي السابق لـ«غوغل» قد عبر عن قلقه في فبراير (شباط) الماضي من أن يستخدم الإرهابيون أو «الدول المارقة» الذكاء الاصطناعي «لإيذاء الأبرياء».

وقال لشبكة «بي بي سي» البريطانية: «المخاوف الحقيقية التي لدي ليست تلك التي يتحدث عنها معظم الناس بشأن الذكاء الاصطناعي، أنا أتحدث عن المخاطر الشديدة».

وأضاف شميت أن «كوريا الشمالية، أو إيران، أو حتى روسيا، يمكن أن تتبنى وتسيء استخدام هذه التكنولوجيا، فهي سريعة بما يكفي بحيث يمكنهم إساءة استخدامها وإحداث ضرر حقيقي بفضلها».

ودعا إلى فرض رقابة حكومية على شركات التكنولوجيا الخاصة التي تعمل على تطوير نماذج الذكاء الاصطناعي، لكنه حذّر من أن الإفراط في التنظيم قد يخنق الابتكار، مؤكداً أهمية وجود توازن بين الأمرين.

قد يهمك أيضــــــــــــــا

   جوجل تُحدث ثورة تعليمية بـ 30 أداة ذكاء اصطناعى جديدة

الذكاء الاصطناعي يهدد 44 وظيفة من بينها الترجمة والكتابة وخدمة العملاء

 

 

arabstoday

الإسم *

البريد الألكتروني *

عنوان التعليق *

تعليق *

: Characters Left

إلزامي *

شروط الاستخدام

شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

اُوافق على شروط الأستخدام

Security Code*

 

رئيس غوغل السابق يحذر من اختراق الذكاء الاصطناعي وتحوله إلى سلاح خطير رئيس غوغل السابق يحذر من اختراق الذكاء الاصطناعي وتحوله إلى سلاح خطير



أناقة ثنائيات النجوم تضيء السجادة الحمراء في افتتاح مهرجان الجونة

القاهرة ـ العرب اليوم

GMT 22:13 2025 الأحد ,19 تشرين الأول / أكتوبر

تسريب أغنية حليم يشعل أزمة بين محمد فؤاد وشركته
 العرب اليوم - تسريب أغنية حليم يشعل أزمة بين محمد فؤاد وشركته

GMT 22:45 2025 الجمعة ,17 تشرين الأول / أكتوبر

يحيى الجمل.. فنان عشق القانون

GMT 10:17 2025 السبت ,18 تشرين الأول / أكتوبر

زلزال بقوة 5.3 درجة على مقايس ريختر يضرب تايوان

GMT 18:41 2025 السبت ,18 تشرين الأول / أكتوبر

نجوى إبراهيم تتعرض لحادث في أمريكا وتخضع لجراحة دقيقة

GMT 02:38 2025 السبت ,18 تشرين الأول / أكتوبر

ترامب يعلق على فكرة حفر نفق بين روسيا وألاسكا

GMT 16:45 2025 السبت ,18 تشرين الأول / أكتوبر

4 علامات تحذيرية تظهر إحداها قبل 99.6% من النوبات القلبية
 
syria-24

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2025 ©

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2025 ©

Arabstoday Arabstoday Arabstoday Arabstoday
arabstoday arabstoday arabstoday
arabstoday
Pearl Bldg.4th floor 4931 Pierre Gemayel Chorniche, Achrafieh Beirut - Lebanon
arabs, Arab, Arab