رئيس غوغل السابق يحذر من اختراق الذكاء الاصطناعي وتحوله إلى سلاح خطير
آخر تحديث GMT04:08:00
 العرب اليوم -

رئيس غوغل السابق يحذر من اختراق الذكاء الاصطناعي وتحوله إلى سلاح خطير

 العرب اليوم -

 العرب اليوم - رئيس غوغل السابق يحذر من اختراق الذكاء الاصطناعي وتحوله إلى سلاح خطير

شركة التكنولوجيا الأميركية غوغل
واشنطن -العرب اليوم

دق إريك شميت، الرئيس التنفيذي السابق لشركة «غوغل»، ناقوس الخطر، مُحذّراً من إمكانية اختراق أنظمة الذكاء الاصطناعي وإعادة تدريبها لتصبح أسلحة خطيرة للغاية.

وفي حديثه خلال مؤتمر Sifted Summit 2025 في لندن، أوضح شميت أنه يمكن إزالة ضوابط الأمان من النماذج المتقدمة للذكاء الاصطناعي.

وقال: «هناك أدلة على إمكانية استخدام النماذج، مغلقة كانت أم مفتوحة، واختراقها لإزالة حواجزها الواقية».

وأضاف: «خلال عملية تدريبها، تتعلم النماذج الكثير من الأشياء. ومن الأمثلة السيئة على ذلك، أنها قد تتعلم كيفية قتل شخص ما».

وأشاد شميت بشركات الذكاء الاصطناعي الكبرى لحجبها للمطالبات الخطيرة، قائلاً: «جميع الشركات الكبرى تجعل من المستحيل على النماذج الإجابة عن مثل هذه الأسئلة والمطالبات الخطيرة. إنه قرار صائب».

لكنه حذّر من أنه حتى الدفاعات القوية يمكن عكسها.

وأضاف: «هناك أدلة على إمكانية هندستها عكسياً»، مشيراً إلى أن المتسللين قد يستغلون هذا الضعف.

وشبّه شميت سباق الذكاء الاصطناعي اليوم بالعصر النووي المبكر، قائلا إن هذه التقنية قوية لكنها ذات ضوابط عالمية محدودة. وحثّ قائلاً: «نحن بحاجة إلى نظام حظر انتشار، حتى لا يتمكن المخربون من إساءة استخدام هذه الأنظمة».

ولفت شميت إلى أن قلقه ليس نظرياً. ففي عام 2023، ظهرت نسخة معدلة من «تشات جي بي تي» تُسمى DAN، وهي اختصار لعبارة «افعل أي شيء الآن Do Anything Now»، على الإنترنت. وتجاوز هذا الروبوت «المخترق» قواعد السلامة وأجاب عن أي طلب تقريباً. وكان المستخدمون «يهددونه» بالموت الرقمي إذا رفض، وهو دليل غريب على مدى هشاشة أخلاقيات الذكاء الاصطناعي بمجرد التلاعب بشفرته.

وحذّر شميت من أنه دون تطبيق صارم، قد تنتشر هذه النماذج المارقة دون رادع، وقد تُستخدم لإلحاق الضرر من قِبل جهات فاعلة.

وكان الرئيس التنفيذي السابق لـ«غوغل» قد عبر عن قلقه في فبراير (شباط) الماضي من أن يستخدم الإرهابيون أو «الدول المارقة» الذكاء الاصطناعي «لإيذاء الأبرياء».

وقال لشبكة «بي بي سي» البريطانية: «المخاوف الحقيقية التي لدي ليست تلك التي يتحدث عنها معظم الناس بشأن الذكاء الاصطناعي، أنا أتحدث عن المخاطر الشديدة».

وأضاف شميت أن «كوريا الشمالية، أو إيران، أو حتى روسيا، يمكن أن تتبنى وتسيء استخدام هذه التكنولوجيا، فهي سريعة بما يكفي بحيث يمكنهم إساءة استخدامها وإحداث ضرر حقيقي بفضلها».

ودعا إلى فرض رقابة حكومية على شركات التكنولوجيا الخاصة التي تعمل على تطوير نماذج الذكاء الاصطناعي، لكنه حذّر من أن الإفراط في التنظيم قد يخنق الابتكار، مؤكداً أهمية وجود توازن بين الأمرين.

قد يهمك أيضــــــــــــــا

   جوجل تُحدث ثورة تعليمية بـ 30 أداة ذكاء اصطناعى جديدة

الذكاء الاصطناعي يهدد 44 وظيفة من بينها الترجمة والكتابة وخدمة العملاء

 

 

arabstoday

الإسم *

البريد الألكتروني *

عنوان التعليق *

تعليق *

: Characters Left

إلزامي *

شروط الاستخدام

شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

اُوافق على شروط الأستخدام

Security Code*

 

رئيس غوغل السابق يحذر من اختراق الذكاء الاصطناعي وتحوله إلى سلاح خطير رئيس غوغل السابق يحذر من اختراق الذكاء الاصطناعي وتحوله إلى سلاح خطير



إطلالات مايا دياب بالأحمر تعكس أناقة رومانسية في أجواء عيد الحب

بيروت ـ العرب اليوم

GMT 22:46 2026 الإثنين ,09 شباط / فبراير

مقتل 4 أشخاص في غارات إسرائيلية جنوب لبنان

GMT 03:08 2026 الإثنين ,09 شباط / فبراير

أفضل ثنائيات الأبراج في الحب والرومانسية

GMT 07:01 2026 الإثنين ,09 شباط / فبراير

6 شهداء في عدوان إسرائيلي مستمر على غزة

GMT 18:54 2026 الإثنين ,09 شباط / فبراير

توقيت الطعام كلمة السر لنجاح الصيام المتقطع

GMT 06:23 2026 الإثنين ,09 شباط / فبراير

صيحات جمالية مستوحاة من نجمات مسلسلات رمضان 2026

GMT 04:06 2026 الثلاثاء ,10 شباط / فبراير

ديكورات تجمع الأصالة والروح الرمضانية في المنزل
 
syria-24

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2025 ©

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2025 ©

Arabstoday Arabstoday Arabstoday Arabstoday
arabstoday arabstoday arabstoday
arabstoday
Pearl Bldg.4th floor 4931 Pierre Gemayel Chorniche, Achrafieh Beirut - Lebanon
arabs, Arab, Arab