رئيس غوغل السابق يحذر من اختراق الذكاء الاصطناعي وتحوله إلى سلاح خطير
آخر تحديث GMT00:29:01
 العرب اليوم -

رئيس غوغل السابق يحذر من اختراق الذكاء الاصطناعي وتحوله إلى سلاح خطير

 العرب اليوم -

 العرب اليوم - رئيس غوغل السابق يحذر من اختراق الذكاء الاصطناعي وتحوله إلى سلاح خطير

شركة التكنولوجيا الأميركية غوغل
واشنطن -العرب اليوم

دق إريك شميت، الرئيس التنفيذي السابق لشركة «غوغل»، ناقوس الخطر، مُحذّراً من إمكانية اختراق أنظمة الذكاء الاصطناعي وإعادة تدريبها لتصبح أسلحة خطيرة للغاية.

وفي حديثه خلال مؤتمر Sifted Summit 2025 في لندن، أوضح شميت أنه يمكن إزالة ضوابط الأمان من النماذج المتقدمة للذكاء الاصطناعي.

وقال: «هناك أدلة على إمكانية استخدام النماذج، مغلقة كانت أم مفتوحة، واختراقها لإزالة حواجزها الواقية».

وأضاف: «خلال عملية تدريبها، تتعلم النماذج الكثير من الأشياء. ومن الأمثلة السيئة على ذلك، أنها قد تتعلم كيفية قتل شخص ما».

وأشاد شميت بشركات الذكاء الاصطناعي الكبرى لحجبها للمطالبات الخطيرة، قائلاً: «جميع الشركات الكبرى تجعل من المستحيل على النماذج الإجابة عن مثل هذه الأسئلة والمطالبات الخطيرة. إنه قرار صائب».

لكنه حذّر من أنه حتى الدفاعات القوية يمكن عكسها.

وأضاف: «هناك أدلة على إمكانية هندستها عكسياً»، مشيراً إلى أن المتسللين قد يستغلون هذا الضعف.

وشبّه شميت سباق الذكاء الاصطناعي اليوم بالعصر النووي المبكر، قائلا إن هذه التقنية قوية لكنها ذات ضوابط عالمية محدودة. وحثّ قائلاً: «نحن بحاجة إلى نظام حظر انتشار، حتى لا يتمكن المخربون من إساءة استخدام هذه الأنظمة».

ولفت شميت إلى أن قلقه ليس نظرياً. ففي عام 2023، ظهرت نسخة معدلة من «تشات جي بي تي» تُسمى DAN، وهي اختصار لعبارة «افعل أي شيء الآن Do Anything Now»، على الإنترنت. وتجاوز هذا الروبوت «المخترق» قواعد السلامة وأجاب عن أي طلب تقريباً. وكان المستخدمون «يهددونه» بالموت الرقمي إذا رفض، وهو دليل غريب على مدى هشاشة أخلاقيات الذكاء الاصطناعي بمجرد التلاعب بشفرته.

وحذّر شميت من أنه دون تطبيق صارم، قد تنتشر هذه النماذج المارقة دون رادع، وقد تُستخدم لإلحاق الضرر من قِبل جهات فاعلة.

وكان الرئيس التنفيذي السابق لـ«غوغل» قد عبر عن قلقه في فبراير (شباط) الماضي من أن يستخدم الإرهابيون أو «الدول المارقة» الذكاء الاصطناعي «لإيذاء الأبرياء».

وقال لشبكة «بي بي سي» البريطانية: «المخاوف الحقيقية التي لدي ليست تلك التي يتحدث عنها معظم الناس بشأن الذكاء الاصطناعي، أنا أتحدث عن المخاطر الشديدة».

وأضاف شميت أن «كوريا الشمالية، أو إيران، أو حتى روسيا، يمكن أن تتبنى وتسيء استخدام هذه التكنولوجيا، فهي سريعة بما يكفي بحيث يمكنهم إساءة استخدامها وإحداث ضرر حقيقي بفضلها».

ودعا إلى فرض رقابة حكومية على شركات التكنولوجيا الخاصة التي تعمل على تطوير نماذج الذكاء الاصطناعي، لكنه حذّر من أن الإفراط في التنظيم قد يخنق الابتكار، مؤكداً أهمية وجود توازن بين الأمرين.

قد يهمك أيضــــــــــــــا

   جوجل تُحدث ثورة تعليمية بـ 30 أداة ذكاء اصطناعى جديدة

الذكاء الاصطناعي يهدد 44 وظيفة من بينها الترجمة والكتابة وخدمة العملاء

 

 

arabstoday

الإسم *

البريد الألكتروني *

عنوان التعليق *

تعليق *

: Characters Left

إلزامي *

شروط الاستخدام

شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

اُوافق على شروط الأستخدام

Security Code*

 

رئيس غوغل السابق يحذر من اختراق الذكاء الاصطناعي وتحوله إلى سلاح خطير رئيس غوغل السابق يحذر من اختراق الذكاء الاصطناعي وتحوله إلى سلاح خطير



إطلالات سميرة سعيد تعكس ذوقاً متجدداً يتجاوز عامل العمر

القاهرة - العرب اليوم

GMT 00:08 2026 الخميس ,15 كانون الثاني / يناير

لجنة تكنوقراط مكونة من 15 عضوًا لتولي إدارة غزة
 العرب اليوم - لجنة تكنوقراط مكونة من 15 عضوًا لتولي إدارة غزة

GMT 06:52 2026 الأربعاء ,14 كانون الثاني / يناير

الجيش الإسرائيلي يعلن حالة التأهب القصوى

GMT 06:26 2026 الأربعاء ,14 كانون الثاني / يناير

القهوة تتفوق على دواء للسكري في ضبط السكر بالدم

GMT 07:11 2026 الأربعاء ,14 كانون الثاني / يناير

سعر الفضة يتجاوز 91 دولارا للأونصة للمرة الأولى في التاريخ

GMT 22:37 2026 الثلاثاء ,13 كانون الثاني / يناير

بحثاً عن أفق سياسي بين سوريا وإسرائيل...

GMT 08:23 2026 الأربعاء ,14 كانون الثاني / يناير

جيش الاحتلال الإسرائيلي يتوغل في ريف القنيطرة جنوبي سوريا
 
syria-24

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2025 ©

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2025 ©

Arabstoday Arabstoday Arabstoday Arabstoday
arabstoday arabstoday arabstoday
arabstoday
Pearl Bldg.4th floor 4931 Pierre Gemayel Chorniche, Achrafieh Beirut - Lebanon
arabs, Arab, Arab