سكارليت جوهانسون تتحدَّث عن كيفية استخدام deepfake في التزوير
آخر تحديث GMT06:55:34
 العرب اليوم -

سلَّطت "واشنطن بوست" الضوء على ضحايا هذه التقنية

سكارليت جوهانسون تتحدَّث عن كيفية استخدام "deepfake" في التزوير

 العرب اليوم -

 العرب اليوم - سكارليت جوهانسون تتحدَّث عن كيفية استخدام "deepfake" في التزوير

الممثلة سكارليت جوهانسون
واشنطن _ رولا عيسي

تحدّثت الممثلة سكارليت جوهانسون مؤخرا لصحيفة "واشنطن بوست" عن كيفية استخدام تقنية "deepfake" في التزوير من خلال تركيب وجوه النساء في بعض المواد الإباحية، وقالت إن محاولة وقفها كانت "قضية خاسرة" وتستخدم تقنية "Deepfake" برنامجًا للذكاء الاصطناعي لتركيب صور لوجه شخص ما على لقطات لشخص آخر أو جعل الشخص يقول أشياء لم يقولها بالفعل.

وسلطت صحيفة "واشنطن بوست" الضوء على النساء اللاتي وقعن ضحية هذه التقنية في العديد من مقاطع الفيديو، وقالت الصحفية إن الممثلة جوهانسون كان ضحية لأشرطة فيديو إباحية متعددة، أحدها زعم أنه فيديو حقيقي ومسرب للممثلة وجمع هذا المقطع أكثر من 1.5 مليون مشاهدة على موقع إباحي كبير.

وقالت جوهانسون للصحفية "لا شيء يمكن أن يمنع أي شخص من قطع أو لصق صورتي أو أي شخص آخر في هيئة مختلفة وجعلها تبدو كأنها واقعية للغاية"، كما أضافت جوهانسون "الحقيقة هي أن محاولة حماية نفسك من الإنترنت وفساده هو قضية خاسرة، فالإنترنت عبارة عن ثقب ضخم من الظلام يأكل نفسه" ولا تعد جوهانسون هي الشخصية الوحيدة التي تعرضت لهذا النوع من الانتهاكات واستهدفت من قبل الأعمال الإباحية، حيث قالت إحدى النساء اللاتي ظهر وجههن على مقطع فيديو إباحي لصحيفة "واشنطن بوست" إنها شعرت "بانتهاكها"، وأضافت: "إنه شعورغريب، أنت حقا تريد أن تمزق كل شيء من الإنترنت، لكنك تعلم أنك لا تستطيع ذلك".

وعلى الرغم من تقدم تقنية deepfake قد يكون الهدف من مقاطع الفيديو الإباحية إهانة النساء ومضايقتهن، واكتشفت الصحيفة أن بعض المستخدمين في مجالس المناقشة والدردشات الخاصة يزعمون إنشاء مقاطع فيديو اباحية حسب الطلب، بمبلغ 20 دولارًا تقريبًا للفيديو وقالت الصحيفة إنها تتبعت إحدى الطلبات الذي نتج عنه تسجيل فيديو لسيدة، وقالت الصحيفة إن مقدم الطلب قدم 491 صورة لوجه السيدة، من حسابها الخاص على "فيسبوك" الخاص بها وتوجد مقاطع فيديو Deepfake في إطار قانوني، مما يجعل من الصعب على الضحايا تعقب الجناة أو إزالة المحتوى. ووفقًا لصحيفة "واشنطن بوست" يعتقد بعض الخبراء بأن مقاطع الفيديو قد تكون محمية بموجب التعديل الأول، على الرغم من أنها قد تقع أيضًا ضمن فئة التشهير أو سرقة الهوية أو الاحتيال.

قد يهمك أيضًا:

زوج يدفع زوجته لإحراق نفسها ثم يشمئز منها ويطلقها

"ساعة شيطان" تروي قصة عجوز سبعيني قتله "الشذوذ"

arabstoday

الإسم *

البريد الألكتروني *

عنوان التعليق *

تعليق *

: Characters Left

إلزامي *

شروط الاستخدام

شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

اُوافق على شروط الأستخدام

Security Code*

 

سكارليت جوهانسون تتحدَّث عن كيفية استخدام deepfake في التزوير سكارليت جوهانسون تتحدَّث عن كيفية استخدام deepfake في التزوير



GMT 15:32 2024 الأربعاء ,24 إبريل / نيسان

ملك الأردن يأمر بإجراء انتخابات مجلس النواب
 العرب اليوم - ملك الأردن يأمر بإجراء انتخابات مجلس النواب

GMT 18:03 2024 الأربعاء ,24 إبريل / نيسان

أحمد السقا أولي مفاجأت فيلم "عصابة المكس"
 العرب اليوم - أحمد السقا أولي مفاجأت فيلم "عصابة المكس"

GMT 19:40 2024 الثلاثاء ,23 إبريل / نيسان

الجيش الإسرائيلي يعلن مقتل ضابط في شمال قطاع غزة

GMT 08:50 2024 الأربعاء ,24 إبريل / نيسان

إسرائيل تقصف مواقع لحزب الله بجنوب لبنان

GMT 21:12 2024 الثلاثاء ,23 إبريل / نيسان

مقتل 7 أشخاص وإصابة 15 آخرين في حادث سير بالجزائر

GMT 09:16 2024 الأربعاء ,24 إبريل / نيسان

حرائق في منشآت طاقة روسية بعد هجمات أوكرانية

GMT 18:11 2024 الثلاثاء ,23 إبريل / نيسان

أيهما أخطر؟

GMT 18:13 2024 الثلاثاء ,23 إبريل / نيسان

العرب واليونسكو

GMT 20:12 2024 الثلاثاء ,23 إبريل / نيسان

مصر تنفي أي نقاش مع إسرائيل بشأن خطط اجتياح رفح
 
syria-24

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

Arabstoday Arabstoday Arabstoday Arabstoday
arabstoday arabstoday arabstoday
arabstoday
بناية النخيل - رأس النبع _ خلف السفارة الفرنسية _بيروت - لبنان
arabs, Arab, Arab