توقيت القاهرة المحلي 13:25:14 آخر تحديث
  مصر اليوم -

يمكن صنع لقطات مزيفة عن طريق التلاعب

يمكن صنع لقطات مزيفة عن طريق التلاعب

  مصر اليوم -

  مصر اليوم - يمكن صنع لقطات مزيفة عن طريق التلاعب

Face2Face يتيح لك العرائس للمشاهير وللسياسيين
واشنطن ـ رولا عيسى

في عصر الفوتوشوب والفلاتر ومواقع التواصل الاجتماعي، فالكثير منا لا يستطيع رؤية  التلاعب في الصور فتصبح المواضيع أقل حجمًا وأكثر سلاسة، أما في حالة "سناب شات"، فتتحول الصور من صور أشخاص إلى جراء صغيرة، ومع ذلك، فهناك سلالة جديدة من أدوات التلاعب في الفيديو والصوت، حققت المستحيل من خلال التقدم في الذكاء الاصطناعي ورسومات الكمبيوتر والتي من شأنها تخلق لقطات تبدو واقعية للشخصيات العامة يمكنها أن تفعل أي شيء.

على سبيل المثال، ترامب يعلن ميله للرياضات المائية، وهيلاري كلينتون تكشف أنها تحافظ على تأمينها في قبو النبيذ، وتوم كروز اعترف أخيرا أنه بروني.. هذا هو مستقبل الأخبار المزيفة، لقد قيل لنا منذ زمنًا طويلا أن لا نصدق كل ما نقرأه، ولكن سرعان ما سيكون علينا أن نتساءل عن  ما نراه ونسمعه أيضًا، ففي الوقت الراهن، هناك العديد من فرق البحث تعمل عل تحليل مختلف العناصر البصرية والصوتية للسلوك البشري، وقد تم تطويرها البرمجيات في جامعة "ستانفورد" القادرة على التلاعب لقطات الفيديو للشخصيات العامة للسماح لشخص آخر بالتحكم فيما يقولون - فتقوم البرمجيات بنقل تعبيرات الوجه من شخص لشخص آخر مع تغير وإضافة بعض الكلمات، وأظهر فريق البحث التكنولوجيا الخاصة بهم من قبل أشرطة الفيديو العرائس من جورج بوش، فلاديمير بوتين ودونالد ترامب، من تلقاء نفسها، Face2Face  ومع ذلك فان ألعوبة نقل الوجه بتعبيراته " فيس تو فيس" هي ممتعة لخلق الميمات ومسلية في وقت متأخر من المضيفين حواري ليلا. 

يمكن صنع لقطات مزيفة عن طريق التلاعب

ويعمل فريق بحث في جامعة ألاباما في برمنجهام على انتحال الصوت، مع 3-5 دقائق من صوت الضحية - تؤخذ مباشرة أو من أشرطة فيديو "يوتيوب" أو البرامج الإذاعية - فيمكن للمهاجم خلق صوت توليف الزى يمكن أن تخدع كل من البشر وأنظمة الأمن البيومترية الصوت المستخدمة من قبل بعض البنوك والهواتف الذكي، كما  يمكن للمهاجم التحدث إلى ميكروفون وسوف البرنامج تحويله بحيث الكلمات سليمة كما يتم التحدث بها من قبل الضحية - سواء كان ذلك عبر الهاتف أو على برنامج إذاعي

يمكن صنع لقطات مزيفة عن طريق التلاعب

وقد طورت شركة ليريبيرد الكندية قدرات مماثلة، والتي تقول أنها يمكن أن تستخدم لتحويل النص على الفور "قراءة" من قبل أصوات شهيرة أو لشخصيات في ألعاب الفيديو، وعلى الرغم من أن نواياها قد تكون ذات معنى جيد، فإن تقنية تحويل الصوت يمكن أن تقترن بتكنولوجيا وتحوير الوجه لخلق بيانات وهمية مقنعة من الشخصيات العامة، فعليك أن تنظر في مشروع جامعة أوباما، حيث  قاموا بأخذ الصوت من خطب أوباما واستخدموه لتحريك وجهه في فيديو مختلف تماما بدقة لا تصدق للحصول على شعور.

وقال نيتش ساكسينا، الأستاذ المساعد ومدير الأبحاث في جامعة ألاباما في قسم علوم الحاسب الآلي في برمنجهام، إنه بالإضافة إلى الأخبار المزيفة هناك العديد من الآثار الأخرى. "هل يمكنك ترك رسائل صوتية وهمية تشكل كأم لشخص ما أو تشويه سمعة شخص ما نشر عينات الصوت عبر الإنترنت."

وتعبر تقنيات مورفينغ ليست تقنيات مثالية بعد، فقد تبدو تعبيرات الوجه في أشرطة الفيديو مشوهة أو غير طبيعية قليلا، ويمكن أن تبدو الأصوات روبوتية قليلا، ولكن مع الوقت، سوف تكون قادر على إعادة العب في  الصوت أو مظهر شخص - إلى درجة قد يكون من الصعب جدا على البشر للكشف عن الاحتيال نظرا لتآكل الثقة في وسائل الإعلام وانتشار الخداع المتفشي عبر وسائل التواصل الاجتماعي، سيصبح من المهم بالنسبة للمؤسسات الإخبارية أن تدقق في المحتوى.

وأوضح ماندي جينكينز، من شركة "ستوريفول" الإخبارية الاجتماعية، وهي شركة متخصصة في التحقق في المحتوى ،أن الناس يجب أن ينظروا أيضا إلى الإضاءة والظلال في الفيديو، وما إذا كانت جميع العناصر الواردة في الإطار في حجمها الصحيح، وما إذا كان الصوت متزامنا تماما محتوى الأخبار فالمحتوى الذي تم العبث  فيه لا يمكنه ان يمر من غرفه التحقق من الأخبار ولكنه إذا انتشر على مواقع التواصل الاجتماعي يمكن أن يسبب كارثة سياسية آو دبلوماسية  فتخيل ترامب وهو يعلن الحرب على كوريا الشمالية، مضيفًا :"إذا كان شخص ما يبدو مثل ترامب ويتحدث مثل ترامب فسوف يعتقد أنه ترامب

egypttoday
egypttoday

الإسم *

البريد الألكتروني *

عنوان التعليق *

تعليق *

: Characters Left

إلزامي *

شروط الاستخدام

شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

اُوافق على شروط الأستخدام

Security Code*

 

يمكن صنع لقطات مزيفة عن طريق التلاعب يمكن صنع لقطات مزيفة عن طريق التلاعب



GMT 20:02 2024 الأربعاء ,24 إبريل / نيسان

أحمد السقا أولي مفاجأت فيلم "عصابة المكس"
  مصر اليوم - أحمد السقا أولي مفاجأت فيلم عصابة المكس

GMT 20:53 2018 الأربعاء ,03 تشرين الأول / أكتوبر

أجاج يؤكد أن السيارات الكهربائية ستتفوق على فورمولا 1

GMT 02:41 2016 الأحد ,15 أيار / مايو

الألوان في الديكور

GMT 15:53 2020 الأحد ,12 كانون الثاني / يناير

إقبال على مشاهدة فيلم "Underwater" فى دور العرض المصرية

GMT 15:43 2019 الإثنين ,22 إبريل / نيسان

مجلس المصري يغري لاعبيه لتحقيق الفوز على الأهلي

GMT 14:25 2019 الخميس ,03 كانون الثاني / يناير

دراسة جديدة تُوصي بالنوم للتخلّص مِن الدهون الزائدة

GMT 17:44 2018 الإثنين ,19 تشرين الثاني / نوفمبر

ريال مدريد يستغل الخلاف بين نجمي باريس سان جيرمان

GMT 03:56 2018 الجمعة ,19 كانون الثاني / يناير

عبدالله الشمسي يبتكر تطبيقًا طبيًا لمساعدة المرضى

GMT 14:00 2018 السبت ,13 كانون الثاني / يناير

أودي تطرح أفخم سياراتها بمظهر أنيق وعصري

GMT 17:49 2017 السبت ,02 كانون الأول / ديسمبر

مدير المنتخب الوطني إيهاب لهيطة يؤجل عودته من روسيا

GMT 19:33 2020 السبت ,07 تشرين الثاني / نوفمبر

مقتل مغني الراب الأمريكي كينج فون في إطلاق نار بأتلانتا

GMT 23:01 2019 الأربعاء ,27 تشرين الثاني / نوفمبر

شبح إلغاء السوبر الأفريقي يطارد الزمالك والترجي

GMT 13:42 2019 الأربعاء ,04 أيلول / سبتمبر

تبحث أمراً مالياً وتركز على بعض الاستثمارات
 
Egypt-today

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

egypttoday egypttoday egypttoday egypttoday
Egypttoday Egypttoday Egypttoday
Egypttoday
بناية النخيل - رأس النبع _ خلف السفارة الفرنسية _بيروت - لبنان
Egypt, Lebanan, Lebanon