الذكاء الاصطناعى

أصدر خبراء الأمن السيبراني تحذيرًا جديدًا بشأن عملية احتيال خبيثة خدعت المستخدمين وخسروا ملايين الجنيهات منذ بداية عام 2025، فيما يُسمى بخدعة "أهلًا أمي"، ينتحل المجرمون صفة أحد أفراد العائلة لخداع ضحاياهم ودفعهم لإرسال الأموال إليهم، ويستخدم المحتالون تقنية انتحال شخصية صوتية بالذكاء الاصطناعي لخداع ضحاياهم.

ووفقا لما ذكرته صحيفة "ديلى ميل" البريطانية، تبدأ عملية الاحتيال بإرسال رسالة واتساب تقول "أهلًا أمي"، حيث يدعي المُرسِل أنه فقد هاتفه وأنه مُغلق على حسابه المصرفي، وبعد أن يكسب المحتال ثقة هدفه، يطلب منه تحويل مبلغ من المال لمساعدته.

ولجعل الأمور أكثر واقعية، قد يستخدم المحتالون الذكاء الاصطناعي لإنشاء رسائل صوتية تنتحل صوت ابن الضحية.

قال جيك مور، مستشار الأمن السيبراني العالمي في شركة ESET، "باستخدام هذه البرامج، يمكن للمحتالين نسخ أي صوت موجود على الإنترنت، ثم استهداف أفراد عائلاتهم بملاحظات صوتية مقنعة بما يكفي لإيقاعهم في الفخ".

على الرغم من أنها تُعرف باسم عملية احتيال "مرحبًا يا أمي"، إلا أن هذا التكتيك الاحتيالي لا يتضمن دائمًا انتحال شخصية الأطفال.

باستخدام المعلومات المتاحة للعامة على وسائل التواصل الاجتماعي، يتعرف المحتالون على معلومات كافية عن عائلة هدفهم لاختيار أفضل شخص لانتحال شخصيته، وفي بعض الحالات، قد يدعي المحتالون أنهم أصدقاء مقربون للهدف.

ووجدت دراسة أجراها بنك سانتاندير، أن عمليات الاحتيال التي تنتحل شخصية الابن كانت الأكثر نجاحًا، تليها البنات، ثم الأمهات، وعادةً ما تبدأ عملية الاحتيال برسالة نصية من رقم مجهول يدّعي أنه شخص قريب من المتلقي.