03:07 م - الإثنين 20 أكتوبر 2025
0
حذر بنك الإمارات دبي الوطني عملائه من تقنية "تقليد الصوت بالذكاء الاصطناعي” (AI Voice Cloning)، وهي من التقنيات الحديثة القادرة على تقليد الأصوات البشرية بدقة كبيرة، حتى يصعب التفرقة بين الصوت الحقيقي والمقلد.

وأكد البنك، أنه على الرغم من أن هذه التقنية تستخدم في العديد من المجالات المفيدة، إلا أنها قد تستغل من قبل المحتالين في عمليات النصب والاحتيال الصوتي، من خلال انتحال الهوية للخداع والحصول على بيانات المالية أو السرية.
ودعى البنك عملائه بضرورة توخي الحذر وعدم مشاركة أي بيانات شخصية أو مصرفية مع أحد، حتى وإن بدا الصوت مألوفا، قبل أن يؤكد أنه لتوضيح المزيد عن كيفية حماية نفسك من هذا النوع من الاحتيال، يمكنك مشاهدة الفيديو التالي.
0 تعليق