"أنا الآن رهن الاعتقال و أحتاج إلى 30 ألف دولار للخروج بكفالة من السحن".
تخيل أن تتلقي هذه المكالمة من ابنك و بصوته الحقيقي الذي تعرفه تمامًا. لتكتشف بعدها أنها كانت مجرد عملية احتيال باستخدام تقنية استنساخ الصوت بالذكاء الاصطناعي.
في الآونة الأخيرة، تصاعدت حوادث الاحتيال باستخدام هذه التقنية و بشكل غير مسبوق. فبينما تقدم التكنولوجيا فوائد غير محدودة، يمكن أيضًا استخدامها لأغراض غير قانونية تهدد الأمان المالي والشخصي للمستخدمين.
و تأتي أحدث الأمثلة على هذه الاحتيالات مع جاي شوستر، وهو محامٍ مشهور في مجال حماية المستهلك.
فقد تلقى والد شوستر مكالمة هاتفية بدا فيها الصوت وكأنه صوت ابنه، حيث أخبره الشخص الذي على الطرف الآخر بأنه قد تم اعتقاله بتهمة القيادة تحت تأثير الكحول، وأنه بحاجة إلى 30,000 دولار للإفراج عنه بكفالة.
Today, my dad got a phone call no parent ever wants to get. He heard me tell him I was in a serious car accident, injured, and under arrest for a DUI and I needed $30,000 to be bailed out of jail.
— Jay Shooster (@JayShooster) September 28, 2024
But it wasn't me. There was no accident. It was an AI scam.
و ما جعل الأمر أكثر رعبًا هو أن المحتالين تمكنوا من إنشاء نسخة صوتية مقنعة باستخدام 15 ثانية فقط من مقطع فيديو من مقابلة تلفزيونية.
إذًا فلماذا قد تنجح مثل هذه المحاولات؟
كيف ينجح الاحتيال الصوتي؟
أصبحت تقنيات الذكاء الاصطناعي قادرة على تقليد الأصوات بدقة متناهية.
فوفقًا لدراسة أجرتها جامعة كوليدج لندن، فإن البشر يعانون من صعوبة كبيرة في التمييز بين الأصوات البشرية الحقيقية وتلك المستنسخة بواسطة الذكاء الاصطناعي.
حيث تظهر الدراسة أن الناس يفشلون في التعرف على الأصوات المستنسخة بنسبة تصل إلى 27%. هذا يعني أن واحدة من كل أربع محاولات احتيال صوتية قد تنجح، مما يجعل هذه التقنية أداة قوية بيد المجرمين.
و علاوة على ذلك، نجح خبراء الأمن في IBM في عرض تقنيات جديدة مثل "الاختطاف الصوتي" أو Audio Hijacking، وهي تقنية تستخدم الذكاء الاصطناعي للسيطرة على المكالمات الحية وتحويل الأموال إلى حسابات مزيفة.
وذلك يضيف أبعاد جديدة في أشكال الانتحالات القائمة على التقنيات الحديثة.
الجانب المظلم لتقنية استنساخ الصوت
بينما يمكن استخدام تقنية استنساخ الصوت في مجالات مفيدة مثل مساعدة الأشخاص ذوي الإعاقات أو الحفاظ على أصوات الأفراد، فإن المخاطر المرتبطة بها تبدو حاليًا أكثر تهديدًا من الفوائد.
و من بين الحوادث التي أثارت جدلاً واسعًا كانت مع أميليا تايلور، وهي ممثلة صوتية شهيرة.
حيث تم استنساخ صوتها باستخدام الذكاء الاصطناعي وتم استخدامه في بث مباشر لقراءة محتوى غير لائق، مما أثار استياءها وطرح مخاوف جديدة حول انتهاك الخصوصية.
كيف تحمي نفسك من عمليات الاحتيالات الصوتية؟
إذا كنت تظن نفسك بعيدا عن هذا النوع من الاحتيال، فعليك معرفة أَنَّ جاي شوستر سبق و أن قدم عروضًا تقديمية حول هذا النوع من الاحتيال، كما تحدث أيضًا مع عائلته عنه.
ومع ذلك، كاد أن يقع والده ضحية له.
إذن، ما الذي يمكنك فعله لحماية نفسك من مثل هذه الاحتيالات المتطورة؟ إليك بعض النصائح التي قد تكون مفيدة:
١. التحقق من هوية المتصل: عندما تتلقى مكالمة غير متوقعة، من الضروري التحقق من هوية المتصل قبل مشاركة أي معلومات حساسة. لا تستخدم الرقم الذي يُعطى لك للتحقق، بل اتصل بالشركة أو المؤسسة عبر رقمها الرسمي.
٢. تجاهل المكالمات من أرقام غير معروفة: من الأفضل عدم الرد على المكالمات التي تأتي من أرقام غير معروفة. حيث يمكنك برمجة هاتفك لعدم استقبال مثل هذه المكالمات، مما يقلل من فرص التورط في عملية احتيال.
٣. استخدام التحقق الثنائي (Two-Factor Authentication): قم بتفعيل التحقق الثنائي لجميع حساباتك. فهذا الإجراء يضيف طبقة إضافية من الحماية ويساعد في تقليل مخاطر الاحتيال.
٤. قلل من مشاركة المعلومات الشخصية على الإنترنت: كلما قلت المعلومات الشخصية التي تشاركها عبر الإنترنت، كلما كان من الصعب على المحتالين استهدافك. لذا، أنصحك بمحاولة تقليل المعلومات المتاحة عنك مثل تواريخ الميلاد أو العناوين.
بالختام، يظهر أن الاحتيال باستخدام تقنية استنساخ الصوت بالذكاء الاصطناعي يمثل تهديدًا حقيقيًا للمستهلكين.
و يجب أن يكون الجميع على دراية بهذه المخاطر وأن يتخذوا الاحتياطات اللازمة لحماية أنفسهم وأحبائهم. وبينما تستمر التكنولوجيا في التطور، يجب أن نكون جميعًا أكثر وعيًا ويقظة في مواجهة هذه التهديدات الرقمية المتقدمة.
أدوات ذات صلة
Fish Audio: توليد و استنساخ أصوات بالعربية مجانًا.
EzAudio: تحويل النص إلى صوت واقعي وإنشاء مؤثرات صوتية بال AI