انتاب امرأة قلق بعدما سمعت صوت ابنتها وهي تبكي في مكالمة هاتفية يزعم فيها رجل أنه خطف الفتاة ويطلب فدية، إلا أنّ نبرة صوت البنت لم تكن حقيقية بل مولّدة بواسطة تقنية الذكاء الاصطناعي في محاولة للاحتيال على الأمّ؛ وهي مسألة مُقلقة تبرز مع هذه التكنولوجيا التي تشهد ازدهارا في المرحلة الراهنة.
يشير الخبراء إلى أنّ الخطر الأبرز للذكاء الاصطناعي يتمثّل في قدرة هذه التقنية على تبديد الخط الفاصل بين الحقيقة والخيال، وتزويد المجرمين بأدوات فعّالة وغير مكلفة. وقد أثارت عمليات احتيال هاتفية حديثة تستخدم أدوات النسخ الصوتي المُستندة إلى الذكاء الاصطناعي والمتاحة بسهولة في الإنترنت، قلق السلطات الأميركية.
فقد سمعت جينيفر ديستيفانو، وهي أم تقيم في أريزونا، عبر الهاتف صوتا يقول “ساعديني يا أمي، أرجوكِ ساعديني”. صدّقت الوالدة أنّه صوت ابنتها ذات الخمسة عشر عاما التي خرجت لممارسة التزلج. قالت الأم لمحطة تلفزيونية محلية في أبريل/نيسان الماضي “كان الصوت مطابقا لصوت ابنتي مع طريقة بكائها نفسها، لم أشك للحظة أنها قد لا تكون هي”.
طلب المحتال الذي اتّصل بالوالدة من رقم مجهول الحصول على مليون دولار، لقاء إطلاق سراح الفتاة.
تخضع حاليا هذه الحادثة -التي وصلت إلى نهايتها سريعا بعدما تمكّنت ديستيفانو من التواصل مع ابنتها- لتحقيق من السلطات المختصة، وكان لها دور في تسليط الضوء على عمليات الاحتيال المحتملة بفعل استخدام مجرمي الإنترنت برامج الذكاء الاصطناعي.
عمليات تزييف عميق مقنعة
يؤكّد وسيم خالد، المدير التنفيذي لشركة “بلاكبيرد إيه آي” (Blackbird Ai)، في حديثه لوكالة الصحافة الفرنسية، أنّ “النسخ الصوتي عبر الذكاء الاصطناعي الذي بات من شبه المستحيل تمييزه عن الصوت البشري، يتيح للأشخاص السيئي النية الحصول على معلومات ومبالغ من الضحايا بأسلوب أكثر فعالية ممّا عليه يعتمدون في العادة”.
وتسمح تطبيقات كثيرة مجانية ومُتاحة عبر الإنترنت باستنساخ الصوت الفعلي لشخص ما عبر برنامج للذكاء الاصطناعي يستند إلى تسجيل قصير لصوت هذا الشخص، ويمكن للمحتال أن يحصل على تسجيلات مماثلة من محتويات للضحية منشورة عبر الإنترنت.
يقول خالد “من خلال تسجيل صوتي قصير، يمكن استخدام استنساخ صوتي أُنشئ استنادا إلى الذكاء الاصطناعي، لترك رسائل ومقاطع صوتية يُزعم أنها للضحية. وقد يُستخدم الصوت المُستنسخ أيضا كصوت مُعدَّل أثناء المكالمات الحية، كما يستخدم المحتالون لهجات متنوّعة، ويقلّدون الطريقة التي تتحدث بها الضحية”، مؤكداً أنّ هذه التكنولوجيا “تتيح إنشاء عمليات تزييف عميق مقنعة”.
وأظهر استطلاع شمل نحو 7 آلاف شخص في 9 دول بينها الولايات المتحدة، أنّ شخصا واحدا من كل 4 استُهدف بمحاولة احتيال صوتي عبر الذكاء الاصطناعي، أو أنه يعرف شخصا تعرّض لعملية مماثلة. وأشار 70% ممّن شملهم الاستطلاع إلى أنهم لم يكونوا متأكدين من قدرتهم على التمييز بين الصوت الحقيقي والصوت المستنسخ، وفق الاستطلاع الذي نشر الشهر الفائت.
وحذرت السلطات الأميركية أخيراً من تزايد “عمليات الاحتيال التي تطال كبار السنّ”، وقالت لجنة التجارة الفدرالية في تحذيرها “تتلقون مكالمة يُسمَع فيها صوت حفيدكم وهو مذعور، يقول إنه في ورطة كبيرة عقب تعرضه لحادث سير واحتجازه من الشرطة، لكنّكم قادرون على مساعدته من خلال إرسال الأموال له”.
وفي التعليقات التي كُتبت تحت تحذير اللجنة الأميركية، يشير عدد كبير من المسنّين إلى أنّهم خُدعوا بهذه الطريقة.
عمليات احتيال متزايدة
واقتنع جدٌّ تعرّض لعملية احتيال بما سمعه لدرجة أنّه بدأ يجمع الأموال وفكّر في رهن منزله، قبل أن يتبيّن أنّ ما يحصل ليس سوى احتيال.
وفي حديث لوكالة الصحافة الفرنسية، يقول هاني فريد الأستاذ في كلية المعلومات بجامعة كاليفورنيا في بيركلي، إنّ السهولة التي يتّسم بها استنساخ الصوت تعني أن “كل مستخدم للإنترنت معرض للخطر”، وأشار إلى أنّ “عمليات الاحتيال هذه آخذة في الازدياد”.
وتعيّن على شركة “إيليفن لابس” (ElevenLabs) الناشئة الاعتراف بأنّ أداتها الناسخة للصوت من خلال الذكاء الاصطناعي يمكن استخدامها لأهداف مسيئة، بعدما نشر عدد من مستخدمي الإنترنت مقطعا مزيفا للممثلة إيما واتسون وهي تقرأ مقاطع من كتاب “كفاحي” لأدولف هيتلر.
ويقول غال تال هوشبيرغ، وهو مسؤول في شركة “تيم 8” (Team 8) المتخصصة في الاستثمارات التكنولوجية، “نقترب بسرعة من المرحلة التي لن يعود بإمكاننا فيها الوثوق بالمحتوى المنشور عبر الإنترنت، وسيتعين علينا خلالها الاستعانة بتقنيات جديدة لنتأكّد من أنّ الشخص الذي نعتقد أننا نتحدث معه (عبر الهاتف) هو بالفعل مَن نتواصل معه”.
اكتشاف المزيد من صحيفة 24 ساعة
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.