Sorry, you need to enable JavaScript to visit this website.

ذكاء اصطناعي لانتحال الأصوات واختراق حساباتكم المصرفية

كان الغرض من استخدام صوت الشخص كوسيلة للتحقق من هويته أن يشكل طريقة مضمونة للوصول إلى المعلومات المالية والخاصة. لكن الحال تغيرت الآن مع انتشار الخداع باللجوء إلى التكنولوجيا الحديثة للحصول على مبالغ بالآلاف

كلما زاد اعتماد العملاء على تحديد الهوية المنشط بالصوت، زادت فرصة الذكاء الاصطناعي لاستغلال هذه الأنظمة للوصول إلى البيانات السرية (غيتي/ آي ستوك)

ملخص

في وقت نالت أخطار تأثير الذكاء الاصطناعي في الوظائف والأمن القومي والمعلومات المضللة نصيباً كبيراً من المناقشات، لم يحظَ استخدامه لأغراض احتيالية بالقدر نفسه من الاهتمام

عندما تلقى الرئيس التنفيذي لشركة طاقة مقرها المملكة المتحدة تلك المكالمة الهاتفية يومذاك، كان الصوت الآتي من الجهة الأخرى مألوفاً وإن بدا عجولاً على غير عادته. إنه رئيسه في ألمانيا، يريد منه أن يلبي له طلباً مستعجلاً. أراد من الرئيس التنفيذي أن يرسل مبلغ 243 ألف دولار (191 ألف جنيه استرليني) إلى جهة موردة هنغارية في أقرب وقت ممكن عبر عملية تحويل مصرفية. وقال "إنه أمر عاجل". وتلقى الرئيس التنفيذي تأكيداً بإعادة المبلغ له لاحقاً.

بعد إتمام عملية التحويل، وجد المبلغ المطلوب طريقه إلى حساب مصرفي في المكسيك ثم إلى أماكن أخرى عدة. لكن الأموال لم تُعَد مطلقاً، لذا عندما تلقى الرئيس التنفيذي مكالمتين أخريين تطلبان منه دفعات مالية إضافية، انتابه الشك، ولم ينفذ أي تحويلات نقدية إضافية مطلقاً.

لم يكن المتصل رئيسه، بل كان برنامجاً مدعوماً بالذكاء الاصطناعي لتوليد الأصوات خضع لبرمجة تسمح له بتقليد صوت رئيسه في ألمانيا، وبذلك الخداع للقيام بالتحويلات المصرفية. لقد تعرض لعملية احتيال، فيما بقيت وجهة الأموال مجهولة ولم تُسترد.

في الواقع، هذا النوع من الاحتيال الصوتي المستخدم بتقنية "ديب فيك" Deepfake هو شكل جديد من أشكال الهجمات الإلكترونية. ففي وقت نالت أخطار تأثير الذكاء الاصطناعي في الوظائف والأمن القومي والمعلومات المضللة نصيباً كبيراً من المناقشات، لم يحظَ استخدامه لأغراض احتيالية بالقدر نفسه من الاهتمام. ومع ذلك، فإن خطر إساءة استخدام أموال المستثمرين وعمليات التلاعب بالأسواق المالية كبير للغاية. وزير الدولة لشؤون الأمن البريطاني توم توغندهات قال إن "بضعة أسطر من التعليمات البرمجية في مقدورها أن تكون بمثابة ’ميركل غرو‘Miracle-Gro  [علامة تجارية لأسمدة يمكن استخدامها على الخضراوات لتوفير العناصر الغذائية الأساسية لنموها] لتعزيز الجريمة، وتقدر الكلفة العالمية للاحتيال بالتريليونات فعلاً". وفيما يزداد الذكاء الاصطناعي تطوراً، يتزايد أيضاً خطر الاحتيال الذي يتهددنا جميعاً، من إنشاء مستندات مزيفة لا تختلف عن نظيراتها الحقيقية وبيانات مالية مزورة وتسجيلات صوتية، إلى انتحال هويات مركبة (أحد أشكال الاحتيال المالي الذي يتمثل في الجمع بين البيانات الكاذبة التي يولدها الذكاء الاصطناعي ومعلومات شخصية حقيقية مسروقة [لإنشاء هوية جديدة تماماً]).

يقول خبراء الأمن السيبراني إن أدوات الذكاء الاصطناعي مثل "تشات جي بي تي" ChatGPT  تساعد مجرمي الإنترنت على ابتكار عمليات احتيال أكثر إقناعاً وتعقيداً. أحد الأشكال المثيرة للقلق بصورة خاصة هو تحويل المدفوعات أو الاحتيال في الفواتير، إذ يستخدم المجرمون مستندات ملفقة لخداع الأفراد أو الشركات لدفع مبالغ لهم. كذلك تستعمل هذه الأدوات لانتحال هوية موظفي البنوك والهيئات الحكومية. ومع التقدم في الذكاء الاصطناعي، يمكن للمحتالين الآن توليد أصوات حقيقية للمكالمات الهاتفية، مما يدفع الأشخاص إلى الاعتقاد بأنهم يتحدثون إلى محاسبهم الموثوق به، أو مدير البنك المحلي، أو حتى زملائهم وأفراد أسرهم. ويحذر الخبراء القانونيون أيضاً من أن المحاسبين الذين يفشلون في التعرف إلى التزوير الناتج من الذكاء الاصطناعي قد يتورطون عن غير قصد في الاحتيال الضريبي أو أنشطة غسيل الأموال.

أما بالنسبة إلى المستثمرين الذين تغريهم العائدات المرتفعة الموعودة، فتواجههم أخطار عالية. ومن الحالات البارزة التي تسلط الضوء على هذا الخطر المتزايد هي المحاكمة المقبلة في الولايات المتحدة الأميركية لمايكل براكيت. وهو متهم بتزوير وثائق لجذب المستثمرين إلى شركته الناشئة للذكاء الاصطناعي "سنتريستي" Centricity. نجح براكيت في جمع 2.5 مليون دولار أميركي من خلال توقعات الطلب الاستهلاكي الواعدة في الوقت الفعلي. ومع ذلك، فشلت الشركة في النهاية، ويُزعم أن مؤسسها احتال على مستثمر بمبلغ 500 ألف دولار من خلال تقديم معلومات مضللة حول إيرادات الشركة وقاعدة العملاء.

 

 براكيت استقال بعد إخفاقه في جذب مزيد من المستثمرين، بيد أن عملية الاحتيال انكشفت لاحقاً، وفق كلام مدعين عامين في الولاية. وقال داميان ويليامز، المحامي في المنطقة الجنوبية من نيويورك إنه "على رغم ارتباط هذه الصناعة بالتطورات والتقنيات الجديدة، لجأ براكيت إلى تزوير وثائق وأرقام الإيرادات بغية إقناع الضحايا بالاستثمار في شركته الناشئة".

قام الذكاء الاصطناعي بدور مركزي في كل من استراتيجية أعمال براكيت والاحتيال المزعوم. كان هدف شركته هو استخدام الذكاء الاصطناعي للتنبؤ بطلب المستهلكين واتجاهات السوق بدقة. ولكن المدعين يزعمون أنه تلاعب في البيانات المصرفية، وكذب في شأن عدد عملائه الفعلي وإيراداته كي يخلق انطباعاً زائفاً عن الجدوى المالية.

وجاء في لائحة الاتهام: "لقد ضلل براكيت المستثمرين في شأن الوضع المالي لشركة ’سنتريستي‘ من خلال تزويدهم بقائمة عملاء مزيفين. تضمنت هذه القائمة عدداً من الكيانات التي لم تكن تدفع فعلياً للعملاء وعرضت أرقام إيرادات مبالغاً فيها بصورة كبيرة". بعث براكيت رسائل بريد إلكترونية إلى جهات ذات ديون قصيرة الأجل للحصول على تمويل لـ"سنتريستي". وفي بعض الإيميلات، أرفق براكيت كشف حساب مصرفي مزعوم للشركة. فعلى رغم أن الرصيد [الفعلي] في حساب "سنتريستي" كان 94 ألفاً و420 دولاراً أميركياً وستة سنتات، بيد أن براكيت أجرى تغييراً على الوثيقة المصرفية كي يبدو أن الرصيد النهائي لشركته 594 ألفاً و420 دولاراً أميركياً وستة سنتات. ولكن لاحظ أحد المقرضين المحتملين في أقل تقدير أن كشوفات الحساب المصرفية التي أرسلها براكيت جرى التلاعب بها.

عام 2021، اتهم براكيت بتزوير الأوراق المالية، لكنه ينفي ذلك بشدة. وخلال الشهر الماضي، سعى رائد الأعمال في مجال الذكاء الاصطناعي، وهو مواطن أميركي ومقيم في سويسرا، إلى الحصول على إذن بالعودة لسويسرا، متحججاً بالتزامات العمل. ولكن طلبه قوبل بالرفض، وستبدأ المحاكمة في وقت لاحق من العام الحالي. وفي حال ثبوت إدانته، سيواجه عقوبة بالسجن تصل حتى 20 عاماً.

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

تبلغ قيمة سوق الذكاء الاصطناعي العالمي اليوم 40 مليار دولار أميركي، ومن المتوقع أن تصل إلى 1.3 تريليون دولار بحلول عام 2032، وفق "بلومبيرغ إنتليجنس". يغذي هذا النمو التوسع في وفرة البيانات، وأجهزة الحوسبة الأكثر قوة والطلب المتصاعد على حلول الذكاء الاصطناعي. ومن المرجح أن يتمتع الذكاء الاصطناعي بالقدرة على أتمتة ما يقدر بنحو 65 في المئة من المهمات التي ينجزها البشر حالياً. ولكن الشركات والأفراد مهددون بالخطر من محتالي الذكاء الاصطناعي. وخلال العام الماضي، تعرضت 32 في المئة من الشركات في المملكة المتحدة لهجمات إلكترونية، باستخدام عمليات تصيد احتيالي بصورة رئيسة.

أضف إلى ذلك أن الحكومات ليست محصنة ضد تهديد الاحتيال باستخدام الذكاء الاصطناعي. أثناء جائحة [كورونا]، لجأت الجريمة المنظمة في جميع أنحاء أوروبا إلى تقنيات الذكاء الاصطناعي للمطالبة بصورة احتيالية بالحصول على أموال من عدد من الحكومات الوطنية. ومع ذلك، يقول خبراء الإنترنت إن حكومة المملكة المتحدة متهاونة تجاه الحاجة إلى صوغ قوانين تنظيمية قوية تحكم هذه التكنولوجيا وتجاه إبطاء انتشارها. ويرى هؤلاء الخبراء أن الذكاء الاصطناعي توجه محتوم لا مناص منه، ولكن لا بد من تقييم ورصد الأخطار التي يطرحها. ويقول المؤرخ والمؤلف يوفال نوح هراري إنه "من الصعب جداً لجم تطور الذكاء الاصطناعي لأن لدينا عقلية سباق التسلح هذه. يدرك الناس، بعضهم، الأخطار، ولكنهم لا يريدون أن يتخلفوا عن الركب في هذا المجال".

بدوره، يقر ريشي سوناك [رئيس وزراء بريطانيا] بوجود هذا الخطر. وقال أخيراً في هذا الشأن إن "المجرمين في يدهم استغلال الذكاء الاصطناعي في تنفيذ هجمات إلكترونية أو عمليات احتيال أو حتى الاعتداء الجنسي على الأطفال. ويلوح أيضاً خطر أن تفقد البشرية السيطرة على الذكاء الاصطناعي تماماً بوجود نوع من الذكاء الاصطناعي يشار إليه بالذكاء الخارق". ولكن لم يتضمن خطاب الملك الشهر الماضي مشروع قانون للذكاء الاصطناعي، وقال رئيس الوزراء أمام المشاركين في القمة حول سلامة الذكاء الاصطناعي التي عقدها أخيراً إن المملكة المتحدة "لن تتسرع في صوغ قوانين تنظيمية لهذا القطاع".

في سياق متصل، أطلقت المملكة المتحدة أخيراً ميثاقاً لمكافحة الاحتيال عبر الإنترنت مع شركات التكنولوجيا لمكافحة السرقة والإعلانات المزيفة والاحتيال. ولكن يستخدم المجرمون الذكاء الاصطناعي بشكل متزايد لارتكاب عمليات احتيال مالية أكثر إقناعاً وتعقيداً.

وليست المعلومات المضللة، بالطبع، اتجاهاً جديداً. فانتشرت طوال قرون عدة من الزمن، واستُخدم تشويه التسجيلات الصوتية خلال الحرب الباردة. عام 1983، كان الاتحاد السوفياتي يتطلع بحرقة إلى أن تمنى مارغريت تاتشر بالخسارة في الانتخابات العامة في المملكة المتحدة. وهكذا صاغت وكالة الاستخبارات السوفياتية "كي جي بي" KGB شريط تسجيل لمحادثة هاتفية مزيفة بينها والرئيس الأميركي رونالد ريغان، ثم سربتها إلى جميع أنحاء دول "حلف شمال الأطلسي" (ناتو). كان المحتوى عبارة عن محادثة معدلة بطريقة فظة تتوعد فيها تاتشر بمعاقبة الأرجنتين على خسارة السفينة المدمرة من نوع "إتش إم إس شيفيلد" خلال حرب الفوكلاند، فيما سُمع ريغان وهو يحاول تهدئتها. وحققت وكالة الاستخبارات السوفياتية ذلك من خلال ربط التسجيلات الفعلية لأصواتهما من مقابلات منفصلة، مما أدى إلى خلق حوار ملفق لم يحدث أبداً.

ومع اقتراب موعد انتخابات عامة أخرى، استخدم صوت كير ستارمر بغرض إيصال رسالة مثيرة للاهتمام إنما مزيفة على "فيسبوك" للترويج لمنصة استثمارية جديدة مخصصة للمقيمين في المملكة المتحدة. كان الفيديو عبارة عن مونتاج لمقاطع مختلفة مغطاة بصوت يحاكي صوت ستارمر. وجاء في التعليق المصاحب للفيديو بصورة مضللة: "مبادرة خاصة من حكومة المملكة المتحدة لجميع المواطنين البريطانيين! تصرفوا بسرعة! اكسبوا ما يصل إلى 40 ألف جنيه استرليني شهرياً! إبدأ اليوم بمبلغ 250 جنيهاً استرلينياً فقط واحصل على 1000 جنيه استرليني في أول يوم لك!".

 وأظهر الفيديو نسخة ممنتجة لمقاطع مختلفة، فيما أظهر التسجيل الصوتي صوت زعيم "حزب العمال" نفسه. ويرد أسفل التعليق على الفيديو: "مبادرة خاصة من حكومة المملكة المتحدة لجميع المواطنين البريطانيين! تصرف بسرعة! إربح ما يصل إلى 40 ألف جنيه استرليني شهرياً! إبدأ اليوم بمبلغ 250 جنيهاً استرلينياً فقط واحصل على 1000 جنيه استرليني في أول يوم لك!".

أنشئ الفيديو عن طريق استنساخ صوت لستارمر مأخوذ من خطاب حقيقي ألقاه لمناسبة العام الجديد في 2023. كان الهدف منه تصوير زعيم المعارضة على أنه يروج للمقامرة في الأموال. وأكد متحدث باسم ستارمر أن الخطاب كان ملفقاً وأنه لا وجود لـ"البرنامج الاستثماري".

واليوم أصبح التهديد الذي تشكله مثل هذه التقنيات أكثر خطورة وأوسع نطاقاً، إذ باتت أدوات الذكاء الاصطناعي أكثر تطوراً ومن الصعب رصدها. في الواقع، "بينما نتعلم نحن كيف نستخدم الذكاء الاصطناعي، يتعلم بدوره كيفية استخدامنا"، يقول هراري مضيفاً أنه "ممكن للمرة الأولى في التاريخ خلق مليارات البشر. إذا تعذر علينا أن نعرف من الإنسان الحقيقي ومن الإنسان المزيف، سنشهد انهياراً للثقة وللمجتمع الحر. في حال حدوث هذا السيناريو، فإنه سيفعل في المجتمع كفعل الأموال المزيفة التي تتهدد النظام المالي.

شارك في إعداد محتوى التقرير "إيفي ويب"

© The Independent

المزيد من علوم