خطر الذكاء الاصطناعي التوليدي: بين التقدم والتزييف
يشهد العالم اليوم انتشارًا واسعًا لتقنيات الذكاء الاصطناعي التوليدي، التي تُستخدم في مجالات متعددة، من تحسين الإنتاجية إلى الترفيه. ومع ذلك، فإن هذه التقنية أصبحت أداة فعالة في أيدي المحتالين لنشر المعلومات المضللة والقيام بعمليات احتيال متقدمة. من بين أبرز هذه الاستخدامات السلبية، تقنية التزييف العميق (Deepfake) التي تُستخدم في إنشاء مقاطع فيديو زائفة لانتحال الشخصيات وجمع المعلومات الحساسة.
آلية عمل مكالمات الفيديو الاحتيالية باستخدام الذكاء الاصطناعي
تعتمد مكالمات الفيديو الاحتيالية على تقنية التزييف العميق التي تُستخدم لتقليد ملامح الوجه والصوت بدقة. الهدف هو إقناع الضحية بأنهم يتحدثون مع شخص يعرفونه أو يثقون به.
هذه المكالمات منتشرة بشكل خاص على مواقع التعارف، حيث يُستهدف الأشخاص الباحثون عن علاقات شخصية. يمكن أيضًا استخدام التزييف العميق لانتحال شخصيات مشهورة أو شخصيات سياسية أو حتى أصدقاء وزملاء عمل. يلجأ المحتالون في كثير من الأحيان إلى استخدام أرقام هواتف مزيفة لإضفاء مزيد من المصداقية على هجماتهم.
أهداف المحتالين
الهدف الأساسي لكل محتال هو الحصول على المعلومات. رغم أن البيانات تأتي بأشكال متعددة، فإن معظم عمليات الاحتيال التي تعتمد على الذكاء الاصطناعي تسعى لتحقيق نفس الغاية. على سبيل المثال، قد يحاول المحتال انتحال شخصية رئيسك في العمل للحصول على معلومات حساسة تتعلق بالشركة، مثل تفاصيل عن العملاء أو العقود التي يمكن استغلالها وبيعها لشركات منافسة. في أسوأ الحالات، قد يستدرج المحتال للحصول على معلومات بنكية أو رقم الضمان الاجتماعي عبر انتحال شخصية صديقتك أو زوجتك، ومن ثم يطلب المال أو يأتي على هيئة مدير موارد بشرية يعرض عليك وظيفة جديدة.
بمجرد حصول المحتالين على المعلومات المطلوبة، يمكن أن تتنوع العواقب بين بيع هذه البيانات لشركات منافسة أو استخدامها للإضرار بالمؤسسات أو الأفراد.
أمثلة حقيقية: خسائر ضخمة بسبب مكالمات الفيديو الاحتيالية
في أوائل عام 2024، تعرض موظف مالي في شركة متعددة الجنسيات بهونغ كونغ لعملية احتيال كلفت الشركة 25 مليون دولار. استخدم المحتالون تقنية التزييف العميق لانتحال شخصية المدير المالي للشركة وطلب تحويل الأموال بشكل عاجل.
رغم شكوك الموظف الأولية، إلا أن المكالمة المصممة بعناية والتي تضمنت زملاء مزيفين أقنعته بالموافقة على التحويل. تم اكتشاف الاحتيال لاحقًا بعد فوات الأوان، مما يبرز خطورة هذه الهجمات وفعاليتها.
كيفية اكتشاف مكالمات الفيديو الاحتيالية
حاليًا، يتصف التزييف العميق المستخدم في معظم مكالمات الفيديو الاحتيالية بأنه غير متسق، وغالبا ما يحوي عيوبا بصرية ولقطات غريبة تجعل الفيديو أو الصوت يبدو مزيفا. يجب التدقيق في التفاصيل مثل تعابير الوجه غير المتناسقة، الخلفية التي تتحرك بشكل غريب، والصوت الذي يبدو آليًا بعض الشيء. تقنيات التزييف العميق الحالية تواجه صعوبة في تتبع حركة الشخص إذا وقف أو رفع يديه فوق رأسه، مما يجعل من السهل اكتشاف الخدعة في بعض الحالات.
الحماية من مكالمات الفيديو الاحتيالية
بدلاً من محاولة التعرف على الفيديوهات التي أنشأها المحتالون بواسطة الذكاء الاصطناعي، يمكن اتباع نهج أكثر فعالية في الأمان. سنذكر هنا بعض الاستراتيجيات الأساسية للحماية من مكالمات الفيديو الاحتيالية:
التحقق من هوية المتصل: بدلاً من محاولة تحديد هوية الشخص بناءً على وجهه أو صوته، يمكنك استخدام أساليب يصعب تزويرها، مثل إرسال رسالة نصية تسأل المتصل إذا كان يجري مكالمة فيديو معك في الوقت الحالي. إذا كان الجواب لا، فمن المحتمل أن تكون المكالمة احتيالية.
تجنب مشاركة المعلومات الحساسة في مكالمات الفيديو: لا ينبغي لأحد أن يطلب منك معلوماتك المصرفية أو رقم الضمان الاجتماعي بصوت عالٍ أثناء مكالمة الفيديو. احتفظ بهذه المعلومات المهمة في صدرك ولا تشاركها عبر الإنترنت أبدا. إذا حاول المتصل استعجالك أو الضغط عليك للقيام بذلك، فهذا سبب وجيه لإنهاء المكالمة.
الحذر من مشاركة الصور والمعلومات عبر الإنترنت: أحد الخطوات الأساسية في تجنب التزييف العميق هو الحذر من مشاركة الصور والمعلومات عبر الإنترنت. يمكن ضبط إعدادات الخصوصية على منصات التواصل الاجتماعي بحيث يمكن للأشخاص الموثوق بهم فقط رؤية صورك ومنشوراتك.
استخدام العلامات المائية: عند مشاركة الصور أو مقاطع الفيديو عبر الإنترنت، يمكن استخدام علامات مائية عليها. هذا يمكن أن يثني المحتالين عن استخدام تلك الصور ويجعل جهودهم أكثر قابلية للتتبع.
التعرف على التزييف العميق والذكاء الاصطناعي: بما أن عالم الذكاء الاصطناعي يتغير بسرعة، فإن مواكبة الأحداث والتطورات يمكن أن تساعد في فهم الأساليب الاحتيالية المعتمدة على التزييف العميق. متابعة الأخبار والتطورات حول هذه التقنيات يمكن أن تساعدك في التعرف على العلامات الحمراء المحتملة عند مواجهة محتوى مشتبه فيه.
- المزيد: دليلك الشامل لأفضل 8 أدوات تحويل النص إلى فيديو بالذكاء الاصطناعي
الخلاصة
التزييف العميق أصبح أداة قوية في يد المحتالين، مما يجعل من الضروري أن نكون على دراية بطرق الحماية المتاحة. باتباع الإجراءات الوقائية المذكورة أعلاه، يمكنك تقليل فرص الوقوع ضحية للاحتيال عبر مكالمات الفيديو. مع تطور تكنولوجيا الذكاء الاصطناعي بسرعة، يجب أن نظل دائمًا على استعداد لمواجهة التحديات الجديدة وحماية بياناتنا ومعلوماتنا الشخصية من الاستغلال.