روش جدید کلاهبرداری با هوش مصنوعی؛ گول صداهای آشنایی که به شما زنگ میزنند را نخورید!
یک روزنامه گزارشی از روش جدید کلاهبرداران با استفاده از هوش مصنوعی دارد.
به گزارش گروه رسانهای شرق،
یک روزنامه گزارشی از روش جدید کلاهبرداران با استفاده از هوش مصنوعی دارد.
در این گزارش آمده است؛
«چندساعت پیش تماسی با خاله ام گرفته شد و گفتند: پسر شما تصادف کرده، حالش وخیم است، او را به بیمارستان امام حسین بردیم و باید سریع پول واریز کنید تا عمل اش کنیم. بعد گوشی را دادند به پسرش، صدایی دقیقاً مثل خودش! همون لحن، همون تکیه کلام ها.»
این نوع از کلاهبرداری به کمک «دیپ فیک» انجام می شود؛ نوعی رسانه مصنوعی شامل تصویر، ویدئو یا فایل صوتی که در آن چهره یا صدای فردی با استفاده از هوش مصنوعی تغییر داده یا جایگزین می شود. این کلاهبرداری، یکی از میلیون ها مورد کلاهبرداری با هوش مصنوعی در سال ۲۰۲۵ است.
در سال ۲۰۲۵، بیش از ۵۰ درصد از تقلب های شناسایی شده در پرداخت ها با نوعی از هوش مصنوعی یا دیپ فیک انجام شده اند و حجم بازار جهانی فناوری ضد فریب از حدود ۱۳ میلیارد دلار در ۲۰۲۴ به ۵/۱۵ میلیارد دلار رسیده است.
علیرضا طباطبایی، وکیل دادگستری در حوزه سایبری می گوید: موارد کلاهبرداری با استفاده از هوش مصنوعی نیز با استفاده از قانون جرائم رایانه بررسی می شود: «قانون مرتبط با این جرائم بسته به نوع نتیجه ای است که حاصل می شود؛ اگر نتیجه آن برداشت وجه از حساب کسی باشد، علاوه بر جعل رایانه ای، قانون مربوط به کلاهبرداری رایانه ای هم استفاده می شود.
اگر برداشت وجه انجام نشود و صرفاً شخص به جعل اقدام کند، این اقدام جعل رایانه ای محسوب می شود. اگر فرد تصویر کسی را به صورت تقلبی بسازد و آن را منتشر کند، علاوه بر جعل رایانه ای، می تواند مشمول قانون مربوط به تصاویر مستهجن و مبتذل هم باشد. درنهایت نیازی به قانون جدیدی نیست و قانون جرائم رایانه ای آن را پوشش می دهد.
آخرین اخبار جامعه را از طریق این لینک پیگیری کنید.