پیشرفتهای فناوری هوش مصنوعی، در کنار مزایای بیشمار، فرصتهای جدیدی را برای سوءاستفاده و جرایم نوین ایجاد کرده است. یکی از نگرانکنندهترین این موارد، شیوههای نوظهور کلاهبرداری با هوش مصنوعی است که مستقیماً روان و دارایی خانوادهها را هدف قرار میدهد.
این روشها بر پایه تواناییهای شگفتانگیز هوش مصنوعی در شبیهسازی صدا بنا شدهاند و میتوانند منجر به عواقب جبرانناپذیری شوند.
کلاهبرداری با صدای هوش مصنوعی: یک سناریوی هولناک
در این شیوه جدید کلاهبرداری که به آن هشدار داده شده است، فرد کلاهبردار با خانواده یک شخص تماس میگیرد. سناریوی این تماس معمولاً حول یک حادثه اضطراری و تکاندهنده طراحی میشود. کلاهبردار به خانواده اطلاع میدهد که یکی از عزیزانشان (مانند فرزند یا همسر) دچار یک تصادف شدید شده، حال وخیمی دارد و هماکنون در مسیر اتاق عمل است.
نقطه اوج این فریب روانی زمانی رخ میدهد که کلاهبردار ادعا میکند گوشی را برای لحظهای به فرد آسیبدیده میدهد. در این لحظه، خانواده صدایی را میشنوند که شباهت کامل به صدای عزیزشان دارد؛ این صدا با حالتی نزار و بریدهبریده، وقوع حادثه را تایید کرده و با التماس درخواست میکند که مبلغ هنگفتی، برای مثال چند ده میلیون تومان، به سرعت به شماره حساب اعلام شده (به عنوان هزینه بیمارستان یا جراحی) واریز گردد.

فشار روانی ناشی از شنیدن صدای مضطرب عزیزشان، خانواده را در حالت شوک و ترس قرار داده و فرصت هرگونه تفکر منطقی یا راستیآزمایی را از آنها سلب میکند. این امر منجر به آسیبهای شدید روحی و زیانهای اقتصادی قابل توجهی میشود.
تحلیل فنی کلاهبرداری با تقلید صدای هوش مصنوعی
شاید این سوال پیش بیاید که چنین اقدامی چگونه از نظر فنی امکانپذیر است. ابزارهای هوش مصنوعی امروزی برای شبیهسازی یک صدا، تنها به ۱۰ الی ۱۵ ثانیه فایل صوتی ممتد از آن شخص نیاز دارند. این نمونههای کوتاه صوتی به راحتی از شبکههای اجتماعی، پیامهای صوتی یا حتی تماسهای تلفنی قبلی قابل استخراج هستند.
کلاهبردار پس از به دست آوردن این نمونه صدا، آن را وارد نرمافزارهای شبیهساز هوش مصنوعی میکند. در هنگام تماس، خود فرد کلاهبردار جملات مدنظرش را بیان میکند، اما نرمافزار به صورت همزمان آن کلمات را با صدای شبیهسازی شده قربانی بازتولید میکند. این فرآیند دقیقاً مشابه فناوری است که برای ساخت آهنگهای جدید با صدای خوانندگان درگذشته استفاده میشود.
ابعاد گستردهتر تهدید: فراتر از کلاهبرداری مالی
خطرات کلاهبرداری با هوش مصنوعی صرفاً به مسائل مالی محدود نمیشود. این فناوری میتواند تبعات امنیتی گستردهتری نیز در پی داشته باشد. افراد سودجو میتوانند با شبیهسازی صدای یک فرد، سناریوهای اخاذی یا گروگانگیری جعلی را اجرا کنند.
برای مثال، ممکن است با خانواده فردی که دارای شغل حساس در کشور است تماس گرفته شود و با پخش صدای فرزند او ادعا کنند که وی را گروگان گرفتهاند و در ازای آزادی او، اطلاعات خاصی را مطالبه کرده یا فرد را مجبور به انجام یا عدم انجام یک اقدام خاص نمایند. این سطح از فریب میتواند امنیت در سطوح بالا را نیز به مخاطره بیندازد.

آموزش: تنها راه مقابله با کلاهبرداری با هوش مصنوعی
با توجه به واقعی و در دسترس بودن این فناوری، تنها راه پیشگیری و مقابله با آن، آموزش و اطلاعرسانی همگانی است.
توصیه اکید میشود که این مسئله را در اسرع وقت به تمام اعضای خانواده و نزدیکان خود اطلاع دهید و این پروتکل امنیتی ساده را با آنها مرور کنید:
۱. اگر تماسی اضطراری دریافت کردید که در آن ادعای تصادف، بیماری یا گروگانگیری یکی از عزیزانتان مطرح شد.
۲. حتی اگر صدای خود آن شخص را برای چند ثانیه شنیدید که ادعا را تایید میکرد.
۳. اولین و فوریترین اقدام شما باید قطع کردن آن تماس باشد.
۴. بلافاصله با شماره تلفن شخصی و همیشگی همان عزیزتان که ادعا میشد دچار حادثه شده است، تماس بگیرید.
این اقدام ساده به شما اجازه میدهد تا پیش از هرگونه دستپاچگی، ترس یا جابجایی پول، از سلامت واقعی عزیز خود اطمینان حاصل کنید و از افتادن در دام این کلاهبرداری پیچیده جلوگیری نمایید.
اگر به هوش مصنوعی و دنیای آن علاقهمند هستید، با ای بازی همراه شوید تا از جدیدترین اخبار مطلع بمانید.
به علاوه، استفاده خلاقانه از موز نانویی برای جان بخشیدن به نقاشیهای کودکان، به خوبی نشان میدهد که چگونه ابزارهای هوش مصنوعی به بخشی از سرگرمیهای روزمره ما تبدیل شدهاند. بسیاری از کاربران پس از خلق چنین تصاویری، به سراغ هوش مصنوعی برای ساخت ریلز میروند تا این تحولات جادویی را به صورت ویدیوهای کوتاه و جذاب به اشتراک بگذارند.
البته انتخاب ابزار مناسب برای این کارها نیازمند آگاهی است؛ یک مقایسه Veo 3 و Sora 2 نشان میدهد که هر مدل نقاط قوت خاص خود را برای کاربردهای متفاوت دارد.




