Wp Header Logo 401.png

هوش مصنوعی و انتخابات آمریکا؛ تهدیدی فراتر از اختلافات سیاسی

به گزارش روزپلاس، انتخابات تنها فرصتی برای دولت‌ها نیست تا با استفاده از ابزارهای هوش مصنوعی مولد به تخریب اعتبار سیاستمداران بپردازند، بلکه فرصتی برای مجرمان سایبری نیز هست که با بهره‌گیری از این ابزارها، کلاهبرداری‌های مبتنی بر مهندسی اجتماعی را به شکل گسترده‌تر و پیچیده‌تری سازماندهی کنند.

با نزدیک شدن به موعد انتخابات ریاست جمهوری آمریکا و درحالی که توجهات به برگزاری این رویداد سیاسی در ماه نوامبر معطوف شده، تهدید رو به رشد فناوری‌های هوش مصنوعی مولد، به‌ویژه دیپ‌فیک‌ها، غیرقابل‌چشم‌پوشی است. تهدیدات ناشی از سوءاستفاده از فناوری‌های هوش مصنوعی مولد بیش از هر زمان دیگری توجهات را به خود جلب کرده است. انتخابات در ایالات متحده نه تنها فرصتی برای دولت‌ها است تا با استفاده از ابزارهای هوش مصنوعی به تخریب اعتبار سیاستمداران بپردازند، بلکه عرصه‌ای مناسب برای مجرمان سایبری است که به‌وسیله ابزارهای پیشرفته‌تری چون دیپ‌فیک‌ها و مدل‌های زبانی بزرگ، کلاهبرداری‌های پیچیده‌تری را سازماندهی کنند. نمونه‌های اخیر استفاده از دیپ‌فیک برای شبیه‌سازی تصاویر یا کلیپ‌های صوتی و تصویری سیاستمداران در آمریکا، نگرانی‌ها درباره پیامدهای بالقوه این فناوری‌ها برای سلامت فرآیندهای دموکراتیک را افزایش داده است.

سیاستمداران به دلیل جایگاه عمومی و تأثیرگذاری‌شان بر شهروندان، اهداف اصلی این نوع حملات هستند. افزایش توجه عمومی به کنشگران سیاسی در دوران انتخابات، این مسئله را تشدید کرده و عرصه را برای بازیگران مخربی که در پی استفاده از این فناوری‌ها در راستای اختلال در فرایندهای سیاسی هستند، باز می‌کند.

وبگاه خبری NBC News سال گذشته در گزارشی اعلام کرد که ایالت میشیگان آمریکا قصد دارد، با تدوین برخی سیاست‌ها، استفاده از هوش مصنوعی و سایر رسانه‌ها در راستای فریب مخاطبان را محدود کند. طبق قانونی که انتظار می‌رود در روزهای آینده توسط فرماندار این ایالت، گرچن ویتمر امضا شود، کمپین‌های انتخاباتی ایالتی و فدرالی باید استفاده از هوش مصنوعی در فرایند تولید تبلیغات سیاسی را در میشیگان اعلام کنند. قانون مذکور، همچنین استفاده از محتوای دیپ‌فیک بدون نشانه‌گذاری شفاف را تا ۹۰ روز پس از انتخابات نیز ممنوع است.

این وبگاه خبری همچنین در آن بازه زمانی اعلام کرد که ایالت‌های کالیفرنیا، مینه سوتا، تگزاس و واشنگتن قوانینی را تصویب کرده‌اند که استفاده از دیپ‌فیک در تبلیغات سیاسی را محدود می‌کند. بر اساس گزارش‌های منتشر شده، قوانین مشابهی نیز در ایلینویز، کنتاکی، نیوجرسی و نیویورک در دست بررسی قرار دارد.

به عقیده کارشناسان، در این میان، دو دسته از مخالفان سیاسی به صورت جدی به استفاده از این ابزارهای هوش مصنوعی برای شبیه‌سازی سیاستمداران علاقه‌مند هستند:

  • دولت‌ها و جناح‌های سیاسی خواستار تشدید بی‌ثباتی: هدف اصلی این گروه، تیره‌سازی اعتبار یک نامزد و احتمالاً تغییر نتایج انتخابات به نفع خود است.
  • مجرمان سایبری: این دسته از افراد با سوءاستفاده از اعتبار و نفوذ هدفشان، تلاش می‌کنند قربانیان را درگیر توطئه‌های مهندسی اجتماعی خود کنند و آن‌ها را به اقداماتی علیه منافع خود، مانند سرمایه‌گذاری در ارزهای دیجیتال غیرمعتبر یا کمک به یک کمپین سیاسی جعلی وادار نمایند.

حمله به اعتبار افراد و جناح‌ها

توانایی دیپ‌فیک‌ها و مدل‌های زبانی هوش مصنوعی در کاهش اعتبار سیاستمداران برای تأثیرگذاری بر نتایج انتخابات، یکی از واقعیت‌های تلخ عصر شبکه‌های اجتماعی محسوب می‌شود. این ابزارها قابلیت ایجاد داده‌های تاریخی غیرواقعی و تقویت «اخبار جعلی» را دارند. در حالی که کمپین‌های اطلاعات نادرست پدیده‌ای جدید به شمار نمی‌روند اما موعد برگزاری انتخابات، بستر ویژه‌ای برای سازندگان و نشردهندگان اطلاعات جعلی و شایعات فراهم می‌آورد، زیرا رای‌دهندگان در این بازه‌های زمانی بیشتر پذیرای پیام‌های سیاسی هستند. در ادامه به مرور چند نمونه اخیر از این وضعیت می‌پردازیم.

در انتخابات ملی لهستان در سال ۲۰۲۳، بزرگ‌ترین حزب مخالف، یک آگهی تبلیغاتی انتخاباتی منتشر کرد که کلیپ‌های واقعی نخست‌وزیر را با کلیپ‌های جعلی ایجاد شده توسط هوش مصنوعی ترکیب کرده بود. در همان سال، یک کلیپ صوتی جعلی از نامزد حزب کارگر بریتانیا، کی‌یر استارمر، که در آن به کارمندانش ناسزا می‌گفت، در فضای مجازی میلیون‌ها بازدید را به خود اختصاص داد. همچنین، در آستانه انتخابات ۲۰۲۴ آمریکا، شاهد دیپ‌فیک‌هایی از تصاویر دستگیری دونالد ترامپ بودیم.

در همه این موارد، دیپ‌فیک‌ها برای تخریب اعتبار نامزدها و کاهش محبوبیت آن‌ها در رقابت‌های انتخاباتی به کار گرفته شده‌اند.

سوءاستفاده از انتخابات برای منافع مالی

تنها دولت‌ها نیستند که به انتخابات علاقه نشان می‌دهند؛ این رویدادها فرصتی بسیار جذاب برای مجرمان سایبری نیز فراهم می‌کنند. تحلیل روندهای موجود در فعالیت‌های سایبری مرتبط با دیپ‌فیک‌ها نشان می‌دهد که این فناوری به چندین روش مورد بهره‌برداری قرار می‌گیرد.

استفاده از دیپ‌فیک در حملات سایبری هدفمند در طول سال‌های اخیر به شدت افزایش یافته است. در این موارد، مجرمان سایبری از دیپ‌فیک‌ها برای تقلید قانع‌کننده از فردی آشنا برای قربانی استفاده می‌کنند. هدف این گونه حملات عمدتاً بهره‌برداری مالی از طریق فریب کاربران است. بر اساس براوردهای صورت گرفته، این استراتژی در محیط‌های کاری و شخصی به وفور مشاهده شده است و طیف گسترده‌ای از فعالیت‌ها، کلاهبرداری با جعل هویت مدیران اجرایی در ایمیل‌های کاری گرفته تا کلاهبرداری‌های ناظر بر روابط شخصی قربانیان را شامل می‌شود. موفقیت این نوع کلاهبرداری‌ها به توانایی فریب قربانیان و القای این باور استوار است که با شخص واقعی در حال ارتباط هستند؛ در حالی که افراد در واقع با محتوای صوتی یا تصویری دست‌کاری‌شده مواجه هستند.

افزون بر این، کاربرد دیپ‌فیک‌ها فراتر از حملات شخصی‌سازی‌شده رفته و به کلاهبرداری‌های گسترده‌تر نیز رسیده است. در طول سال‌های اخیر شاهد مواردی هستیم که در آن مجرمان سایبری با جعل هویت یک شخصیت عمومی از جایگاه و تأثیر او برای ترویج طرح‌های مالی مشکوک استفاده می‌کنند. در حال حاضر، نظر می‌رسد که عملیات کلاهبرداری ارزهای دیجیتال به گزینه محبوبی در میان مجرمان سایبری تبدیل شده باشد.

چنین کلاهبرداری‌هایی در همه ایام سال می‌توانند رخ دهند، اما فصل انتخابات فرصت ویژه‌ای برای مجرمان سایبری فراهم می‌کند تا از طریق دیپ‌فیک سیاستمداران، رای‌دهندگان و طرفداران آن‌ها را هدف قرار دهند. با نزدیک شدن به انتخابات، رای‌دهندگان پذیرای پیام‌های بیشتری از سوی نامزدها هستند و این امر محیطی مناسب برای کلاهبرداری مالی ایجاد می‌کند.

ابزارهای هوش مصنوعی مولد

چشم‌انداز انتخابات با رشد پیچیدگی و دسترسی ابزارهای هوش مصنوعی در حال تغییر است؛ تغییری که مجرمان سایبری در فصل انتخابات برای حملات مهندسی اجتماعی مبتنی بر هوش مصنوعی از آن بهره‌برداری می‌کنند. ظهور ابزارهای ساده و کاربرپسند برای ایجاد دیپ‌فیک‌ها، به جای ابزارهای پیچیده‌تر نظیر «DeepFaceLab»، این عرصه را متحول کرده است.

هوش مصنوعی مولد به مجرمان سایبری ابزارهای پیشرفته‌ای ارائه می‌دهد تا چهره‌های مجازی و واقع‌گرایانه‌ای از نامزدهای سیاسی بسازند. این چهره‌ها می‌توانند رای‌دهندگان را فریب دهند تا به کمپین‌های جعلی کمک مالی کنند، در طرح‌های کلاهبرداری سرمایه‌گذاری نمایند یا در جمع‌آوری کمک‌های خیریه تقلبی مشارکت داشته باشند. رویدادهایی چون ماجرای تبلیغ کارت‌های «NFT» توسط دونالد ترامپ یا حمایت ایلان ماسک از ارز دیجیتال «دوج‌کوین»، مبین امکان‌پذیری چنین کلاهبرداری‌هایی در سطح کلان است.

با توجه به گستردگی توجه عمومی به نامزدهای انتخاباتی، مجرمان سایبری با بهره‌گیری از ابزارهای هوش مصنوعی در سناریوهای مختلف تهدید، زمین حاصلخیزی برای فعالیت خود می‌یابند.

مدل‌های زبانی بزرگ: مهندسی اجتماعی رای‌دهندگان در مقیاس وسیع

مدل‌های زبانی بزرگ (LLMs) مانند «ChatGPT» از شرکت «OpenAI» و «Llama» متعلق به شرکت «Meta» در سال‌های اخیر شاهد پیشرفت‌های قابل توجهی از بهبود عملکرد و دسترسی گسترده‌تر گرفته تا کاهش نیازهای محاسباتی بوده‌اند.

پلتفرم «HuggingFace»، که به‌صورت عمومی میزبان مدل‌های هوش مصنوعی متن‌باز است، در حال حاضر بیش از یک میلیون مدل هوش مصنوعی از جمله ۳۲ هزار مدل زبانی متن‌باز را در خود جای داده است. این مدل‌ها که برای نیازهای مختلفی از جمله زبان‌های خارجی، تولید متن و چت‌بات‌ها به کار می‌روند، به روی همه کاربران، از جمله مجرمان سایبری باز هستند.

جرایم دیجیتال و بهره‌برداری از مدل‌های زبانی برای فعالیت‌های غیرقانونی

در دنیای جرایم دیجیتال، خدمات مدل‌های زبانی بزرگ به طور فزاینده‌ای برای فعالیت‌های غیرقانونی مورد استفاده قرار می‌گیرند. رواج این خدمات تهدیدی بالقوه برای رای‌دهندگان ایجاد می‌کند، زیرا مجرمان می‌توانند از این مدل‌ها برای طراحی کلاهبرداری‌های پیچیده بهره ببرند.

نخستین گام در طراحی کلاهبرداری‌های انتخاباتی شناسایی گروه‌های ذی‌نفع مناسب به شمار می‌رود. از آن جا که رای‌دهندگان به شکلی فزاینده‌ای به دو دسته تقسیم شده‌اند، مجرمان تلاش می‌کنند تا از این شکاف اجتماعی بهره‌برداری کنند. در این فرآیند، مدل‌های زبانی بزرگ به اشکال گوناگونی مورد استفاده فرار می‌گیرند.

  • مدل‌های مبتنی بر هوش مصنوعی مولد می‌توانند با تحلیل پروفایل‌های شبکه‌های اجتماعی، افرادی با علایق خاص را شناسایی کنند. مدل‌های زبانی بزرگ قادرند با بررسی اطلاعات عمومی، تمایلات و ترجیهات سیاسی افراد را بر اساس فعالیت‌های آن‌ها در شبکه‌های اجتماعی استنتاج نمایند.
  • این مدل‌ها همچنین می‌توانند در تشکیل گروه‌های ذی‌نفع در شبکه‌های اجتماعی مؤثر باشند. به عنوان مثال، یک مجرم سایبری می‌تواند یک گروه فیس‌بوک با عنوان «نامزد X برای ریاست جمهوری – شاخه فلوریدا» ایجاد کرده و با انتشار پست‌های بحث‌برانگیز، قربانیان احتمالی خود را جذب کند.

مجرم ممکن است برای موفقیت یک کلاهبرداری به شبکه‌ای از پلتفرم‌های جعلی نیاز داشته باشد تا از طریق آن‌ها به تبلیغ سیاست‌های دروغین، پیام‌های جعلی از یک نامزد یا جمع‌آوری کمک‌های مالی بپردازد. این پلتفرم‌ها به تقویت روایت‌های گمراه‌کننده کمک می‌کنند. مدل‌های زبانی بزرگ می‌توانند به‌سرعت این سایت‌ها را بسازند و حتی از منابع شبیه به سایت‌های رسمی کمپین‌های انتخاباتی بهره بگیرند. علاوه بر این، مدل‌های زبانی بزرگ می‌توانند با بهینه‌سازی موتورهای جستجو، جایگاه این سایت‌های جعلی را در نتایج ارتقا دهند و مشروعیت ظاهری آن‌ها را تقویت کنند.

پیام‌های شخصی‌سازی‌شده برای تأثیرگذاری بیشتر

بسیاری از رای‌دهندگان به دریافت ایمیل‌های عمومی از سوی نامزدها که اغلب بدون هیچگونه شخصی‌سازی به همه رای‌دهندگان ارسال می‌شوند، عادت دارند اما مجرمان حرفه‌ای می‌توانند پیام‌های فیشینگ را به‌گونه‌ای تنظیم کنند که به طور خاص برای هر قربانی مناسب و شخصی باشد. هدف‌گیری قربانیان در گروه‌های خاص، امکان ارسال پیام‌های دقیق‌تر را فراهم می‌کند، زیرا موضوعات در مقطع برگزاری انتخابات معمولاً مشترک هستند. ابزارهایی مانند «ChatGPT» می‌توانند با ترکیب علایق رای‌دهندگان، پیام جعلی و عناصر فعالیت‌های اجتماعی آن‌ها در شبکه‌های اجتماعی، متن‌هایی بسیار دقیق و هدفمند تولید کنند. این قابلیت می‌تواند در مقیاس وسیع و حتی به زبان‌های مختلف صورت پذیرد و محتوا برای ایمیل‌های فیشینگ یا اسکریپت‌های ویدئوهای دیپ‌فیک تهیه گردد.

چه باید کرد؟

با ذکر همه مواردی که در این نوشتار مورد اشاره قرار گرفت، پرسشی عمیق در ذهن شکل می‌گیرد. آیا امکان دارد که رای‌دهندگان بتوانند حقیقت را از دروغ تشخیص دهند؟

وبگاه گاردین در گزارشی به تاریخ فوریه ۲۰۲۴ درباره انتخابات آمریکا، اعلام کرد که شرکت «Midjourney»، سازنده پلتفرم مشهور هوش مصنوعی تبدیل متن به عکس، در نظر دارد استفاده از نرم‌افزار خود برای ساختن تصاویر سیاسی جو بایدن و دونالد ترامپ را ممنوع کند. این رسانه بریتانیایی همچنین اذعان داشت که این اقدام، بخشی از تلاشی شرکت مذکور برای جلوگیری از انتشار اطلاعات نادرست در بحبوحه انتخابات ریاست جمهوری ۲۰۲۴ آمریکا به‌شمار می‌رود.

یکی از ابتکارات برای کاهش آسیب‌های احتمالی یک دیپ‌فیک، نشانه‌گذاری تصاویر مبتنی بر هوش مصنوعی است. این نوع از برچسب‌گذاری به افراد اجازه می‌دهد که خالق تصویر، تغییرات اعمال‌شده و منبع آن‌ها را شناسایی نموده و به این ترتیب، دیپ‌فیک‌ها را تشخیص دهند. در این میان، خبر امیدوارکننده این است که بازیگران بزرگ فناوری مانند «OpenAI»، متا، گوگل و آمازون پیش از این بارها آمادگی خود برای مشارکت در چنین طرح‌هایی را اعلام کرده‌اند.

علاوه بر این، شرکت «Trend Micro» اخیراً یک اپلیکیشن رایگان به نام «Trend Micro Deepfake Inspector» ارائه کرده است که مخصوص تشخیص تماس‌های ویدئویی دیپ‌فیک طراحی شده و می‌تواند مکالمات جعلی را در لحظه شناسایی کند. این ابزار می‌تواند به شناسایی مؤثر محتوای جعلی صوتی مبتنی بر هوش مصنوعی منجر شود.

به زعم بسیاری از کارشناسان، در آینده همچنین ممکن است شاهد تعهداتی از سوی سیاستمداران باشیم که از شبکه‌های اجتماعی برای درخواست کمک مالی یا تبلیغات سرمایه‌گذاری استفاده نکنند. با این حال، این تعهدات به‌طور کامل تهدید دیپ‌فیک‌های مجرمانه را از بین نمی‌برد، چرا که افراد به صورت طبیعی تمایل به اعتماد دارند.

سخن پایانی

همان‌طور که پیش‌تر و بارها در گزارش‌های مختلف به آثار مخرب دیپ فیک‌ها اشاره شده، نمی‌توان از تأثیرات سیاسی فزاینده این ابزار در ایجاد اخلال در فرایند انتخابات چشم پوشی کرد. امری که می‌تواند طی سال‌های آینده ورای انتخابات آمریکا، در هر نقطه دیگری جهان نیز رقم بخورد.

از سوی دیگر، پیشرفت‌های هوش مصنوعی ابزارهای پیشرفته‌ای را در اختیار مجرمان سایبری قرار می‌دهد تا اهداف خود را شناسایی، آن‌ها را دست‌کاری و به شکلی قانع‌کننده چهره‌های عمومی معتبر را برای اجرای کلاهبرداری‌ها جعل کنند. پیچیدگی و مقرون به‌صرفه بودن روزافزون این ابزارهای آماده به کار نشان می‌دهد که احتمالاً استفاده از آن‌ها برای بهره‌برداری مالی از فصل انتخابات افزایش خواهد یافت.

بنابراین، این موضوع از اهمیت بسیاری برای مصرف‌کنندگان و رای‌دهندگان برخوردار است. پیچیدگی این تهدیدات و تأثیر احتمالی آن بر رای‌دهندگان، اهمیت آگاهی و احتیاط در این حوزه را دوچندان می‌کند. حتی اگر برخی بازیگران به دنبال اخلال در نتایج انتخابات باشند، سایر مجرمان سایبری ممکن است تنها به‌دنبال فریب قربانیان باشند.

source

shakotardid.ir

توسط shakotardid.ir

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *