کمیسیون انتخابات فدرال در آستانه انتخابات ۲۰۲۴ با هوش مصنوعی مقابله می کند

کمیسیون انتخابات فدرال در آستانه انتخابات ۲۰۲۴ با هوش مصنوعی مقابله می کند
بازدید 14
۰

کمیسیون انتخابات فدرال در آستانه انتخابات ۲۰۲۴ با هوش مصنوعی مقابله می کند

به گزارش زوم ارز،

کمیسیون انتخابات فدرال ایالات متحده طوماری را برای ممنوعیت استفاده از هوش مصنوعی در تبلیغات کمپین منتهی به فصل انتخابات ۲۰۲۴ ارائه کرده است. آژانس اکنون به دنبال نظرات عمومی در مورد این طومار قبل از ادامه “قوانین سازی کامل” است.

در ماه ژوئیه، FEC گفت طوماری دریافت کرده است که در آن از قوانین جدیدی در مورد استفاده از محتوای تولید شده توسط هوش مصنوعی در طول انتخابات خواسته شده است. این طومار به طور خاص از FEC خواسته شد تا مقررات مربوط به ارائه نادرست تقلبی “مرجع کمپین” را اصلاح کند و روشن کند که این ممنوعیت در مورد تبلیغات کمپین هوش مصنوعی عمدی فریبنده اعمال می شود.

“دیپ فیک تقلبی است زیرا کاندیدای دیپ فیک در واقع چیزی را که توسط دیپ فیک به تصویر کشیده شده نگفته یا انجام نداده است و به این دلیل که هدف دیپ فیک فریب افکار عمومی است. در این دادخواست آمده است.

دیپ‌فیک نوعی محتوای ویدیویی یا صوتی است که به‌طور فزاینده‌ای رایج است که با هوش مصنوعی ایجاد می‌شود و رویدادهای نادرست را به‌طور متقاعدکننده‌ای به تصویر می‌کشد، اما به‌گونه‌ای انجام می‌شود که تشخیص جعلی بودن آن بسیار دشوار است.

سخنگوی FEC به Decrypt گفت که در حال جستجوی نظرات بیشتر است، و به دو جلسه استماع قبلی در ۱۳ جولای و ۱۰ اوت اشاره کرد، جایی که اعضای کمیسیون در مورد این دادخواست بحث و شنیدند.

>

در حالی که این دادخواست به اتفاق آرا مطرح شد، برخی نسبت به سابقه ای که ممکن است ایجاد شود ابراز نگرانی کردند.

آلن دیکرسون، کمیسر FEC در هفته گذشته در یک جلسه علنی FEC گفت: “نگرانی های جدی متمم اول در پس زمینه این تلاش وجود دارد.” “دقت مقررات یک الزام در کار ما است. و اگر کمیسیون اختیار عمل در این زمینه را داشته باشد، امیدوارم که مفسران نیز نشان دهند که می‌توان مقرراتی را برای فعالیت‌های واقعا متقلبانه تنظیم کرد، بدون اینکه بیان محافظت شده کند شود.”

FEC توضیح داد که این طومار ادعا می کند که هوش مصنوعی مولد و فناوری دیپ فیک “برای ایجاد تصاویر متقاعدکننده، صدا و حقه های ویدئویی استفاده می شود.” به نظر می‌رسد نمونه‌های اخیر دیپ‌فیک‌های تولید شده توسط هوش مصنوعی که به‌صورت آنلاین در حال ظهور هستند، ادعای این دادخواست را تأیید می‌کنند.

، دیکرسون گفت، اساسنامه FEC، یک فرد را از تقلب در معرفی خود به عنوان اقدام برای یا از طرف یک نامزد دیگر منع می کند، اما نه خود نامزد.

دیکرسون گفت: “قانون به دقت محدود شده است و سازمان های متقلب را هدایت می کند.” «به عبارت دیگر، هدف این است که وانمود کنید که شما خودتان نماینده یا کار برای نامزد دیگری هستید. این ادعا به کلاهبرداری نمی رسد که طرف مقابل شما کاری را گفته یا انجام داده است که انجام نداده است.”

در ماه مه، یک ویدیوی کمپین حزب جمهوری خواه در یوتیوب منتشر شد که از تصاویر تولید شده توسط هوش مصنوعی برای نشان دادن پیامدهای احتمالی انتخاب مجدد جو بایدن، رئیس جمهور ایالات متحده استفاده کرد. این ویدئو پس از آن منتشر شد که کمپین دونالد ترامپ از دیپ فیک های هوش مصنوعی برای ترول کردن فرماندار فلوریدا و رقیب نامزدی حزب جمهوری خواه، ران دیسانتیس، پس از شروع دشوار مبارزات انتخاباتی ریاست جمهوری خود استفاده کرد.

در ماه ژوئن، سازمان ملل زنگ خطر را در مورد استفاده بالقوه از دیپ‌فیک‌های تولید شده توسط هوش مصنوعی در رسانه‌های اجتماعی، به‌ویژه در مناطق درگیری که تصاویر فریبنده می‌توانند باعث ایجاد نفرت و خشونت شوند، به صدا درآورد.

تهدید دیپ‌فیک‌های تولید شده توسط هوش مصنوعی حتی پاپ فرانسیس را بر آن داشته تا در خطبه‌ای آتی برای روز جهانی صلح درباره این فناوری صحبت کند.

ماه گذشته، یک طنزپرداز سیاسی مستقر در لس آنجلس، جاستین براون، به دلیل انتشار تصاویری که توسط هوش مصنوعی ساخته شده بود و دونالد ترامپ، باراک اوباما و جو بایدن را در حال خیانت به همسران خود نشان می داد، مورد انتقاد قرار گرفت. تصاویر همگی جعلی بودند، اما قدرت هوش مصنوعی مولد برای ایجاد کپی واقعی از افراد برجسته را نشان دادند.

کمیسیون انتخابات فدرال قبل از هرگونه تغییر در قوانین مبارزات انتخاباتی، خواستار نظرات عمومی در مورد این طومار است. FEC می گوید نظرات باید ظرف ۶۰ روز پس از انتشار دادخواست در ثبت فدرال ارسال شود.


منبع: decrypt.co

اشتراک گذاری

نوشته شده توسط:

تیم خبری

من حامد هستم و 5 سال در حوزه اخبار ارز های دیجیتال فعالیت دارم. روزانه اخبار اقتصادی و مالی و همچنین کریپتو را دنبال می کنم. فردی ماجراجو و پیگیر هستم.

نظرات کاربران

0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
0 نظرات خود را ثبت نمایید
تازه‌ترین
قدیمی‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها