آیا نقش X در صنعت کریپتو به پایان میرسد؟
به گزارش زوم ارز، توییتر با یک مشکل دیپ فیک روبرو است که به نظر من میتواند به نقش برترین پلتفرم اجتماعی برای صنعت کریپتو پایان دهد.
در حالی که در جستجوی پاسخهایی برای هرج و مرج بیپایان X هستیم، به ویدیویی برخورد میکنیم که معمولاً در آن مایکل سیلر یا براد گارلینگ هاوس حضور دارند و به من پیشنهاد دسترسی میدهند. آن به نظرم مانند ایردراپ کریپتو بازی میکند، و از صداهایی مانند آناتولی یاکوونکو، بنیانگذار سولانا، استفاده میشود.
البته ویدیوها به صورت کلاهبرداری هستند و از ضبطهای صوتی تولید شده توسط هوش مصنوعی و افزودن انیمیشنهای لب برای ارائه “فرصتها” به دارندگان ارزهای دیجیتال استفاده میکنند.
اعلانهای اصلی این ویدیوها یک الگوی مشابه دارند: اسکن کد QR یا پیروی از لینک برای دریافت “پول”. البته، من به طور کلی هیچگاه کلیک نکرده و یا کد QR را اسکن نکردهام. اما پیامدهای آن برای هر فردی که با خطرات امنیتی در اینترنت آشنا است، قابل تصور است. تعامل در این موارد به معنای قرار گرفتن در معرض خطر امنیتی است و ممکن است به سرقت داراییهای دیجیتال، اطلاعات شخصی و غیره منجر شود.
حساب کاربری دیپ فیک Saylor تا لحظه نگارش این متن، ۲۷۶,۰۰۰ بازدید و حساب کاربری دیپ فیک Garlinghouse نیز ۱۳۹,۰۰۰ بازدید را جذب کرده بود.
تبلیغاتی که توسط X ارائه میشود، به عنوان تبلیغات دروغین شناخته میشوند و باعث مشکلات جدی میشوند. اما واقعیت نشان میدهد که X در عوض از این تبلیغات سود میبرد به جای مقابله با آنها.
چند هفته قبل، ایلان ماسک، مالک X، وعده داد که مشکل رباتهای هرزنامه را حل کند، اما به نظر میرسد وضعیت واقعی این است که ما با حسابهای کلاهبرداری معامله میکنیم که خود را به عنوان ماسک معرفی میکنند و هدایا به حسابهای کلاهبرداری دیگری میدهند که به عنوان رهبران صنعت کریپتو عمل میکنند. هر دو مورد با وعدههای جذاب خود جمعیتی را جذب میکنند.
این همه در پسزمینه تبلیغات هرزنامه اتفاق میافتد و توسط تبلیغکنندگان اصلی که از زمانی که ماسک کنترل توییتر را در دست گرفتند، به آرامی پیشرفت کردهاند، انجام میشود. این به معنای این است که ما در معرض توهماتی از محصولات مشکوک، رباتهای پورنوگرافیک و ویدیوهای جعلی عمیق قرار داریم.
این یک فاجعه است. این وضعیت به پلتفرمی که به عنوان مرکز اصلی برای ارتباطات صنعتی عمل میکرد، آسیب جدی میزند. اگر پیشرفتهای اخیر در فناوری به درستی استفاده شود، این مشکل احتمالاً در آینده بدتر خواهد شد.
اخبار اخیر نشان میدهد که OpenAI یک ابزار متن به ویدیو توسعه داده است، که میتواند ابزارهای اضافی را در اختیار کلاهبرداران قرار دهد. البته، به نظر میرسد OpenAI در ارائه دسترسی به این ابزارها رویکردی محتاطانه را اتخاذ کرده است، اما ورود ابزارهای ویدیویی تولید شده توسط هوش مصنوعی میتواند درب را برای ویدیوهای جعلی پیچیدهتر و عمیقتری مانند ویدیوهای رمزنگاریشده باز کند.
منبع: blockworks.co
نظرات کاربران