گوگل به جنگ محتوای جعلی رفت؛ معرفی ابزار ردیاب هوشمند

گوگل به جنگ محتوای جعلی رفت؛ معرفی ابزار ردیاب هوشمند
بازدید 3
۰

گوگل به جنگ محتوای جعلی رفت؛ معرفی ابزار ردیاب هوشمند

به گزارش زوم ارز، روز سه‌شنبه، Google DeepMind ردیاب مصنوعی جدید خود را معرفی کرد که از هوش مصنوعی برای شناسایی اطلاعات نادرست و تقلب استفاده می‌کند. این ابزار قادر است تصاویر، صدا، فیلم و متن را بر اساس علامت‌های نامرئی تشخیص داده شده توسط مجموعه رشد کننده مدل‌های AI در Google، اسکن کند.

دستگاه آشکارساز مصنوعی Google طراحی شده است تا در قالب‌های مختلف، محتوای تولید شده توسط هوش مصنوعی، مانند نوت‌بوک صوتی AI و ژنراتور تصویر، را شناسایی کند. این امر باعث افزایش شفافیت و برجسته شدن بخش‌هایی که به احتمال زیاد توسط هوش مصنوعی ایجاد شده‌اند، می‌شود. در یک نسخه نمایشی، Google اعلام کرده که این آشکارساز برای تشخیص متون بهترین عملکرد را ارائه می‌دهد.

در متن، به نظر می‌رسد که کلماتی که در مرحله بعدی تولید خواهند شد، می‌توانند تأثیر بسزایی بر کیفیت نهایی متن داشته باشند، اگرچه تأثیر بر ابزار و روش کلی تولید متن تغییر زیادی ایجاد نمی‌کنند.

Synthid تشخیص می‌دهد که یک متن دارای موارد بیشتری از انتخاب کلمات ترجیحی است، اگر مواردی علامت گذاری شده باشد.

سیستم synthid نحوه انتخاب کلمات در حین تولید متن را کنترل می‌کند و یک علامت نام معمولی را اضافه می‌کند که بر امانت معنایی یا قابلیت‌خواندگی متن نهایی تأثیری نمی‌گذارد. این علامت بعداً می‌تواند برای تشخیص محتوای تولیدشده توسط Gemini Google یا ابزارهای وب دیگر استفاده شود.

در ماه اوت سال ۲۰۲۳، Google برای اولین بار synthid را معرفی کرد که یک ابزار برای شناسایی تصاویر تولید شده توسط هوش مصنوعی است. با عرضه ردیاب Synthid، Google این قابلیت را گسترش داده تا شامل شناسایی و تشخیص صدا، فیلم و متن نیز شود.

در حال حاضر ، ردیاب synthid در نسخه محدود موجود است و لیست انتظار برای افرادی مانند روزنامه‌نگاران ، مربیان ، طراحان و محققان برای آزمایش این برنامه تهیه شده است.

با پیشرفت گسترده در حوزه هوش مصنوعی، معلمان به راحتی تشخیص می‌دهند که آیا کار دانشجویی او اصیل است یا نه. حتی در تکالیفی که شامل نقل‌قول و بازتاب تجربیات شخصی است، استفاده از ابزارهای هوش مصنوعی بخوبی کمک می‌کند تا کپی‌برداری برای دانشجوان دشوار شود.

یک پروفسور اخلاق فناوری در دانشگاه سانتا کلارا تحقیقی ارائه داد که به واکنش شخصی برخی از افراد نسبت به استفاده دانشجویان از چتبات، می‌پردازد.

در دانشگاه آرکانزاس در لیتل راک، یک استاد متوجه شد که دانشجویان به هوش مصنوعی اعتماد می‌کردند تا برای آن‌ها مقاله‌های مقدماتی و اهداف کلاس خود را بنویسد.

اوپن‌ای آی تصمیم گرفت در سال ۲۰۲۳، نرم‌افزار تشخیص هوش مصنوعی خود را روند کرد به دلیل افزایش استفاده دانش‌آموزان از آن برای تقلب در کلاس، و به دلیل کاهش صحت آن.

“شناسایی متن‌های ساخته شده توسط هوش مصنوعی یک موضوع اساسی در بین محققان بوده است، و به همان اندازه اساسی است که محدودیت‌ها و تأثیرات طبقه‌بندی‌های متنی تولید شده توسط هوش مصنوعی در کلاس‌ها شناخته شود.”

Cluely یکی از ابزارهای جدید است که برای تقلب در حوزه هوش مصنوعی طراحی شده است. این برنامه توسط یک دانشجوی سابق دانشگاه کلمبیا به نام روی لی ساخته شده است و قابلیت تشخیص هوش مصنوعی را در سطح دسکتاپ دارد.

برای ساخت یک برنامه جهت کمک به تقلب در امتحانات و مصاحبات، لی جمعیتی به مبلغ ۵.۳ میلیون دلار جمع آوری کرد.

“پس از استفاده از ویدئویی از خودم در یک مصاحبه با آمازون، احساس کردم که دچار انفجار شده‌ام. در زمانی که از آن استفاده می‌کردم، متوجه شدم که تجربه کاربری واقعاً جالبی بوده است. هیچ کس تاکنون درباره این ایده—که یک پوشش صفحه شفاف را مورد بررسی قرار داده و به شما امکان می‌دهد تا دیده شوید، صداهایتان را بشنود و مانند یک بازیکن دو کامپیوتری برای شما عمل کند—مطلبی را صحبت نکرده است.”

استفاده از ابزارهایی مانند Synthid نشان می دهد که بسیاری از اسالیب تشخیص کنونی هوش مصنوعی با مشکلات قابل اعتمادی مواجه هستند.

در ماه اکتبر، آزمایشی از ردیاب های پیشرو در زمینه هوش مصنوعی نشان داد که راه حل های گرامرلی و کولبوت تنها دو مورد از چهار آشکارگر پیشرو در این حوزه، قادر به تشخیص اینکه آیا انسان‌ها یا هوش مصنوعی اعلامیه استقلال ایالات متحده را نوشته‌اند، می‌باشند. RaiNA و Zerogpt در این آزمایش به نتیجه مشخصی نرسیدند.

اشتراک گذاری

نوشته شده توسط:

تیم خبری

من حامد هستم و 5 سال در حوزه اخبار ارز های دیجیتال فعالیت دارم. روزانه اخبار اقتصادی و مالی و همچنین کریپتو را دنبال می کنم. فردی ماجراجو و پیگیر هستم.

نظرات کاربران

0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
0 نظرات خود را ثبت نمایید
تازه‌ترین
قدیمی‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها