در برابر نظارت هوش مصنوعی، ما نیازمند محاسبات محرمانه غیرمتمرکز هستیم.

در برابر نظارت هوش مصنوعی، ما نیازمند محاسبات محرمانه غیرمتمرکز هستیم.
بازدید 18
۰

در برابر نظارت هوش مصنوعی، ما نیازمند محاسبات محرمانه غیرمتمرکز هستیم.

به گزارش زوم ارز، آقا یانیک شراده، مدیر عامل و یکی از بنیانگذاران شرکت آرسیم، مطلب مهمان زیر را ارائه داده است.

برای اطلاع از تمامی اخبار کانال تلگرام ما را دنبال کنید

هنگامی که لری الیسون، مدیر ارشد فناوری هوش مصنوعی اوراکل، دیدگاه خود را در مورد شبکه جهانی نظارت مبتنی بر هوش مصنوعی به اشتراک گذاشت که به شهروندان کمک می‌کند درون خود را نگه دارند، منتقدان سریعاً این موضوع را با اندیشه جورج اورول در کتاب ۱۹۸۴ مقایسه کردند و به عنوان یک دنیای دیستوپیایی شرح دادند. آنها معتقدند که نظارت انبوه حریم خصوصی را نقض می‌کند، تأثیرات روانی منفی دارد و مردم را از شرکت در تظاهرات بازمی‌دارد.

از نگرانی هایی که الیسون درباره آینده دارد، می‌توان به فراگیر شدن نظارت انبوه مبتنی بر هوش مصنوعی اشاره کرد. در طی بازی‌های المپیک تابستانی امسال، دولت فرانسه با چهار شرکت فناوری – Videtics، Orange Business، ChapsVision و Wintics – توافقنامه‌ای برای اجرای نظارت تصویری با استفاده از هوش مصنوعی در سراسر پاریس امضا کرد. این توافقنامه شامل تجزیه و تحلیل صحیحی برای نظارت بر رفتار و ارائه هشدار‌های امنیتی است.

واقعیت رو به رشد نظارت انبوه مبتنی بر هوش مصنوعی

قانون تصویب شده در سال ۲۰۲۳ به‌نرم‌افزار جدید هوش مصنوعی این امکان را می‌دهد که داده‌ها را در عموم تجزیه و تحلیل کند. فرانسه، به‌عنوان اولین کشور در اتحادیه‌ی اروپا که نظارت مبتنی بر هوش مصنوعی را قانونی می‌کند، اقدام به تحلیل ویدیویی می‌نماید که این امر جدیدی نیست.

در دهه ۱۹۶۰، دولت بریتانیا به عنوان یکی از اولین کشورها که دوربین‌های مداربسته را در شهرها نصب کرد، شناخته شد. تا سال ۲۰۲۲، بیش از ۷۸ کشور از کل تعداد ۱۷۹ کشور عضو سازمان همکاری و توسعه اقتصادی OECD، از تکنولوژی هوش مصنوعی برای سیستم‌های تشخیص چهره در فضای عمومی بهره بردند. با پیشرفت هر چه بیشتر تکنولوژی هوش مصنوعی و قدرت بیشتر در ارائه خدمات اطلاعات دقیق و در مقیاس بزرگتر، انتظار می‌رود تقاضای استفاده از این فناوری نیز به شکل چشمگیری افزایش یابد.

از لحاظ تاریخی، حکومت‌ها از پیشرفت‌های فناوری برای ارتقای سیستم‌های نظارت انبوه بهره برده‌اند و بسیاری از بارها با شرکت‌های خصوصی قرارداد می‌بندند تا کارهای پیچیده و کثیف را برایشان انجام دهند. در مورد بازی‌های المپیک پاریس، شرکت‌های فناوری این فرصت را داشتند که مدل‌های آموزشی هوش مصنوعی خود را در یک رویداد عمومی بزرگ امتحان کنند و به اطلاعات مکان و رفتار میلیون‌ها نفری که در بازی‌ها شرکت داشتند و کارهای روزمره خود را انجام می‌دادند، دسترسی پیدا کنند. زندگی در شهر

حریم خصوصی در مقابل امنیت عمومی: معضل اخلاقی نظارت هوش مصنوعی

طرفداران حفظ حریم خصوصی مانند من اعتقاد دارند که نظارت تصویری باعث محدودیت زندگی آزاد و بدون استرس افراد می‌شود. سیاستمدارانی که به این روش‌ها روی می‌دهند ممکن است ادعا کنند که این اقدامات به نام حفظ امنیت عمومی انجام می‌شود. نظارت همچنین باعث نگهداری مقامات در کنترل است، به‌عنوان مثال، از افسران پلیس می‌خواهد که از دوربین‌های بدنی استفاده کنند. آیا شرکت‌های فناوری باید در ابتدا به داده‌های عمومی دسترسی داشته باشند یا خیر، یک موضوع مورد بحث است، اما همچنین این موضوع مطرح است که چقدر می‌توان اطلاعات حساس را به‌طور ایمن ذخیره و منتقل کرد.

شاید دنبال کردن این اخبار برای شما مفید باشد:

این یکی از بزرگترین چالش‌های زمان ماست که به ما اطلاع می‌دهد: چگونگی ذخیره و مدیریت اطلاعات حساس آنلاین بین افراد مختلف. برای هدف‌هایی از قبیل امنیت عمومی یا توسعه شهرهای هوشمند، دولت‌ها یا شرکت‌هایی که از طریق ابزارهای هوش مصنوعی اطلاعات شخصی را جمع‌آوری می‌کنند، باید یک محیط امن برای پردازش و تحلیل این داده‌ها فراهم کنند.

محاسبات محرمانه غیرمتمرکز: راه حلی برای حفظ حریم خصوصی داده های هوش مصنوعی

حرکت به‌سوی محاسبات محرمانه غیرمتمرکز (DeCC) به روشی جدید برای پردازش اطلاعات با تأکید بر امنیت می‌پردازد. بسیاری از سامانه‌های هوش مصنوعی، از جمله Apple Intelligence، از محیط‌های اجرایی مورد اعتماد (TEEs) برای اعتمادپذیری اطلاعات استفاده می‌نمایند که بر وابستگی به افراد شخص ثالث تاکید دارند، از مراحل تولید تا فرآیند تأیید. DeCC با تأسیس یک سیستم پردازش داده‌ها و تجزیه آنها برمبنای شبکه غیرمتمرکز و بدون نیاز به اعتماد به شخص ثالث، به هدف حذف کردن نقاط ضعف موجود می‌پردازد.

علاوه بر این، DeCC قادر است داده‌ها را بدون نیاز به رمزگشایی اطلاعات حساس تجزیه و تحلیل کند. به طور تئوری، یک ابزار تجزیه و تحلیل ویدئویی که بر اساس یک شبکه DeCC ساخته شده باشد، قادر است اطلاعات حساس در مورد افرادی که توسط آن ابزار نظارت می‌شوند، را بدون افشای این اطلاعات به عنوان یک تهدید امنیتی شناسایی کند.

تعدادی از روش‌های محاسباتی غیرمتمرکز و محرمانه در دست آزمایش قرار دارند، از جمله اثبات‌های دانش صفر (ZKPs)، رمزگذاری کاملاً هممورفیک (FHE) و محاسبات چند جانبه (MPC). هدف اصلی این تکنیک‌ها انجام یک عملیات خاص، مانند تأیید اطلاعات ضروری، بدون لو دادن اطلاعات حساس از طرفین است.

MPC به عنوان اولین ابزار برای DeCC به نمایش گذاشته شده است و توانایی انجام تسویه شفاف و افشای انتخابی را با بیشترین کیفیت و کارایی محاسباتی فراهم می‌کند. این مجموعه ابزارها قابلیت ایجاد محیط‌های اجرایی چند حزبی (MXE) را فراهم می‌سازند. با استفاده از محفظه‌های اجرایی مجازی و رمزگذاری شده، هر بجام رایانه‌ای به صورت کاملاً رمزگذاری شده و محرمانه اجرا می‌شود.

در زمینه حفاظت اطلاعات، آموزش روی داده‌های رمزگذاری شده از اهمیت بالایی برخوردار است، زیرا این داده‌ها بسیار حساس و جدا شده‌اند. از طرف دیگر، استفاده از داده‌های رمزگذاری‌شده و مدل‌های رمزگذاری، امکان انجام استنتاج را فراهم می‌سازد. به این ترتیب، در عملیات تشخیص چهره می‌توان اطلاعات لازم برای این عمل را به دست آورد، در حالی که حفظ حریم خصوصی و امنیت اطلاعات از جانب اشخاصی که این اطلاعات را پردازش می‌کنند، تضمین می‌شود.

تحلیل‌هایی که از داده‌ها جمع‌آوری شده است، می‌تواند بین افراد یا گروه‌های مختلف مانند مقامات امنیتی به اشتراک گذاشته شود. در یک محیط نظارتی، ارزش شفافیت و مسئولیت‌پذیری بسیار اهمیت دارد تا نظارتی که انجام می‌شود، بهینه شود. همچنین، در همین حال، می‌توان برای محافظت از حریم خصوصی و امنیت داده‌ها نیز اقدامات لازم انجام داد.

هنوز در مراحل توسعه فناوری محاسبات محرمانه غیرمتمرکز است و ظهور آن نشان می‌دهد که خطرات مرتبط با سیستم‌های قابل اعتماد روشن می‌شود و روش‌های دیگری برای رمزگذاری اطلاعات ارائه می‌شود. در حال حاضر، یادگیری ماشین به طور گسترده در انواع صنایع از جمله برنامه‌ریزی شهری، پزشکی، سرگرمی و غیره، مورد استفاده قرار می‌گیرد.

به منظور استفاده از هر یک از این عوامل، مدل‌های آموزشی بر داده‌های کاربر تکیه می‌کنند و DeCC می‌تواند اساسی باشد برای حفظ حریم خصوصی و ایمنی داده‌ها در آینده. به منظور جلوگیری از وقوع یک دست و پنجه‌ای ناخوشایند در آینده، ضروری است که تمرکز خود را بر روی هوش مصنوعی غیرمتمرکز کنیم.

منبع: cryptoslate.com


بیشتر بخوانید

اشتراک گذاری

نوشته شده توسط:

تیم خبری

من حامد هستم و 5 سال در حوزه اخبار ارز های دیجیتال فعالیت دارم. روزانه اخبار اقتصادی و مالی و همچنین کریپتو را دنبال می کنم. فردی ماجراجو و پیگیر هستم.

نظرات کاربران

0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
0 نظرات خود را ثبت نمایید
تازه‌ترین
قدیمی‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها