در برابر نظارت هوش مصنوعی، ما نیازمند محاسبات محرمانه غیرمتمرکز هستیم.
به گزارش زوم ارز، آقا یانیک شراده، مدیر عامل و یکی از بنیانگذاران شرکت آرسیم، مطلب مهمان زیر را ارائه داده است.
برای اطلاع از تمامی اخبار کانال تلگرام ما را دنبال کنید
هنگامی که لری الیسون، مدیر ارشد فناوری هوش مصنوعی اوراکل، دیدگاه خود را در مورد شبکه جهانی نظارت مبتنی بر هوش مصنوعی به اشتراک گذاشت که به شهروندان کمک میکند درون خود را نگه دارند، منتقدان سریعاً این موضوع را با اندیشه جورج اورول در کتاب ۱۹۸۴ مقایسه کردند و به عنوان یک دنیای دیستوپیایی شرح دادند. آنها معتقدند که نظارت انبوه حریم خصوصی را نقض میکند، تأثیرات روانی منفی دارد و مردم را از شرکت در تظاهرات بازمیدارد.
از نگرانی هایی که الیسون درباره آینده دارد، میتوان به فراگیر شدن نظارت انبوه مبتنی بر هوش مصنوعی اشاره کرد. در طی بازیهای المپیک تابستانی امسال، دولت فرانسه با چهار شرکت فناوری – Videtics، Orange Business، ChapsVision و Wintics – توافقنامهای برای اجرای نظارت تصویری با استفاده از هوش مصنوعی در سراسر پاریس امضا کرد. این توافقنامه شامل تجزیه و تحلیل صحیحی برای نظارت بر رفتار و ارائه هشدارهای امنیتی است.
واقعیت رو به رشد نظارت انبوه مبتنی بر هوش مصنوعی
قانون تصویب شده در سال ۲۰۲۳ بهنرمافزار جدید هوش مصنوعی این امکان را میدهد که دادهها را در عموم تجزیه و تحلیل کند. فرانسه، بهعنوان اولین کشور در اتحادیهی اروپا که نظارت مبتنی بر هوش مصنوعی را قانونی میکند، اقدام به تحلیل ویدیویی مینماید که این امر جدیدی نیست.
در دهه ۱۹۶۰، دولت بریتانیا به عنوان یکی از اولین کشورها که دوربینهای مداربسته را در شهرها نصب کرد، شناخته شد. تا سال ۲۰۲۲، بیش از ۷۸ کشور از کل تعداد ۱۷۹ کشور عضو سازمان همکاری و توسعه اقتصادی OECD، از تکنولوژی هوش مصنوعی برای سیستمهای تشخیص چهره در فضای عمومی بهره بردند. با پیشرفت هر چه بیشتر تکنولوژی هوش مصنوعی و قدرت بیشتر در ارائه خدمات اطلاعات دقیق و در مقیاس بزرگتر، انتظار میرود تقاضای استفاده از این فناوری نیز به شکل چشمگیری افزایش یابد.
از لحاظ تاریخی، حکومتها از پیشرفتهای فناوری برای ارتقای سیستمهای نظارت انبوه بهره بردهاند و بسیاری از بارها با شرکتهای خصوصی قرارداد میبندند تا کارهای پیچیده و کثیف را برایشان انجام دهند. در مورد بازیهای المپیک پاریس، شرکتهای فناوری این فرصت را داشتند که مدلهای آموزشی هوش مصنوعی خود را در یک رویداد عمومی بزرگ امتحان کنند و به اطلاعات مکان و رفتار میلیونها نفری که در بازیها شرکت داشتند و کارهای روزمره خود را انجام میدادند، دسترسی پیدا کنند. زندگی در شهر
حریم خصوصی در مقابل امنیت عمومی: معضل اخلاقی نظارت هوش مصنوعی
طرفداران حفظ حریم خصوصی مانند من اعتقاد دارند که نظارت تصویری باعث محدودیت زندگی آزاد و بدون استرس افراد میشود. سیاستمدارانی که به این روشها روی میدهند ممکن است ادعا کنند که این اقدامات به نام حفظ امنیت عمومی انجام میشود. نظارت همچنین باعث نگهداری مقامات در کنترل است، بهعنوان مثال، از افسران پلیس میخواهد که از دوربینهای بدنی استفاده کنند. آیا شرکتهای فناوری باید در ابتدا به دادههای عمومی دسترسی داشته باشند یا خیر، یک موضوع مورد بحث است، اما همچنین این موضوع مطرح است که چقدر میتوان اطلاعات حساس را بهطور ایمن ذخیره و منتقل کرد.
شاید دنبال کردن این اخبار برای شما مفید باشد: |
این یکی از بزرگترین چالشهای زمان ماست که به ما اطلاع میدهد: چگونگی ذخیره و مدیریت اطلاعات حساس آنلاین بین افراد مختلف. برای هدفهایی از قبیل امنیت عمومی یا توسعه شهرهای هوشمند، دولتها یا شرکتهایی که از طریق ابزارهای هوش مصنوعی اطلاعات شخصی را جمعآوری میکنند، باید یک محیط امن برای پردازش و تحلیل این دادهها فراهم کنند.
محاسبات محرمانه غیرمتمرکز: راه حلی برای حفظ حریم خصوصی داده های هوش مصنوعی
حرکت بهسوی محاسبات محرمانه غیرمتمرکز (DeCC) به روشی جدید برای پردازش اطلاعات با تأکید بر امنیت میپردازد. بسیاری از سامانههای هوش مصنوعی، از جمله Apple Intelligence، از محیطهای اجرایی مورد اعتماد (TEEs) برای اعتمادپذیری اطلاعات استفاده مینمایند که بر وابستگی به افراد شخص ثالث تاکید دارند، از مراحل تولید تا فرآیند تأیید. DeCC با تأسیس یک سیستم پردازش دادهها و تجزیه آنها برمبنای شبکه غیرمتمرکز و بدون نیاز به اعتماد به شخص ثالث، به هدف حذف کردن نقاط ضعف موجود میپردازد.
علاوه بر این، DeCC قادر است دادهها را بدون نیاز به رمزگشایی اطلاعات حساس تجزیه و تحلیل کند. به طور تئوری، یک ابزار تجزیه و تحلیل ویدئویی که بر اساس یک شبکه DeCC ساخته شده باشد، قادر است اطلاعات حساس در مورد افرادی که توسط آن ابزار نظارت میشوند، را بدون افشای این اطلاعات به عنوان یک تهدید امنیتی شناسایی کند.
تعدادی از روشهای محاسباتی غیرمتمرکز و محرمانه در دست آزمایش قرار دارند، از جمله اثباتهای دانش صفر (ZKPs)، رمزگذاری کاملاً هممورفیک (FHE) و محاسبات چند جانبه (MPC). هدف اصلی این تکنیکها انجام یک عملیات خاص، مانند تأیید اطلاعات ضروری، بدون لو دادن اطلاعات حساس از طرفین است.
MPC به عنوان اولین ابزار برای DeCC به نمایش گذاشته شده است و توانایی انجام تسویه شفاف و افشای انتخابی را با بیشترین کیفیت و کارایی محاسباتی فراهم میکند. این مجموعه ابزارها قابلیت ایجاد محیطهای اجرایی چند حزبی (MXE) را فراهم میسازند. با استفاده از محفظههای اجرایی مجازی و رمزگذاری شده، هر بجام رایانهای به صورت کاملاً رمزگذاری شده و محرمانه اجرا میشود.
در زمینه حفاظت اطلاعات، آموزش روی دادههای رمزگذاری شده از اهمیت بالایی برخوردار است، زیرا این دادهها بسیار حساس و جدا شدهاند. از طرف دیگر، استفاده از دادههای رمزگذاریشده و مدلهای رمزگذاری، امکان انجام استنتاج را فراهم میسازد. به این ترتیب، در عملیات تشخیص چهره میتوان اطلاعات لازم برای این عمل را به دست آورد، در حالی که حفظ حریم خصوصی و امنیت اطلاعات از جانب اشخاصی که این اطلاعات را پردازش میکنند، تضمین میشود.
تحلیلهایی که از دادهها جمعآوری شده است، میتواند بین افراد یا گروههای مختلف مانند مقامات امنیتی به اشتراک گذاشته شود. در یک محیط نظارتی، ارزش شفافیت و مسئولیتپذیری بسیار اهمیت دارد تا نظارتی که انجام میشود، بهینه شود. همچنین، در همین حال، میتوان برای محافظت از حریم خصوصی و امنیت دادهها نیز اقدامات لازم انجام داد.
هنوز در مراحل توسعه فناوری محاسبات محرمانه غیرمتمرکز است و ظهور آن نشان میدهد که خطرات مرتبط با سیستمهای قابل اعتماد روشن میشود و روشهای دیگری برای رمزگذاری اطلاعات ارائه میشود. در حال حاضر، یادگیری ماشین به طور گسترده در انواع صنایع از جمله برنامهریزی شهری، پزشکی، سرگرمی و غیره، مورد استفاده قرار میگیرد.
به منظور استفاده از هر یک از این عوامل، مدلهای آموزشی بر دادههای کاربر تکیه میکنند و DeCC میتواند اساسی باشد برای حفظ حریم خصوصی و ایمنی دادهها در آینده. به منظور جلوگیری از وقوع یک دست و پنجهای ناخوشایند در آینده، ضروری است که تمرکز خود را بر روی هوش مصنوعی غیرمتمرکز کنیم.
منبع: cryptoslate.com
بیشتر بخوانید
نظرات کاربران