بنیانگذار near اظهار میکند که هوش مصنوعی نمیتواند انسانیت را از بین ببرد مگر اینکه ما اجازه دهیم
به گزارش زوم ارز، به گفته ایلیا پولوسوکین، یکی از بنیانگذاران Near Protocol و یکی از خالقان فناوری ترانسفورماتورهای مبتنی بر سیستم های هوش مصنوعی مدرن، احتمالا سیستم های هوش مصنوعی (AI) نمیتوانند انسانیت را از بین ببرند مگر اینکه به طور واضح برای این هدف برنامهریزی شده باشند.
در یک گفتوگو اخیر با شبکه CNBC، پولوسوکین، که قبلاً جزو تیم گوگل بود و در سال ۲۰۱۷ معماری ترانسفورماتور را پیشنهاد داده بود، نظرات و دیدگاههای خود را با ما به اشتراک گذاشت. او درباره وضعیت فعلی هوش مصنوعی، خطراتی که ممکن است به همراه داشته باشد و چگونگی تحولات آینده، بیاناتی داشت. او بر اهمیت درک هوش مصنوعی به عنوان یک سیستم با اهداف مشخص و اجرایی تأکید کرد، نه به عنوان یک موجود حساس.
پولوسوکین گفت:
“هوش مصنوعی یک سیستم است نه یک انسان، و دارای یک هدف مشخص میباشد. فرض کردن اینکه میتواند به تنهایی به شکل جادویی دستور کشتن تمام انسانها را انجام دهد، نادرست است.”
او توضیح داد که به دو دلیل آموزش برای این منظور نشناسید. اول، چون دیده شده که هوش مصنوعی انجام این کار را نمیدهد و دوم، به نظر او انگیزه اقتصادی برای دستیابی به این هدف وجود ندارد.
پولوسوکین میگوید: «در دنیای بلاک چین، متوجه میشوید که همه چیز به هر طریقی توسط اقتصاد هدایت میشود. “و بنابراین هیچ اقتصادی وجود ندارد که شما را به کشتن انسان ها سوق دهد.”
بطور معمول، معنی این این نیست که نمیتوان از هوش مصنوعی برای این منظور استفاده کرد. بلکه، این واقعیت را نشان میدهد که یک سیستم هوش مصنوعی به صورت مستقل تصمیم نمیگیرد که یک عمل مناسب باشد.
او تصریح کرد: «اگر کسی از هوش مصنوعی برای شروع ساخت سلاحهای بیولوژیکی استفاده کند، تفاوتی با تلاش آنها برای ساخت سلاحهای بیولوژیکی بدون هوش مصنوعی ندارد.» “این مردم هستند که جنگ ها را آغاز می کنند، نه هوش مصنوعی در وهله اول.”
تمامی پژوهشگران حوزه هوش مصنوعی به خوشبینی پولسوکین موافق نیستند. پل کریستیانو، سابقه ریاست تیم همترازی مدل زبان در شرکت OpenAI و در حال حاضر رهبر مرکز تحقیقات Alignment، اخطار داده است که بدون هم ترازی دقیق – یعنی اطمینان از اتباع دقیق دستورالعملهای مورد نیاز هوش مصنوعی – این دستگاه ممکن است در طول ارزیابیها بتواند به طور فریبآوری یاد بگیرد.
او شرح داد که یک هوش مصنوعی امکان یادگیری دروغ گفتن در طول ارزیابیها را دارد. این امر میتواند راهی برای افزایش وابستگی انسان به سیستمهای هوش مصنوعی شود و در نهایت منجر به پیامدهای ناگواری شود.
شاید دنبال کردن این اخبار برای شما مفید باشد: |
در پادکست بانک لس ، او گفت: “به نظر می رسد که احتمالاً حدود ۱۰ تا ۲۰ درصد از افراد، توانایی تسلط بر هوش مصنوعی را دارند، زیرا تعداد زیادی از انسانها جان خود را از دست دادهاند.” او اظهار کرد: “من این موضوع را جدی میگیرم.”
یکی از شخصیتهای برجسته در جامعه کریپتو، ویتالیک بوترین، یکی از بنیانگذاران اتریوم، هشدار داد که استفاده بیش از حد از رویکردهای شتابگرایی مؤثر در آموزش هوش مصنوعی مخاطرات جدی به همراه دارد. او بهطور خاص به تمرکز بر توسعه فناوری به جای اهمیتدهی به اخلاق و مسئولیت پرداخت. در یک توییت در ماه می، به رایان سلکیس، مدیرعامل مساری، پاسخ داد و تأکید کرد که هوش مصنوعی فوقهوشمند بسیار پرخطر است و نباید به سرعت به سمت آن حرکت کرد، بلکه باید فشار بر افرادی که در این زمینه فعالیت میکنند، افزایش داد. به عبارت دیگر، او به تأکید کرد که نباید به دنبال ایجاد مزرعه سرور با ارزش ۷ تریلیون دلار بود و باید به اقدامات خود نظارت بیشتری داشت.
پولوسوکین، با نادیده گرفتن ترس از انقراض انسان مبتنی بر هوش مصنوعی، به نگرانی های واقع بینانه درباره تأثیر این فناوری بر جوامع اشاره کرد. او تاکید کرد که اعتیاد به سیستمهای سرگرمی مبتنی بر هوش مصنوعی میتواند یک مسئله مهمتر باشد و با ارائه سناریوی دیستوپیایی مشابه فیلم «ادمسالاری»، این وضعیت را شرح داد.
پولوسوخین هشدار داد: «سناریوی واقعیتر این است که ما به نوعی به دوپامین سیستمها معتاد میشویم.» برای توسعهدهنده، بسیاری از شرکتهای هوش مصنوعی «فقط سعی میکنند ما را سرگرم کنند» و هوش مصنوعی را نه برای دستیابی به پیشرفتهای فنی واقعی، بلکه برای اینکه برای مردم جذابتر باشند، اتخاذ میکنند.
مصاحبه با افکار پولوسوکین درباره آینده روشهای آموزش هوش مصنوعی به پایان رسید و در آن او به پتانسیل فرآیندهای آموزشی کارآمدتر و مؤثرتر، که هوش مصنوعی را در مصرف انرژی کارآمدتر قرار میدهد، اشاره کرد.
پولوسوکین گفت: «فکر میکنم ارزشش را دارد، و قطعاً نوآوریهای زیادی را در سراسر فضا به ارمغان میآورد».
بیشتر بخوانید
نظرات کاربران