هوش‌مصنوعی را نمی‌توان متوقف کرد

ظرف ۱۰ سال آینده، سیستم‌های هوش مصنوعی در اغلب زمینه‌ها از سطح مهارت‌های تخصصی فراتر می‌روند.

به گزارش مشرق، فیلسوفان و دانشگاهیان دهه‌ها درباره هوش مصنوعی جامع که به عنوان ابرهوش نیز شناخته می‌شود، نظریه‌پردازی کرده‌اند، با این حال چهره‌های ارشد اوپن‌ای‌آی هشدار دادند که پیشرفت‌های سریع سال‌های اخیر موجب شده‌اند احتمالا اکنون در آستانه آن باشیم.

سم آلتمن، گرگ براکمن و ایلیا سوتسکور از اوپن‌ای‌آی در یک پست وبلاگی که چند روز قبل منتشر شد، گفتند که ابرهوش مصنوعی از لحاظ توان خود بی‌نظیر خواهد بود. هم از جنبه مثبت و هم منفی.

در این پست آمده است: «با توجه به تصویری که اینک می‌بینیم، می‌توان تصور کرد که ظرف ۱۰ سال آینده، سیستم‌های هوش مصنوعی در اغلب زمینه‌ها از سطح مهارت‌های تخصصی فراتر روند و به اندازه یکی از بزرگ‌ترین شرکت‌های امروزی، فعالیت‌های مولد کالا و خدمات انجام دهند.»

«هم از نظر جنبه‌های مثبت احتمالی و هم منفی، ابرهوش از سایر فناوری‌هایی که بشر در گذشته مجبور به ستیز و رقابت با آن‌ها بوده است، قدرتمندتر خواهد بود.»

اوپن‌ای‌آی سه راه به بشریت ارائه کرد که می‌تواند با آن از پس شرایط سخت ورود ابرهوش برآید؛ اگرچه به قانون‌گذاران و نهادهای قانونی در قبال تلاش برای متوقف کردن آن هشدار داد.

این پست هشدار داد: «ما بر این باوریم که متوقف کردن ایجاد ابرهوش به طور غیرمستقیم خطرناک و دشوار خواهد بود.»

هوش‌مصنوعی را نمی‌توان متوقف کرد

«از آنجایی که نقاط مثبت آن فوق‌العاده زیاد است، هزینه ساخت آن سالانه کاهش می‌یابد و تعداد عوامل سازنده آن به‌سرعت در حال افزایش‌اند و این به طور ذاتی بخشی از مسیر فناورانه‌ای است که ما در آن قرار داریم. توقف آن به چیزی شبیه یک رژیم نظارت جهانی نیاز دارد و حتی آن هم ضمانتی نیست که جواب بدهد. از این رو باید آن را درست انجام دهیم.»

آلتمن هفته پیش در جلسه استماع کنگره با پرسش‌ سناتورهای ایالات متحده در خصوص خطراتی که هوش مصنوعی پیشرفته ایجاد می‌کند، روبرو شد.

این مرد ۳۸ ساله درباره حریم خصوصی، فناوری و قانون به کمیته فرعی سنا گفت بر این باور است که چت‌بات‌های مبتنی بر هوش مصنوعی مانند چت‌جی‌پی‌تی «زمینه جدی برای نگرانی» به شمار می‌روند و برای جلوگیری از سوء‌استفاده، به قوانین و دستورالعمل‌هایی نیاز دارند.

کوری بوکر، سناتور دموکرات، اذعان کرد: «برای برگرداندن این غول به درون چراغ جادو هیچ راهی وجود ندارد [کار از کار گذشته‌ است]. به طور کلی این در حال انفجار است.»

آلتمن گفت یکی از راه‌های احتمالی جلوگیری از آسیب‌های هوش مصنوعی از جمله دستکاری در انتخابات، معرفی الزامات مجوز و آزمایش به منظور توسعه هوش مصنوعی است.

به گفته اوپن‌اِی‌آی، یک حالت اجرای این کار از طریق ایجاد یک سازمان اعطای مجوز به هوش مصنوعی در ایالات متحده است که دفتر ایمنی زیرساخت و امنیت هوش مصنوعی «اوسیس» (Office for AI Safety and Infrastructure Security/ Oasis) خوانده می‌شود.

منبع: ایتنا

نظر شما

شما در حال پاسخ به نظر «» هستید.
captcha

نظرات

  • انتشار یافته: 5
  • در انتظار بررسی: 0
  • غیر قابل انتشار: 0
  • IR ۰۰:۴۹ - ۱۴۰۲/۰۳/۰۶
    1 1
    تو ایران که همه چیز تحریم یا فیلتر است.
    • IR ۰۷:۴۷ - ۱۴۰۲/۰۳/۰۶
      1 1
      00:49 خوب این خیلی عالیه که!! من اگر جای دولت ایران باشم به هیچ وجه اجازه ورود این تکنولوژی‌ها رو بخصوص وقتی افسارش دست یه مشت یانکی گاوچرون تروريست همجنس باز آدمکش باشه به داخل کشور نخواهم داد!!!!
    • IR ۱۰:۲۰ - ۱۴۰۲/۰۳/۰۶
      1 0
      کاربر ۰۷:۴۷ - ۱۴۰۲/۰۳/۰۶ شانس آوردیم که شما جای دولت ایران نیستید.
  • IR ۱۰:۴۵ - ۱۴۰۲/۰۳/۰۶
    1 0
    اگر سازمان های دولتی آمریکا اینقدر فاسد نبودند و سالها پیش اجازه نمی‌دادند اطلاعات مردم فروخته شود و حملات اسپوف کال را متوقف میکردند شرکت های فن آوری اطلاعات با پول های باد آورده و ندادن مالیات به این غول پیکری نمی‌شدند و باعث تمرکز ثروت و قدرت در دست عده ای کم نمی‌شدند. در واقع آمریکا بصورت علنی برده داری نوین را از چند دهه پیش دوباره شروع کرد و باعث مرگ میلیونها نفر و آواره شدن میلیونها تن و معلولیت دائمی میلیونها نفر شدند که سیاست کووید نیز در همین راستا بود تا مردم فقیر گردند. و از این بعد هم هوش مصنوعی هم جهت حمله سایبری و هم برای از بین کارها استفاده خواهد شد و آمریکا به یک کشور برده داری کامل بدل خواهد کردید. حتی ربات های انسان نما نیز کارهای بدنی انسان را خواهند گرفت. دوران برده داری نوین در راه هست و البته کشتار جمعی مردم توسط عده ای قلیل تشنه قدرت و ثروت
    • IR ۱۳:۲۱ - ۱۴۰۲/۰۳/۰۷
      0 0
      واقعاً

این مطالب را از دست ندهید....

فیلم برگزیده

برگزیده ورزشی

برگزیده عکس