کد خبر 549958
تاریخ انتشار: ۶ فروردین ۱۳۹۵ - ۱۲:۱۴

آبروریزی ربات مایکروسافت در توییتر با حمایت از هیتلر و توهین به مردم مکزیک ربات گپ شرکت مایکروسافت در توییتر به علت شیطنت کاربران آمریکایی به حمایت از نئونازی ها و افراد نژادپرست پرداخت و در نهایت توسط خود شرکت مایکروسافت حذف شد.

به گزارش مشرق به نقل از واشنگتن پست، ربات یاد شده که Tay  نام دارد با هدف بررسی قابلیت سیستم های هوش مصنوعی طراحی شده و مایکروسافت آن را به سایت توییتر اضافه کرده بود تا ضمن بررسی تعاملات کاربران با آن از توانایی های Tay مطلع شود.

اما نتیجه این آزمایش در کمتر از 24 ساعت فاجعه بار بود و این ربات با دریافت اطلاعات مغشوش و شیطنت آمیز از کاربران آمریکایی به موجودی نژادپرست و بی ادب مبدل شد و ارسال پیام‌های نامناسب توسط آن مایکروسافت را مجبور به حذف ربات یاد شده از توییتر کرد.

نقص در طراحی این ربات باعث تکرار اظهارات نژادپرستانه ارسالی کاربران شده و همچنین باعث می شد Tay در اظهارات خود از همان ادبیات نامناسب افرادی که با آنها تعامل می کرد استفاده کند.

مایکروسافت ابتدا مدعی شده بود گپ زدن بیشتر با این ربات آن را باهوش تر می کند و این تجارب باعث می شود وی رفتار شخصی مناسبی با کاربران داشته باشد. Tay به گونه ای طراحی شده بود که رفتاری مشابه با یک دختر 18 تا 24 ساله در آمریکا را داشته باشد.

بعد از گذشت مدتی کاربران با ارسال پیام ها و اطلاعات غلط Tay را گمراه کردند، به گونه ای که وی در پیامی در توییتر هیتلر را فردی درست توصیف کرده و از یهودیان اظهار تنفر کرد. انکار هولوکاست، کافر دانستن یک کمدین مشهور آمریکایی و دفاع از دیوار کشیدن به دور مکزیک و درخواست از مردم این کشور برای پرداخت هزینه این کار از جمله دیگر شیرین کاری های این ربات نه چندان باهوش در مدت فعالیت 24 ساعته در توییتر بود.
منبع: تسنیم

نظر شما

شما در حال پاسخ به نظر «» هستید.
captcha

نظرات

  • انتشار یافته: 2
  • در انتظار بررسی: 0
  • غیر قابل انتشار: 0
  • حمید رضا رحیمی ۱۲:۵۹ - ۱۳۹۵/۰۱/۰۶
    0 0
    رفع مشکل میکنن این شکست نیست یک پیروزی محسوب میشه جهت رفع ایراد
  • دونیتز IR ۱۱:۴۹ - ۱۴۰۰/۱۲/۲۹
    0 0
    رباط عالی مینواخت😂🗿

این مطالب را از دست ندهید....

فیلم برگزیده

برگزیده ورزشی

برگزیده عکس