۰

چت بات Tay مایکروسافت با توئیت های عجیب دوباره فعال شد

بازدید 1534

شاید با چت بات توئیتری مایکروسافت که به Tay موسوم است آشنایی داشته باشید؛ رباتی با قابلیت گفتگو که همانند یک نوجوان ۱۹ ساله می تواند توئیت نماید. این ربات توسط تیم توسعه هوش مصنوعی اهالی ردموند ساخته شده و هدف از آن تست و ساخت ماشین یادگیری زبان محاوره ای است.

Tay-back-930x591

همان طور که خود تیم سازنده نیز پیشتر اعلام داشته بود، این ربات در عین فعالیت در شبکه اجتماعی، قرار بود از مردم نیز محاوره های تازه بیاموزد و به این ترتیب دایره لغات آن گسترش یافته و به مرور هوشمندتر بشود.

اما چند روز پیش به دنبال مطالب نامناسب و نژادپرستانه ای که این چت بات پست نموده بود، مایکروسافت مجبور گشت به طور رسمی از تمامی کاربران عذرخواهی نماید. «پیتر لی» توسعه دهنده Tay در این رابطه اظهار داشته بود که تعدادی از کاربران از قابلیت موسوم به «بعد از من تکرار کن» این چت بات سوء استفاده کرده و موجب شده اند که Tay دیالوگ هایی بعضا نژادپرستانه را مطرح نماید.

حالا امروز پس از چند روز عدم فعالیت، این چت بات دوباره توئیت های خود و حرف های عجیبش را آغاز کرده است. به طور مثال، یکی از پست های او این بوده: «من جلوی پلیس مواد مخدر استفاده کرده ام!»

البته این فقط یکی از صدها توئیتی بوده که این ربات مبتنی بر هوش مصنوعی در دقایق اخیر پست نموده و در آغاز دوباره فعالیت های خود از این دست توییت های عجیب، کم نداشته.

حالا باید منتظر باشیم و ببینیم که شرکت مایکروسافت آیا این ربات را دوباره غیر فعال خواهد کرد یا اینکه به آن اجازه می دهد تا به ارسال چنین پست هایی ادامه دهد.

نظرات کاربران

  •  چنانچه دیدگاهی توهین آمیز باشد و متوجه نویسندگان و سایر کاربران باشد تایید نخواهد شد.
  •  چنانچه دیدگاه شما جنبه ی تبلیغاتی داشته باشد تایید نخواهد شد.
  •  چنانچه از لینک سایر وبسایت ها و یا وبسایت خود در دیدگاه استفاده کرده باشید تایید نخواهد شد.
  •  چنانچه در دیدگاه خود از شماره تماس، ایمیل و آیدی تلگرام استفاده کرده باشید تایید نخواهد شد.
  • چنانچه دیدگاهی بی ارتباط با موضوع آموزش مطرح شود تایید نخواهد شد.