چهارشنبه، ۱۱ فروردین ۹۵ - ۰۶:۱۶

گروه آیسا

شرکت  پویاسازان

شاید با چت بات توئیتری مایکروسافت که به Tay موسوم است آشنایی داشته باشید؛ رباتی با قابلیت گفتگو که همانند یک نوجوان ۱۹ ساله می تواند توئیت نماید. این ربات توسط تیم توسعه هوش مصنوعی اهالی ردموند ساخته شده و هدف از آن تست و ساخت ماشین یادگیری زبان محاوره ای است.

Tay-back-930x591

همان طور که خود تیم سازنده نیز پیشتر اعلام داشته بود، این ربات در عین فعالیت در شبکه اجتماعی، قرار بود از مردم نیز محاوره های تازه بیاموزد و به این ترتیب دایره لغات آن گسترش یافته و به مرور هوشمندتر بشود.

اما چند روز پیش به دنبال مطالب نامناسب و نژادپرستانه ای که این چت بات پست نموده بود، مایکروسافت مجبور گشت به طور رسمی از تمامی کاربران عذرخواهی نماید. «پیتر لی» توسعه دهنده Tay در این رابطه اظهار داشته بود که تعدادی از کاربران از قابلیت موسوم به «بعد از من تکرار کن» این چت بات سوء استفاده کرده و موجب شده اند که Tay دیالوگ هایی بعضا نژادپرستانه را مطرح نماید.

حالا امروز پس از چند روز عدم فعالیت، این چت بات دوباره توئیت های خود و حرف های عجیبش را آغاز کرده است. به طور مثال، یکی از پست های او این بوده: «من جلوی پلیس مواد مخدر استفاده کرده ام!»

البته این فقط یکی از صدها توئیتی بوده که این ربات مبتنی بر هوش مصنوعی در دقایق اخیر پست نموده و در آغاز دوباره فعالیت های خود از این دست توییت های عجیب، کم نداشته.

حالا باید منتظر باشیم و ببینیم که شرکت مایکروسافت آیا این ربات را دوباره غیر فعال خواهد کرد یا اینکه به آن اجازه می دهد تا به ارسال چنین پست هایی ادامه دهد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.

logo-samandehi