Бот тэй
Бот-миллениал Microsoft за несколько часов стал расистом и мизантропом, так что его пришлось временно отключить. — FURFUR. Microsoft возродила чат-бота Тэй, который с помощью «искусственного интеллекта» общался с пользователями Twitter. Правда, ненадолго. Стоило Тэй ожить, как он написал одному из пользователей. "Тэй создана для того, чтобы развлекать общающихся с ней в интернете людей лёгкими и шутливыми разговорами. Чат-бот от Microsoft взбунтовался и начал дискутировать на запрещенные темы. Чат-бот Тэй в Twitter всего за сутки буквально возненавидел человечество. Изначально он мог отвечать. Пока точно неясно, что заставило Зо нарушить алгоритм и начать говорить на запрещенные темы, но чат-бот Тэй. Правда, разработка более-менее сложных самообучающихся систем может привести к забавным казусам: бот Тэй от Майкрософт с помощью пользователей освоил худшие практики интернет-коммуникации. С другой стороны, «на. Корпорация Microsoft 23 марта запустила в Twitter свой «искусственный интеллект» — бота по имени Тэй, который общается со всеми желающими. Но меньше, чем за сутки пользователи научили его многим. Например, чат-бот Тэй, созданный Microsoft, меньше чем через сутки свободного общения в твиттере начал хвалить Гитлера, критиковать Трампа, а потом и вовсе стал расистом. Бот Для Скайпа Вероятно, на этом фреймворке работала девушка- чатбот Тэй, пока её не отключили за расистские высказывания и приём наркотиков.