Изображение к Microsoft выпустила ИИ, который сразу узнал, как быть расистом

“Hellooooooo world!!!” – написал новый Искусственный Интеллект Microsoft вчера в Twitter’у утром. К концу дня, он объявил, что “Гитлет не сделал ничего плохого”.

“Tay”, запущенный вчера, это искусственный интеллектуальный бот. Тай призвана реагировать на разговоры, учиться на ключевых словах и впитывать информацию из Twitter, и даже повторять то, что пишут глупые человеки люди.

Конечно, это интернет, и люди любят дурачится с ботами. В течение нескольких часов после запуска Тай, упоминания бота были немедленно затоплены расизмом, сексизмом, высказываниями против феминизма, цитатами Дональда Трампа. Это привело Тай к тому, чтобы начать повторять сообщения.


Было плохой идеей выпустить ИИ в Twitter, так как это не самый лучший источник информации в сети.




Заметили ошибку в тексте? Выделите ее и нажмите сочетание клавиш CTRL+Enter. Мы узнаем об опечатке/ошибке в кратчайший срок и исправим её.
Комментарии Всего комментариев 0