Изображение к Искусственный интеллект обучили отслеживать токсичное поведение в голосовых чатах

Компания Modulate представила сервис ToxMod, способный при помощи искусственного интеллекта сканировать речь в голосовых чатах на предмет токсичности.

AI умеет распознавать не только отдельные слова, которые могут свидетельствовать о токсичности, но и интонации, тональность и громкость, с которыми игрок произносит их. Разработка ToxMod после работы над «скинами» для голосовых чатов. 

Искусственный интеллект обучили отслеживать токсичное поведение в голо

SDK позволяет разработчикам встраивать технологию прямо в свои игры, при этом большая часть фильтрации происходит на стороне клиента. AI учится обрабатывать все больше и больше случаев без необходимости вмешательства человека. Разработчики могут настраивать ToxMod в соответствии с конкретными потребностями своих игр и сообществ, выбирая пороговые значения, подходящие для аудитории. 

Сервис также работает как инструмент прогнозирования и может управлять репутацией игроков. AI следить за тем, что происходит в игре и анализирует речь игрока, поэтому может довольно быстро определить, становится ли игрок более склонным к токсичному поведению и при каких обстоятельствах. Полученную информацию, к примеру, можно использовать при матчмейкинге.

Искусственный интеллект обучили отслеживать токсичное поведение в голо

Технология готова и может быть использована разработчиками в любой момент. Примеров интеграции компания Modulate не предоставила.

Заметили ошибку в тексте? Выделите ее и нажмите сочетание клавиш CTRL+Enter. Мы узнаем об опечатке/ошибке в кратчайший срок и исправим её.
Комментарии Всего комментариев 0