Геймеры на перевоспитании: как технологии охраняют культуру игры

В данной статье мы говорим, как компания Riot Games, создательница League of Legends, проводила опыты с ИИ и предиктивным анализом, дабы обнаруживать и останавливать онлайн-троллей. А по окончании внедрения программы на базе ИИ, в играх стало на 40 процентов меньше словесных оскорблений. На правах рекламы

Миллионы молодых геймеров привыкли противостоять «нехорошим юношам.» Но обычно их самые ужасные неприятели – это коллеги по игре. На многих сайтах онлайн-игр бушуют притеснения, запугивания.

Некоторым кроме того угрожают смертью. Это неспециализированная неприятность для многих онлайн-сообществ, включая Twitter, YouTube и Facebook.

Как же отделить нарушителей порядка? Уже пара лет Riot Games, которая создаёт поразительно популярную игру League of Legends, экспериментирует с искуственным инструментами и интеллектом предиктивного анализа, дабы распознать онлайн-троллей и вернуть дух игры. Игроки в лиге оказывают помощь найти «паршивых овец» и решить о нужных действиях.

Их суждения также анализируются программой ИИ, которая со временем сможет фактически самостоятельно идентифицировать, обучать, перевоспитывать и дисциплинировать игроков.

Riot Games исследуют, как смогут саморегулироваться громадные и разношерстные онлайн-сообщества. Эти знания смогут употребляться по-различному: к примеру, дабы делать командное сотрудничество более действенным в зависимости от личностных типов либо дабы лучше осознавать, как отечественные онлайн-личности отражают настоящие.

«Раньше мы думали, что онлайн-игры и деструктивное поведение неразрывно связаны» — растолковывает Джеффри Лин (Jeffrey Lin), основной игровой дизайнер социальных совокупностей в Riot Games. “Но сейчас мы знаем, что большая часть игроков вычисляет такое поведение ужасным. Мы желаем создать культурную среду, которая говорит о том, что такое хорошая игра.”

Достигнуть данной цели непросто. Riot Games постоянно регулировала поведение игроков – запрещала проявления и преследования расизма, сексизма, культурной дискриминации, гомофобии. Но, при с League of Legends количество ежедневной активности не разрешал смотреть за исполнением правил усилиями модераторов и традиционными способами. Более 27 миллионов людей играются минимум одну игру League of Legends в сутки, а в час пик в один момент может играться более 7,5 миллионов игроков.

Это одна из обстоятельств, из-за чего Riot Games выделяет громадные ресурсы на эту инициативу.

Джеффри Лин, у которого докторская степень в когнитивной нейрологии, трудится над ней совместно с другими учеными, каковые специализируются на работе мозга. Создать техническую платформу также было заданием не из легких. Дабы перевоплотить петабайты неизвестных данных в нужные выводы о поведении пользователей, нужен был конвейер данных. Команда Лина кроме этого сотрудничала с дизайнерами, дабы убедиться, что их работа не воздействует на интерфейс игры.

Фаза 1: Трибунал

В первой фазе программы, которая началась в 2011 году, игроки информировали о нарушениях правил вторыми игроками. Эти отчеты поступали в публичную совокупность регистрации, так называемый Трибунал, в которой инциденты разглядывали отдельные игроки. Любой случай в большинстве случаев включал переписку в чате, игры и статистику и другую данные, на базе которой комментатор решал, наказать либо забыть обиду обвиняемого.

Большая часть случаев, по словам Лина, происходили, в то время, когда у игроков с обычным поведением случались неприятности и они просто выплескивали их в игре.

Игроки оценивали контекст негативного комментария, дабы проголосовать, как строгим должно быть наказание. Уровни были различные: от е-мейла, робко напоминающего о нарушении правил, до долговременной блокировки аккаунта. По окончании того, как в совокупность собрала миллионы голосов, Riot Games закрыла Трибунал в 2014 году и начала трудиться над совокупностью с ИИ.

«Имеется два метода справляться с проблемами для того чтобы масштаба, и мы задействуем оба,» говорит Эрик Робертс, начальник по коммуникациям в Riot Games. «Вначале, дайте инструменты в руки сообществу, а по окончании – выстройте обучаемые совокупности, каковые применяют масштаб поступающих данных, дабы бороться с проблемой.»

Фаза 2: ИИ

В прошедшем сезоне Riot Games начала тестировать собственную совокупность «перевоспитания игроков», которая стремительнее дает обратную сообщение и частично автоматизирует процесс. Совокупность, настроенная на обнаружение словесных оскорблений, может отсылать игрокам особые карточки, которые содержат доказательства их неправильного поведения.

Команда Лина самостоятельно просмотрела пара тысяч первых случаев, дабы убедиться, что все трудится, и результаты были поразительные: количество словесных оскорблений упало на 40 процентов с того момента, в то время, когда запустили Трибунал и новую программу с ИИ.

Лин уверен, что многие разработчики игр будут наследовать эту модель – соединять когнитивные изучения, дабы улучшить игру, и нанимать для этого междисциплинарные команды. «Мы перевоспитываем игроков тем, что даем им обратную сообщение и стимулируем обсуждение в сообществе,» говорит Лин. «Мы продемонстрировали, что можем поменять культуру, используя верные инструменты.»

Дабы выяснить, как громадные эти, искусственный интеллект и автоматизация изменяют будущее, загрузите отчет HPE “Big Data in 2016”

Комментарии и уведомления в настоящее время закрыты..

Комментарии закрыты.