Loading...
Боты — важный элемент для эффективного функционирования социальных сетей. Они помогают вести чаты поддержки пользователей, распространяют рекламу. Однако иногда этот инструмент используется и во вред. Например, накручивать рейтинги, писать ложные положительные отзывы о товарах и услугах, распространять дезинформацию и многое другое. При этом они могут «вести себя» очень естественно, напоминая обычного человека. Именно поэтому распознавать их очень трудно.
«В основе разработки лежит нейросеть, учитывающая более тысячи метрик, которые отличают ботов от живых людей. Причем эти метрики связаны не столько с их текущей активностью, которую боты научились хорошо имитировать, сколько с тем, как они развиваются во времени», — рассказал ведущий научный сотрудник Лаборатории проблем компьютерной безопасности СПб ФИЦ РАН Андрей Чечулин.
Так, приложение смотрит на «возраст» аккаунта, описание профиля, оригинальность фото и видео контента, характеристики и связи друзей с ним и друг с другом и многое другое. «Например, аккаунт пользователя может существовать много лет, в то время как бот создается быстро и под конкретную задачу. Как правило, у бота нет оригинальных фотографий. Аккаунт человека последовательно развивается в соцсетях: учится, работает, женится, заводит друзей. Динамика развития этих характеристик у бота иная, а количество друзей и связи с ними носят более хаотичный порядок», — пояснил Андрей Чечулин.
Чтобы научить нейросеть обнаруживать вредоносных ботов, ученые создали экспериментальные группы в соцсетях, куда ввели специально подготовленных ботов. На собранных данных и учился искусственный интеллект.
«Результаты эксперимента, показали, что новый подход действительно работает и позволяет извлекать метрики, необходимые для более качественного выявления свойств целенаправленных воздействий в социальных сетях и анализа эволюции вредоносных ботов. В перспективе наше приложение может стать основой для перехода от простого обнаружения кибератаки с помощью ботов к более глубокому анализу атакующего и его возможностей», — рассказал Андрей Чечулин.
Подписывайтесь на InScience.News в социальных сетях: ВКонтакте, Telegram, Одноклассники.