Инженеры Armorblox обсудят, как машинное обучение будет использоваться в фишинговых атаках на конференции RSA 7 июня. Возможности искусственного интеллекта становятся все более мощными и доступными, что может упростить создание фальшивых личностей и убедительных атак.
Во время фишинговой атаки потенциальные жертвы имеют одно большое преимущество: злоумышленникам приходится делать все вручную. Весь текст, который они пишут, должен быть создан ими сами. Каждая деталь, от ловушки в электронной почте до каждой мелочи, призванной подтвердить их легитимность, требует времени для создания. Если у вас есть настороженность и вы следите за этим, менее сложные атаки легко распознать. Но что будет, когда это больше не будет верно?
Проект OpenAI GPT продемонстрировал, что очень мощное машинное обучение для генерации текста может быть также разработано очень просто для непрофессиональных программистов. Более недавно Dall-E продемонстрировал создание реалистичного поддельного изображения так же просто, как вызов функции с кратким описанием на естественном языке того, что вы хотите.
Сотрудники компании Armorblox, Прашант Арун и Бен Мурдох, будут выступать на конференции RSA с докладом о генеративных атаках. Они утверждают, что в будущем самые простые фишинговые атаки будут осуществляться с помощью персонажей с подробными веб-профилями. Создание сотен фальшивых личностей с пятилетним опытом в Twitter будет так же просто, как пять лет отдыха, пока система машинного обучения занимается публикацией.
Машины становятся умнее в генерации текста, и с каждым годом этот процесс ускоряется. Вместе с созданием реалистичных изображений машинное обучение становится все более мощным инструментом, который может использоваться для создания убедительных и сложных атак. Это подчеркивает необходимость быть в курсе последних разработок в области кибербезопасности и инвестировать в превентивные меры для борьбы с фишингом и другими угрозами.