Вредоносное ПО на базе ИИ может узнавать жертву в лицо
Вредонос действует подобно снайперу, метко стреляющему в намеченную цель.
Искусственный интеллект (ИИ) может использоваться для обнаружения и уничтожения вредоносных программ, но это отнюдь не значит, что его также не могут использовать хакеры. Как сообщают специалисты IBM, в «эпоху ИИ» искусственный интеллект рискует стать оружием в руках преступников. В подтверждение своей теории эксперты создали вредоносное ПО с искусственным интеллектом под названием DeepLocker. Поставляемый вместе с системами наподобие ПО для конференц-связи вредонос остается в спящем режиме до тех пор, пока не найдет нужную жертву. Для обнаружения искомого пользователя DeepLocker использует системы распознавания лица и голоса, данные о местоположении, а также информацию online-трекеров и соцсетей. Как только жертва будет найдена, вредонос начнет атаку.
Специалисты IBM сравнили DeepLocker со снайпером, который метко стреляет в выбранную цель, а не палит вокруг себя без разбора в надежде, что случайная пуля кого-то обязательно заденет. «Он остается незаметным, обходя обнаружение до самого последнего момента, пока не распознает нужную цель», — сообщили эксперты.
Модель глубоких нейронных сетей DeepLocker ставит определенные условия для выполнения полезной нагрузки. Если действительность не удовлетворяет этим условиям и цель не найдена, вредонос остается закрытым. Благодаря этому осуществить реверс-инжиниринг его кода практически невозможно, уверены специалисты.