Подходит к концу 2019 год, в течение которого СМИ довольно часто сообщали о вымогательских кампаниях, новом вредоносном ПО и RDP-атаках. Настало время переключить внимание на киберугрозы, ожидающие нас в будущем. Хакеры продолжают увеличивать сложность и объемы своих атак и кампаний и стремятся оставаться на шаг впереди стратегий по кибербезопасности. Они все чаще используют против нас новейшие мировые технологии.
Постоянное совершенствование искусственного интеллекта и машинного обучения приносит бесценные преимущества, но злоумышленники также учатся применять ИИ и МО для совершения самых дерзких преступлений. Создание убедительных deepfake-видео теперь доступно хакерам без специальных навыков, и они могут использовать эту ИИ-технологию, чтобы манипулировать мнением отдельных людей и общества в целом. Компьютерное распознавание лиц, набирающее популярность средство обеспечения безопасности, также может применяться для создания deepfake-контента и обмана людей и машин.
Исследователи McAfee прогнозируют увеличение числа целевых атак на корпоративные сети. Чтобы добыть конфиденциальную информацию, хакеры будут проводить двухэтапные вымогательские кампании.
Все больше предприятий переходят на облачные сервисы для ускорения бизнес-операций и развития совместной работы, поэтому необходимость обеспечения безопасности облака как никогда велика. По этой причине в 2020 году число организаций, активно внедряющих контейнерные технологии, продолжит расти.
Широкое распространение роботизации и растущая потребность в защите системных учетных записей, которые используются для автоматизации, ставят вопрос о надежности интерфейсов прикладного программирования (API), задействующих значительные объемы персональных данных.
Технология deepfake станет доступнее для злоумышленников без специальных навыков.
Возможность создания поддельного контента существует давно. Обработанные снимки использовались еще во время Второй мировой войны, чтобы заставить людей поверить в то, чего на самом деле не было. Что изменилось с развитием искусственного интеллекта? Сегодня злоумышленники могут создавать очень убедительные фальшивки, даже не являясь экспертами в области технологий. В интернете есть сайты, на которые можно загрузить видео, а обратно скачать deepfake. Эти очень привлекательные функции находятся в свободном доступе, и они дают возможность производить реалистичные поддельные аудио- и видеозаписи сотням тысяч потенциальных преступников.
Фальшивки, созданные по технологии deepfake, могут стать оружием в информационной войне. Чтобы создать видеоролик, в котором из уст одного человека будут звучать слова, сказанные другим человеком, достаточно применить модель машинного обучения к выложенным в интернете записями публичных выступлений. Сегодня хакеры могут автоматически генерировать необходимый им контент, который повысит вероятность успешной атаки на отдельных людей или целые группы. Результат такого совместного использования возможностей ИИ и машинного обучения? Массовая неразбериха.
В целом, злоумышленники выбирают технологию, наиболее отвечающую их целям. Например, чтобы обмануть общественность и повлиять на результаты выборов, недружественные государства могут публиковать в сети deepfake-видео. Помимо попыток вызвать разногласия в обществе, киберпреступники могут вложить в уста генерального директора заявление о том, что доходы компании упали или что в ее продукции имеется существенный недостаток, который потребует массового отзыва. Возможная цель распространения такого видео — манипуляция ценой акций или совершение других финансовых преступлений.
McAfee прогнозирует, что увеличение доступности технологии deepfake для людей без специального образования приведет к увеличению объемов дезинформации.