Ботный трафик что это

Содержание
  1. Что такое бот-трафик и как его остановить
  2. Что такое бот-трафик?
  3. Бот-трафик на вашем сайте
  4. Ищите уязвимости
  5. Уберите ботов из данных для аналитики
  6. Защита от DDoS-атак
  7. Имейте в виду потенциальных злоумышленников
  8. Понимание бот-трафика для обеспечения безопасности и соответствия требованиям
  9. О способах генерации бот-трафика: «3 подхода, 6 приёмов», и это только начало
  10. Немного предыстории
  11. О способах генерации бот-трафика
  12. 1. Коммерческий подход на авто-накрутку
  13. Лидогенерация на фейковых сайтах — часть работы агента:
  14. 2. Технологический подход
  15. 3. Информационно-мотивационный подход
  16. Рост ботных переходов на сайт: как интерпретировать и что делать
  17. Классификация ботов
  18. Виды неестественного трафика
  19. 1. Ботный трафик для нагула профилей
  20. Что можно предпринять
  21. 2. Скликивание через поисковые системы
  22. 3. Влияние на рекомендательные системы и слив маркетинговых бюджетов
  23. 4. Парсинг цен, остатков или любой другой полезной информации
  24. Способы борьбы с этим типом атак
  25. 5. DoS и DDoS-атаки

Что такое бот-трафик и как его остановить

Автор: Джерри Васкес (Jerry Vasquez) – продакт-менеджер в Liquid Web. Специализируется на сетевых продуктах и решениях в области безопасности.

Не весь трафик одинаково хорош. Вы можете наблюдать постоянный приток посетителей на сайт, но нужно помнить, что интернет в значительной степени состоит из роботизированного трафика. Что же такое бот-трафик и как его предотвратить?

Что такое бот-трафик?

Бот-трафик – это любое посещение вашего сайта не человеком. Этот термин обычно воспринимается в негативном ключе, но не весь бот-трафик плохой. Многие не до конца понимают суть бот-трафика, поэтому владельцы сайтов должны знать его разновидности и предпринимать меры для остановки всплесков трафика, которые могут поглощать ресурсы вашего сервера.

Статистика показывает, что объемы плохого бот-трафика быстро растут, и сейчас это наиболее распространенная форма искусственного трафика. Нужно ли владельцам сайтов усерднее бороться с этой тенденцией, учитывая развитие искусственного интеллекта и автоматизированных сервисов, благодаря которым в сети появляется все больше ботов?

Чтобы полностью понять, что такое бот-трафик, давайте рассмотрим различные типы автоматизированных роботов в сети и их действий.

Бот-трафик на вашем сайте

Ключ к управлению бот-трафиком – понимание того, что количество посетителей вашего сайта может быть разным, и того, что роботы, которые сканируют ваши страницы – это нормально. Наиболее распространенные формы бот-трафика — это сканеры поисковых систем и SEO-инструментов, боты для защиты авторских прав и другой безобидный автоматизированный трафик.

Однако растет и число вредоносных ботов, которые могут навредить сайту или бизнесу. К ним относятся спам-боты, DDoS-боты, парсеры и другие боты, которые пытаются использовать ваш сайт для незаконной выгоды своих разработчиков.

Хоть человек в этом процессе и не участвует, но появление ботов на ваших страницах по-прежнему считается посещениями. Это означает, что если вы не ограничиваете спам-трафик, то такие посещения могут исказить ваши аналитические показатели: просмотры страниц, показатель отказов, продолжительность сеанса, местоположение посетителей, а также последующие конверсии.

Такие несоответствия в показателях могут запутать владельцев сайтов, а производительность сайта, на котором очень активны роботы, может быть сложно измерить.

Кроме того, боты, смешивающиеся с реальными посетителями, могут отрицательно повлиять на веб-разработку – например, результаты A/B-тестирования или на меры по оптимизации конверсии.

Теперь, когда вы поняли потенциальную опасность того, что на ваших страницах будут копошиться роботы, давайте рассмотрим наиболее эффективные способы ограничения бот-трафика на сайте и наилучшие подходы к блокировке плохих ботов в сети.

Ищите уязвимости

Чтобы лучше проанализировать качество трафика и свести к нулю число любых ботов, способных навредить вашим страницам, регулярно сканируйте уязвимости и выявляйте возможные дыры в вашей безопасности.

Сканирование уязвимостей поможет обнаружить и классифицировать слабые места в вашем оборудовании, сетях и коммуникациях, чтобы рассчитать эффективность контрмер. Сканирование может выполнять внутренний ИТ-отдел компании или внешняя организация. Например, можно использовать инструмент сканирования уязвимостей Liquid Web.

Если вы заказываете услуги управления сетью у стороннего провайдера, то ожидаете, что он будет следить за обновлениями и контролировать вашу систему. Даже если внутренний ИТ-отдел способен провести сканирование уязвимостей, у стороннего провайдера услуг больше времени и ресурсов для такого интенсивного процесса – сканирование уязвимостей требует большой пропускной способности и может оказаться довольно интенсивным. При обнаружении уязвимостей персонал обязан выяснить, как их устранить и соответствующим образом обезопасить сеть.

Уберите ботов из данных для аналитики

Многие владельцы сайтов используют аналитические данные с платформ вроде Google Analytics, чтобы лучше управлять потоками трафика на своих сайтах и разобраться, как оптимизировать свои страницы.

Простым аналитическим инструментам может оказаться сложно обнаружить бот-трафик при анализе данных, потому что роботы получают доступ к вашим страницам и исследуют их почти как люди. К счастью, Google постарался исправить это в своем последнем обновлении Google Analytics 4, который автоматически определяет трафик ботов и отфильтровывает их из доступных аналитических данных.

Автоматическое исключение недоступно в Universal Analytics (альтернативе Google Analytics), но посещения известных ботов можно отфильтровать вручную, чтобы искусственный трафик не влиял на ваши решения по сайту.

Роботизированный трафик не всегда приходит на сайт с намерением навредить, но часто может исказить ваше понимание количества посетителей на страницах. В результате неэффективные страницы, привлекающие больше посетителей-ботов, могут навсегда остаться такими.

Чтобы включить эту функцию, войдите в настройки Admin View и поставьте галочку на пункте Exclude all hits from known bots and spiders. Можно легко поставить галочку один раз и забыть об этой функции, которая гарантирует, что ваши посетители фильтруются на людей и ботов. Сама функция работает путем автоматического исключения трафика, указанного в Международном списке ботов от Бюро интерактивной рекламы (IAB). Некоторые боты, которые еще не попали в этот список, могут просочиться через фильтр, но это все равно действенное и простое решение для контроля качества показателей вашего сайта.

Еще один отличный аналитический инструмент – Finteza. Он может определять трафик ботов и классифицировать их по типу роботов (DDoS, спамер, анализатор или чистый трафик). Определение и классификация этих ботов может принести понимание того, откуда и для чего вредоносные пользователи приходят на ваш сайт.

Читайте также:  Где искать пароль от своего wifi ростелеком

Если вашему сайту не помогают изменения на основе анализа внутренних данных, возможно, стоит обратить внимание на более совершенные аналитические системы, чтобы понять, реален ли ваш трафик. Если вы начнете подстраивать свои страницы под запросы ботов, то это может привести к пустой трате ресурсов.

Защита от DDoS-атак

DDoS-ботнеты – одна из самых опасных форм бот-трафика. DDoS-ботнет – это группа подключенных к интернету устройств, зараженных вредоносным ПО и удаленно управляемых без ведома их владельцев. С точки зрения хакера, ботнет-устройства – это взаимосвязанные ресурсы, используемые практически для любых целей, но наиболее опасной из них является DDoS-атака.

Любое отдельное устройство ботнета может быть использовано несколькими злоумышленниками, каждый из которых задействует его для разных форм атак одновременно. Например, хакер может использовать компьютер, зараженный вредоносным ПО, чтобы получить быстрый доступ к сайту в рамках DDoS-атаки. Тем временем, фактический владелец компьютера может использовать его для онлайн-покупок, даже не подозревая о происходящем.

DDoS-атаки становятся все более частыми и могут нагружать сервер сайта запросами с целью сделать его полностью недоступным – это приводит к значительным простоям и потере конверсий для коммерческих сайтов.

К счастью, в сети можно найти защиту от DDoS-атак – например, Liquid Web предлагает различные уровни защиты от DDoS-атак в зависимости от ваших потребностей.

Имейте в виду потенциальных злоумышленников

Многие владельцы сайтов предпочитают использовать ПО, чтобы защитить сайт от вредоносных программ и вирусов, но такой подход не всегда может обеспечить защиту от неопознанных угроз, которые могут проникнуть в вашу систему. Чтобы полностью защитить свои серверы от плохого трафика, важно рассмотреть возможность использования дополнительных возможностей — например, системы обнаружения вторжений.

ПО Threat Stack может собирать, отслеживать и анализировать телеметрию безопасности в серверных средах с целью обнаружения аномалий и оценки угроз.

Защитные меры также могут помочь компаниям соответствовать стандартам безопасности, в том числе требованиям PCI DSS, SOC 2 и HIPAA/HITECH.

Понимание бот-трафика для обеспечения безопасности и соответствия требованиям

Так как число плохих ботов увеличивается, компаниям необходимо уметь идентифицировать бот-трафик, чтобы лучше понимать свои показатели и предотвращать проникновение ботов в свои системы. При правильном соблюдении нормативных требований можно избежать разрушительных угроз и злонамеренных действий киберпреступников.

Ваш сайт должен быть вашей гордостью и радостью, и вы можете быть уверены, что не потеряете над ним контроль, если примете нужные меры.

Источник

О способах генерации бот-трафика: «3 подхода, 6 приёмов», и это только начало

Немного предыстории

Вначале были веб-сайты, затем на них появились люди, многие из которых оказались с деньгами. За ними появилась реклама, и сформировался интернет-бизнес. Люди различных профессий потянулись сюда, интернет стал кормить массы, формировать касты. Богатством этой сферы стал — трафик, как производное от посещаемости сайта, наряду с функционалом, ссылочной массой и поисковой историей.

Трафик сайта состоял из клиентов, посетителей, и визитёров. Владельцам сайтов предложили делиться своей потенциальной аудиторией с другими сайтами, и наоборот — при помощи включения площадок в рекламные сети и партнерские программы, которые со временем стали крупными сетями, и начали сотрудничать с более мелкими сетями и частными web-мастерами.

Весь народ дружно трудился над добычей трафика: привлекал, покупал, перепродавал, а однажды и вовсе, стал генерировать трафик сам.

Уже более 7 лет не менее 40% мирового трафика генерируется ботами.

О способах генерации бот-трафика

За время нашей работы, мы столкнулись с двумя основными вопросами:

— Люди не знают о том, что бот-трафик это плохо, потому что не ощущали негативных последствий;

— Люди не знают о том, что в их трафике есть боты, потому что классические метрики от Яндекса и Google, не умеют (не успевают) определять их;

Если вы узнали в этих людях себя, то вы просто ещё не представляете себе, как на самом деле выглядит бот:

1. Коммерческий подход на авто-накрутку

Агент (так называется «накрутчик», который работает с рекламными системами), как правило, арендует или создает сам, Proxy-сервер: это машина, которая позволяет генерировать IP-адреса (тому, откуда берутся реальные IP-адреса, тоже посвятим отдельную статью).

Пишется простая программа по перезагрузке любых страниц сайта — с каждым её обновлением меняется IP-адрес: это примитивное действие является фейковым посещением.

В день можно генерировать до 1 млн посещений с дополнительными настройками: страна, город, возраст, пол посетителя, браузер, время на сайте, история предыдущих посещений, и конечно, можно вписать абсолютно любой источник, откуда «пришёл» этот «пользователь».

При коммерческом подходе на авто-накрутку, данная махинация происходит на фейковом сайте: количество созданий подобных сайтов в мире составляет от 100 тысяч в день.

Это делается для того, чтобы разместить там рекламу брендов через SSP, частные и тизерные сети, иногда, ведущие рекламные площадки. Ко всеобщему заблуждению, фейковые сайты модерируются только по официальным жалобам клиентов, в 90% случаев, фейковые сайты долгое время будут оставаться незамеченными, поскольку на них есть всеми желанная конверсия.

Лидогенерация на фейковых сайтах — часть работы агента:

Конверсию имитируют либо «юзераторы» — люди, выполняющие на сайте определенные действия по заданным критериям;

Либо, боты — аналогичные программы, как было отмечено выше, но с записанной историей нужных посетителей.

Сейчас, цена таких ботов составляет от 50 рублей за 1000 фейковых посещений.

Однако, прежде чем одобрить бот-трафик на своём сайте, помните о таком важном моменте: поисковые системы запомнят это, и впредь, очень долго не будут ранжировать ваш сайт людям с реально подобным поведением, т.е. вашей целевой аудитории. Вдобавок к этому, данный бот-трафик, чуть позже гарантировано попадёт в черные списки поисковиков — и Google с Яндексом также об этом вспомнят.

2. Технологический подход

Фейковые сайты создаются по основным принципам:

— Наполняются контентом за счет его парсинга (кражи) с оригинальных сайтов по ключевым словам; (кстати, такой парсинг происходит обычно быстрее, чем к вам заглянет поисковой паук по индексации — соответсвенно, оригинальность вашей статьи становится под угрозу)

Читайте также:  Вайфай блютуз адаптер что это

— Маскируются под оригинальный сайт полностью, в том числе с нативностью домена (в 2016 году, почти полгода один мошеннический сайт полностью копировал агентство SeoPult, отличаясь в названии всего на несколько букв, и имел посещений в день — больше, чем оригинал);

— Представляют каталоги-генераторы по темам (например, сбор новостей, фото, ФИО, и др);

Например: кому бы пришло в голову, проверить трафик на ботов с источниками ресурсов, типа Mail.ru, Pikabu, Spark? А если вы пользуетесь услугами агентства SeoPult — тем более бы, не догадались. А главное: посетители точно, что живые — только в реальности, все эти действия на вашем сайте были скопированы с того, кто делал это вчера — и не у вас.

Порой, присмотришься в Метрику, а там: Mail.ru, Pikubu.ru, Spark — доказано, что 90% людей этого не заметит.

3. Информационно-мотивационный подход

Есть такие люди, кто накручивает ботов на свой же, оригинальный сайт:

— Это делается для повышения престижа сайта, и опережения конкурентов в рейтингах — НЕ в Поиске (в той сфере, где конверсией считается просмотр, чтение);

— Для формирования ложного общественного мнения, создания искусственной популярности бренда, персоны;

— Увеличения количества «подписчиков» в социальных сетях.

Также, отдельным особняком, стоит следующий способ генерации трафика: «Атака конкурентов при помощи ботов». Об этом мы расскажем во второй части нашего обзора.

Таким образом, в погоне за трафиком и конверсией, важно не забывать о бдительности и экономической логике: в интернете, ничего не случается просто так, ничего не падает с неба, и не стоит дешевле, чем это могло бы стоить в натуре.

Источник

Рост ботных переходов на сайт: как интерпретировать и что делать

За последние несколько лет доля ботного трафика резко выросла. По данным Barracuda technology, за первые шесть месяцев 2021 года автоматизированные сессии составляют почти две трети интернет-трафика. Примерно 25% этого объема приходится на известных хороших ботов –поисковых роботов, ботов социальных сетей, мониторинга и т.д. Однако почти 40% трафика составляют плохие боты, которые несут угрозу сайтам.

Плохие боты созданы для выполнения различных вредоносных действий. Они атакуют учетные записи пользователей (сбор персональных и финансовых данных), влияют на органический трафик, искажают аналитику, воруют контент, воздействуют на системы рекомендаций, тратят маркетинговые бюджеты на отправку SMS и выводят из строя серверы. В статье решили поделиться своим опытом решения данной проблемы.

Классификация ботов

  • Simple – идут с одного IP-адреса и провайдера. Переходы осуществляются с использованием автоматических сценариев, при этом не добавляются различные данные для имитации человека, называемые fingerprint, – user-agent, размер экрана, тип устройства и т.п.
  • Medium – более сложные боты. Этот тип использует программное обеспечение, которое имитирует технологию браузера, включая возможность выполнения JavaScript.
  • Hard – совершают движения мыши и щелчки, которые обманывают даже сложные методы обнаружения ботов. Такие боты имитируют поведение человека, используют программное обеспечение для автоматизации и могут взламывать сайты по типовым уязвимостям CMS. В зависимости от целей они могут писать комментарии, рассылать спам, создавать страницы с рекламой.
  • Hardcore – это комбинация medium и hard ботов. Они, как правило, циклически меняют IP-адреса, используют анонимные приватные прокси, децентрализованные сети и хранят свой уникальный fingerprint. Боты развивают его с помощью «белых» посещений сайтов аналогично обычному человеку. После получения качественной истории fingerprint бота практически невозможно отследить при правильной настройке.

Очистить сайт на 100% от таких переходов не представляется возможным.

Виды неестественного трафика

Разберем по пунктам виды ботных переходов.

1. Ботный трафик для нагула профилей

Для накрутки поведенческих факторов (ПФ) используют переходы ботов по заданному алгоритму. Чтобы боты были похожи на естественный трафик, применяется прокачка профилей.

Ваш сайт может попасть в файл нагула профилей определенной тематики. Вследствие чего вы можете заметить рост прямых заходов (type-in) или реферальных переходов из социальных сетей. Эти 2 метода наиболее популярны для выполнения первого перехода для прокачки профиля.

Выглядит это так:

Реферальным источником может быть любая площадка, не обязательно социальные сети.

Если вы заметили аномальный рост (от 50% и более) ботного трафика с большим процентом отказов на свой ресурс, то рекомендуется принять меры. Например, у нас на ряде проектов был замечен явный негативный тренд по позициям и трафику после обнаружения кратного роста роботных переходов, хотя Яндекс в переписке говорил нам обратное. Появление новой метрики в Яндексе «Отфильтровано по поведенческим факторам» никак не повлияло на текущее положение дел.

Что можно предпринять

1. Часть такого трафика получается срезать посредством настройки и подключения сервиса CloudFlare.

Программа CloudFlare имеет 4 тарифа:

  • Free,
  • Pro ($20/месяц),
  • Business ($200/месяц),
  • Enterprise (по запросу).

На тарифах Pro и Business есть раздел Bots.

В блоке показывается статистика по трафику в разрезе определения ботов по вашему проекту.

Отчет бота включает в себя 4 типа трафика:

  • Автоматический трафик (Automated) – плохие боты. Используется эвристика, машинное обучение и другие методы для определения таких запросов. В большинстве случаев такой трафик вредит вашему сайту.
  • Вероятно, автоматический трафик (Likely Automated).
  • Человеческий (Likely Human).
  • Проверенный трафик ботов (Verified bot) – поступает от поисковых ботов, платежных систем в Интернете (Google, Yandex, PayPal и так далее).

Все эти данные также доступны через GraphQL и вы можете выгружать их через API.

На тарифе Pro программа будет защищать только от автоматизированного трафика (Automated).

На тарифе Business вы получаете доступ к новой версии Bot Analytics, предназначенной для защиты от ботов. Бизнес-версия программы глубже сортирует ботный трафик и имеет больше настроек.

Перейдя в раздел Automated, можно посмотреть детальный отчет по переходам. Вы можете проанализировать трафик по типу, настраивать временные рамки и фильтровать по различным атрибутам, таким как IP–адрес, категория, user-agent и т.д.

Самая главная разница между версиями Pro и Business в фильтрации на «Автоматический трафик» и «Вероятно, автоматический трафик».

Последний вариант включает запросы, распознанные механизмом машинного обучения CloudFlare. Эти запросы часто поступают от сложных ботов – тех, которые обходят простые инструменты безопасности, меняя IP-адреса, user-agent, входят через анонимные прокси и убедительно имитируют людей.

Читайте также:  Где находится айпи стим

В бесплатной версии нет защиты от ботов (кроме базовой от DDoS-атак с пропускной способностью до 90 Тбит/с), отчета и настроек фильтрации – Configure Super Bot Fight Mode.

В целом если вы изучили логи вашего сайта и нашли закономерность, по которой можно заблокировать большую часть ботного трафика, то вы можете сделать это на стороне сервера или во Free-версии CloudFlare.

2. Часто этот сервис полностью проблему не решает.

Эксперты по работе с поведенческими факторами научились грамотно прокачивать профили (нагулом). Они меняют: user-agent, IP-сети, устройства, длину сессии, разрешения и так далее. Вследствие чего никакая система защиты не может сматчить весь трафик с ботными переходами.

В этом случае мы рекомендуем дополнительно не подгружать счетчик Яндекс.Метрики для type-in и реферальных переходов без куки. Обычно просят выбрать город или другой аналогичный функционал.

В совокупности эти 2 подхода дали положительную динамику и восстановление видимости проектов в поисковых системах.

2. Скликивание через поисковые системы

В работе с поведенческими факторами также могут применять технологию скликивания конкурентов. В счетчике Метрики вы можете заметить кратный рост переходов по ключевым словам с большим процентом отказов.

Данный вид переходов наносит явный урон сайту с точки зрения влияния на ранжирование в поисковых системах. В случае выявления проблемы (на больших объемах от общего трафика) рекомендуется подключить сервис CloudFlare (метод описан выше) и параллельно выравнивать CTR, сессии и глубину при помощи собственной накрутки ПФ.

3. Влияние на рекомендательные системы и слив маркетинговых бюджетов

Эти типы атак объединяет большое количество запросов на сайт, близкое к срабатыванию традиционной защиты от DDoS. Такие атаки могут приводить не только к проблемам в работоспособности сайта, но и к прямым финансовым или репутационным потерям. Разберем подробнее самые популярные примеры таких атак и способы борьбы с ними.

Атака на форму подтверждения действия по SMS.

На многих ресурсах есть форма регистрации или авторизации по номеру телефона с подтверждением по SMS, когда пользователь вводит номер телефона и ему приходит смс-сообщение с секретным кодом. Например:

Во многих крупных компаниях заложены достаточно большие бюджеты на отправку sms-сообщений. При этом в организациях даже не подозревают, что их сайты используются пользователями в лучшем случае для розыгрышей своих приятелей, а в худшем – для нанесения репутационных и финансовых потерь. Делается это путем бесконечной отправки кодов на все существующие номера телефонов.

На github можно найти множество готовых программ для рассылки sms-спама. Вот некоторые из популярных программ и их баз данных сайтов, используемых при атаках (можете поискать свой сайт в списке):

Влияние на рекомендательные системы.

Целью злоумышленников является вывод в рекомендации сайта определенных товаров или бренда. Для этого с помощью ботов искусственно накручиваются просмотры товаров или действия по добавлению товара в корзину.

В итоге пользователи видят в рекомендациях не популярные товары или услуги, а те, которые были накручены ботом. Из-за этого работа рекомендательной системы может ухудшиться, что обернется убытками для компании.

4. Парсинг цен, остатков или любой другой полезной информации

Веб-скрейпинг (web scraping) – это парсинг доменов при помощи ботов, которые воруют контент. Обычно они выполняют GET-запросы на целевой URL c целью извлечения данных.

Тут надо понимать, что это целая индустрия и защититься от парсинга и кражи контента полностью просто невозможно. Но это не значит, что защищаться бесполезно.

Например, если у вас интернет-магазин с 100 000 SKU и у вас нет никакой защиты от парсинга, то это вопрос времени, когда ваш сайт начнет испытывать проблемы с доступностью, так как вам будут неожиданно прилетать тысячи запросов в секунду, создавая проблемы с доступом для реальных клиентов.

Пример локального всплеска активности ботов, где пришло >40 запросов в секунду от ботов

Здесь задачи у парсеров и владельцев сайтов полностью противоположные.

  • Задача парсеров – собрать всю информацию с минимальными затратами и за максимально короткие сроки.
  • Задача владельцев ресурсов – сделать парсинг максимально дорогим, долгим и трудоемким.

Крупные участники рынка не так страшны, так как они стараются быть незаметными и не создавать проблем для работы ваших сайтов, а вот средние и мелкие максимально опасны, так как могут вмиг положить ваш сайт, проводя свои эксперименты.

Способы борьбы с этим типом атак

Традиционные способы защиты от DDoS тут будут неэффективны, так как общее количество запросов от ботов будет не сильно выбиваться из общей статистики, но эти запросы будут наверняка самыми тяжелыми для обработки вашим backend или дорогими, как в случае атак через SMS bomber.

В борьбе с этим типом атак поможет активная проверка через Java Script, которая при первом заходе будет незаметно для пользователя проверять, что браузер – реальный, и только в случае успеха показывать ваш сайт.

На платных тарифах CloudFlare доступен WAF, который позволяет гибко ограничивать доступ к сайту пользователям из определенных стран. Например, если ваш сайт ориентирован на аудиторию СНГ, то вы можете ввести требование вводить Captcha для пользователей из других стран. Это будет выглядеть так:

Такие ограничения сделают парсинг вашего сайта максимально дорогим и сложным, но все же не невозможным.

5. DoS и DDoS-атаки

DDoS – целенаправленная атака за счет резкого увеличения запросов к сайту с целью нарушения работы сервера.

Сервис CloudFlare в бесплатной версии предоставляет неограниченное предотвращение DDoS-атак с пропускной способностью до 90 Тбит/с. В Pro и Business версиях добавляются оповещения и WAF защита.

Подобный сервис защиты предоставляет и компания Qrator, но уже на платной основе, где в зависимости от тарифа доступны следующие опции:

  • предотвращение DDoS-атак с пропускной способностью до 3000 Гбит/с;
  • скорость реакции – от 30 секунд до 3 минут;
  • Статьи: Читайте также

Источник

Adblock
detector