¿Es posible bloquear el tráfico HTTP de máquinas específicas?

Tengo algunos rastreadores web, y un website específico parece estar bloqueando el tráfico temporalmente después de algún time. La cuestión es que, aunque todos los clientes tienen la misma dirección IP externa (acceden a Internet a través de la misma pasarela) bloquea máquinas específicas de mi networking. Es decir, no es un simple bloque de direcciones IP.

¿Cómo puede suceder esto? ¿Qué tipo de regla se puede hacer (en un server web, firewall, etc.) para get este comportamiento? ¿Pueden las reglas basarse en la dirección MAC u otros datos específicos de la máquina?

One Solution collect form web for “¿Es posible bloquear el tráfico HTTP de máquinas específicas?”

Esto es, tal vez, un poco demasiado obvio de una statement, pero el comportamiento de locking tiene que basarse en la información que el server remoto está al tanto. Eso includeía:

  • La dirección IP de origen

  • El puerto TCP de origen, que debe ser efímero y cambiar en cada request

  • Probablemente hay algunas huellas dactilares pasivas de la stack de IP del cliente que es posible

  • La URL del recurso solicitado

  • El contenido del encabezado de request HTTP, incluyendo las cookies, la cadena User-Agent y la huella dactilar del encabezado "Accept:"

Si usted está trayendo Javascript en la mezcla, entonces hay todo tipo de huellas dactilares del cliente que podría realizarse.

Usted menciona la dirección MAC, y vale la pena señalar que el MAC no sale de la networking local. El enrutador de borde es el único dispositivo, a lo largo del path, que recibiría la dirección MAC del equipo cliente.

Tendría la tendencia a sospechar que están usando la cadena User-Agent y, tal vez, la huella dactilar el encabezado "Accept:".

  • Cómo bloquear este patrón de URL en Varnish VCL?
  • Bloquear 'buenos' bots en nginx con múltiples condiciones para ciertas URLs fuera de límites donde los humanos pueden ir
  • Cómo prohibir el rastreador web utilizando fail2ban
  • Yahoo AdCrawler martillando nuestro sitio
  • Bloquear 'buenos' robots en nginx con múltiples condiciones para ciertos límites de URL donde los humanos pueden ir
  • ¿Cómo puedo ejecutar nutch en Linux kernel?
  • ¿Una empresa tiene derecho implícito a rastrear mi website?
  • Cómo excluir el logging utilizando Fail2Ban logpath con configuration de comodín
  • Apache falla con la sobrecarga de memory / cpu cuando google crawler visita el sitio
  • ¿Por qué googlebot solicita robots.txt desde mi server SSH?
  • Firewall - Prevención de robo de contenidos y rastreadores
  • ¿Cómo crear un robots.txt global que se anexa al propio robots.txt de cada dominio en Apache?
  • ¿Cómo puedo saber con qué frecuencia Google rastrea mi sitio?
  • El linux y los temas del servidor de Windows, como ubuntu, centos, apache, nginx, debian y consejos de red.