Presentamos Uscrapper 2.0, un potente webscrapper OSINT que permite a los usuarios extraer diversa información personal de un sitio web.
Aprovecha técnicas de raspado web y expresiones regulares para extraer direcciones de correo electrónico, enlaces de redes sociales, nombres de autores, ubicaciones geográficas, números de teléfono y nombres de usuario de fuentes con y sin hipervínculos en la página web, admite subprocesos múltiples para acelerar este proceso.
Uscrapper 2.0 es equipado con módulos avanzados de omisión Anti-webscrapping y admite rastreo web para extraer varios subenlaces dentro del mismo dominio. La herramienta también ofrece una opción para generar un informe que contiene los detalles extraídos.
Detalles extraídos:
Uscrapper extrae los siguientes detalles del sitio web proporcionado:
- Direcciones de correo electrónico: muestra las direcciones de correo electrónico que se encuentran en el sitio web.
- Enlaces de redes sociales: muestra enlaces a varias plataformas de redes sociales que se encuentran en el sitio web.
- Nombres de autores: muestra los nombres de los autores asociados con el sitio web.
- Geoubicaciones: muestra información de geolocalización asociada al sitio web.
- Detalles sin hipervínculos: muestra los detalles sin hipervínculos que se encuentran en el sitio web, incluidas direcciones de correo electrónico, números de teléfono y nombres de usuario.
¿Qué hay de nuevo?:
Uscrapper 2.0:
- Se introdujeron múltiples módulos para evitar las técnicas anti-webscrapping.
- Presentamos Crawl and scrape: un módulo avanzado de rastreo y scrape para rastrear sitios web desde dentro.
- Implementé Multithreading para agilizar estos procesos.
Pasos de instalación:
git clone https://github.com/z0m31en7/Uscrapper.git
cd Uscrapper/install/
chmod +x ./install.sh && ./install.sh #For Unix/Linux systems
Uso:
Ejecutar Uscrapper, utilice la siguiente sintaxis de línea de comandos:
python Uscrapper-v2.0.py [-h] [-u URL] [-c (INT)] [-t THREADS] [-O] [-ns]
Argumentos:
- -h, –help: muestra el mensaje de ayuda y sale.
- -u URL, –url URL: especifique la URL del sitio web del que extraer detalles.
- -c INT, –crawl INT: especifica el número de enlaces a rastrear
- -t INT, –threads INT: especifica la cantidad de subprocesos que se utilizarán durante el rastreo y el raspado.
- -O, –generate-report: genera un archivo de informe que contiene los detalles extraídos.
- -ns, –nonstrict: muestra nombres de usuario no estrictos durante la extracción.