![]() |
Figura 1: HTTrack descargando una website de ejemplo. |
Dependiendo el "tamaño" que pueda tener el sitio web a descargar el proceso tardará más o menos tiempo, aunque esto dependerá también del tipo de conexión a Internet que tengamos.
Para hacerse una idea unos 330MiB tardaríamos unas 4 horas en descargar.
Otra forma de poder descargar todo un website a nuestro equipo local es a través del uso de wget en sistemas Linux esta utilidad ya viene integrada por defecto.
wget [WEBSITE] -r -k -page-requisites
![]() |
Figura 2: wget sobre Ubuntu. |
Algunos modificadores últiles en wget:
-r o -recursive: indica que de forma recursiva profundice en el árbol de directorios del sitio remoto.
-k o -html-extension: convierte todas las extensiones de fichero a .html.
-page-requisites: descarga absolutamente todo lo que necesite cada página web (imágenes, CSS, etc…).
-no-clobber: evita re-descargar archivos que ya se hubieran descargado.
-convert-links: convierte los enlaces a fichero local, de modo que pueda navegar por todos los hipervínculos de forma local, offline.
-domains [Website]: no descargará ningún enlace o nada que se salga del dominio indicado.
-no-parent: no subirá a niveles superiores al dominio
Figura 3: wget sobre Windows.
Descargar Wget para Windows: http://gnuwin32.sourceforge.net/packages/wget.htm
Después de descargarlo y ejecutarlo seguramente nos pedirá las siguientes librerías:
libssl32.dll y libeay32.dll: https://openvpn.net/release/openssl
libintl3.dll: http://gnuwin32.sourceforge.net/packages/libintl.htm
libiconv2.dll: http://gnuwin32.sourceforge.net/packages/libiconv.htm
Saludos!