Hvordan kan jeg downloade et helt websted?
Du vil ikke bare have en artikel eller et individuelt billede, du vil have hel internet side. Hvad er den nemmeste måde at sejle på alt?
Dagens Spørgsmål & Svar session kommer til os med venlig hilsen af SuperUser-en underafdeling af Stack Exchange, en community-driven gruppe af Q & A-websteder.
Billede tilgængelig som tapet hos GoodFon.
Spørgsmålet
SuperUser-læser Joe har en simpel forespørgsel:
Hvordan kan jeg downloade alle sider fra en hjemmeside?
Enhver platform er fint.
Hver side, ingen undtagelse. Joe er på mission.
Svaret
SuperUser bidragyder Axxmasterr tilbyder en ansøgningsanbefaling:
http://www.httrack.com/
HTTRACK virker som en champ for at kopiere indholdet på et helt websted. Dette værktøj kan endda tage fat i de nødvendige stykker til at lave et websted med aktivt kodeindhold offline. Jeg er forbløffet over de ting, det kan replikere offline.
Dette program vil gøre alt hvad du behøver af det.
Glad jagt!
Vi kan varmt anbefale HTTRACK. Det er en moden applikation, der får jobbet gjort. Hvad med arkivister på ikke-Windows-platforme? En anden bidragyder, Jonik, foreslår et andet modent og kraftfuldt værktøj:
Wget er et klassisk kommandolinjeværktøj til denne slags opgave. Det leveres med de fleste Unix / Linux-systemer, og du kan også få det til Windows (nyere 1.13.4 tilgængelig her).
Du ville gøre noget som:
wget -r - no-parent http://site.com/songs/
For flere detaljer, se Wget Manual og dens eksempler eller se på disse:
- http://linuxreviews.org/quicktips/wget/
- http://www.krazyworks.com/?p=591
Har du noget at tilføje til forklaringen? Lyde af i kommentarerne. Vil du læse flere svar fra andre tech-savvy Stack Exchange brugere? Tjek den fulde diskussionstråd her.