Hoe kan ik een hele website downloaden?
Hoe kan ik alle pagina’s van een website downloaden?
Elk platform is prima.
HTTRACK ](http://www.httrack.com/) werkt als een kampioen in het kopiëren van de inhoud van een hele site. Deze tool kan zelfs de stukken pakken die nodig zijn om een website met actieve code-inhoud offline te laten werken. Ik ben verbaasd over de dingen die het offline kan repliceren.
Dit programma doet alles wat je er van nodig hebt.
Happy hunting!
Wget ](http://www.gnu.org/software/wget/) is een klassiek commandoregelgereedschap voor dit soort taken. Het wordt geleverd met de meeste Unix/Linux-systemen, en u kunt het ook voor Windows krijgen. Op een Mac is Homebrew de eenvoudigste manier om het te installeren (brew install wget
).
U zou zoiets doen als:
wget -r --no-parent http://site.com/songs/
Voor meer details, zie Widgethandboek en de voorbeelden , of e. g. deze:
U moet eens kijken naar ScrapBook , een Firefox-extensie. Het heeft een diepgaande opnamemodus .
Internet Download Manager heeft een Site Grabber-hulpprogramma met veel opties - waarmee u elke gewenste website volledig kunt downloaden, zoals u dat wilt.
U kunt de limiet instellen voor de grootte van de te downloaden pagina’s/bestanden
wilt bezoeken 3. U kunt de grootte van de pagina’s/bestanden die u wilt downloaden beperken. U kunt de manier waarop scripts/popups/duplicaten zich gedragen veranderen
U kunt een domein specificeren, alleen onder dat domein worden alle pagina’s/bestanden die voldoen aan de vereiste instellingen gedownload
De links kunnen worden geconverteerd naar offline links voor het browsen van
U heeft sjablonen waarmee u de bovenstaande instellingen voor u kunt kiezen
De software is echter niet gratis - kijk of het past bij uw behoeften, gebruik de evaluatieversie.
Ik vind Offline Explorer . Het is een shareware, maar het is erg goed en gemakkelijk te gebruiken.
Ik zal het hebben over de online buffering die browsers gebruiken…
Typisch gebruiken de meeste browsers een browsing cache om de bestanden die je downloadt van een website een tijdje te bewaren, zodat je geen statische afbeeldingen en inhoud steeds opnieuw hoeft te downloaden. Dit kan de zaken onder sommige omstandigheden behoorlijk versnellen. Over het algemeen zijn de meeste browsercaches beperkt tot een vaste grootte en wanneer die limiet wordt bereikt, worden de oudste bestanden in de cache verwijderd.
ISP’s hebben de neiging om cachingservers te hebben die kopieën van veelgebruikte websites zoals ESPN en CNN bewaren. Dit bespaart hen de moeite van het raken van deze sites elke keer als iemand op hun netwerk er naartoe gaat. Dit kan een aanzienlijke besparing opleveren in het aantal dubbele verzoeken aan externe sites van de ISP.
WebZip (http://www.spidersoft.com/webzip/screenshots.asp) is ook een goed product.
Ik heb dit in vele jaren niet gedaan, maar er zijn nog steeds een paar nutsbedrijven. Je zou kunnen proberen Web Snake . Ik geloof dat ik het jaren geleden heb gebruikt. Ik herinnerde me de naam meteen toen ik je vraag las.
Ik ben het eens met Stecy. Hamer alsjeblieft niet op hun site. Erg slecht.
Probeer BackStreet Browser .
Het is een gratis, krachtige offline browser. Een high-speed, multi-threading website download- en weergaveprogramma. Door meerdere gelijktijdige serververzoeken te doen, kan BackStreet Browser snel de hele website of een deel van een site downloaden, inclusief HTML, afbeeldingen, Java Applets, geluid en andere door de gebruiker definieerbare bestanden, en alle bestanden op uw harde schijf opslaan, hetzij in hun native formaat, hetzij als een gecomprimeerd ZIP-bestand en offline bekijken.
Teleport Pro (http://www.tenmax.com/teleport/pro/home.htm) is een andere gratis oplossing die alle bestanden kopieert van wat uw doelwit ook is (heeft ook een betaalde versie waarmee u meer pagina’s met inhoud kunt ophalen).
DownThemAll (https://addons.mozilla.org/en-US/firefox/addon/201) is een Firefox-add-on die alle inhoud (bijvoorbeeld audio- of videobestanden) voor een bepaalde webpagina met één enkele klik downloadt. Dit downloadt niet de hele site, maar dit is misschien wel iets waar de vraag naar op zoek was.
Voor Linux en OS X: Ik schreef grab-site voor het archiveren van hele websites naar WARC -bestanden. Deze WARC-bestanden kunnen gebladerd of uitgepakt worden. Met grab-site kunt u bepalen welke URL’s moeten worden overgeslagen met behulp van reguliere expressies, en deze kunnen worden gewijzigd wanneer de crawl wordt uitgevoerd. De site wordt ook geleverd met een uitgebreide set standaardinstellingen voor het negeren van ongewenste URL’s.
Er is een webdashboard voor het monitoren van crawls, evenals extra opties voor het overslaan van video-inhoud of reacties over een bepaalde grootte.
Terwijl wget al werd genoemd, was deze bron en opdrachtregel zo naadloos dat ik dacht dat het het vermelden waard was:wget -P /path/to/destination/directory/ -mpck --user-agent="" -e robots=off --wait 1 -E https://www.example.com/
Zie deze code uitgelegd op explainshell
Uitstekende extensie voor zowel Chrome als Firefox die de meeste/alle inhoud van een webpagina downloadt en direct opslaat in .html
-bestand.
Google Chrome Extension
Firefox Extension
Ik heb gemerkt dat op een fotogalerijpagina waarop ik het heb geprobeerd, de miniaturen zijn opgeslagen, maar niet de volledige afbeeldingen. Of misschien gewoon niet de JavaScript om de volledige foto’s van de miniaturen te openen.
Maar, het werkte beter dan wget, PDF, etc. Geweldige eenvoudige oplossing voor de meeste mensen.
U kunt hieronder gratis online tools gebruiken die een zip-bestand maken van alle inhoud van die url
De eerbiedwaardige * FreeDownloadManager.org ** heeft deze functie ook.
Free Download Manager heeft het in twee vormen in twee vormen: Site Explorer en Site Spider :
Site Explorer Site Explorer laat u de mappenstructuur van een website bekijken en eenvoudig de benodigde bestanden of mappen downloaden. HTML Spider U kunt hele webpagina’s of zelfs hele websites downloaden met HTML Spider. De tool kan worden aangepast om alleen bestanden te downloaden met gespecificeerde extensies.
I find Site Explorer is handig om te zien welke mappen je moet opnemen/uitschakelen voordat je probeert de hele site te downloaden - vooral als er een heel forum in de site verstopt zit dat je bijvoorbeeld niet wilt downloaden.
download HTTracker het zal downloaden websites zeer eenvoudige stappen om te volgen.
download link http://www.httrack.com/page/2/
video die u kunnen helpen https://www.youtube.com/watch?v=7IHIGf6lcL4
Firefox kan het van nature doen (ten minste FF 42 kan). Gebruik gewoon “Pagina opslaan”
Ik denk dat google chrome dit kan doen op desktop apparaten, ga gewoon naar het browser menu en klik op save webpage.
Merk ook op dat diensten zoals pocket de website niet echt kunnen opslaan, en dus gevoelig zijn voor linkrot.
Merk ten slotte op dat het kopiëren van de inhoud van een website inbreuk kan maken op het auteursrecht, als het van toepassing is.