Sådan downloader du et helt websted til offlinebrug
Der er et par forskellige måder at downloade en hel hjemmeside til offline brug. Den bedste metode for dig vil afhænge af størrelsen på webstedet, typen af indhold, det indeholder, og din egen tekniske ekspertise.
1. Brug en browserudvidelse
Der er en række browserudvidelser, der kan bruges til at downloade hele websteder. Nogle af de mest populære udvidelser inkluderer:
- [WebCopy ](https://webcopy.io/)
- [HTTrack ](https://www.httrack.com/)
- [SiteSucker ](https://www.sitesucker.com/)
- [Teleport Pro ](https://www.teleportpro.com/)
Disse udvidelser fungerer ved rekursivt at crawle et websted og downloade alt dets indhold, inklusive tekst, billeder, videoer og scripts. Når overførslen er fuldført, kan du gennemse webstedet offline ved hjælp af din webbrowser.
2. Brug en dedikeret webstedsdownloader
Der er også en række dedikerede webstedsdownloadere, som du kan bruge til at downloade hele websteder. Nogle af de mest populære webstedsdownloadere inkluderer:
- [Offline Explorer ](https://www.offexp.com/)
- [WebCopier ](https://www.webcopier.com/)
- [WinHTTrack ](http://www.httrack.com/page/2/)
- [WSGet ](http://www.wsget.com/)
Disse webstedsdownloadere tilbyder typisk flere funktioner end browserudvidelser, såsom muligheden for at downloade specifikke filer, indstille downloadgrænser og planlægge downloads.
3. Brug en batch-fil
Hvis du er tryg ved at bruge kommandolinjen, kan du også bruge en batch-fil til at downloade et helt websted. En batchfil er en simpel tekstfil, der indeholder en række kommandoer. Du kan oprette en batchfil for at downloade et websted ved at bruge følgende trin:
1. Åbn en teksteditor.
2. Indtast følgende kommandoer:
```
cd C:\Users\DitBrugernavn\Downloads
start "IE" "http://www.example.com"
taskkill /IM iexplore.exe
start cmd.exe
cd "C:\Users\DitBrugernavn\Downloads\www.example.com"
wget -r -np -nd -e robots=off http://www.example.com
```
3. Gem filen som ``download-website.bat``.
4. Dobbeltklik på batchfilen for at starte overførslen.
Denne batchfil åbner Internet Explorer og navigerer til den angivne URL. Det vil derefter dræbe Internet Explorer-processen og åbne et kommandopromptvindue. Batchfilen vil derefter skifte til download-mappen og bruge wget-kommandoen til at downloade webstedet rekursivt.
4. Brug et Python-script
Hvis du er bekendt med Python, kan du også bruge et Python-script til at downloade en hel hjemmeside. Der er en række Python-biblioteker, der kan bruges til dette formål, såsom:
- [anmodninger ](https://requests.readthedocs.io/en/master/)
- [beautifulsoup4 ](https://beautiful-soup-4.readthedocs.io/en/latest/)
- [wget ](https://packages.python.org/wget/)
Du kan oprette et Python-script for at downloade et websted ved at bruge følgende trin:
1. Åbn en teksteditor.
2. Indtast følgende kode:
``` python
importanmodninger
import bs4
import wget
def download_website(url):
respons =requests.get(url)
suppe =bs4.BeautifulSoup(response.text, "html.parser")
til link i soup.find_all('a'):
href =link.get('href')
if href og href.startswith('http'):
wget.download(href)
hvis __navn__ =='__main__':
url ='http://www.example.com'
download_websted(url)
```
3. Gem filen som ``download-website.py``.
4. Kør scriptet med følgende kommando:
```
python download-website.py
```
Dette Python-script vil bruge anmodningsbiblioteket til at hente HTML'en for den angivne URL. Det vil derefter bruge BeautifulSoup-biblioteket til at parse HTML og udtrække alle links. Det vil derefter bruge wget-biblioteket til at downloade hvert link.
5. Brug en tredjepartstjeneste
Der er også en række tredjepartstjenester, som kan bruges til at downloade hele hjemmesider. Disse tjenester opkræver typisk et gebyr, men de tilbyder en bekvem og nem måde at downloade websteder på. Nogle af de mest populære tredjepartstjenester inkluderer:
- [Internetarkiv ](https://archive.org/)
- [WebCite ](https://webcite.org/)
- [Pagefreezer ](https://pagefreezer.com/)
Disse tjenester fungerer typisk ved at crawle et websted og fange alt dets indhold