Mach mal lokal

Heu­te eine prak­ti­sche Funk­ti­on, die nicht nur für Desi­gner und Wer­ber, son­dern für jeden Mac-Nut­zer von gros­sem Nut­zen sein kann. Stellt euch vor, ihr stö­bert im Inter­net und ent­deckt eine Web­sei­te, die euch so fas­zi­niert, dass ihr sie ger­ne off­line durch­stö­bern möch­tet (oder auch ande­res damit anstel­len). Ob aus Grün­den der Recher­che, Archi­vie­rung oder ein­fach, um eine zuver­läs­si­ge Kopie für den Off­line-Zugriff zu haben, das Her­un­ter­la­den von Web­sei­ten kann äus­serst hilf­reich sein.

Die Lösung: «wget» im Terminal

Wir ver­wen­den dazu das Ter­mi­nal auf unse­rem Mac und das Werk­zeug namens «wget».

Schritt 1: Ter­mi­nal öff­nen Öff­net das Ter­mi­nal auf eurem Mac. Ihr fin­det es in den Dienst­pro­gram­men unter «Pro­gram­me» oder könnt ein­fach danach suchen.

Schritt 2: «wget»-Befehl ver­wen­den Nutzt den «wget»-Befehl, um die gewünsch­te Web­sei­te her­un­ter­zu­la­den. Hier ist ein grund­le­gen­der Befehl:

wget --mirror --convert-links --adjust-extension --page-requisites --no-parenthttps://DeineWebsite.ch

Ersetzt «https://​Dei​ne​Website​.ch» durch die URL der Web­sei­te, die ihr her­un­ter­la­den möch­tet.

Optionen

--mirror: Die­se Opti­on spie­gelt die Web­sei­te wider, was bedeu­tet, dass sie alle Datei­en und Ver­zeich­nis­se auf der Web­sei­te ein­schließ­lich Unter­sei­ten her­un­ter­lädt. Sie stellt sicher, dass die loka­le Kopie der Web­sei­te die glei­che Struk­tur wie die Ori­gi­nal­web­sei­te hat.

--convert-links: Mit die­ser Opti­on wer­den die Links auf der her­un­ter­ge­la­de­nen Web­sei­te so umge­wan­delt, dass sie auf die lokal gespei­cher­ten Datei­en ver­wei­sen. Dies ist wich­tig, damit alle inter­nen Ver­knüp­fun­gen auf der gespie­gel­ten Web­sei­te ord­nungs­ge­mäß funk­tio­nie­ren.

--adjust-extension: Wenn die­se Opti­on akti­viert ist, fügt «wget» Datei­endun­gen hin­zu, die auf der Ori­gi­nal­web­sei­te mög­li­cher­wei­se feh­len. Dies ist nütz­lich, um sicher­zu­stel­len, dass Datei­en kor­rekt refe­ren­ziert wer­den und rich­tig ange­zeigt wer­den.

--page-requisites: Die­se Opti­on lädt alle erfor­der­li­chen Res­sour­cen wie Bil­der, Style­sheets und Skrip­te her­un­ter, die auf der Web­sei­te ver­wen­det wer­den. Dadurch wird sicher­ge­stellt, dass die lokal gespei­cher­te Web­sei­te voll­stän­dig und funk­ti­ons­fä­hig ist.

--no-parent: Mit die­ser Opti­on ver­hin­dert «wget», dass es Ver­zeich­nis­se über die Start­sei­te der her­un­ter­ge­la­de­nen Web­sei­te hin­aus durch­sucht. Dies ist hilf­reich, um das Her­un­ter­la­den von uner­wünsch­ten Inhal­ten zu ver­hin­dern.

Schritt 3: War­ten und Nut­zen «wget» wird die gesam­te Web­sei­te inklu­si­ve aller Unter­sei­ten, her­un­ter­la­den und im aktu­el­len Arbeits­ver­zeich­nis spei­chern. Nach Abschluss des Vor­gangs könnt ihr das her­un­ter­ge­la­de­ne Ver­zeich­nis im Fin­der öff­nen und die Web­sei­te lokal nut­zen.

Neben den bereits erklär­ten Optio­nen gibt es noch vie­le wei­te­re nütz­li­che Argu­men­te und Optio­nen, die mit dem «wget»-Befehl ver­wen­det wer­den kön­nen. Hier sind eini­ge davon:

-P oder --directory-prefix: Mit die­ser Opti­on könnt ihr fest­le­gen, in wel­chem Ver­zeich­nis die her­un­ter­ge­la­de­nen Datei­en gespei­chert wer­den sol­len. Zum Bei­spiel: wget -P /pfad/zum/zielverzeichnis https://deinewebsite.ch.

-r oder --recursive: Ermög­licht das rekur­si­ve Her­un­ter­la­den von Unter­sei­ten, sodass «wget» die gesam­te Web­sei­te und deren Hier­ar­chie her­un­ter­lädt.

-np oder --no-parent: Ver­hin­dert das Her­un­ter­la­den von Ver­zeich­nis­sen außer­halb des ange­ge­be­nen Ver­zeich­nis­ses.

-nc oder --no-clobber: Sorgt dafür, dass bereits exi­stie­ren­de Datei­en nicht über­schrie­ben wer­den. Nütz­lich, um bereits her­un­ter­ge­la­de­ne Datei­en zu schüt­zen.

-N oder --timestamping: Lädt Datei­en nur dann erneut her­un­ter, wenn sie auf der Web­sei­te aktua­li­siert wur­den. Spart Band­brei­te und Zeit.

--limit-rate: Begrenzt die Down­load-Geschwin­dig­keit in Kilo­byte pro Sekun­de. Nütz­lich, um die Band­brei­te zu scho­nen oder das Her­un­ter­la­den im Hin­ter­grund lau­fen zu las­sen, ohne die Inter­net­ver­bin­dung zu über­la­sten.

--user-agent: Mit die­ser Opti­on könnt ihr einen benut­zer­de­fi­nier­ten User-Agent fest­le­gen, um die Web­sei­te vor­zu­täu­schen, dass ihr ein bestimm­ter Brow­ser seid. Dies kann hilf­reich sein, um Zugriff auf bestimm­te Inhal­te zu erhal­ten.

-i oder --input-file: Ermög­licht das Her­un­ter­la­den von URLs aus einer Text­da­tei, wodurch ihr eine Liste von Web­sites her­un­ter­la­den könnt, ohne sie manu­ell ein­zu­ge­ben.

--spider: Die­ser Modus über­prüft die Ver­füg­bar­keit von Datei­en, ohne sie tat­säch­lich her­un­ter­zu­la­den. Nütz­lich, um zu über­prü­fen, ob bestimm­te Res­sour­cen auf einer Web­sei­te exi­stie­ren.

--quiet oder -q: Redu­ziert die Aus­ga­be auf das Ter­mi­nal, um den Down­load-Vor­gang weni­ger auf­dring­lich zu machen.

Denkt dar­an, sicher­zu­stel­len, dass ihr das Recht habt, die Web­sei­te her­un­ter­zu­la­den, bevor ihr die­sen Vor­gang durch­führt.

, ,