/ Forside / Teknologi / Operativsystemer / Linux / Nyhedsindlæg
Login
Glemt dit kodeord?
Brugernavn

Kodeord


Reklame
Top 10 brugere
Linux
#NavnPoint
o.v.n. 11177
peque 7911
dk 4814
e.c 2359
Uranus 1334
emesen 1334
stone47 1307
linuxrules 1214
Octon 1100
10  BjarneD 875
statisk arkivering af hjemmeside
Fra : Bjarne Wichmann Pete~


Dato : 16-01-07 18:23

Hej

Jeg har en hjemmeside jeg gerne vil arkivere inden jeg sletter indholdet.
Jeg er kun interesseret i et arkiv af siden sådan som den ser ud i en
browsere. Altså ikke arkivering af database, php-scripts osv.

Jeg har prøvet at søge på google og freshmeat, men jeg synes ikke jeg kan
finde noget (kan sikkert ikke komme på de rigtige fraser).

Det tætteste jeg kan komme på det jeg søger er konquerors mulighed for at
arkivere en enkelt side. Men det kan godt komme til at tage sin tid, hvis
man skal gøre det manuelt for hele siden.

Der må da være en bedre løsning?

- Bjarne

 
 
Henning Wangerin (16-01-2007)
Kommentar
Fra : Henning Wangerin


Dato : 16-01-07 18:43

On Tue, 16 Jan 2007 18:23:00 +0100, Bjarne Wichmann Petersen wrote:

>
> Jeg har en hjemmeside jeg gerne vil arkivere inden jeg sletter indholdet.
> Jeg er kun interesseret i et arkiv af siden sådan som den ser ud i en
> browsere. Altså ikke arkivering af database, php-scripts osv.

En løsning er

   wget http://server.dk --mirror

Jeg husker ikke lige den komplette syntax for at gøre det, men det burde
være meget tæt på ovenstående

--
MVH
Henning Wangerin / oz1lln


Peter Makholm (16-01-2007)
Kommentar
Fra : Peter Makholm


Dato : 16-01-07 18:43

Bjarne Wichmann Petersen <nospam.nospam@mekanix.dk> writes:

> Det tætteste jeg kan komme på det jeg søger er konquerors mulighed for at
> arkivere en enkelt side. Men det kan godt komme til at tage sin tid, hvis
> man skal gøre det manuelt for hele siden.

Prøv at se på wget med -p og -k.

//Peter Makholm

Søren A Christensen (16-01-2007)
Kommentar
Fra : Søren A Christensen


Dato : 16-01-07 18:46

Hej Bjarne

wget eller curl er din ven.

   wget -m http://dit.site.dk

skulle gerne mirror'e "dit.site.dk" og oprette den nødvendige
biblioteks-struktur i det bibliotek du står i når du kører kommandoen.

Curl kan noget tilsvarende. Tjek det selv med 'man wget' og 'man curl'

/SAC

Bjarne Wichmann Petersen wrote:
> Hej
>
> Jeg har en hjemmeside jeg gerne vil arkivere inden jeg sletter indholdet.
> Jeg er kun interesseret i et arkiv af siden sådan som den ser ud i en
> browsere. Altså ikke arkivering af database, php-scripts osv.
>
> Jeg har prøvet at søge på google og freshmeat, men jeg synes ikke jeg kan
> finde noget (kan sikkert ikke komme på de rigtige fraser).
>
> Det tætteste jeg kan komme på det jeg søger er konquerors mulighed for at
> arkivere en enkelt side. Men det kan godt komme til at tage sin tid, hvis
> man skal gøre det manuelt for hele siden.
>
> Der må da være en bedre løsning?
>
> - Bjarne

Søren A Christensen (16-01-2007)
Kommentar
Fra : Søren A Christensen


Dato : 16-01-07 18:56

Og som Peter skriver længere nede, også med -k, der konvertere links'ene
så de peger lokalt - så kan det dog blive bøvlet at oploade sitet igen
fra den lokale disk - hvis det er det man vil.

/SAC

Søren A Christensen wrote:
> Hej Bjarne
>
> wget eller curl er din ven.
>
> wget -m http://dit.site.dk
>
> skulle gerne mirror'e "dit.site.dk" og oprette den nødvendige
> biblioteks-struktur i det bibliotek du står i når du kører kommandoen.
>
> Curl kan noget tilsvarende. Tjek det selv med 'man wget' og 'man curl'
>
> /SAC
>
> Bjarne Wichmann Petersen wrote:
>
>> Hej
>>
>> Jeg har en hjemmeside jeg gerne vil arkivere inden jeg sletter indholdet.
>> Jeg er kun interesseret i et arkiv af siden sådan som den ser ud i en
>> browsere. Altså ikke arkivering af database, php-scripts osv.
>> Jeg har prøvet at søge på google og freshmeat, men jeg synes ikke jeg kan
>> finde noget (kan sikkert ikke komme på de rigtige fraser).
>>
>> Det tætteste jeg kan komme på det jeg søger er konquerors mulighed for at
>> arkivere en enkelt side. Men det kan godt komme til at tage sin tid, hvis
>> man skal gøre det manuelt for hele siden.
>>
>> Der må da være en bedre løsning?
>>
>> - Bjarne

Bjarne Wichmann Pete~ (16-01-2007)
Kommentar
Fra : Bjarne Wichmann Pete~


Dato : 16-01-07 20:20

Bjarne Wichmann Petersen wrote:

> Der må da være en bedre løsning?

Jamen dog, her leder man vidt og bredt og så har man værktøjet lige for
næsen!

Takker for inputene!

- Bjarne

rené (16-01-2007)
Kommentar
Fra : rené


Dato : 16-01-07 22:29

httrack kan også, og findes både til win og *nix.. men hvis wget er nok
for dig, så hold dig endelig til det.. httrack kan godt være en anelse
langhåret ;)

Mvh

/rené


Søg
Reklame
Statistik
Spørgsmål : 177548
Tips : 31968
Nyheder : 719565
Indlæg : 6408799
Brugere : 218887

Månedens bedste
Årets bedste
Sidste års bedste