Og som Peter skriver længere nede, også med -k, der konvertere links'ene
så de peger lokalt - så kan det dog blive bøvlet at oploade sitet igen
fra den lokale disk - hvis det er det man vil.
/SAC
Søren A Christensen wrote:
> Hej Bjarne
>
> wget eller curl er din ven.
>
> wget -m
http://dit.site.dk
>
> skulle gerne mirror'e "dit.site.dk" og oprette den nødvendige
> biblioteks-struktur i det bibliotek du står i når du kører kommandoen.
>
> Curl kan noget tilsvarende. Tjek det selv med 'man wget' og 'man curl'
>
> /SAC
>
> Bjarne Wichmann Petersen wrote:
>
>> Hej
>>
>> Jeg har en hjemmeside jeg gerne vil arkivere inden jeg sletter indholdet.
>> Jeg er kun interesseret i et arkiv af siden sådan som den ser ud i en
>> browsere. Altså ikke arkivering af database, php-scripts osv.
>> Jeg har prøvet at søge på google og freshmeat, men jeg synes ikke jeg kan
>> finde noget (kan sikkert ikke komme på de rigtige fraser).
>>
>> Det tætteste jeg kan komme på det jeg søger er konquerors mulighed for at
>> arkivere en enkelt side. Men det kan godt komme til at tage sin tid, hvis
>> man skal gøre det manuelt for hele siden.
>>
>> Der må da være en bedre løsning?
>>
>> - Bjarne