|
| At dele en fil op Fra : Leonard |
Dato : 22-01-06 13:58 |
|
Til noget backup over ssh vil jeg gerne dele enkelte filer op, da det
har det med at gå istå når filerne bliver for store.
Findes der en kommando jeg kan bruge som deler en fil i 2 halvdele?
- og som kan samle den igen, så filen er som før.
--
med venlig hilsen
Leonard - http://leonard.dk/
| |
Jacob Bunk Nielsen (22-01-2006)
| Kommentar Fra : Jacob Bunk Nielsen |
Dato : 22-01-06 14:02 |
|
Leonard <usenet@leonard.dk> writes:
> Til noget backup over ssh vil jeg gerne dele enkelte filer op, da det
> har det med at gå istå når filerne bliver for store.
> Findes der en kommando jeg kan bruge som deler en fil i 2 halvdele?
> - og som kan samle den igen, så filen er som før.
Prøv at kigge på split(1) til at dele filerne, og cat(1) til at samle
dem igen.
--
Jacob - www.bunk.cc
For internal use only.
| |
Jan Birk (22-01-2006)
| Kommentar Fra : Jan Birk |
Dato : 22-01-06 14:23 |
|
> Til noget backup over ssh vil jeg gerne dele enkelte filer op, da det
> har det med at gå istå når filerne bliver for store.
Jeg bruger også ssh til at flytte backupfiler med. Hvor store er 'store'?
Mine filer svinger mellem 2-10GB. Nu bliver jeg jo lidt nervøs for om
det holder op med at virke som tiden går....
/Jan
| |
Leonard (22-01-2006)
| Kommentar Fra : Leonard |
Dato : 22-01-06 14:32 |
|
Jan Birk <jan.birk@invalid.domain.null> wrote:
>Jeg bruger også ssh til at flytte backupfiler med. Hvor store er 'store'?
Jeg bruger rsync over ssh og problemerne opstår med filer over 1 GB.
Men det har sikkert også noget at gøre med liniens hastighed, som kun
er 512kbit.
--
med venlig hilsen
Leonard - http://leonard.dk/
| |
Max Andersen (22-01-2006)
| Kommentar Fra : Max Andersen |
Dato : 22-01-06 15:49 |
|
Leonard wrote:
> Jan Birk <jan.birk@invalid.domain.null> wrote:
>
>
>>Jeg bruger også ssh til at flytte backupfiler med. Hvor store er 'store'?
>
>
> Jeg bruger rsync over ssh og problemerne opstår med filer over 1 GB.
> Men det har sikkert også noget at gøre med liniens hastighed, som kun
> er 512kbit.
>
Jeg har samme udfordring. Dog har jeg konstateret at hvis jeg bruger et
script som involverer scp i cron går det væsentlig hurtigere, end hvis
jeg bruger rsync via ssh, så hvis man kunne optimere rsync til at bruge
scp :) ville det hjælpe gevaldigt.
Jeg bruger nu rsync, grundet lokalt net, og simpliciteten for andre end
mig. jo mindre scripting jo nemmere support fra kolleger, skulle jeg
(<indsæt trosretnings overhoved> forbyde det) kradse af.
Max
| |
Alex Holst (22-01-2006)
| Kommentar Fra : Alex Holst |
Dato : 22-01-06 16:45 |
|
Max Andersen wrote:
> Jeg har samme udfordring. Dog har jeg konstateret at hvis jeg bruger et
> script som involverer scp i cron går det væsentlig hurtigere, end hvis
> jeg bruger rsync via ssh, så hvis man kunne optimere rsync til at bruge
> scp :) ville det hjælpe gevaldigt.
rsync der bruger scp vil ikke give mening.
Fortæl hvordan du bruger rsync og scp nu, så kan vi måske finde fejlen.
Der er masser af mennesker, migselv inklusive, der regelmæssigt flytter
store mængder data med rsync.
--
I prefer the dark of the night, after midnight and before four-thirty,
when it's more bare, more hollow. http://a.mongers.org
OSS/FAQ for dk.edb.sikkerhed: http://sikkerhed-faq.dk
| |
Max Andersen (23-01-2006)
| Kommentar Fra : Max Andersen |
Dato : 23-01-06 09:29 |
|
Alex Holst wrote:
>
> rsync der bruger scp vil ikke give mening.
>
> Fortæl hvordan du bruger rsync og scp nu, så kan vi måske finde fejlen.
> Der er masser af mennesker, migselv inklusive, der regelmæssigt flytter
> store mængder data med rsync.
>
Jeg skulle replikere en 45 gb oracle database til en sekundær testserver
efter hver fulde backup. Så har den en kørende oracle instans med ny
base hver uge.
Jeg brugte scp først og kan ikke huske mit script helt, men noget lignende :
ls -l | grep DB01 | awk 'print "scp " $9 user@testserver:/sti/}' | bash -x
Noget i den stil.
Det går rimgelig stærkt, og jeg havde efterfølgende et scp i cron der
også greppede efter arch filer, m.v. som den kopierede lystigt over
også, så den blev opdateret hvis man skulle teste på nyeste base, eller
at vores remote backup røg. De var næsten enslydende og defor nemme at
supportere for andre.
Så prøvede jeg rsync (delete-before er default, men jeg skulle være
sikker grundet plads)
00 08 * * 6 /usr/local/bin/rsync -urq --delete-before /db01/rman_backup/
root@thor:/data4/ora_backup/
Det er gået forrygende, men tager ca. dobbelt så lang tid. Sådan ca. Jeg
prøvede med -z og -b options på rsync, men den ene maskines processor er
meget langsom, så det tog endnu længere tid.
Kan ikke lige lege med noget lige nu, så jeg kan bevise min påstand, men
jeg vil gerne prøve senere på ugen og tage nogle tidsstempler.
Det er 2 stk. solaris 9 på sun fire v220 og en gammel sun kasse (husker
ikke navn)
Max
| |
Alex Holst (22-01-2006)
| Kommentar Fra : Alex Holst |
Dato : 22-01-06 14:36 |
|
Leonard wrote:
> Til noget backup over ssh vil jeg gerne dele enkelte filer op, da det
> har det med at gå istå når filerne bliver for store.
Det burde det absolut ikke. Hvilket OS og ssh kører du, og hvordan
starter du din backup?
--
I prefer the dark of the night, after midnight and before four-thirty,
when it's more bare, more hollow. http://a.mongers.org
OSS/FAQ for dk.edb.sikkerhed: http://sikkerhed-faq.dk
| |
|
|