|
| Checksum og/eller redundans på billedfiler Fra : Frank K. Jensen |
Dato : 27-08-10 15:09 |
|
Hejsa,
Jeg har fornyligt opdaget, at der er opstået fejl ved kopiering af nogle af
mine billeder. Hvordan fejlen er opstået ved jeg ikke, og jeg finder måske
aldrig ud af det (billederne blev redet, da de stadig lå på kortet). Men det
fik mig til at tænke over min backupløsning. I dag har jeg alle billeder
liggende på min harddisk i min computer, og jeg tager backup på en ekstern
harddisk 1-2 gange om året. Omfanget af mine billeder er ikke ubetydelig, så
jeg sletter de gamle backups, når jeg har taget en ny. Her opstår problemet
så. Hvis nu der er nogle af mine billeder, der af en eller anden grund
bliver beskadiget på min computer, uden at jeg opdager det, vil jeg jo bare
tage backup af disse billeder og slette den gamle backup, hvorved jeg har
mistet nogle af mine billeder.
Nu er spørgsmålet så, om det findes et smart program, der kan lave en
checksum eller lignende, så jeg inden backup hurtigt kan tjekke, om der er
opstået fejl i nogle af billederne. Det kræver selvfølgelig, at jeg ikke har
redigeret i billederne siden sidst, men her kunne det evt. bare liste de
billeder, som har ændret sig, så jeg kan se, om det er nogle, jeg har
redigeret siden sidst. Det kunne selvfølgelig også oprette nogle filer med
redundant information, så det rent faktisk også kunne reparere filerne, hvis
de er blevet beskadiget. Så vil det også virke hvis man har nogle gamle
backups, som man lige pludselig skal bruge, og hvor der så er opstået fejl
på.
Kender I sådan et program?
mvh Frank
| |
Bo Bjerre (27-08-2010)
| Kommentar Fra : Bo Bjerre |
Dato : 27-08-10 16:06 |
|
On 27-08-2010 16:09, Frank K. Jensen wrote:
> Hejsa,
>
> Jeg har fornyligt opdaget, at der er opstået fejl ved kopiering af nogle
> af mine billeder. Hvordan fejlen er opstået ved jeg ikke, og jeg finder
> måske aldrig ud af det (billederne blev redet, da de stadig lå på
> kortet). Men det fik mig til at tænke over min backupløsning. I dag har
> jeg alle billeder liggende på min harddisk i min computer, og jeg tager
> backup på en ekstern harddisk 1-2 gange om året. Omfanget af mine
> billeder er ikke ubetydelig, så jeg sletter de gamle backups, når jeg
> har taget en ny. Her opstår problemet så. Hvis nu der er nogle af mine
> billeder, der af en eller anden grund bliver beskadiget på min computer,
> uden at jeg opdager det, vil jeg jo bare tage backup af disse billeder
> og slette den gamle backup, hvorved jeg har mistet nogle af mine billeder.
>
> Nu er spørgsmålet så, om det findes et smart program, der kan lave en
> checksum eller lignende, så jeg inden backup hurtigt kan tjekke, om der
> er opstået fejl i nogle af billederne. Det kræver selvfølgelig, at jeg
> ikke har redigeret i billederne siden sidst, men her kunne det evt. bare
> liste de billeder, som har ændret sig, så jeg kan se, om det er nogle,
> jeg har redigeret siden sidst. Det kunne selvfølgelig også oprette nogle
> filer med redundant information, så det rent faktisk også kunne reparere
> filerne, hvis de er blevet beskadiget. Så vil det også virke hvis man
> har nogle gamle backups, som man lige pludselig skal bruge, og hvor der
> så er opstået fejl på.
Jeg formatterer IKKE et kamerakort, før jeg har set at alle billeder kan
åbnes i mit billedprogram (LightRoom)
Med hensyn til backup, synes jeg det er meget usikkert, at du kun tager
en backup 1-2 gange om året. Det skal du gøre hver gang, du indlæser nye
billeder. Og du SKAL gemme et par backup's bagud, så du ikke sletter den
gamle backup, før du laver den nye.
Hvis dine billeder betyder noget for dig, vil jeg anbefale at du
anskaffer en netværksdisk med RAID, så du kan overleve et disknedbrud.
Mit eget system består af, at der ALDRIG ligger billeder på min PC, men
udelukkende på min netværksdisk (Synology DS508 RAID-5). Ud over det,
har jeg en identisk netværksdisk stående et andet sted med netadgang, så
jeg hele tiden har to levende eksemplarer af mine data. Systemet
verificerer selv at backup'en er identisk med de oprindelige data.
Til checksum beregning kan jeg anbefale, at du kigger på google efter
"MD5", evt med "MD5 deep" Da jeg kun gemmer mine RAW filer og ikke
ændrer i dem, er det fint med checksum, da den vil være ens fra gang til
gang.
Bo //
| |
Frank K. Jensen (28-08-2010)
| Kommentar Fra : Frank K. Jensen |
Dato : 28-08-10 09:21 |
|
"Bo Bjerre" <bo@sarek.dk> skrev i meddelelsen
news:4c77d47b$0$50447$14726298@news.sunsite.dk...
>
> Jeg formatterer IKKE et kamerakort, før jeg har set at alle billeder kan
> åbnes i mit billedprogram (LightRoom)
Det gør jeg heller ikke
> Med hensyn til backup, synes jeg det er meget usikkert, at du kun tager en
> backup 1-2 gange om året. Det skal du gøre hver gang, du indlæser nye
> billeder.
Ved det godt, og jeg er også ved at sætte en server op, som jeg vil
synkronisere med dagligt/ugenligt.
> Og du SKAL gemme et par backup's bagud, så du ikke sletter den gamle
> backup, før du laver den nye.
Jeg sletter ikke den gamle inden jeg har lavet den nye, men selvom jeg
gemmer en håndfuld gamle backups, kan problemet alligevel opstå.
> Hvis dine billeder betyder noget for dig, vil jeg anbefale at du anskaffer
> en netværksdisk med RAID, så du kan overleve et disknedbrud.
Harddisk i computer + en ikke-RAID server må give ca. samme sikkerhed.
> Mit eget system består af, at der ALDRIG ligger billeder på min PC, men
> udelukkende på min netværksdisk (Synology DS508 RAID-5). Ud over det, har
> jeg en identisk netværksdisk stående et andet sted med netadgang, så jeg
> hele tiden har to levende eksemplarer af mine data. Systemet verificerer
> selv at backup'en er identisk med de oprindelige data.
Hvilket software bruger du til det? Er det noget der følger med Synology?
Hvad hvis det opstår fejl? Bliver de så ikke bare synkroniseret over på den
anden disk også?
> Til checksum beregning kan jeg anbefale, at du kigger på google efter
> "MD5", evt med "MD5 deep" Da jeg kun gemmer mine RAW filer og ikke ændrer
> i dem, er det fint med checksum, da den vil være ens fra gang til gang.
Hvad med alle dine redigerede billeder? De ændre sig vel løbende?
mvh Frank
| |
Henrik Münster (28-08-2010)
| Kommentar Fra : Henrik Münster |
Dato : 28-08-10 10:46 |
|
Frank K. Jensen <frank-sletdette@sletdette-indbakke.com> wrote:
> "Bo Bjerre" <bo@sarek.dk> skrev i meddelelsen
> news:4c77d47b$0$50447$14726298@news.sunsite.dk...
>
> > Og du SKAL gemme et par backup's bagud, så du ikke sletter den gamle
> > backup, før du laver den nye.
>
> Jeg sletter ikke den gamle inden jeg har lavet den nye, men selvom jeg
> gemmer en håndfuld gamle backups, kan problemet alligevel opstå.
Det er jo ikke noget, du skal gøre. Det skal backup-programmet gøre. Et
ordentligt backup-program laver "incremental" backup. Der bliver altså
kun lavet backup af de filer, der er ændret siden sidst. Det sparer tid
og plads. Samtidig bliver de gamler versioner af de ændrede filer gemt.
--
Henrik Münster
Esbjerg
Danmark
| |
Hans Kjaergaard (28-08-2010)
| Kommentar Fra : Hans Kjaergaard |
Dato : 28-08-10 11:11 |
|
On Sat, 28 Aug 2010 11:45:41 +0200, henrik@muenster.dk (Henrik
Münster) wrote:
>Frank K. Jensen <frank-sletdette@sletdette-indbakke.com> wrote:
>
>> "Bo Bjerre" <bo@sarek.dk> skrev i meddelelsen
>> news:4c77d47b$0$50447$14726298@news.sunsite.dk...
>>
>> > Og du SKAL gemme et par backup's bagud, så du ikke sletter den gamle
>> > backup, før du laver den nye.
>>
>> Jeg sletter ikke den gamle inden jeg har lavet den nye, men selvom jeg
>> gemmer en håndfuld gamle backups, kan problemet alligevel opstå.
>
>Det er jo ikke noget, du skal gøre. Det skal backup-programmet gøre. Et
>ordentligt backup-program laver "incremental" backup. Der bliver altså
>kun lavet backup af de filer, der er ændret siden sidst. Det sparer tid
>og plads. Samtidig bliver de gamler versioner af de ændrede filer gemt.
Ja, men med det forbehold at man lige selv har husket at sætte
backup-programmet rigtigt op.
Og fatter man ikke rigtigt de termer der bliver brugt i opsætningen af
programmet kan man hurtigt få lavet en masse "backup" man reelt set
ikke kan bruge til ret meget.
Man skal også sikre sig at man er i stand til at lave en restore af
data, det hjælper ikke meget med backup hvis man ikke kan lave en
restore.
/Hans
| |
Robert Piil (28-08-2010)
| Kommentar Fra : Robert Piil |
Dato : 28-08-10 11:37 |
|
Den 28-08-2010 11:45, Henrik Münster skrev:
> Det er jo ikke noget, du skal gøre. Det skal backup-programmet gøre. Et
> ordentligt backup-program laver "incremental" backup. Der bliver altså
> kun lavet backup af de filer, der er ændret siden sidst. Det sparer tid
> og plads. Samtidig bliver de gamler versioner af de ændrede filer gemt.
Jeg tror du misforstår...
Spørgsmål går på hvordan man kun undgå (eller opdage) hvis det man
backup'er i mellemtiden er blevet korrupt af en eller anden årsag, så
man ikke overskriver en valid backup med en korrupt.
Incremental backups er fint, men der er msser af fornuft i at lave full
backups med et eller andet interval.
Nå, mit bud er lidt mere omstændigt.
For at have højst mulig sikkerhed ville jeg foreslå.
1) Fuld backup af råmaterialet samtidig med import. Altså gem importen
to steder. Et sted hvor du arbejder videre med den, og et sted hvor du
lader den urørt. Sikkerhedsimporten skal selvfølgelig også være
backup'et - hvis man er meget krakilsk i et andet setup end nedenstående.
2) Et eller andet setup for dine behandlede billeder, hvor du sikrer dig
mod disknedbrud lokalt. Jeg synes dit eget forslag med en lokal og en
netværksdisk er bedre en kun at bruge et raidsetup. Raid/NAS har mange
fortrin, men hovedformålet med teknologien er lavet til at sikre en
højere oppetid. Det er ikke en backupløsning. I ovenstående setup ville
det selvfølgelig være en forbedring hvis netværksdisken var en eller
anden form for dubbleret løsning. (Raid 0 falder udenfor - det bør ikke
bruges til vigtige data).
Endelig skal man for en sikkerheds skyld ikke bruge diske fra samme
produktion til RAID. For private er det måske nok et overkill at tænke
på det, men i prof setup er det noget man er meget opmærksomme på, fordi
det er set at flere diske brød ned næsten samtidig pga produktionsfejl.
3) En ekstern backup løsning til sikkerhed mod brand/tyveri. Enten
online, eller noget med to USB-diske, hvoraf den ene altid var udenfor
matriklen.
AD 2) vil ikke sikre dig mod at overføre korrupte data til backupen, dem
må du så genskabe fra råmaterialet. Det sikrer så tillige imod at du ved
egne fejl sletter nogle af dine data, hvilket i praksis er en langt mere
almindelig fejl end datakorruption.
--
Robert Piil
| |
Hans Kruse (28-08-2010)
| Kommentar Fra : Hans Kruse |
Dato : 28-08-10 14:02 |
|
On 2010-08-28 12:37:19 +0200, Robert Piil <piil@nospam.dk> said:
> AD 2) vil ikke sikre dig mod at overføre korrupte data til backupen,
> dem må du så genskabe fra råmaterialet. Det sikrer så tillige imod at
> du ved egne fejl sletter nogle af dine data, hvilket i praksis er en
> langt mere almindelig fejl end datakorruption.
Der findes en del backup/synkroniseringsprogrammer, som har en verify
option, så det checkes at den skrevne backup er identisk med den
originale. Der findes også programmer, der kan checke om to foldere er
identiske. Men jeg er enig i, at at brugerfejl er langt hyppigere end
diskfejl, som rammer en enkelt eller flere filer og ikke et helt drev.
--
Med venlig hilsen/With Kind Regards,
Hans Kruse
www.hanskrusephotography.com, www.hanskruse.com,
http://www.facebook.com/pages/Hans-Kruse-Photography/271477435625
| |
Frank K. Jensen (28-08-2010)
| Kommentar Fra : Frank K. Jensen |
Dato : 28-08-10 14:15 |
|
"Hans Kruse" <hans.kruse@mail.tele.dk> skrev i meddelelsen
news:4c7908c9$0$50455$14726298@news.sunsite.dk...
> On 2010-08-28 12:37:19 +0200, Robert Piil <piil@nospam.dk> said:
>
>> AD 2) vil ikke sikre dig mod at overføre korrupte data til backupen, dem
>> må du så genskabe fra råmaterialet. Det sikrer så tillige imod at du ved
>> egne fejl sletter nogle af dine data, hvilket i praksis er en langt mere
>> almindelig fejl end datakorruption.
>
> Der findes en del backup/synkroniseringsprogrammer, som har en verify
> option, så det checkes at den skrevne backup er identisk med den
> originale. Der findes også programmer, der kan checke om to foldere er
> identiske.
Har du erfaringer med nogle?
mvh Frank
| |
Hans Kruse (28-08-2010)
| Kommentar Fra : Hans Kruse |
Dato : 28-08-10 20:08 |
|
On 2010-08-28 15:15:05 +0200, "Frank K. Jensen"
<frank-sletdette@sletdette-indbakke.com> said:
> "Hans Kruse" <hans.kruse@mail.tele.dk> skrev i meddelelsen
> news:4c7908c9$0$50455$14726298@news.sunsite.dk...
>> On 2010-08-28 12:37:19 +0200, Robert Piil <piil@nospam.dk> said:
>>
>>> AD 2) vil ikke sikre dig mod at overføre korrupte data til backupen,
>>> dem må du så genskabe fra råmaterialet. Det sikrer så tillige imod at
>>> du ved egne fejl sletter nogle af dine data, hvilket i praksis er en
>>> langt mere almindelig fejl end datakorruption.
>>
>> Der findes en del backup/synkroniseringsprogrammer, som har en verify
>> option, så det checkes at den skrevne backup er identisk med den
>> originale. Der findes også programmer, der kan checke om to foldere er
>> identiske.
>
> Har du erfaringer med nogle?
Jeg har selv brugt Suresynch under Windows i de sidste godt og vel 10
år. Nu bruger jeg kun Mac og på min MacBook Pro bruger jeg Time Machine
som kører med generationer. Mine billeder flyttes gradvist efter
optagelse fra MBP'en til en ekstern Firewire HD og den bliver backed op
med ChronoSynch, som også kan verificere og desuden lægge slettede og
ændrede filer i en speciel mappe, så man kan se hvad der er ændret. Når
man tager billeder i RAW format så ændres de jo ikke. Det er kun evt.
sidecar xmp filer der ændres og når man som jeg bruger Lightroom så
ligger al ændringsinformation i Lightroom databasen, som man
selvfølgelig skal sørge for at backe op. Det sker hos mig med Time
Machine. På Windows 7 kan man bruge backup som følger med.
--
Med venlig hilsen/With Kind Regards,
Hans Kruse
www.hanskrusephotography.com, www.hanskruse.com,
http://www.facebook.com/pages/Hans-Kruse-Photography/271477435625
| |
Robert Piil (28-08-2010)
| Kommentar Fra : Robert Piil |
Dato : 28-08-10 16:49 |
|
Den 28-08-2010 15:02, Hans Kruse skrev:
> Der findes en del backup/synkroniseringsprogrammer, som har en verify
> option, så det checkes at den skrevne backup er identisk med den
> originale. Der findes også programmer, der kan checke om to foldere er
> identiske. Men jeg er enig i, at at brugerfejl er langt hyppigere end
> diskfejl, som rammer en enkelt eller flere filer og ikke et helt drev.
Som jeg forstår det stillede spørgsmål, så er problemet han vil sikre
sig imod en tand inden da.
Behandlling af filer -> Data -> backup
Backupprogrammer verificerer vel næsten alle at der er overensstemmelse
mellem Data og Backup. Som jeg opfattede spørgsmålet var det hvis dele
"Data" på en eller anden måde blev korrupt undervejs, så ville han sikre
sig mod at overskrive en god backup med en dårlig. Det kender jeg ingen
gode metoder på at gøre, udover at sikre man kan genskabe data.
--
Robert Piil
| |
Hans Kruse (28-08-2010)
| Kommentar Fra : Hans Kruse |
Dato : 28-08-10 20:03 |
|
On 2010-08-28 17:49:03 +0200, Robert Piil <piil@nospam.dk> said:
> Den 28-08-2010 15:02, Hans Kruse skrev:
>
>> Der findes en del backup/synkroniseringsprogrammer, som har en verify
>> option, så det checkes at den skrevne backup er identisk med den
>> originale. Der findes også programmer, der kan checke om to foldere er
>> identiske. Men jeg er enig i, at at brugerfejl er langt hyppigere end
>> diskfejl, som rammer en enkelt eller flere filer og ikke et helt drev.
>
>
> Som jeg forstår det stillede spørgsmål, så er problemet han vil sikre
> sig imod en tand inden da.
Det er jo også det jeg svarer på.
>
> Behandlling af filer -> Data -> backup
Før behandling er der jo data. Og data kan verificeres. F.eks. kunne
han bruge et synkroniseringsprogram med verification til at kopiere fra
memorykortet til HD om det skulle være. Men når man importer ind i
f.eks. Lightroom så bliver data jo checket under import. Ethvert andet
billedprogram der checker billeder vil også afsløre om der er fejl.
>
> Backupprogrammer verificerer vel næsten alle at der er overensstemmelse
> mellem Data og Backup. Som jeg opfattede spørgsmålet var det hvis dele
> "Data" på en eller anden måde blev korrupt undervejs, så ville han
> sikre sig mod at overskrive en god backup med en dårlig. Det kender jeg
> ingen gode metoder på at gøre, udover at sikre man kan genskabe data.
Humlen er jo ganske enkelt at sørge for at de initialie data er
korrekte og det må man verificere som man finder bedst. Derefter kan
hver backup/synkronisering køres med verificering.
Backup/synkroniseringsprogrammer jeg har set og som har en verify
option kører ikke uden at man specificerer at det skal finde sted.
--
Med venlig hilsen/With Kind Regards,
Hans Kruse
www.hanskrusephotography.com, www.hanskruse.com,
http://www.facebook.com/pages/Hans-Kruse-Photography/271477435625
| |
Robert Piil (29-08-2010)
| Kommentar Fra : Robert Piil |
Dato : 29-08-10 10:11 |
|
Den 28-08-2010 21:03, Hans Kruse skrev:
>> Som jeg forstår det stillede spørgsmål, så er problemet han vil sikre
>> sig imod en tand inden da.
>
> Det er jo også det jeg svarer på.
Jeg tror vi er helt enige, men en lille nuanceforskel er der dog.
Det eneste praktiske eksempel jeg kan komme på er den situation hvor man
fx har importeret sine filer i LR3 og hovedsagligt behandler dem derfra.
Hvis man så forestiller sig at man installerer Picassa (som kan finde på
at ændre i exif i RAW-filen), så har man måske uforvarende fået ændret
sine data, og den situation kender jeg ikke backup-programmer der kan
beskytte imod. Næste gang man backer up, vil man så overskrive de
"rigtige" filer.
Det bedste er at bruge nogle af dem (Hos Mac-brugerne gør timemachine
vistnok det - tilsvarende programmer findes til windows, men jeg har
ingen praktiske erfaringer. Online kan Dropbox og Mozy det samme) der
gemmer x versioner af filerne (i virkeligheden kun 1 + evt. ændringer),
så man kan gå tilbage til en tidligere version. Men opdager man ikke
manuelt fejlen i tide, vil man til sidst få overskrevet de gode data.
Som jeg antydede i mit første indlæg er der dog rigtig man muligheder
for datatab som jeg anser for større (og i hvert fald almindeligere)
farer end den vi her prøver at undgå.
Selv er jeg slet ikke så omhyggelig privat. Jeg har mit lightroom
katalog backupet automatisk, og mine filer ligger blot på min lokale
disk. Det hele bliver backupet automatisk til Mozy (det tog noget tid at
få det op første gang).
Derudover tager jeg jævnligt (ca. månedligt) en manuel backup af mine
billeder og Lightroomkataloget, ved at eksportere kataloget incl.
billederne. Udover at være en ekstra sikkerhed, undgår jeg så at skulle
downloade 300GB for at restore mine data, hvis min disk ryger.
--
Robert Piil
| |
Hans Kruse (29-08-2010)
| Kommentar Fra : Hans Kruse |
Dato : 29-08-10 11:11 |
|
On 2010-08-29 11:10:57 +0200, Robert Piil <piil@nospam.dk> said:
> Den 28-08-2010 21:03, Hans Kruse skrev:
>
>>> Som jeg forstår det stillede spørgsmål, så er problemet han vil sikre
>>> sig imod en tand inden da.
>>
>> Det er jo også det jeg svarer på.
>
> Jeg tror vi er helt enige, men en lille nuanceforskel er der dog.
>
> Det eneste praktiske eksempel jeg kan komme på er den situation hvor
> man fx har importeret sine filer i LR3 og hovedsagligt behandler dem
> derfra.
>
> Hvis man så forestiller sig at man installerer Picassa (som kan finde
> på at ændre i exif i RAW-filen), så har man måske uforvarende fået
> ændret sine data, og den situation kender jeg ikke backup-programmer
> der kan beskytte imod. Næste gang man backer up, vil man så overskrive
> de "rigtige" filer.
Det havde jeg ikke opfattet som en del af sprøgsmålet, men det er
selvfølgelig relevant ligesom når man ved en fejl kommer til at slette
noget i et dokument man skriver på. Når jeg skrev rapporter brugte jeg
ofte den metode at lave eksplicitte versioner ved at navngive dem v1.0,
v1.1, v2.0, etc. Så kunne jeg altid gå tilbage. Det er måske ikke altid
så anvendelig med fotos. Men den problemstilling du nævner gælder jo
også hvis du bruger Photoshop og ændrer i nogle TIFF filer så kan du
have lavet en fejl, hvis du ikke laver en ny version. Jeg gør det ofte
via Lightroom ved at editere en allerede eksisterende TIFF fil via
Photoshop ved at Lightroom laver en ny kopi. Så kan jeg gå tilbage.
Backup skal så blot sørge for at der skabes en konsistent kopi. Hvis
der samtidig også findes generationer.
>
> Det bedste er at bruge nogle af dem (Hos Mac-brugerne gør timemachine
> vistnok det - tilsvarende programmer findes til windows, men jeg har
> ingen praktiske erfaringer. Online kan Dropbox og Mozy det samme) der
> gemmer x versioner af filerne (i virkeligheden kun 1 + evt. ændringer),
> så man kan gå tilbage til en tidligere version. Men opdager man ikke
> manuelt fejlen i tide, vil man til sidst få overskrevet de gode data.
Time Machine på Mac laver generationer, men de forsvinder med tiden når
der skal bruges plads til nye backups. Hvis man har en meget stor
backup disk så varer det selvfølgelig længe før det sker. Diverse
synkroniseringsprogrammer kan også gøre det samme. På Mac bruger jeg
ChronoSynch, som kan lave generationer samtidig med at lave en eksakt
kopi af de foldere man synkroniserer.
>
> Som jeg antydede i mit første indlæg er der dog rigtig man muligheder
> for datatab som jeg anser for større (og i hvert fald almindeligere)
> farer end den vi her prøver at undgå.
>
> Selv er jeg slet ikke så omhyggelig privat. Jeg har mit lightroom
> katalog backupet automatisk, og mine filer ligger blot på min lokale
> disk. Det hele bliver backupet automatisk til Mozy (det tog noget tid
> at få det op første gang).
>
> Derudover tager jeg jævnligt (ca. månedligt) en manuel backup af mine
> billeder og Lightroomkataloget, ved at eksportere kataloget incl.
> billederne. Udover at være en ekstra sikkerhed, undgår jeg så at skulle
> downloade 300GB for at restore mine data, hvis min disk ryger.
Jeg har også brugt Mozy, men har droppet det igen. Jeg er gået over til
kun at bruge Mac og så skulle jeg jo til at backe det hele op en gang
til og det er for uoverkommeligt. Så pt. bruger jeg kun USB HD'er til
backup, men overvejer at sætte en backup disk op i nærheden på
netværket så jeg kan lave en fuld backup og så derefter kun behøve at
synkronisere de mindre tilføjelser. Jeg kører Time Machine backup af
min HD hver eller hveranden dag og det inkluderer Lightroom kataloget.
De nye billeder jeg tager ligger på MBP'ens interne HD og når jeg er
færdig med at redigere billeder fra en tur så bliver de flyttet over på
en ekstern 2TB FireWire disk. Jeg synkroniserer denne disk til en anden
af samme størrelse, som dog er USB. Begge er formateret til Apples
filsystem, som er journaled og hvor synkroniseringsprogrammet kan
checke om der er sket ændringer ved at checke headere i filerne. Et
ekstra niveau backup sker også på andre USB HD'er, som jeg
synkroniserer sjældnere, måske hver anden uge eller hver måned. Jeg har
mistet nogle enkelte PSD filer i tidens løb, men aldrig RAW filer og
hvorfor ved jeg ikke. Jeg har en enkelt gang oplevet en RAW fil, som
var blevet inkonsistent. Mit Lightroom katalog indeholder totalt ca.
56.000 billeder, som er RAW, PSD, TIFF og gamle JPG filer, så at miste
nogle få er jo ikke så galt selvom der jo i princippet aldrig skulle
mistes nogen.
--
Med venlig hilsen/With Kind Regards,
Hans Kruse
www.hanskrusephotography.com, www.hanskruse.com,
http://www.facebook.com/pages/Hans-Kruse-Photography/271477435625
| |
Frank K. Jensen (28-08-2010)
| Kommentar Fra : Frank K. Jensen |
Dato : 28-08-10 14:14 |
|
"Robert Piil" <piil@nospam.dk> skrev i meddelelsen
news:4c78e6fb$0$50446$14726298@news.sunsite.dk...
>
> For at have højst mulig sikkerhed ville jeg foreslå.
>
> 1) Fuld backup af råmaterialet samtidig med import. Altså gem importen to
> steder. Et sted hvor du arbejder videre med den, og et sted hvor du lader
> den urørt. Sikkerhedsimporten skal selvfølgelig også være backup'et - hvis
> man er meget krakilsk i et andet setup end nedenstående.
Ja, jeg har selv tænkt på at lave en kopi af "rådata" ved siden af min
normale routine, men så er vi også ude i totalt 6x data frem for 3x, hvis
"rådata" skal følge samme backup routine.
> 3) En ekstern backup løsning til sikkerhed mod brand/tyveri. Enten online,
> eller noget med to USB-diske, hvoraf den ene altid var udenfor matriklen.
Min nuværende 1-2 gange årlig backup ligger fysisk et andet sted.
> AD 2) vil ikke sikre dig mod at overføre korrupte data til backupen, dem
> må du så genskabe fra råmaterialet. Det sikrer så tillige imod at du ved
> egne fejl sletter nogle af dine data, hvilket i praksis er en langt mere
> almindelig fejl end datakorruption.
Også en god pointe
mvh Frank
| |
Henrik Münster (28-08-2010)
| Kommentar Fra : Henrik Münster |
Dato : 28-08-10 14:58 |
|
Robert Piil <piil@nospam.dk> wrote:
> Den 28-08-2010 11:45, Henrik Münster skrev:
>
> > Det er jo ikke noget, du skal gøre. Det skal backup-programmet gøre. Et
> > ordentligt backup-program laver "incremental" backup. Der bliver altså
> > kun lavet backup af de filer, der er ændret siden sidst. Det sparer tid
> > og plads. Samtidig bliver de gamler versioner af de ændrede filer gemt.
>
> Jeg tror du misforstår...
>
> Spørgsmål går på hvordan man kun undgå (eller opdage) hvis det man
> backup'er i mellemtiden er blevet korrupt af en eller anden årsag, så
> man ikke overskriver en valid backup med en korrupt.
Her er tale om en person, der blot manuelt kopierer sine filer over 1-2
gange om året. Jeg tror, vi er nødt til at starte fra bunden. Ved en
incremental backup bliver der ikke skrevet noget over. Kun de ændrede
filer bliver tilføjet. Er du sikker på, at det ikke er dig, der har
misforstået noget?
> Incremental backups er fint, men der er msser af fornuft i at lave full
> backups med et eller andet interval.
Helt sikkert. Det er bedst at have flere former for backup, og der er
fordele ved dem alle sammen. Incremental backup er bedst, hvis man skal
finde en ældre version af en enkelt eller et begrænset antal ældre
filer. Det kan være nogle billeder, der er blevet korrupte. En fuld
backup er bedst, hvis man i en fart skal have et system op at køre. Det
kan være efter et nedbrud af harddisken, hvor man har sat en ny harddisk
i computeren.
> Nå, mit bud er lidt mere omstændigt.
Der er mulliarder af måder at gøre det på. Jo mere, des bedre, men man
må jo gøre op med sig selv, hvor meget sikkerhed, der er nødvendig. Som
du selv er inde på, er det ikke rimeligt at private bruger en mindre
formue på en masse netværksdiske osv. Heldigvis er harddiske ret billige
nu om dage. Det vil ikke være så dyrt at købe en ekstern harddisk, som
man f.eks. laver en fuld kopi på hver uge og tager med hen på arbejdet.
Hvis ens hjem brænder, eller man har indbrud, så forsvinder de data i
det mindste ikke
--
Henrik Münster
Esbjerg
Danmark
| |
Frank K. Jensen (28-08-2010)
| Kommentar Fra : Frank K. Jensen |
Dato : 28-08-10 14:08 |
|
""Henrik Münster"" <henrik@muenster.dk> skrev i meddelelsen
news:1jnxn9e.1cc92no8g0l6uN%henrik@muenster.dk...
> Frank K. Jensen <frank-sletdette@sletdette-indbakke.com> wrote:
>
>> "Bo Bjerre" <bo@sarek.dk> skrev i meddelelsen
>> news:4c77d47b$0$50447$14726298@news.sunsite.dk...
>>
>> > Og du SKAL gemme et par backup's bagud, så du ikke sletter den gamle
>> > backup, før du laver den nye.
>>
>> Jeg sletter ikke den gamle inden jeg har lavet den nye, men selvom jeg
>> gemmer en håndfuld gamle backups, kan problemet alligevel opstå.
>
> Det er jo ikke noget, du skal gøre. Det skal backup-programmet gøre. Et
> ordentligt backup-program laver "incremental" backup. Der bliver altså
> kun lavet backup af de filer, der er ændret siden sidst. Det sparer tid
> og plads. Samtidig bliver de gamler versioner af de ændrede filer gemt.
Ja, det ville jo selvfølgelig være fint med en incremental backup, hvor man
kan finde de gamle versioner, men som Hans Kjaergaard skriver, så skal man
sikre sig, at man altid kan restore denne backup, og jeg har ærligt talt
ikke så meget forstand på og/eller blind tillid til nogle filer jeg ikke kan
se hvad indeholder Det er måske bare noget, jeg skal komme mig over, men
jeg har det bedst med at kunne se filerne i min backup. Derfor kopierer jeg
bare filerne, som de er.
Jeg har dog netop købt windows 7, og her valgte jeg pro udgaven i stedet for
home, da den har noget "backup til netværksdrev", som jeg dog ikke hved,
hvad er endnu Nogen der har erfaring med det?
mvh Frank
| |
Michael N. Steen (30-08-2010)
| Kommentar Fra : Michael N. Steen |
Dato : 30-08-10 02:57 |
|
> On 2010-08-29 11:10:57 +0200, Robert Piil <piil@nospam.dk> said:
>
>> Hvis man så forestiller sig at man installerer Picassa (som kan finde
>> på at ændre i exif i RAW-filen), så har man måske uforvarende fået
>> ændret sine data, og den situation kender jeg ikke backup-programmer
>> der kan beskytte imod. Næste gang man backer up, vil man så overskrive
>> de "rigtige" filer.
RAW-filer er originaldata og bør skrivebeskyttes, så de ikke kan ændres.
Det beskytter naturligvis ikke mod diskfejl, skrivefejl og lign., så
konsistenskontrol i form af checksum vil være en god ting.
Den Sun, 29 Aug 2010 12:11:00 +0200 skrev Hans Kruse:
> Jeg har mistet nogle enkelte PSD filer i tidens løb, men aldrig RAW
> filer og hvorfor ved jeg ikke. Jeg har en enkelt gang oplevet en RAW
> fil, som var blevet inkonsistent. Mit Lightroom katalog indeholder
> totalt ca. 56.000 billeder, som er RAW, PSD, TIFF og gamle JPG filer,
> så at miste nogle få er jo ikke så galt selvom der jo i princippet
> aldrig skulle mistes nogen.
Om det er nogle få eller 1000 billeder, der forsvinder, er vel lige galt,
hvis det er pletskud eller mesterværker. Derfor er et godt redundant
backupsystem uundværligt, og vil kun blive bedre, hvis man tilføjer
checksummer af billedfilerne, så man kan se hvilke, der er ændrede eller
beskadigede.
Mvh
Michael Steen
| |
|
|