http://www.computerwoche.de/produkte_technik/...Deduplizierung sorgt dafür, dass identische Datenblöcke nur einmal gesichert werden.
...
Deshalb bieten immer mehr Hersteller ihre VTL-Lösungen mit einer integrierten oder nachgelagerten
Deduplizierung an. Die Beseitigung von Redundanzen in den gesicherten Daten soll das Gesamtvolumen drastisch reduzieren.
http://www.silicon.de/hardware/netzwerk-stora...Deduplizierung ist, vereinfacht ausgedrückt, eine Technologie, bei der Daten niemals doppelt gespeichert werden. Die Methode vergleicht den zu speichernden Datensatz, Dateien oder Datenblöcke mit den Informationen, die bereits abgelegt sind. Werden redundante Files oder Datenblöcke identifiziert, versieht die Dedupe-Lösung den neu eingegangenen Datensatz an der Stelle der Dopplung mit so genannten Referenz-Pointern. Die verweisen auf die bereits gespeicherte Sequenz und beanspruchen weniger Platz als die Originaldaten. Der neu hinzugekommene Datensatz wird somit kleiner, da weniger Informationen erneut gespeichert werden müssen.
http://www.itwissen.info/definition/lexikon/D...deduplication - Deduplizierung
Trotz sinkender Storage-Hardware-Preise können die Kosten für die Speicherung und das Backup von Dateien rapide steigen, und zwar dann, wenn redundante oder nahezu gleiche Dateien mehrfach von mehreren Mitarbeitern bearbeitet und abgelegt werden. Daher geht es bei der
Deduplizierung von Daten darum, mehrfach bearbeitete und gespeicherte Dateien, die redundant sind oder sich nur geringfügig unterscheiden, zu erkennen und beseitigen. Ziel der Depuplizierung ist es, das gespeicherte Datenvolumen zu reduzieren und Speicherplatz zu sparen. Bei der Deduplizierung werden identische Dateien durch kleine Dateien, die die Rolle eines Platzhalters übernehmen, mit der Speicheradresse der Originaldateien ersetzt. Weisen die Dateien nur geringfügige Änderungen auf, dann werden nur die Unterschiede in den Dateien gespeichert.
http://www.networkworld.com/news/2006/091806-...Data deduplication, data reduction, commonality factoring, capacity optimized storage – whatever you call it — is a process designed to make network backups to disk faster and more economical.
The idea is to eliminate large amounts of redundant data that can chew up disk space. Proponents also say it enables you to make more data available online longer in the same amount of disk.
In
deduplication, as data is backed up to a disk-based virtual tape library (VTL) appliance, a catalog of the data is built. This catalog or repository indexes individual bits of data in a file or block of information, assigns a metadata reference to it that is used to rebuild the file if it needs to be recovered and stores it on disk. The catalog also is used on subsequent backups to identify which data elements are unique. Nonunique data elements are not backed up; unique ones are committed to disk.
http://searchdatacenter.techtarget.com/news/a...The idea behind
deduplication,
deduping for short, is simple enough. When writing data that's been written before, rather than write it again, simply leave a pointer to the original data.