Bibliographic Metadata
- TitleOn fault-tolerant data placement in storage networks / Mario Mense
- Author
- Published
- Institutional NotePaderborn, Univ., Diss., 2008
- LanguageEnglish
- Document TypesDissertation (PhD)
- URN
- Social MediaShare
- Reference
- IIIF
English
Today, it is usual for companies to face the permanent growth of relevant data by means of storage consolidation, i.e. the storage of the data on (perhaps different sized storage systems) inside a single storage area network (SAN) by regarding that a) every access to the data blocks can always be answered quickly and efficiently and furthermore that b) access to the data is ensured permanently under any circumstances. To guarantee this, data is cut into peaces (data blocks) which are then distributed over the connected storage subsystems in the SAN as even as possible what leads to access parallelisms. Importantly, as the failure probability of the connected systems increase with their number, fault-tolerant data placement strategies are hardly required.
In this thesis, we investigate the efficient fault-tolerant placement of homogeneous data blocks in static and dynamic storage (area) networks We introduce a couple of fault-tolerant strategies for an efficient data allocation in a SAN while fault-tolerance is guaranteed by introducing redundancy into the system. These strategies can be distinguished with respect to their required storage overhead as well as their capability to cope with scalable and/or heterogeneous capacities of the given storage subsystems. We show by detailed analysis that randomized algorithms are the better choice to provide an efficient data distribution in scalable and heterogeneous storage environments whereas for homogeneous storage systems we rather present novel erasure resilient codes, called Read-Write Codes, that, in contrast to usual erasure codes, like RAID and Reed-Solomon codes, offer advanced data modification properties concerning the stored data blocks.
Deutsch
Heutzutage ist es üblich, dem permanenten Anstieg notwendig zu speichernder Daten durch die Konsolidierung der in Unternehmen vorhandenen einzelnen Speichersysteme innerhalb sogenannter Speichernetzwerke (SAN) zu begegnen, gegeben a) die Garantie, jeden Datenzugriff zu jeder Zeit effizient und schnell zu bedienen, sowie b) die Zugriffsmöglichkeit auf die Daten dauerhaft und permanent zu sichern. Dazu werden die Daten gestückelt und dann gleichmässig über die einzelnen Subsysteme verteilt, um Zugriffsparallelität auszunutzen. Da allerdings die Ausfallwahrscheinlichkeit dieser Einzelsysteme proportional zu ihrer Anzahl steigt, sind fehlertolerante Datenplatzierungsstrategien notwendig.
In der vorliegenden Dissertationsschrift werden unterschiedliche, fehlertolerante Strategien zur effizienten Datenplatzierung innerhalb eines SANs vorgestellt, wobei Fehlertoleranz stets durch Redundanz im System gewährleistet wird. Die Strategien unterscheiden sich hinsichtlich des Speicheroverheads durch die injizierte Redundanz sowie der Möglichkeit, skalierbare und/oder heterogene Kapazitäten der einzelnen Speichersubsysteme zu tolerieren. Wir zeigen durch detaillierte Analysen, dass randomisierte Algorithmen die effiziente Datenverteilung in heterogenen und skalierbaren Systemen bestmöglich realisieren, wohingegen für homogene Systeme, neuartige, fehlertolerante Codes zum Einsatz kommen. Im Gegensatz zu üblichen fehlertoleranten Codes, wie RAID oder Reed-Solomon Codes, weisen die hier vorgestellten Read-Write Codes dabei ein verbessertes Modifikationsverhalten für bereits gespeicherte Daten auf, welche sich inbesondere in SANs vorteilhaft darstellen.
- The PDF-Document has been downloaded 98 times.