Zur Seitenansicht
 

Titelaufnahme

Titel
Verfahren zur redundanten Datenplatzierung in skalierbaren Speichernetzen
AutorEffert, Sascha In der Gemeinsamen Normdatei der DNB nachschlagen
PrüferMeyer auf der Heide, Friedhelm In der Gemeinsamen Normdatei der DNB nachschlagen ; Brinkmann, André In der Gemeinsamen Normdatei der DNB nachschlagen
Erschienen2011
HochschulschriftPaderborn, Univ., Diss., 2011
Anmerkung
Tag der Verteidigung: 10.05.2011
SpracheDeutsch ; Englisch
DokumenttypDissertation
URNurn:nbn:de:hbz:466:2-385 Persistent Identifier (URN)
Dateien
Verfahren zur redundanten Datenplatzierung in skalierbaren Speichernetzen [6.62 mb]
Links
Nachweis
Klassifikation
Zusammenfassung (Deutsch)

Moderne Datenzentren sind mit einer rasant wachsenden Menge an Daten konfrontiert, welche sie mit immer höherer Geschwindigkeit hochverfügbar speichern müssen. Daher brauchen sie Speichersysteme, welche mit ihren Anforderungen wachsen. Zunehmend werden dazu Speichernetze eingesetzt, in welchen Datenserver einen virtuellen Speicher über Festplatten erzeugen. Dabei ist die Last des virtuellen Speichers so zu verteilen, dass die physikalischen Festplatten optimal genutzt werden. Um Ausfälle kompensieren zu können ist es nötig, Daten redundant zu speichern. Die Verfahren zur Datenverteilung müssen diesen Anforderungen gerecht werden. Einen wichtigen Beitrag liefern hier pseudorandomisierte Hashfunktionen. Innerhalb dieser Arbeit gehe ich auf verschiedene Speichersysteme ein. Speziell untersuche ich Speichernetze, welche aus Datenservern mit lokalen Festplatten bestehen. Für diese zeige ich, wie sie bei verschiedenen Arten der Datenverteilung skalieren. Leider wird keines der betrachteten Speichersysteme allen Anforderungen gerecht. Als Lösung stelle ich das Verfahren Redundant Share vor, welches alle Anforderungen erfüllt. Mittels Redundant Share kann eine beliebige Anzahl an Kopien der Daten des virtuellen Speichers wie gefordert verteilt werden. Gleichzeitig erfordert das Hinzufügen neuer Festplatten einen begrenzten Aufwand. Abschließend vermesse ich eine Implementierung von Redundant Share und vergleiche die Ergebnisse mit anderen Verteilern.

Zusammenfassung (Englisch)

Modern data centers are faced with a rapidly growing amount of data which they have to keep highly available with increasing performance. Therefore they need storage systems, which grow with the demands. Storage networks are more and more used in this area. In such systems data servers create a virtual storage on top of a number of physical hard disks. Therefore the load of the virtual storage has to be distributed in a way that the physical disks are used in an optimal way. It is also important to store all data with redundancies to be able to compensate broken hardware. The algorithms used for data distribution have to solve all these demands. Pseudo randomized hash functions have a big impact in this area. In this dissertation I describe different storage systems. I take a closer look at storage networks with data servers using directly attached hard disks. For these I show how they scale using different kinds of data distribution. Unfortunately none of the described storage systems solves all demands. As a solution I introduce Redundant Share which solves all demands. Using Redundant Share it is possible to distribute an arbitrary number of copies of each piece of data using each hard disk in an optimal way according its capacity. Moreover adding a new physical hard disk ends up in a bounded effort. I perorate with this dissertation by measuring an implementation of Redundant Share and by comparing the results with other distribution algorithms.