Deutsch English

-> Über uns » Glossar

Begriffserklärungen


Automated Storage Tiering: Das Automated Storage Tiering migriert die am häufigsten verwendeten Daten beispielsweise Blöcke (die sogenannten Chunks) dynamisch auf die schnelleren Speicherklassen wie etwa SAS-Festplatten oder SSDs. Weniger häufig angeforderte Blöcke hingegen werden auf langsamere Datenträger verschoben (beispielsweise SATA- oder NL-SAS-Festplatten). Somit wird das Storage so effizient wie möglich ausgenutzt.

Cluster und Grid: Ein Cluster verfügt über eine dritte Instanz, die sog. Witness (auch Quorum oder Tie Breaker genannt), um den Failover-Prozess zu realisieren. Diese Witness ist je nach Cluster-Architektur unterschiedlich realisiert (Ping Nodes (IP), Witness Disk, komplett eigenständiges System). Ein Grid benötigt für den Failover-Prozess keine Witness, weil es keinen traditionellen Failover-Prozess durchführen muss, da es seine Storage-Ressourcen permanent Active-Active zur Verfügung stellt.

 

Deduplication: Bei der Deduplication wird der zur Datenspeicherung erforderliche Speicherplatz verkleinert, in dem doppelte Daten automatisch identifiziert und anschließend eliminiert werden. Deduplication kann eine sehr effiziente Methode sein um Datenmengen zu reduzieren, bei denen eine Mustererkennung möglich ist (unverschlüsselte Daten). Es ist allerdings nahezu unmöglich, die Effizienz bei der Verwendung von Deduplication-Algorithmen vorherzusagen, da sie immer von der Datenstruktur und der Änderungsrate abhängig ist.

Hyper-converged: Durch eine Hyper-converged-Architektur wird Storage und VM Hypervisor in ein- und demselben System abgebildet. Eine Hyper-converged-Infrastruktur beinhaltet mindestens folgende Komponenten: integrierte Virtualisierung (Hypervisor), virtualisierter Speicher (Software-defined Storage), virtualisiertes Netzwerk (Software-defined Networking), Software zur zentralen Überwachung und Steuerung, erweiterte IT-Konzepte wie Anbindung an die Cloud oder ein Desaster-Recovery-Konzept.

 

Pooling: Um Speicheranforderungen schnell, flexibel, effizient, skalierbar, einfach und ohne Unterbrechungen des Geschäfts bereitzustellen, wird in heutigen Storage-Infrastrukturen Storage Pooling eingesetzt. Diese Pools bilden die Grundlage für alle Kernfunktionalitäten (Features) eines Systems und sind somit dessen Hauptkonstrukt. Im Pool werden sämtliche Storage-Systeme bzw. Speicherklassen (sog. Storage Tiers) gesammelt und gegebenenfalls virtualisiert.


Quality of Service (QoS): Im Rahmen von QoS-Parametern, lassen sich sämtliche Übertragungen eines Systems überwachen. Wird der Threshold, die sog. Schwelle (z. B. eine Latenz), überschritten, so wird der Administrator darüber in Kenntnis gesetzt. Ebenso lassen sich aber auch Geschwindigkeiten regulieren. Beispielsweise für Streaming-Anwendungen mit hohem Datenaufkommen ist es ratsam, die Datentransferrate (MB/s) zu regulieren, um ihre Auswirkungen zu minimieren. Bei transaktionsorientierten Anwendungen (OLTP) ist eine Begrenzung der I/Os am sinnvollsten.

Scale-out: „Horizontale Skalierung“, Kopplung einer beliebigen Anzahl an Systemen mit fest konfektionierter Hardware, welche zentral verwaltet werden.

Scale-up: „Vertikale Skalierung“, Hardware-Aufrüstung des Basissystems bzw. Erweiterung über weitere eigenständige Systeme.

Snapshot: Unter einem Snapshot versteht man eine Momentaufnahme eines Systems oder Objekts. Durch den Snapshot einer Storage LUN, können Datensicherungen angefertigt werden, ohne auf die Konsistenz des aktuellen Datenbestandes angewiesen zu sein. Aber Achtung, auch ein Snapshot ersetzt nicht das klassische Backup.

Software-defined Storage: Unter Software-defined Storage versteht man die virtuelle Zusammenfassung von Speichersystemen innerhalb eines Storage Pools. Dadurch werden jegliche Storages zentral über die SDS-Software verwaltet, damit die Features der Software bereitgestellt werden können.

Thin Provisioning: Durch Thin Provisioning ist es nicht länger erforderlich, darüber zu spekulieren, wie viel Speicherplatz einer Anwendung zugeordnet werden sollte, da sich logisch mehr Speicherplatz zur Verfügung stellen lässt, als physikalisch tatsächlich vorhanden ist. Allokiert wird aber nur der Speicherplatz, der auch physikalisch notwendig ist.