Übersicht & Einteilung
Primär-, Sekundär- und Backup-Datenspeicher

Skript von der Firma Transtec


Massenspeicher gibt es in einer kaum überschaubaren Anzahl von Technologien, die in einer Reihe wichtiger Eigenschaften grundlegend differieren. Sie lassen sich in Primär-, Sekundär- und Backup-Datenspeicher einteilen.

Bei der Wahl des Massenspeichers und des dazu passenden Hostadapters müssen unter anderem berücksichtigt werden: die Auswahl der geeigneten Laufwerkstechnologie, Einbau, Hardware-Anschluss, Software-Einbindung, Performance und Kapazität.

Primär-Datenspeicher:

Darunter versteht man Massenspeicher, die auf Daten im Random Access (direkter Zugriff auf Informationsblöcke, z. B. Magnetplatte) zugreifen. Zu dieser Gruppe zählen magnetische Festplattenlaufwerke und RAM-Drives.

Sekundär-Datenspeicher:

Das sind wechselbare Massenspeicher, die Daten ähnlich wie Primär-Datenspeicher speichern. Der direkte Zugriff auf alle gespeicherten Daten ist jedoch erst nach dem Einlegen des Datenträgers möglich. Zu dieser Gruppe zählen magnetische und magneto-optische Wechselplattenlaufwerke, Diskettenlaufwerke und Memory-Card-Drives, CD- und DVD-Laufwerke.

Backup-Datenspeicher:

Dazu zählt man in der Regel Massenspeicher, die sequenziell arbeiten. Der wahlfreie Zugriff auf Dateien und Programme ist nicht möglich, da die Suche nach Informationsblöcken in der Reihenfolge stattfindet, in der sie auf dem Datenträger stehen.


Peripheriebusse

SCSI-Schnittstelle

SCSI (Small Computer Systems Interface) ist ein in seiner ursprünglichen Form 8 bit breiter, paralleler, später auch seriell definierter I/O-Bus, der für den Anschluss von Massenspeicherlaufwerken aller Art, aber gelegentlich auch von Scannern und anderen Peripheriegeräten an verschiedenen Rechnersystemen verwendet wird und sehr weite Verbreitung gefunden hat. Die Vorteile von SCSI waren von Anfang an eine relativ hohe maximale Übertragungsrate sowie eine flexible und einfache Konfiguration.

Bei SCSI ist viel Intelligenz im Laufwerk selbst vorhanden, denn die SCSI-Schnittstelle ist keine Schnittstelle im klassischen Sinne, sondern ein Peripheriebus, über den Laufwerke und Hostadapter miteinander kommunizieren. Die erste SCSI-Norm wurde bereits 1986 von ANSI als Standard verabschiedet. Hinter SCSI verbirgt sich ein dreischichtiges Regelwerk mit Kommando-, Protokoll- und Interfaceebene. Den Kern von SCSI bilden die so genannten Primary Commands (SPC). Diese Befehle müssen alle Geräte beherrschen. Darauf aufbauend existieren spezielle Kommandos für einzelne Gerätegruppen: Controller Commands (SCC) für Hostadapter, Block Commands (SBC) für Festplatten, Stream Commands (SSC) für Bandlaufwerke, Multimedia Commands (MMC) für CD-ROM und Medium Changer Commands sowie die bisher selten genutzten Graphic Commands (SGC) für graphisch orientierte Geräte wie Drucker, Plotter und Scanner. Aus diesen Befehelen setzt sich die so genannte Kommandoebene zusammen. Unterhalb dieser Kommandoebene auf der Protokollebene liegen die Protokolle der verschiedenen Schnittstellentypen. Diese logischen Protokolle regeln, wie ein SCSI-Befehl auf dem jeweiligen Interface abgebildet wird und wie die einzelnen Geräte miteinander kommunizieren. Das klassische SCSI-Interface (8-bit- und 16-bit-SCSI) nutzt das Interlocked Protocol (IPC). Die neuen Interfaces bauen auf eigenen Protokollen auf: das Serial Storage Protocol (SSP) für SSA sowie das Generic Packetized Protocol (GPP), die Anbietern anderer Interfaces den Zugang zu SCSI erleichtern sollen.

Die unterste Ebene schliesslich ist die Interfaceebene, in der die verschiedenen physikalischen Übertragungsmedien definiert sind.

Der Vorteil dieses modularen Modells zeigte sich bei der Einführung neuer serieller Technologien: Fibre Channel und SSA konnten problemlos in den am weitesten verbreiteten Standard, nämlich SCSI eingebettet werden. Das spart einerseits Kosten und beschleunigt andererseits die Einführung der neuen Interfaces.

Die Ausdehnung des ursprünglichen, parallelen SCSI (1 und 2) auf serielle Übertragung wird unter SCSI-3 subsumiert. SCSI-3 ist im parallelen Bereich abwärtskompatibel. Bei Verwendung der seriellen Interfaces (Fibre Channel, SSA) werden wesentlich grössere Datentransferraten erreicht, und die beim parallelen SCSI gegebene Aufteilung in die schnellere Datenphase (20 MB/s bei Ultra SCSI) und eine langsamere Befehlsphase (5 MB/s) entfällt.

Im Folgenden sollen nun die verschiedenen Protokolle und Interfaces näher beschrieben werden (siehe auch Tabelle Platteninterfaces im Überblick).

Paralleles SCSI

Serielles SCSI


Paralleles SCSI

SCSI-1

Die erste verabschiedete SCSI-Norm war SCSI-1. Sie unterstützte primär nur Festplatten und Bandlaufwerke. Auch hinsichtlich seiner sonstigen Leistungsdaten ist SCSI-1 nicht mehr konkurrenzfähig. Der Overhead bei der Datenübertragung liegt bei bis zu 90%. Der im asynchronen Modus durchgeführte Datentransfer erreichte Transferraten von maximal 1 MB/s, im synchronen Modus bis 5 MB/s. SCSI-1 wird seit 1990 nicht mehr verwendet.

SCSI-2

Die SCSI-2 Norm wurde 1986 entwickelt und beinhaltet wesentliche Verbesserungen. Der SCSI-2-Kommandosatz enthält eine Reihe zusätzlicher Kommandos, welche die Unterstützung von Festplatten, Band- und MO-Laufwerken, CD-ROMs, Scannern oder auch Jukeboxen verbessern bzw. erst ermöglichen. Neben dem neuen standardisierten Kommandosatz (Common Command Set) enthält die SCSI-2-Spezifikation auch eine höhere maximale Transferrate von 10 MB/s (Fast-SCSI, mit der üblichen Busbreite von 8 bit) sowie die Möglichkeit, die Breite des Datenpfades auf 16 bit (Wide-SCSI) zu erhöhen. Durch eine Kombination von Fast- und Wide-SCSI sind somit Transferraten von bis zu 20 MB/s auf dem Bus möglich. Die Angabe der SCSI-2-Unterstützung bei einem Gerät bedeutet nicht automatisch, dass es dem kompletten SCSI-2-Umfang (inkl. Fast- und Wide-SCSI) entspricht, jedoch haben aktuelle Laufwerke in der Regel Fast-SCSI implementiert. Fälschlich wird teilweise die Wide-SCSI-Version (16 bit breiter Datenbus) von SCSI-2 als SCSI-3- sowie Non-Fast-SCSI-2 als SCSI-1-Norm bezeichnet.

Ultra SCSI

Noch einmal verdoppelt wurde der Transfertakt bei Ultra SCSI, einer voll abwärtskompatiblen Erweiterung von SCSI-2. Durch die Verdoppelung der Taktrate auf dem Bus verdoppelt sich auch die Transferrate auf 20 MB/s (8 bit) bzw. 40 MB/s (16 bit). Dies betrifft allerdings nur die Datentransferrate. Die Befehlsübertragung geschieht weiterhin mit 5 MB/s. Auch Stecker und Kabel wurden aus Kompatibilitätsgründen beibehalten. Die Performance-Steigerung hat ihren Preis: Die zulässige Kabellänge verkürzt sich bei Single-Ended auf 1,5 Meter und bei Differential entsprechend auf 12,5 Meter. Eine aktive Terminierung ist unbedingt notwendig, um eine störungsfreie Übertragung zu gewährleisten.

Um dem Anwender die Konfiguration des SCSI-Busses zu erleichtern, enthält die Ultra SCSI-Spezifikation das Feature SCAM (SCSI Configuration Auto Matically). Das angeschlossene Gerät konfiguriert sich also selbst. Die Implementierung von SCAM in die Devices ist jedoch jedem Hersteller selbst überlassen.

Ultra2 SCSI (LVD - Low Voltage Differential)

Produkte mit Ultra2 SCSI sind seit 1998 auf dem Markt. Auch hier wurde wieder die Datentransferrate verdoppelt, auf 80 MB/s bei 16 bit. Die bisherige 8 bit-Version wird sich nach und nach verabschieden. Da ausserdem eine weitere Halbierung der Kabellänge bei Single-Ended-Verkabelung den Bus praktisch unbrauchbar machen würde, wurde dieser Standard nur noch als LVD (Low Voltage Differential) definiert, eine Differenzial-Verkabelung, die darüber hinaus mit einem Drittel der Signalspannung arbeitet. Die maximale Kabellänge beträgt hier immerhin noch 12 m.

Um auch diesen Standard mit den bisherigen kompatibel zu halten, werden Ultra2-Laufwerke mit einer autosensing Schnittstelle ausgerüstet, die den Betrieb an herkömmlichen Single-Ended-Controllern (nicht am Differenzial) ermöglichen, wenn auch nur mit Ultra SCSI-Geschwindigkeit. Allerdings verfügen sie nicht über interne Terminierung, was die Verwendung von separaten Terminatoren auch innerhalb der Rechner notwendig macht.

Ultra160 SCSI

Ultra160 benutzt die gleiche Verkabelung wie Ultra2 LVD-SCSI. Die Verdoppelung der Transferrate wurde durch die Datenübertragung an der auf- und absteigenden Flanke des Signals erreicht. Die effektive Leistung (der Nettodatentransfer) dürfte an die des momentanen Fibre Channel heranreichen.

Ultra320 SCSI

Obwohl von vielen Seiten gedacht wurde, dass mit Ultra160 das Ende der Steigerung beim parallelen SCSI erreicht wäre, ist bereits Ultra320 absehbar, die ersten Hersteller haben ihre Unterstützung und Produkte schon angekündigt.

SCSI-3

SCSI-3 beinhaltet sowohl die Normen des parallelen SCSI als auch die der weiter unten beschriebenen seriellen Interfaces.

SCSI-Schnittstellen

Die parallele SCSI-Schnittstelle gibt es in unterschiedlichen Varianten (siehe Tabelle), die sich in der Art der Datenübertragung unterscheiden. SCSI-Signale können entweder auf 8 bit (Narrow) oder 16 bit (Wide-SCSI) breiten Bussen übertragen werden. Bis zu 7 Laufwerke können am 8 bit-Bus angeschlossen werden, bis zu 15 Laufwerke am 16 bit-Bus. Beide Busbreiten verfügen wiederum über die Verkabelungsarten Single-Ended (SE) oder Differenzial (D). Bei SE-SCSI wird jedes Signal nur auf einer, bei D-SCSI dagegen auf zwei untereinander verdrillten Leitungen übertragen. Letztere sind daher gegen elektrische Einflüsse unempfindlicher. Die Vorteile von D-SCSI sind bessere Störsicherheit und, daraus resultierend, grössere Kabellängen

Nachteilig sind lediglich die - im Vergleich zu SE-SCSI - höheren Kosten für Laufwerke und Hostadapter.

Bei der Auswahl eines Subsystems ist zu beachten, dass die SCSI-Schnittstelle des Hostadapters mit der des Laufwerks übereinstimmt .

Grundsätzlich können 8 bit-Geräte an einen 16 bit-Bus angeschlossen werden, jedoch sind dabei eine ganze Reihe besonderer Konfigurationsregeln zu beachten.

Single-Ended- und Differential- oder LVD-SCSI können nicht gleichzeitig am Bus betrieben werden. Der Versuch kann zu Schäden an Laufwerk und Controller führen. Lediglich LVD-Laufwerke stellen sich selbstständig auf Single-Ended um.

Synchroner und asynchroner Datentransfer

Bei parallelem SCSI gibt es den asynchronen und den schnelleren synchronen Datentransfer. Beim asynchronen Datentransfer wird jedes Byte separat gesendet und bestätigt, während beim synchronen Transfer mehrere Bytes auf einmal gesendet und dann gemeinsam bestätigt werden. Dadurch ist der Overhead beim synchronen Übertragungsmodus kleiner und die Transferrate höher. Grundsätzlich können alle Peripheriegeräte asynchron arbeiten. Synchronlaufwerke bzw. -Controller stellen vor dem Datenaustausch beim so genannten handshaking fest, ob der andere Kommunikationspartner auch synchronen Transfer beherrscht, und benutzen dann automatisch die entsprechende Datentransferart. Heutige SCSI-Laufwerke und Hostadapter unterstützen in der Regel die Synchronübertragung.

Kabel für paralleles SCSI

Um einen problemlosen und fehlerfreien Datentransfer zu ermöglichen, sind einige grundsätzliche Dinge bereits bei der Auswahl des richtigen SCSI-Kabels zu beachten:

Die SCSI-Kabel müssen nach UL (Underwriter Laborities) und CSA (Canadian Standard Association) spezifiziert sein. Die einzelnen Drähte des Kabels müssen aus Kupferlitze bestehen (besser kupferverzinnt). Sie müssen paarweise verdrillt sein. Zusätzlich sollte das Kabelbündel noch einmal über die Länge von max. 1 m verdrillt sein. Das gesamte Kabel braucht weiter eine doppelte Abschirmung. Dies wird in der Regel durch eine Silberfolie und ein zusätzliches Drahtgeflecht über dem Kabelbündel erreicht.

Werden mehrere Peripheriegeräte an einen SCSI-Bus angeschlossen, sollten die einzelnen Verbindungskabel möglichst kurz sein und optimalerweise dieselbe Länge haben. Dadurch wird die Störanfälligkeit des Busses reduziert.

Da die Übertragung der SCSI-Daten bei Wide-SCSI mit 16 anstelle von 8 bit stattfindet, reichen die vorhandenen Leitungen im normalen 50poligen SCSI-Kabel nicht aus. Wide-SCSI verwendet deshalb 68polige Kabel.

Da es bei den Kabeln keinen Unterschied zwischen Single-Ended und Differential-SCSI gibt, können die Kabel für beide Schnittstellentypen verwendet werden.

Terminierung der Subsysteme

Mit wachsender Übertragungsrate steigen auch die Anforderungen an die Datenkabel und an die SCSI-Bus-Terminierung. Differential-SCSI und aktive Terminierung gewinnen immer mehr an Bedeutung.

Aktive Terminatoren arbeiten im Gegensatz zu den passiven Terminatoren mit einem integrierten Spannungsregler. Sie halten die Terminatorpowerleitung mit aktiven Bauelementen auf genau 2,85 V. Bei passiver Terminierung werden sie mit einem passiven Spannungsteiler auf etwa 3 V gehalten. So kann die Spannung im Kabel je nach Kabeltyp und -länge stark schwanken.

Der Forced Perfect Terminator (FPT) ist eine vor allem in der IBM-Welt (RS/6000) verwendete Variante der aktiven Busterminierung. Hierbei wird die Impedanz des SCSI-Busses dynamisch angepasst. Wenn allerdings FPT verwendet wird, so muss dies auf beiden Seiten des Busses - also auch auf der Hostadapter-Seite - geschehen.

Grundsätzlich wird die Verwendung von aktiven Terminatoren empfohlen, da diese im Gegensatz zur passiven Terminierung wesentlich störsicherer sind.

Anschluss von Subsystemen

Beim Anschluss von externen SCSI-Subsystemen gibt es folgende Möglichkeiten:

1. Bisher ist noch kein externes Subsystem am SCSI-Port angeschlossen: In diesem Fall benötigt man ein entsprechendes SCSI-Kabel für die jeweilige Rechnerplattform. Bei allen externen Subsystemen werden im Preislistenteil Kabeltauschoptionen für die entsprechende Rechnerplattform angeboten. So sind anstelle der Standardkabel auch Kabel mit dem in der Preisliste angegebenen Steckern erhältlich. Das Subsystem lässt sich auf diese Weise direkt mit dem richtigen Stecker an den jeweiligen Rechnertyp anschliessen. Die unterschiedlichen Steckertypen sind im Kapitel SCSI-Kabel und -Terminatoren

abgebildet. Des Weiteren wird noch ein Terminator benötigt. Immer muss auch die maximale Kabellänge berücksichtigt werden, wobei Kabel in den Gehäusen (Rechner, Platten etc.) mitzuzählen sind.

2. Externe Subsysteme sind bereits vorhanden und mit HD68-Steckern ausgerüstet: Mit dem mitgelieferten Kabel kann das neue Subsystem beliebig an die bestehenden Subsysteme angehängt bzw. zwischen diese eingefügt werden.

3. Externe Subsysteme sind bereits vorhanden, haben aber keinen HD68-Stecker: Hierbei gibt es zwei Möglichkeiten:

- Man schliesst das neue Subsystem an die letzte vorhandene Box an. Hierzu muss mittels einer Tauschoption das Standardkabel gegen ein Kabel mit passendem Stecker getauscht werden. Zusätzlich wird dann noch ein entsprechender Terminator mit Stecker benötigt.

- Das neue Subsystem wird als erstes direkt an den Rechner angeschlossen. In diesem Fall wird, wenn nötig, das Standardkabel gegen ein Kabel mit einem für den Rechner passenden Stecker getauscht. Ausserdem wird dann noch ein zusätzliches Kabel zum Anschluss des neuen Subsystems an die bereits vorhandenen benötigt. Passende Kabel hierfür sind in dem Kapitel SCSI-Kabel und -Terminatoren

aufgelistet.


Serielles SCSI

Fibre Channel

Der Name Fibre Channel ist etwas irreführend, denn der serielle Bus ist nicht nur für Lichtleiter, sondern auch für Kupferkabel spezifiziert. Auf beiden Medien sind Übertragungsraten von 12,5 MB/s bis hin zu etwa 400 MB/s vorgesehen. Die physikalische Transferrate liegt mit 132 Mbit/s bis 2 Gbits/s noch etwas höher. Die daraus resultierende etwas höhere Bruttodatenrate wird für einen 8-zu-10-bit-Code genutzt, der eine einfache Fehlererkennung erlaubt. Innerhalb eines Fibre-Channel-Systems können verschiedene Kabelarten gemischt werden. Die einfachste Variante ist ein abgeschirmtes Twisted-Pair-Kabel. Grosse Distanzen oder höhere Transferraten erfordern wahlweise Kupfer- oder Glasfaserkabel. Somit lassen sich mit ein und demselben Interface sowohl Low-End- und Low-Cost-Systeme als auch High-End-Systeme aufbauen. Die Glasfaserverbindungen werden über einen Duplex-SC-Stecker angeschlossen, die Kupferverkabelung über einen DSub 9pol.-Stecker und die Twisted-Pair-Kabel mittels eines 9-poligen HSSDC (High Speed Serial DC-Steckers).

Fibre Channel ist die allgemeine Bezeichnung für eine Normenreihe, die von der ANSI (American National Standards Institute) entwickelt wurde und weiterentwickelt wird, um neue Protokolle für eine flexible Informationsübertragung zu schaffen. Diese Entwicklung begann im Jahr 1988 als Erweiterung der Norm Intelligent Peripheral Interface (IPI) Enhanced Physical und verzweigte sich in mehrere Richtungen.

Die vorrangigen Ziele dieser Entwicklung sind:

Fibre Channel ist in Systemen unterschiedlichster Grössen zu finden, doch derzeit wird es zunächst in Grossrechnersystemen Anwendung finden und später in Workstations. Auf preiswerten PCs dürfte es kaum verwendet werden, doch später wird es in den Desktopsystemen von Profianwendern implementiert werden, die an Netzwerke angeschlossen sind.

Gegenwärtig sind systemgebundene Lichtwellenleiter-Schnittstellen in einigen Desktop-Systemen und Workstations zu finden. Die Anwendung sehr schneller Fibre-Channel-Schnittstellen wird zunehmen, sobald ihre Geschwindigkeit und ihre Funktionen diesen Anwendern bekannt werden. Dazu zählen auch kleine Arbeitsgruppen, die zwecks Datenaustausch mit Hochgeschwindigkeitsleitungen vernetzt werden müssen.

Zu nennen sind zwei grundlegende Peripherieprotokolle für die Gerätekommunikation: Kanäle und Netzwerke. Üblicherweise bezieht sich der Begriff Kanal auf eine periphere I/O-Schnittstelle (mit einem Hostcomputer), die grosse Datenmengen zwischen dem Host und dem Peripheriegerät hin- und hertransportiert. Der Systemverarbeitungsaufwand wird so gering wie möglich gehalten, indem die Datenübertragung in der Hardware mit geringer bis gar keiner Software-Beteiligung gehalten wird, sobald eine I/O-Operation beginnt. Dagegen bezieht sich der Begriff Netzwerk auf eine I/O-Schnittstelle, die in der Regel zahlreiche kleine Übertragungen mit grösserem Systemverarbeitungsaufwand impliziert, der in der Regel auf eine Softwarebeteiligung am Informationsfluss zurückzuführen ist. Netzwerke unterstützen in der Regel eine Host-to-Host-Kommunikation.

Kanäle

Kanäle operieren in der Regel in einer geschlossenen, strukturierten und vorhersehbaren Umgebung, in der alle Geräte, die mit einem Host kommunizieren können, im Voraus bekannt sind, und jede Änderung erfordert auch Modifikationen der Host-Software bzw. der Konfigurationstabellen. Diese komplexeren Wissensstufen werden von den meisten Kanälen bewältigt.

Das Host-System enthält das gesamte Wissen der an diesen Host angeschlossenen Kanäle. Gelegentlich wird hierfür auch die Bezeichnung Master-Slave-Umgebung verwendet. Peripheriegeräte wie Band- und Plattenlaufwerke sowie Drucker sind direkt an das Host-System angeschlossen. Der Host ist dabei der Master, und die Peripheriegeräte sind die Slaves.

Kanäle werden für die Datenübertragung benutzt. Mit dem Begriff Daten sind Dateien mit Informationen gemeint, die viele Tausend Byte umfassen können. Eine wichtige Anforderung für die Übertragung von Daten ist die fehlerfreie Übergabe, wobei die Übertragungsverzögerung zweitrangig ist. Netzwerke

Auf der anderen Seite arbeiten Netzwerke in einer offenen, unstrukturierten und im Grunde genommen unberechenbaren Umgebung. Fast jeder Host bzw. jedes Gerät kann jederzeit mit jedem anderen Gerät kommunizieren. Diese Situation erfordert eine intensivere Software-Unterstützung zur Prüfung der Zugangsberechtigung, zur Einrichtung von Übertragungssitzungen und für Routing-Transaktionen zum richtigen Software-Dienst.

Diese unstrukturierte Umgebung, die davon ausgeht, dass die angeschlossenen Geräte alle gleichberechtigt sind, wird Peer-to-Peer-Umgebung genannt. Mehrere Workstations und Mainframe-Computer können vernetzt werden. Dabei ist jedes System unabhängig vom anderen, und gelegentlich tauschen sie mit Hilfe von Netzwerkprotokollen Informationen aus. Eine Workstation und ein Mainframe sind im Verhältnis zu anderen derartigen Systemen gleichberechtigt. Insofern ist diese Umgebung vergleichbar mit der Art und Weise, wie das Fernsprechsystem arbeitet, bei dem alle Fernsprechgeräte gleichberechtigt sind. Analogien zum Fernsprechsystem werden daher gerne gebildet.

Netzwerke werden nicht nur zur fehlerfreien Datenübermittlung, sondern auch zur Sprach- und zur Videoübertragung genutzt, bei der die rechtzeitige Übergabe vorrangig und eine fehlerfreie Übergabe zweitrangig ist. Wenn die Übergabe beispielsweise bei einer Videoübertragung verspätet erfolgt, werden die Daten nutzlos; wenn jedoch ein oder zwei Pixel verloren gehen, wird dies gar nicht bemerkt, solange das Bild nicht flimmert.

Unterstützte Protokolle

Fibre Channel versucht, die besten Aspekte dieser beiden konträren Kommunikationsverfahren in einer neuen I/O-Schnittstelle zu kombinieren, die die Bedürfnisse von Kanalbenutzern und zugleich von Netzwerkbenutzern erfüllen.

Fibre Channel unterstützt die Übertragung von ATM (Asynchronous Transfer Mode), IEEE 802 und sonstigem Netzwerkverkehr. Alle, die mit Internet Protocol (IP), E-Mail, File Transfer, Fernanmeldungen und sonstigen Internet-Diensten vertraut sind, werden feststellen, dass diese Protokolle in Fibre Channel mit höheren Geschwindigkeiten unterstützt werden.

Hierbei handelt es sich um wichtige Aspekte für den Anschluss von Systemen, die auf Fibre-Channel-Basis arbeiten, an die wichtigsten globalen Netzwerke sowie an bereits von Unternehmen installierten LANs. Dazu zählen SONET-basierte Systeme und LANs wie Ethernet.

Ein wichtiger von Fibre Channel geleisteter Beitrag besteht darin, dass diese beiden Schnittstellentypen, d. h. Kanäle und Netzwerke, jetzt das gleiche physikalische Medium teilen können. In den letzten Jahren wurden I/O-Kanäle dahingehend ausgebaut, dass sie Netzwerkanwendungen mit einschliessen (z. B. mit Hilfe von SCSI, um zwei Workstations zu vernetzen). In gleicher Weise bewegen Netzwerke mit Hilfe von Netzwerk-Dateitransferprotokollen Daten zwischen Systemen und Dateiservern hin und her (z. B. Network File System (NFS).

Mit Fibre Channel ist es jetzt möglich, dasselbe physikalische Medium und dasselbe physikalische Transportprotokoll über einen gemeinsamen Hardware-Port zu benutzen, um sowohl Kanal- als auch Netzwerkaktivitäten zu verwalten. Es ist möglich, Informationen an ein Netzwerk zu senden, das über Fibre Channel an die Rückwand einer Workstation angeschlossen ist, und zugleich Fibre Channel zu benutzen, um intern mit den lokalen Peripheriegeräten zu kommunizieren (z. B. mit Platten- und Bandlaufwerken).

Protokollmerkmale von Fibre Channel: Fibre Channel enthält keinen Befehlssatz wie beispielsweise SCSI und IPI, sondern stellt einen Mechanismus zur Verfügung, um andere Protokolle auf Fibre Channel aufzusetzen. Dies ist möglich, indem Fibre Channel als Träger für diese Befehlssätze dient, und zwar so, dass der Empfänger zwischen beiden unterscheiden kann. Dies impliziert, dass diverse Befehlssätze älterer I/O-Schnittstellen, für die bisher Software-Investitionen erforderlich waren, direkt auf Fibre Channel angewendet werden.

Die Trennung der I/O-Operationen von der physikalischen I/O-Schnittstelle ist ein wichtiges Leistungsmerkmal von Fibre Channel und ermöglicht die simultane Benutzung unterschiedlicher Befehlssätze. Die verschiedenen Befehlssätze, wie z. B. SCSI, IPI-3, IP etc., werden üblicherweise an ihren eigenen, speziellen Schnittstellen verwendet. Fibre Channel definiert hingegen einen einzigen gemeinsamen, physikalischen Übertragungsmechanismus für diese Befehlssätze.

Fibre Channel

- ist sich des Inhalts oder der Bedeutung der gerade übertragenen Informationen nicht bewusst

- erhöht die Konnektivität von Dutzenden auf Hunderte oder sogar Tausende von Geräten

- vergrössert den Maximalabstand zwischen den Geräten

- erhöht die Übertragungsrate um das Vier- bis Fünffache gegenüber den verbreitetsten Kanälen und um das Hundertfache gegenüber gängigen Netzwerken.

In den folgenden Abschnitten wird beschrieben, wie Fibre Channel den Aufbau eines Netzwerks erlaubt.

Vernetzungstopologien

Fibre-Channel-Geräte werden auch Knoten (engl. nodes) genannt, von denen jeder mindestens einen Port hat, um einen Zugang zur Aussenwelt (d. h. zu einem anderen Knoten) zu schaffen. Die Komponenten, die zwei oder mehr Ports miteinander verbinden, werden unter der Bezeichnung Topologie zusammengefasst. Alle Fibre-Channel-Systeme besitzen lediglich diese beiden Elemente: Knoten mit Ports und Topologien.

Jeder Fibre-Channel-Port verwendet ein Leiterpaar - einen Leiter, um zum Port gehende Informationen zu übertragen, und einen, um vom Port kommende Informationen zu übertragen. Bei Fibre Channel handelt es sich entweder um elektrische Leiter oder um Lichtwellenleiter. Dieses Faserpaar wird Verbindung (engl. link) genannt und ist Bestandteil jeder Topologie. Siehe Abbildungen 2 bis 4.

Daten werden immer in Einheiten (so genannten Frames oder Rahmen) über diese Verbindungen übertragen. Die Fibre-Channel-Norm definiert drei Topologien, doch liegt die Betonung vor allem auf einer Topologie, die auch Fabric-System genannt wird und als Erstes beschrieben werden soll.

Fabric-Topologie

Ein Fabric-System (siehe Abbildung 2) erlaubt dynamische Kopplungen zwischen Knoten über die an dieses System angeschlossenen Ports. Zu beachten ist, dass der Begriff Fabric in dieser Anwendung als Synonym für die Begriffe Switch bzw. Router gelten kann. Jeder Port in einem Knoten, ein so genannter N_Port oder NL_Port, ist an das Fabric-System über eine Verbindung angeschlossen. Jeder Port in einem Fabric-System wird F_Port genannt. Jeder Knoten kann mit jedem anderen, an andere F_Ports desselben Fabric-Systems angeschlossenen Ports mit Hilfe der Dienste des Fabric-Systems kommunizieren. Bei dieser Art von Topologie werden alle Leitwegoperationen für die Rahmen vom Fabric-System anstelle der Ports durchgeführt.

Dieser Jeder-mit-jedem- bzw. Peer-to-Peer-Dienst ist ein wesentlicher Bestandteil der Auslegung des Fibre Channels. Ein System, das für Peer-to-Peer-Dienste ausgelegt wurde, kann so verwendet werden, dass das Master-Slave-Kommunikationsverfahren des Typs Host emuliert wird. Auf diese Weise kann Fibre-Channel-Kanal- und Netzwerkprotokolle simultan unterstützen.

Wie ein Fernsprechsystem

Die Funktion des Fabric-Systems ist der eines Fernsprechsystems vergleichbar - wir wählen irgendeine Rufnummer, das Fernsprechsystem findet den Pfad zum gewünschten Zielanschluss, der Rufton ertönt, und der Angerufene antwortet. Wenn eine Vermittlungsstelle oder Verbindung abstürzt, leitet das Fernsprechunternehmen die Anrufe über andere Pfade um, was der Anrufer selten bemerkt. Die meisten von uns wissen nichts von den Zwischenverbindungen, die das Fernsprechunternehmen schaltet, um unseren einfachen Anruf erfolgreich werden zu lassen.

Wir geben dem Fernsprechunternehmen jedoch einige Hinweise zu unserem Anruf. Die Rufnummer beginnt beispielsweise (in den U.S.A.) mit der Ziffer 1 - gefolgt von zehn Ziffern in Form einer Ortsvorwahl- (3), Vermittlungsstellen- (3) sowie Teilnehmernummer (4). Wenn am Anfang der Rufnummer nicht die Ziffer 1 steht, gilt der Anruf innerhalb des Ortsvorwahlbereichs des Anrufers, und es werden lediglich sieben Ziffern verwendet. Diese Hinweise helfen der Fernsprechgesellschaft, die Verbindung herzustellen. Die Rufnummer entspricht dem Fibre-Channel-Adress-ID. Ein Teil der Adress-ID wird verwendet, um die betreffende Domain des Fabric-Systems zu bestimmen, und der Rest dient dazu, den speziellen Port zu ermitteln.

Zu beachten ist, dass das Fernsprechsystem nicht am Inhalt des Gesprächs zwischen den beiden Fernsprechteilnehmern beteiligt ist (bzw. von ihm betroffen ist); es sorgt lediglich für die Herstellung der Verbindung. In gleicher Weise sorgt Fibre Channel für die Verbindung, und die aufgesetzten Protokolle (z. B. SCSI oder IPI) tragen die Befehle. Diese Protokolle spielen eine ähnliche Rolle wie die Sprachen in Fernsprechsystemen. Fibre Channel und die anderen Protokolle sollten als integraler Bestandteil des Informationsaustauschs gesehen werden.

Der Weg von A nach C

Die Komplexität eines Fabric-Systems ist vergleichbar mit der von Vermittlungsstellen des Fernsprechsystems; die entsprechenden Fabric-Geräte werden Fabric-Elemente genannt. In Abbildung 2 wird nur ein Fabric-Element mit vier F_Ports dargestellt, die mit a, b, c und d gekennzeichnet sind. Wenn Knoten A mit Knoten C sprechen muss, wird die Information zunächst an das Fabric-System in F_Port a gesandt. Das Fabric-System stellt eine interne Verbindung oder eine Reihe von Verbindungen zu F_Port c her. Die Information wird dann an Knoten c gesandt. Es ist u. U. erforderlich, mehrere Fabric-interne Pfade auszuwählen, ehe man zu F_Port c gelangt.

Das Fabric-System kann aus einem einzigen oder mehreren Fabric-Elementen bestehen. Wie bei Fernsprechsystemen wissen wir nicht (bzw. kümmern uns nicht darum), durch wie viele Switches (Vermittlungsstellen) wir gehen müssen, solange wir mit der richtigen Zielstation verbunden werden.

Ein Fabric-System wird auch vermittelte Topologie oder Koppelpunkt-Vermittlungstopologie genannt. Die Leitweglenkung (Routing) über verschiedene Switches erfolgt, indem die Fabric-Elemente die Zieladresse-ID im Rahmen interpretieren, sobald es in jedem Fabric-Element ankommt.

Das Fabric-System lässt sich physikalisch als einzelnes Fabric-Element mit mehreren F_Ports implementieren (wie aus Abbildung 2 ersichtlich), oder es kann als eine Reihe mehrerer derartiger, untereinander verbundener Fabric-Elemente implementiert werden. Die Leitweglenkung bzw. Vermittlung jeder Kopplung ist transparent für die beiden N_Ports, die über F_Ports an die Fabric-Aussenkante angeschlossen sind.

Wenn die Topologie von den Knoten getrennt ist, wie dies beim Fernsprechsystem und Fibre Channel der Fall ist, können neue Technologien für die Leiter eingeführt werden. Neue Geschwindigkeiten und neue Funktionen können im Fabric-System implementiert werden, ohne dass dadurch alle vorhergehenden Investitionen in vorhandene Knoten verloren gehen. Fibre Channel erlaubt die Kombination von Zusatzgeräten mit unterschiedlichen Geschwindigkeiten oder Eigenschaften.

Andere Topologien

Neben der Fabric-Systemtopologie definiert die Fibre-Channel-Norm zwei weitere Topologien. Die eine trägt die Bezeichnung Point-to-Point-Topolopie (siehe Abbildung 3) mit nur zwei angeschlossenen Ports. In diesem Fall findet keine Leitweglenkung statt. Die dritte Topologie heisst Arbitrated Loop (siehe Abbildung 4). Hierbei handelt es sich um eine einfache und preisgünstige Topologie für den Anschluss mehrerer Dutzend NL_Ports an einen Loop. Die Ports in einer Arbitrated-Loop-Topologie, die NL_Ports und FL_Ports heissen, unterscheiden sich geringfügig von den N_Ports und F_Ports. Sie beinhalten alle Funktionen von N_Ports und F_Ports und können ordnungsgemäss in einem Fabric-System arbeiten. Beim FL_Port handelt es sich um einen Port in einem Fabric-System, der das Arbitrated-Loop-Protokoll verarbeitet.

Beim Arbitrated Loop sieht jeder Port alle Meldungen (wie beim Token-Ring-Protokoll) und übergeht und ignoriert diejenigen Meldungen, die kein Token-Acquisition-Protokoll besitzen.

Um die Funktion einer Fabric-Systemtopologie besser verständlich zu machen, soll im Folgenden die Analogie zum Fernsprechsystem weitergeführt werden: Sie wählen die Rufnummer eines Freundes. Dazu brauchen Sie den genauen Leitweg nicht zu kennen, den das Fernsprechsystem bis zum Haus Ihres Freundes verfolgt, wenn Sie ihn anrufen. Die Leitweglenkung besorgt das Fernsprechsystem. Das Fabric-System von Fibre Channel hat die gleiche Funktion: Man gibt eine Zieladresse ein, und das Fabric-System leitet die Daten zum Ziel-N_Port.

Wenn Sie eine falsche Rufnummer wählen, teilt Ihnen das Fernsprechunternehmen mit, dass es unter dieser Nummer keinen Anschluss gibt. Das Fabric-System weist Rahmen für ungültige Ziele in vergleichbarer Weise zurück.

So wie das Fernsprechunternehmen zahlreiche Leitwege zwischen unterschiedlichen Punkten konfigurieren kann und dies auch tut, um einen zuverlässigen Dienst bereitzustellen, kann ein Fabric-System zahlreiche Pfade zwischen Fabric-Elementen haben, um den Verkehr abzuwickeln. Dies ermöglicht auch die Bereitstellung von Reservepfaden für den Fall, dass ein Element oder eine Verbindung ausfällt.

Die Fabric-System- und Arbitrated Loop-Topologien von Fibre Channel können miteinander in einem System gemischt werden, um den Knoten eine Vielzahl von Dienst- und Leistungsgraden zu verleihen. Zudem kann das Fabric-System andere Netzwerke wie etwa SONET oder ATM über SONET zwischen Fabric-Elementen benutzen, um Abstände zwischen Knoten zu überbrücken, die zu gross sind, als dass sie von der Verbindung zwischen N_Ports bewältigt werden könnten. Diese speziellen Verbindungen können zwischen Fabric-Elementen bestehen, die über ein grösseres geografisches Gebiet verteilt und nicht direkt an Knoten angeschlossen sind.

Die Fähigkeit, andere Typen von Verbindungen zwischen Fabric-Elementen hinzuzufügen, die Erweiterungsports bzw. E_Ports genannt werden, erhöht den Wert jedes an das Fabric-System angeschlossenen Laufwerks. Bestimmte Attribute von Fibre Channel und eines Fabric-Systems ermöglichen es Ports mit unterschiedlichen Geschwindigkeiten und Medientypen, miteinander entweder über kurze oder lange Entfernungen zu kommunizieren, wenn ein Fabric-System vorhanden ist.

Im Fabric-System selbst können auch Technologieverbesserungen implementiert werden, ohne dass die N_Ports in irgendeiner Weise verändert werden müssen. Der Grossteil des Nutzens der neuen Technologie wird aufgrund der höheren Geschwindigkeit indirekt an die Knoten weitergegeben, da die Geschwindigkeit, die Zuverlässigkeit bzw. die Kommunikationsdistanz innerhalb des Fabric-Systems erhöht werden.

Wie viele N_Ports können implementiert werden? Das Fabric-System wird lediglich durch die Zahl der N_Ports begrenzt, die im Zieladressfeld im Header des Rahmens genannt wird. Diese Begrenzung liegt bei etwas mehr als 16 Millionen Ports, die gleichzeitig bei einem Fabric-System mit 24-bit-Adress-ID angemeldet werden können. Bei einzelnen integrierten Systemen dürfte dies alle Erfordernisse für eine ganze Weile abdecken.

In der Fabric-Systemtopologie ist die Adress-ID in drei Teile unterteilt: Domain (8 bit), Gebiet (8 bit) und Port (8 bit), was insgesamt 24 bit ergibt. Diese Bestandteile sind vergleichbar mit denen einer Rufnummer mit Ortsvorwahl-, Vermittlungsstellen- und Teilnehmernummer.

Funktionsschichten

Manche Themen gehören einfach naturgemäss zusammen, was auch für Fibre Channel gilt. Aspekte, die mit dem Aufbau zuverlässiger und prüfbarer Lichtwellenleiter-Verbindungen zu tun haben, haben wenig mit der Frage zu tun, wie Probleme aufgrund eines verloren gegangenen Rahmens behoben werden können. Diese unterschiedlichen Interessengebiete werden in der Fibre-Channel-Norm Funktionsschichten genannt. Definiert werden in dieser Norm fünf Schichten, die jeweils mit FC-x gekennzeichnet sind.

FC-0

definiert die physikalischen Fibre-Channel-Anteile, einschliesslich der Medientypen, Anschlüsse sowie der elektrischen und optischen Leistungsmerkmale, die für die Port-Anschlüsse benötigt werden. Diese Schicht ist in der FC-PH-Norm beschrieben.

FC-1

definiert das Übertragungsprotokoll, einschliesslich der 8B/10B-Kodierung, der Reihenfolge der Wortübertragung und der Fehlererfassung. Diese Schicht ist in der FC-PH-Norm beschrieben.

FC-2

definiert das Signalisierungs- und Framingprotokoll, einschliesslich Rahmen-Layout, Inhalt des Rahmen-Headers und Anwendungsregeln. Es definiert zudem bestimmte protokollunabhängige Rahmen und Protokolle wie etwa die Benutzeranmeldung (Login). Die FC-PH-Norm besteht überwiegend aus der Beschreibung dieser Schicht.

FC-3

definiert gemeinsam genutzte Dienste, die an verschiedenen Ports in einem Knoten verfügbar sein können. Für diese Schicht gibt es keine Norm.

FC-4

definiert das Mapping zwischen den unteren Fibre-Channel-Schichten und den Befehlssätzen, die Fibre Channel benutzen. Hier finden Sie SCSI, IPI-3, HIPPI und SBCS. Jeder dieser Befehlssätze erhält eine gesonderte Norm, da interessierte Dritte nicht unnötig mit systemfremden Informationen befasst werden sollen. Wenn Sie mit SCSI-3 arbeiten, sind Sie vermutlich nicht an IPI-3 oder HIPPI interessiert.

Abbildung 5 zeigt die interne Struktur eines Fibre Channel-Knotens mit einem N_Port. Zulässig sind auch mehrere N_Ports je Knoten. Hat ein Knoten mehr als einen N_Port, so werden die Schichten FC-0 und FC-2 für jeden N_Port reproduziert. Die Schichten FC-3 und FC-4 werden von mehreren N_Ports gemeinsam genutzt. Die Abbildung zeigt jede dieser Funktionsschichten. Die Schicht für die gemeinsam genutzten Dienste hat bisher keine definierten Komponenten. Im Verlauf der weiteren Entwicklungsarbeiten im Zusammenhang mit dieser Norm werden von dieser Schicht neue Funktionen aufgenommen.

Auf der Schicht FC-4 kann ein Knoten nicht alle von der Norm zugelassenen unterschiedlichen Optionen aufnehmen. Jeder Knoten kann einen oder mehrere Dienste implementieren. Auf der Schicht FC-0 kann lediglich eine Geschwindigkeits- und Medientyp-Option (Beschreibung folgt) in einem N_Port implementiert werden. Jeder einzelne Port in einem Knoten kann jedoch eine unterschiedliche Kombination von Geschwindigkeit und Medium implementieren. Die Schicht FC-2 unterstützt auch zahlreiche Optionen, aus denen ein bestimmter Hersteller gewählt werden muss. Einige Industriegruppen arbeiten bereits daran, Profile zu definieren, die die Betriebsumgebung spezifizieren, die für einige Anwendungen erforderlich ist (z. B. SCSI, HIPPI, IPI-3 usw). Auf der Schicht FC-1 gibt es keine Optionen.

Mehrere der FC-2, die derzeit definiert werden, sollen im Folgenden skizziert werden. Jede FC-4 wird als Einzelbestandteil der Norm in einem gesonderten Dokument entwickelt. Ein Hersteller kann sich genau auf das bzw. die FC-4 konzentrieren, für die er sich interessiert, und braucht sich nicht unnötig mit den Anforderungen für die anderen FC-4 zu befassen.

Wenn bei der Entwicklung eines Produkts oder bei Beschaffungsplänen eine Erweiterungsoption vorgesehen ist, sollten anderen potenziellen FC-4 prüfen, so dass eine übergeordnete Port-Anforderungsliste vorhanden ist, wenn die Erweiterung realisiert wird. Ein Systemanbieter, der das IPI-3-Protokoll integriert und plant, später das Internet Protocol (IP) einzubauen, sollte sorgfältig beide FC-4 in Betracht ziehen, ehe er sich für ein Port-Design entscheidet, da die Anforderungen unterschiedlich sind.

HIPPI (High Performance Parallel Interface)

Eines der ursprünglichen Ziele von Fibre Channel bestand darin, HIPPI durch eine serielle Hochgeschwindigkeitsschnittstelle zu ersetzen. Der Begriff parallel rührt noch vom ursprünglichen Verkabelungssystem her, das aus zwei Sätzen paralleler Kabel bestand. Bei HIPPI handelt es sich um ein Vollduplex-Protokoll, das vorrangig dazu dienen sollte, grosse Datenmengen mit geringem oder keinem Systemverarbeitungsaufwand zu transportieren.

HIPPI hat keinen systemeigenen Befehlssatz. Es hat lediglich Quellen und Ziele, doch in der Regel wird IPI-3 verwendet, wenn ein Befehlssatz erforderlich ist. Weitere Informationen zu IPI-3 enthält der folgende Abschnitt. HIPPI arbeitet mit 100 MB/s in beiden Richtungen über kurze Parallelkabel. Zeitweise wurde an der Definition eines seriellen HIPPI gearbeitet, doch wurde diese Arbeit unterbrochen, als die Entwicklung von Fibre Channel begann.

IPI-3 (Intelligent Peripheral Interface-3)

In der Bezeichnung IPI-3 steht die Zahl 3 nicht für "Version 3". IPI definiert - als Normenfamilie - verschiedene Schichten. Level 3 gilt als die geeignete Schicht für die Übertragung von Befehlen und Daten, wenn intelligente Geräte an das System angeschlossen sind. IPI-3 erlaubt auch die Datenübertragung über grosse Entfernungen, da während der Datenübertragung kein Takten erforderlich ist. Bei der Parallelversion von IPI-3 handelt es sich um ein Halbduplex-Protokoll. In der Fibre Channel-Version von IPI-3 bleibt dieser Halbduplex-Charakter erhalten. IPI-3 erlaubt zudem das Einreihen verschiedener vom Master kommender Befehle in eine Warteschlange im Slave. IPI-3 spezifiziert eine Geschwindigkeit von bis zu 100 MB/s auf kurzen, parallelen Kupferkabeln. IPI-3 definiert Befehlssätze für jede von IPI-3 unterstützte Geräteklasse.

SBCS (Single Byte Command Set)

SBCS überträgt - wie es der Name schon sagt - Befehle, die nur ein einzelnes Informationsbyte haben. Es handelt sich hierbei um ein parallel arbeitendes Halbduplex-Protokoll, das viel von diesem Charakter in seiner Fibre-Channel-Implementierung beibehält. SBCS wurde vom IBM-Byte/Block-Multiplexerkanal abgeleitet, der seinen Ursprung in IBM-Systemen der 70er Jahre hat. Es ist auch heute noch beliebt, und es gibt eine IBM-spezifische Version namens ESCON, die mit Fasern und 8B/10B-Kodierung arbeitet und eine Geschwindigkeit von 20 MB/s in beiden Richtungen erreicht. ESCON besitzt zudem vordefinierte Schalter, die ähnlich wie der im nächsten Abschnitt beschriebene Class-1-Dienst funktionieren. Der Befehlssatz ist bei SBCS nicht normiert; lediglich die Mechanismen zum Senden von Befehlen, Status- und Prüfdaten sind definiert. Jedes Produkt kann seine eigenen Befehle innerhalb der Klasse für Lesen, Schreiben, Lesewiederholkontrolle, Steuerung und Prüfung definieren.

Zusatz-Fibre-Channel-Arbitrated-Loop (FC-AL)

Eine abgespeckte Version des Fibre Channel ist der Fibre Channel-AL. AL bedeuted Arbitrated Loop und beschreibt die Topologie dieses für lokale Geräte und Disc Arrays entworfenen Fibre Channel-Typs. Die max. 127 Loop-Ports (NL-Ports) sind als Ring angeordnet. Der Datenaustausch ist nur als Point-to-Point-Verbindung möglich. Jedes Datenpaket gelangt zunächst über den Read-Port in das Device. Dieses prüft, ob es die Informationen bearbeiten soll. Wenn nicht, schickt es sie über den Write-Port wieder hinaus. Um diesen Datentransfer zu veranlassen, muss sich das Device zunächst um die Kontrolle über den Bus bemühen. Paralleler Datenaustausch mehrerer Geräte (wie bei der allgemeinen Fibre-Channel-Definition) ist nicht möglich.

Um Disk Arrays besser handhaben zu können, unterstützt der FC-AL neben der normalen Kabelverbindung auch die Backplane-Architektur. Die Festplatten werden über einen 40-poligen SCA (Single Connector Attachment)-Stecker, der sowohl Datenleitungen als auch Stromversorgung beinhaltet, an die Backplane angeschlossen. Steckt in einem Port kein Laufwerk, überbrückt die Backplanelogik den leeren Steckplatz, und der Kreis bleibt geschlossen. Eine weitere Aufgabe der Backplane ist die automatische Konfiguration des Laufwerks sowie die Sicherstellung der Hot-Plug-Funktion, also der Wechsel eines Laufwerks während des Betriebs.

Das gleiche Prinzip wird auch von Fibre-Channel-Hubs verwendet. Da bei einem Fibre-Channel-Loop der Ausfall eines Gerätes oder Defekt eines Kabels den Kreis unterbricht und so den ganzen Bus blockiert, überbrückt der Hub jeden Port, der entweder ungenutzt ist, oder aber durch Störungen blockiert wird (s. Abbildung). Der Datenfluss zu den anderen Devices wird so nicht unterbrochen und der Bus arbeitet normal weiter.

FC-AL Produkte werden seit Herbst 1996 angeboten. Nachdem sie anfangs auf High-End-Raid-Systeme beschränkt waren, spielen sie wegen des immer grösseren Speicherbedarfs auch kleinerer Server eine immer grössere Rolle. Nähere Informationen zu Produkten sind im Kapitel Fibre Channel zu finden.

SSA

SSA (Serial Storage Architecture) ist eine High-Performance-Schnittstelle, die I/O-Devices aller Plattformen miteinander verbindet.

Diese serielle, busähnliche Schnittstelle wurde von IBM basierend auf der IBM-9333-Technologie entwickelt und dient vorwiegend zum Anschluss von Festplatten. Hiermit lassen sich bis zu 128 Geräte untereinander verbinden.

Wie der Fibre Channel ist die SSA eine Point-to-Point-Verbindung, wobei allerdings zwei Write- und zwei Read-Kanäle zur Verfügung stehen. Auf jedem Kanal (Write/Read) ist eine maximale Transferrate von 20 MB/s möglich, was einer kumulierten Transferrate von 80 MB entspricht. Diese kann aber nur erreicht werden, wenn das Schreib-Lese-Verhältnis 1:1 beträgt und der Hostadapter auf Daten zugreift, die sich auf mindestens vier Platten befinden.

Bei Entfernungen von bis zu 20 m zwischen zwei zu verbindenden Devices genügt ein normales Twisted-Pair-Kabel. Glasfaserkabel kommen bei Längen bis zu 680 m zum Einsatz. Nur 6% der über SSA beförderten Daten werden für Control- bzw. Routing-Funktionen verwendet, d.h. 94% der Daten sind Benutzerdaten. SSA wird jedoch nur von wenigen Herstellern (wie IBM, Siemens, Micropolis) unterstützt und wird im Laufe der nächsten Jahre wohl ganz durch die Fibre-Channel-Arbitrated-Loop-Technologie abgelöst werden.

Storage Area Network (SAN)

Das LAN ermöglicht den Zugriff auf lokale Systeme, die über Kommunikationsprotokolle wie TCP/IP, NFS, HTTP verfügen. LANs werden benutzt, um Daten zwischen verschiedenen Host-Systemen und um Benutzerzugriffe auf Systeme wie Workstations, Terminals und andere Geräte zu übertragen. LANs handhaben den Informationsfluss zwischen Host-Systemen und Benutzer. Im Gegensatz hierzu ermöglicht SAN, den Informationsfluss mit der gesamten Umgebung zu teilen, das heisst zwischen den Rechnern und den Speichereinheiten und schliesslich zwischen den Speichereinheiten selbst. So lassen sich Speichereinheiten von allen am SAN angeschlossenen Rechnern ansprechen. Ähnlich wie in LAN-Netzwerken (Ethernet, FDDI, ATM und Token Ring) gibt es auch beim SAN unterschiedliche Topologien, um so ein Storage Area Network aufzubauen.

Storage Area Networks sind besondere Speichernetzwerke, die Server und Speichersysteme über Breitbandnetzwerke verbindet. In diesem Netzwerk spielt es zunächst prinzipiell keine Rolle, welches Betriebssystem auf einem Server installiert ist. Das heisst, es können mehrere unterschiedliche Server auf verschiedene Speicher-Subsysteme in einem Netzwerk zugreifen. Im Prinzip kann ein Storage Area Network mit einem einfachen oder mit zwei Kabeln aufgebaut werden. Die SCSI-Technologie ist die bekannteste Art, ein Storage Area Network in der einfachsten Form aufzubauen. Wegen der grossen Einschränkungen wie Gerätenanzahl, Distanzen, Terminierung etc. ist die Fibre-Channel-Technologie das für SANs heute normalerweise eingesetzte Kommunikationsmedium. Durch die Eigenschaften von Fibre Channel eignet sie sich hervorragend als Medium. Die Anforderungen eines SANs sind eine garantierte Bandbreite (Netzwerkgeschwindigkeit) und geringe Fehlerraten (1 Fehler in 10 hoch 9, d. h. ein Fehler in der Sekunde).

Fibre Channel bietet Vorteile, wie

Im Moment wird an den Datentransferraten des Fibre Channels gearbeitet, so dass schon in naher Zukunft die Datentransferraten auf 2 GBaud und 4 GBaud gesteigert werden. Weitere Informationen können im Kapitel Fibre Channel nachgelesen werden.

Durch das SAN kann das LAN entlastet werden, da der gesamte Informationsaustausch in diesem Speichernetzwerk abgewickelt wird. Wenn man Backup-Laufwerke auch an das SAN und nicht an das LAN anschliesst, kann man mit entsprechender Software eine weitere Entlastung erreichen. Dies ermöglicht eine einfachere Verwaltung der Systeme und höhere Datentransferraten. Ein Storage Area Network bietet die ideale Möglichkeit die gesamten Informationen zu zentralisieren.

Die unkomplizierteste Art, ein Storage Area Network aufzubauen, ist die Punkt-zu-Punkt-Verbindung über Fibre Channel. Sie verbindet zum Beispiel ein RAID-System mit einem Rechner. Man benötigt hierfür nur einen Hostadapter (HBA), ein Kabel und ein Fibre-Channel-Subsystem (RAID etc.) und als Abschluss einen Loopback Plug, der den internen Loop wieder schliesst. Durch die einfache Kabelverbindung ist diese Installation wesentlich einfacher als SCSI.

Ein grösseres System wird über Switches oder Hubs in Form der Ringtopologie aufgebaut. Diese Ringtopologie wird FC-AL genannt und verbindet mehrere Rechner mit mehreren Speichereinheiten. Der FC-AL (Fibre-Channel-Arbitrated-Loop) ermöglicht eine Zuteilung der Geräte, Leitungen und Benutzerzeiten. Fibre Channel benötigt nicht zwingend ein Lichtwellenleiter, sondern kann auch mit einem einfachen Kupferkabel realisiert werden. Der einzige Nachteil ist die geringere Distanz, die mit Kupfer überbrückt werden kann (ca. 30 m).

Bisher wurde über die Hardware des SAN berichtet, um allerdings auch die Daten auf diesen Speichereinheiten teilen zu können, bedarf es einer speziellen SAN-Software. Diese Software benutzt die Speichernetzwerke und ermöglicht ein File-Sharing auf den Speicher-Subsystemen. Jedes System, unabhängig vom Betriebssystem, kann somit zu jeder Zeit auf jede Speichereinheit zugreifen und die Daten abrufen. Man spricht deshalb von einem SAN-Betriebssystem, das aber auf dem "normalen" Betriebssystem aufgesetzt ist. Firmen wie Veritas, Mercury oder SANergy bieten SAN-Software, die innerhalb des Speichernetzwerkes Spiegelungen erstellen, synchronisieren und im Fehlerfall die gespiegelte Speichereinheit aktivieren, während die Applikationen online sind. Die Software ermöglicht ein unterbrechungsfreies, dynamisches Verändern des Applikationsvolumens. Des Weiteren erlaubt die Software eine Zuweisung von Speichereinheiten oder einer Gruppe von Speichereinheiten und einem Server. Einige SAN-Software-Applikationen unterstützen Clustering, um eine verbesserte Datenverfügbarkeit innerhalb des Speichernetzes zu gewährleisten. Bei Clustering sind die Speichereinheiten keinem Server explizit zugeordnet, ausser wenn dies über Rechte konfiguriert wurde, so dass bei einem Serverausfall die Speichereinheit über Backup-Pfade trotzdem erreichbar ist oder einem anderen Server zugeordnet wird. Die SAN-Software von Veritas unterstützt folgende Datenbanken :

Es wird also nicht zwingend eine Software benötigt, um ein funktionierendes SAN-Netzwerk aufzubauen. In diesem Fall müssen nur die entsprechenden Verbindungen zwischen Rechnern und Speichereinheiten hergestellt werden. Die Speichereinheiten werden schliesslich dem Rechner über das Betriebssystem zugewiesen. Dazu reichen die Standardwerkzeuge, die in den jeweiligen Betriebssystemen fest integriert sind, völlig aus. Weitergehende Funktionen erfordern eine zusätzliche Software.

Firmen, die mit sehr hohen Datenkapazitäten zu tun haben oder in Planung sind, sollten sich auf jeden Fall mit dieser Thematik befassen, da für diese Technologie eine komplett neue Struktur notwendig ist.

DSSI-Schnittstelle

Die digitaleigene DSSI-Schnittstelle ist in Bezug auf die Hardware der SCSI-1-Schnittstelle sehr ähnlich. Im Gegensatz zu SCSI sitzt aber noch mehr Intelligenz in dem ISE (Intelligent Storage Element) genannten Laufwerk. Sie wurde jedoch durch SCSI fast völlig verdrängt.

IDE-Schnittstelle

Im PC-Bereich ist die IDE-Schnittstelle (Integrated Drive Electronics) sehr weit verbreitet. Sie hat die älteren ST506-Schnittstellen inzwischen völlig abgelöst. Es lassen sich maximal zwei Festplatten pro IDE-Schnittstelle anschliessen. Sollen zwei IDE-Festplatten betrieben werden, wird eine Festplatte als Master, die andere als Slave konfiguriert. Zu beachten ist, dass IDE-Festplatten standardmässig immer als Master-Drive und nicht als Slave konfiguriert werden.

Bei der ursprünglichen IDE-Schnittstelle, auch AT-Bus oder ATA (AT-Attachment) genannt, konnten theoretisch maximal etwa 4,3 MB/s übertragen werden. In der Praxis werden jedoch nur circa 2 MB/s erreicht. Sie ist ausschliesslich zum Anschluss von Festplattenlaufwerken vorgesehen und unterstützt somit keine anderen Peripheriegeräte. Um den gestiegenen Leistungsanforderungen gerecht zu werden, ist daher die IDE-Schnittstelle weiterentwickelt worden:

Fast-ATA und Enhanced IDE

Die Unterschiede der beiden Entwicklungen liegen primär in der Marketingstrategie; die Implementierungen und Funktionen sind weitgehend gleich. Sowohl Fast-ATA als auch Enhanced IDE bleiben kompatibel zu den älteren IDE-Adaptern und -Festplatten. Sie verwenden das gleiche 40-polige Kabel.

Für Enhanced IDE gibt es unter dem Namen ATAPI (AT Attachment Packed Interface) Erweiterungen, mit denen ähnlich wie bei SCSI der Anschluss von Peripheriegeräten wie CD-ROM, Bandlaufwerken, Scannern usw. möglich ist.

UltraATA

Bei UltraATA wird, ähnlich wie bei Ultra-SCSI, die Taktrate auf dem Bus der Fast-ATA Schnittstelle erhöht. Somit erhält man bei UltraATA eine Datenübertragungsrate von 33 MB/s auf dem Bus.

UltraATA/66 und UltraATA/100

Nach zwei weiteren Steigerungen ist die Rate mittlerweile bei 100 MHz angekommen. Die Anforderung an die Verkabelung ist wegen der hohen Taktrate aber seit ATA100 strenger: Es werden spezielle 80-polige Kabel benötigt. Da der Stecker aber unverändert bleibt, können ältere Platten und Controller mit den neuen Standards kombiniert werden, natürlich um den Preis der geringeren Performance.

USB-Schnittstelle

USB (Universal Serial Bus) ist ein neuer Schnittstellenstandard für den Anschluss externer Geräte (z. B. Drucker, Modems, Tastaturen, Monitore, digitale Kameras etc.) über ein Bussystem an PCs. Der Vorteil der USB-Schnittstelle ist die unproblematische Integration von zusätzlicher Peripherie. Der USB-Controller erkennt, ob weitere Peripherie angeschlossen wurde, installiert automatisch die benötigten Treiber und stellt die Betriebsbereitschaft her. Aufwendige Neukonfigurationen der PC-Systeme gehören der Vergangenheit an. Bis zu 127 externe Geräte können theoretisch an die USB-Schnittstelle angeschlossen werden.

Ausführliche Informationen zu USB sind erhältlich unter www.usb.org:

Recap of USB 1.1 Operation

An understanding of the roles of each of the major elements within a USB 1.1 system will better show the evolutionary step that USB 2.0 provides.

Role of Host PC hardware and software.

The role of the system software is to provide a uniform view of IO system for all applications software. It hides hardware implementation details so that application software is more portable. For the USB IO subsystem in particular, it manages the dynamic attach and detach of peripherals. This phase, called enumeration, involves communicating with the peripheral to discover the identity of a device driver that it should load, if not already loaded. A unique address is assigned to each peripheral during enumeration to be used for run-time data transfers. During run-time the host PC initiates transactions to specific peripherals, and each peripheral accepts it’s transactions and responds accordingly. Additionally the host PC software incorporates the peripheral into the system power management scheme and can manage overall system power without user interaction.

Role of the hub.

Besides the obvious role of providing additional connectivity for USB peripherals, a hub provides managed power to attached peripherals. It recognizes dynamic attachment of a peripheral and provides at least 0.5W of power per peripheral during initialization. Under control of the host PC software, the hub may provide more device power, up to a maximum of 2.5W, for peripheral operation. A newly attached hub will be assigned its unique address, and hubs may be cascaded up to five levels deep. During run-time a hub operates as a bi-directional repeater and will repeat USB signals as required on upstream (towards the host) and downstream (towards the device) cables. The hub also monitors these signals and handles transactions addressed to itself. All other transactions are repeated to attached devices. A hub supports both 12Mb/s (full-speed) and 1.5Mbs (low-speed) peripherals.

Role of the peripheral.

All USB peripherals are slaves that obey a defined protocol. They must react to request transactions sent from the host PC. The peripheral responds to control transactions that, for example, request detailed information about the device and it’s configuration. The peripheral sends and receives data to/from the host using a standard USB data format. This standardized data movement to/from the PC host and interpretation by the peripheral gives USB it’s enormous flexibility with little PC host software changes. USB 1.1 peripherals can operate at 12Mb/s or 1.5MB/s.

FireWire 1394

FireWire (IEEE 1394) ist mit maximal 400 Mbit/s ein serieller High-Speed-Datenbus, der, ursprünglich von Apple verwendet, vor allem Multimedia-Geräte wie Camcorder und digitale Kameras mit dem Rechner verbinden soll. Der Standard wurde 1995 definiert. Der Bus ermöglicht reservierte Bandbreiten, was vor allem im Videobereich gefordert wird. 16 Devices können über eine Strecke von 72 m in Serie (4,5 m pro Link) verbunden werden. Allerdings sind auch Bridges definiert, die kaskadierend die Anzahl der Devices drastisch erhöhen (maximal 1023 Bridges sind erlaubt).

Als Verbindungsmedium benutzt der FireWire ein sechspoliges Spezialkabel, das aus zwei abgeschirmten Twisted-Pair-Leitungen und zwei zusätzlichen Leitungen für die Versorgungsspannung besteht.

Achtung: dieser Script ist ein paar Jahre alt und kennt noch kein FireWire 800!


Primär-Datenspeicher

Einführung

Darunter versteht man Massenspeicher, die Daten im Random Access (direkter Zugriff auf Informationsblöcke, z. B. Magnetplatte) verfügbar machen. Zu dieser Gruppe zählen Halbleiterspeicher und magnetische Festplattenlaufwerke. Sie sind die schnellsten, aber auch die teuersten verfügbaren Speicher.

Festplattenlaufwerke

Festplatten (auch Winchesterplatten oder Magnetplatten genannt) sind die für alle Standardanwendungen üblicherweise eingesetzten Massenspeicher. Sie arbeiten mit einem magnetischen Aufzeichnungsverfahren und lassen sich beliebig oft beschreiben und lesen.

Die angebotenen Laufwerke unterscheiden sich äusserlich u. a. durch die Schnittstelle (nähere Informationen dazu im Abschnitt 4.1.2 Peripheriebusse in diesem Kapitel) und den Formfaktor.

Formfaktor

Der Formfaktor bezeichnet den Durchmesser des Datenträgers, also der Plattenscheibe(n) im Inneren der Laufwerksbox. Neben diesen Plattenscheiben enthält die Box ausserdem die Schreib-/Leseköpfe, die Mechanik zum Bewegen der Köpfe (den Aktuator), den Spindelmotor und die Logik (Elektronik).

Derzeit werden Festplatten mit 2,5"-, 3,5"- und 5,25"- Formfaktor angeboten. Kleinere Platten mit 1,8"- bzw. 1,3"- Formfaktor sind ebenfalls entwickelt worden.

Nähere Informationen zu aktuellen Festplatten finden sich im Kapitel transtec Festplattensubsysteme

.

Die Festplatten werden als Full Height (82 mm), Half Height (41 mm), Low Profile (25,4 mm = 1") und in Höhen von 19 und 12,5 mm angeboten. Die 3,5"-Versionen sind die derzeit wohl populärsten und erreichen Kapazitäten bis ca. 180 GB netto. Die grösseren 5,25"-Laufwerke werden nicht mehr weiterentwickelt.

Kapazität

Die Kapazität von Massenspeichern wird in Megabyte gemessen. Man unterscheidet Brutto- und Nettokapazität. Die Bruttokapazität entspricht der theoretischen maximalen Kapazität des Laufwerks, die sich aus der Multiplikation von Bitdichte in der Spur mit Spurlänge, Spurenzahl und Zahl der Plattenoberflächen ergibt. Die Nettokapazität gibt an, wieviel Platz tatsächlich auf einem Laufwerk nutzbar ist.

Die vom Hersteller angegebene Nettokapazität unterscheidet sich erheblich von der tatsächlich für den Anwender nutzbaren Nettokapazität. Dies liegt zum Einen darin begründet, dass zwischen den Blöcken etwa 10 bis 20 Prozent der Kapazität für Fehlerkorrektur- und Adressinformationen belegt sind. Zum Anderen jedoch sind sich Hersteller von Festplatten und Hersteller von Betriebssystemen über die Definition eines Megabytes uneinig: Plattenhersteller rechnen mit 1000 x 1000 Byte = 1 MB (= 1.000.000 Bytes), während die meisten Betriebssysteme von 1024 x 1024 Byte = 1 MB (1.048.576 Bytes oder Zeichen) ausgehen. Weiterhin benötigt das File-System einigen Platz für Verwaltungsdaten (z. B. SunOS reserviert darüber hinaus noch ca. 10 % eines File-Systems als stille Reserve und zeigt diese bei dem Kommando df dem Benutzer nicht an). Dazu ist die Nettokapazität abhängig von der Formatierung. Sie ist keine absolut feststehende Grösse, sondern in gewissem Rahmen veränderbar. Wie gross ein Massenspeicher dimensioniert werden muss, hängt von der Anwendung ab. Besonders bei Audio/Video (A/V) Anwendungen, Grafikprogrammen und Publishing-Programmen fallen sehr grosse Datenmengen an. Aber auch das Betriebssystem selbst und die Anwendungsprogramme benötigen sehr viel Speicherplatz, sodass eine anfänglich gross erscheinende Festplatte sehr schnell mit Programmen und Daten gefüllt ist. Man rechnet derzeit mit einer jährlichen Verdoppelung des benötigten Speicherplatzes.

Grundsätzlich sollte die Festplattenkapazität grosszügig geplant werden, da meist mehr Platz benötigt wird als ursprünglich angenommen. Ebenfalls ist zu berücksichtigen, dass die Performance bei allzu starker Ausnutzung der Kapazität leidet. Gegen eine viel zu grosse Dimensionierung spricht allerdings der ständige Preisverfall von Festplattenlaufwerken. Der Kauf eines Laufwerks mit geringen Platzreserven und der spätere Austausch gegen ein grösseres Laufwerk kann insgesamt preiswerter sein als der sofortige Kauf eines grösseren Laufwerks, allerdings nur, wenn der zeitliche Abstand zwischen Erstkauf und Austausch nicht zu kurz ist. Deshalb wird eine Festplatte empfohlen, die ausreichend gross für den Bedarf des nächsten Jahres ist.

Leider lassen sich nicht bei allen Betriebssystemen beliebig grosse Platten verwenden.

An HP9000 Workstations sind einige Einschränkungen zu beachten:

An den Modellen 7xx unter HP-UX 9.01 (mit Patch PHKL_3325) sowie HP-UX 9.03 - 9.05 können als Bootplatten nur Festplatten < 2.147 MB eingesetzt werden (genauer: es werden nur File-Systeme < 2 hoch 31 Bytes erkannt), als Datenplatte sind Festplatten bis 4.294 MB zulässig (< 2 hoch 32 Bytes).

Die Modelle HP9000/7xx ab HPUX 10.xx und HP9000/8xx ab HP-UX 9.xx verfügen über einen LVM (Logical Volume Manager). Dieser ermöglicht Bootplatten bis zu 4.294 MB und unbegrenzt (bzw. nur limitiert durch die Anzahl der möglichen Filesysteme je SCSI-ID) grosse Datenplatten. Soll ein File-System > 4.294 MB angesprochen werden, zerlegt der LVM es einfach in mehrere logische Files und umgeht so die magische Grenze von 2 hoch 32 Bytes.

Bei den Modellen HP9000/3xx und 4xx unter HP-UX dürfen sowohl die Bootplatte wie auch die Datenplatte nicht grösser als 2.147 MB sein. Ensprechendes gilt unter DOMAIN-OS. Hier müssen die Festplatten zusätzlich auf SCSI-1 umgestellt werden.

Kapazitätseinschränkungen gibt es auch unter DOS, Win3.1, Win3.11 und Windows 95 .Es kann jeweils nur eine primäre Partition auf einer Platte konfiguriert werden, wobei im Gesamtsystem nur eine Partition aktiv sein darf. Die aktive Partition ist normalerweise die Bootpartition. Die max. Partitionsgrösse liegt leider immer noch bei 2 GB, die max. Plattengrösse bei 8 GB. Zu beachten ist, dass bei einer 2 GB grossen Partition die Blockgrösse 32 KB beträgt, d. h., wenn eine Datei von 250 Byte abgelegt wird, belegt sie trotzdem einen Block von 32 KB. Dies ist nur zu umgehen, wenn eine Blockgrösse von 8 KB konfiguriert wird, was bei einer Partitionsgrösse von 500 MB automatisch der Fall ist. Bei Windows NT beträgt die maximale File-Systemgrösse 16 Exabyte (16 Millionen Terabyte). Die maximale Plattengrösse ist also nur vom entsprechenden SCSI-Controller abhängig. Die Partitionsgrösse kann ohne Probleme bei 20 GB liegen.

Unter Sun Solaris1.x (nicht unter Solaris2.x) gibt es eine Beschränkung von File-Systemen auf 2 GB. Da maximal sieben Datenpartitionen angelegt werden können, ergibt das eine Plattenbeschränkung auf 14 GB. AIX 3.x von IBM hat ebenfalls eine Beschränkung bei File-Systemen auf 2 GB. Da aber AIX eine Festplatte mit dem LVM (Logical Volume Manager) fast beliebig einteilen kann, gibt es keine Beschränkung in der Plattengrösse. AIX 4.x unterstützt File-Systeme bis max. 64 GB, so dass hier auch grössere Platten bzw. RAID-Systeme als ein File-System angesprochen werden können.

Einige ältere Betriebssysteme (IBM AIX3.5, SGI IRIX5.x, Sun Solaris1.x) brechen die Formatierung von Festplatten über 8 GB mit einem Timeout ab. Vor Anschaffung einer grösseren Festplatte sollte in diesen Fällen geprüft werden, ob ein entsprechender Patch vorliegt.

Leistungsmerkmale

Neben der Geschwindigkeit des Prozessors selbst und natürlich auch der Grösse des Hauptspeichers ist die Leistungsfähigkeit des Primär-Massenspeichers der wichtigste Faktor für die Reaktionszeiten des Rechners. Die Daten, die von der Festplatte übertragen werden, müssen auch an einem Stück in den Hauptspeicher passen, sonst muss nachgeladen werden. Mit der zunehmenden Datenmenge, die über den Bus übertragen wird sollte auch der Hauptspeicher angepasst werden. Die Performance wird in erster Linie durch die Zugriffszeit auf die Daten und sekundär auch durch die Datenübertragungsrate bestimmt.

Die Zugriffszeit errechnet sich aus der Zeit für mehrere einzelne, nacheinander ablaufende Vorgänge:

Will ein Programm Daten lesen oder schreiben, wird zunächst im Betriebssystem ein entsprechender Request erzeugt und dem Festplattencontroller übergeben. Die Zeit, die dieser Vorgang benötigt, nennt man Betriebssystem-Overhead. Der so erzeugte Request veranlasst das Laufwerk, die Schreib-/Leseköpfe auf einen bestimmten Punkt der Plattenoberfläche zu positionieren. Diese Zeit heisst Positionierzeit. Angegeben wird hier immer die mittlere Positionierzeit, d. h. die Zeit, die der Kopfmechanismus braucht, um 1/3 der Maximalpositionierstrecke zurückzulegen. Die Settling Time gibt an, wie lange der Kopfmechanismus braucht, um sich nach einer Kopfbewegung mechanisch zu beruhigen bzw. auszuschwingen. Bei modernen Laufwerken schliesst die Positionierzeit die Settling Time bereits ein. Ist der Schreib-/Lesekopf über der entsprechenden Spur positioniert, muss er warten, bis der gewünschte Block unter ihm vorbeikommt.

Diese Wartezeit wird Latency oder auch Umdrehungswartezeit genannt. Angegeben wird hier immer die Zeit, welche die Festplatte für eine halbe Umdrehung benötigt. Diese Zeit ist ausschliesslich drehzahlabhängig. So ergibt sich z. B. bei einer Drehzahl von 7200 U/min eine Latency von 4,17 ms. Dann erst werden die Daten selbst übertragen, und zwar zuerst von der Festplatte zum Festplatten-Controller. An dieser Stelle kommt nun die (interne) Transferrate der Festplatte ins Spiel. Sie gibt die Anzahl der übertragenen Bytes in einer Sekunde an. Manchmal wird hier auch eine Frequenz angegeben. Zur Umrechnung in die Transferrate ist diese durch 8 zu teilen. Je höher die Transferrate einer Platte ist, desto kleiner ist die zum Datentransfer benötigte Transferzeit. Sind die Daten beim Festplatten-Controller angekommen, schickt dieser sie über den SCSI-Bus an den SCSI-Hostadapter. Die Transferraten über den SCSI-Bus betragen bis zu 320 MB/s. Näheres zu SCSI-Bussen steht im Kapitel Peripheriebusse

.

Je kürzer die Gesamtzeit, desto besser die Systemleistung. Dies gilt insbesondere für Betriebssysteme, die während der Wartezeit keine anderen Aufgaben erledigen können, wie beispielsweise MS-DOS. Zu beachten ist, dass in der Regel bei Vergleichen der Transferraten von Festplatten in Tabellen meistens optimale Bedingungen angenommen werden, d. h., dass der Kopf schon positioniert ist, dass ein kompletter Zylinder gelesen werden kann und einiges mehr. Einfluss auf die Transferrate hat auch die Blockung der Platte, d. h., wie viele Bytes zu einem Sektor zusammengefasst werden. Allgemein üblich sind 512 Bytes/Sektor. Man kann aber die Platten auch mit bis zu 4096 Bytes/Sektor formatieren. In dem Fall ist auf der Platte mehr Platz für Benutzerdaten, weil weniger Platz für Formatinformationen notwendig ist. Dies wiederum führt zu einer höheren Nettotransferrate. Dies ist jedoch nicht bei allen Betriebssystemen möglich und nicht bei allen Anwendungen sinnvoll. Je kleiner die Files sind, die üblicherweise gelesen oder geschrieben werden, desto kleiner sollte auch die Sektorengrösse sein (z. B. bei Datenbanken). Je grösser die Files sind, desto mehr Sinn machen auch grosse Sektoren (z. B. bei Bildverarbeitung).

Ausserdem werden bei SCSI-Laufwerken oft die Übertragungsraten über den SCSI-Bus angegeben. Da in die SCSI-Laufwerke aber Pufferspeicher eingebaut sind, wird hier nur die Übertragungsrate vom Puffer der Platte in den Puffer des SCSI-Hostadapters angegeben. Die tatsächliche Übertragungsrate von der Plattenoberfläche bis in den Puffer des Hostadapters ist jedoch wesentlich geringer.

Da die meisten Anwendungen nur wenige Blöcke lesen und schreiben und somit geringe Datenmengen in einem Request übertragen, ist die Datentransferrate, mit der das Laufwerk die Daten zum Hostadapter überspielt, eher zweitrangig. Je gestückelter Daten auf der Festplatte gespeichert sind, desto mehr kurze Lesezugriffe erfolgen. Man muss aber darauf achten, dass in der Übertragungskette Festplatte - Festplatten-Controller - SCSI-Host-Controller - Rechnerhauptspeicher die Geschwindigkeiten aufeinander abgestimmt sind.

Eine weitere Möglichkeit zur Leistungssteigerung ist der Einsatz von Controllern (auf der Festplatte wie auch beim SCSI-Hostadapter) mit Cache-Speichern.

Besonders vorteilhaft wirkt sich dabei ein Multisegment-Cache aus. Der Cache wird hierbei dynamisch verwaltet und in mehrere Bereiche aufgeteilt. Je nachdem, aus wie vielen Plattenbereichen Daten angefordert werden, werden diese in einem Bereich des Cache gespeichert. Beim Zugriff auf Daten im Cache entfallen die Zeiten für die mechanischen Komponenten.

Bei diesen Controllern wird jeder Schreib-Request wie von einem Controller ohne Cache abgearbeitet: Jeder zu schreibende Block wird zum angeschlossenen Laufwerk übertragen. Zusätzlich aber merkt sich der Controller die Adresse des Blocks und dessen Inhalt in einem internen Speicher, dem Cache. Der Vorteil liegt in den reduzierten Festplattenzugriffen. Ein Festplattencontroller mit Cache-Speicher ist dann zu empfehlen, wenn folgende Bedingungen vorliegen: geringer oder gerade ausreichender Hauptspeicherausbau des Rechners, Festplattenlaufwerke mit einer hohen Zahl von Schreib-/Lese-Requests pro Zeiteinheit und Plattennutzung mit typisch kleiner Anzahl von Blöcken pro Request, zum Beispiel als Systemplatte, für Datenbanken und generell für Anwendungen, die oft im Wechsel auf denselben Files schreiben und lesen. Mit einem so gepufferten Controller sinken die durchschnittlichen Zugriffszeiten auf Werte unter einer Millisekunde.

Man unterscheidet hier Read-, Read-ahead- und Write-back-Cache. Bei einem Read-Zugriff auf einen Read-Cache wird der Speicher nach dem entsprechenden Block durchsucht. Wird dieser gefunden, wird er sofort übertragen. Die Wartezeit für Plattenpositionierung und Umdrehung entfällt. Steht der Block nicht im Cache, wird er vom Laufwerk geholt.

Beim Read-ahead-Cache werden die nachfolgenden Blöcke nach dem Lesen eines Blocks auf der Platte im Voraus gelesen und im Cache gespeichert. Beim Write-back-Cache werden die zu schreibenden Blöcke im Cache zwischengespeichert und erst dann auf Platte geschrieben, wenn keine weiteren Schreib- oder Leseaufträge anliegen. Dadurch werden Schreibzugriffe für den Benutzer scheinbar schneller. Eine Gefahr besteht jedoch darin, dass bei Stromausfall die im Cache gespeicherten Daten verloren gehen. Beim Read-Cache ist das kein Problem, beim Write-Cache kann dadurch die Datenstruktur zerstört werden.

Man sollte daher beim Einsatz eines Systems mit Write-Cache nicht auf eine unterbrechungsfreie Stromversorgungsanlage (USV) verzichten. Nähere Informationen dazu stehen im Kapitel USV.

Je nach Grösse des Cache-Buffers, der Intelligenz des Cache-Algorithmus (d. h., welche Blöcke überschrieben werden, wenn der Cache-Speicher voll ist) und Art der Anwendungen lassen sich Trefferquoten (Hit-Rate) von über 90 Prozent erreichen - und damit eine gewaltige Durchsatzverbesserung.

Viele Betriebssysteme wie z. B. Windows NT, NetWare, Unix und OS/2 reservieren automatisch einen Teil des Hauptspeichers als Cache. Mehr Hauptspeicher kann somit die Performance des gesamten Systems enorm beschleunigen.

Halbleiterplattenspeicher

Reicht bei bestimmten Anwendungen die Geschwindigkeit, mit der ein Plattenlaufwerk die Daten liefern kann, nicht aus, so kann ein Halbleiterspeicher (RAM-Disk, Solid State Disk) eingesetzt werden. Bei der RAM-Disk-Lösung wird eine spezielle Software eingesetzt, die einen Teil des Hauptspeichers als Disk organisiert. Eine Solid State Disk ist eine Hardwarelösung, bestehend aus einem Bus-Interface mit Memory-Modulen.

Auf den Speicher kann in beiden Fällen so zugegriffen werden wie auf ein Plattenlaufwerk. Es können also Files wie auf einer richtigen Platte angelegt und wieder gelesen werden.

Vorteil: Die Positionierzeit und die Umdrehungswartezeit entfallen, so dass der Datentransfer mit maximal möglicher Geschwindigkeit erfolgt.

Nachteil: Ein solcher Speicher ist (auch bei Verwendung von Batterie-Backup) nicht als permanenter Datenspeicher geeignet. Auch ist er erheblich teurer als ein Plattenspeicher gleicher Grösse. Ein Batterie-Backup für diesen Speicher ist normalerweise immer erforderlich, da sonst schon bei einem kurzen Stromausfall die Daten verloren gehen.


RAID

Bei CPUs und Hauptspeichern verdoppelt sich die Leistung etwa jedes Jahr. Massenspeicher verdoppeln ihre Kapazität nur etwa alle zwei Jahre, die Positionierzeit halbiert sich gar nur alle sieben Jahre. Plattenlaufwerke hinken also immer mehr der Technologiekurve der CPUs hinterher.

Man benötigt deshalb Techniken, die es auf Basis der sich langsamer entwickelnden Plattentechnologie dennoch schaffen, mit der Prozessorgeschwindigkeit und dem Datenhunger der heutigen Systeme Schritt zu halten - durch erhöhte Zugriffsgeschwindigkeit und erhöhte Kapazität.

Typische MTBF-Zeiten (MTBF = Mean Time Between Failure = durchschnittliche Zeit zwischen zwei Ausfällen) von Laufwerken liegen heute bei über 500.000 Stunden. Bei 100 Laufwerken an einem Rechner muss man mit einem Ausfall pro Halbjahr rechnen. Selbst wenn man davon ausgeht, dass die Zuverlässigkeit der Laufwerke in den nächsten Jahren weiter steigt, ist dieser Zustand nicht tragbar. Es werden also Systeme benötigt, die ausfallsicher sind.

Unter dem Oberbegriff RAID fasst man Technologien zusammen, die mehrere Laufwerke zu grösseren, teilweise auch ausfallsicheren Gesamtsystemen zusammenpacken. RAID steht dabei für Redundant Array of Independent Disks, wobei oft statt "independent" auch "inexpensive" gelesen wird.

Redundant = ausfallsicher bedeutet, dass der Ausfall eines Einzellaufwerks weder zu einem Ausfall des Gesamtsystems noch zu Betriebsunterbrechung oder gar zu Datenverlust führt. RAID schliesst oft verwendete Technologien wie Mirroring (d. h. Spiegelung von zwei oder mehreren Laufwerken an einem Controller), Duplexing (dito, aber mit zwei getrennten Controllern) und Striping (Zusammenfassen von mehreren Laufwerken als logische Einheit und blockweises Verteilen der Daten auf diese Laufwerke) ein.

Unterschiedliche Level von RAID werden in der Literatur diskutiert. Die Bezeichnung Level in der RAID-Bezeichnung ist eigentlich missverständlich, denn RAID-Level 1 baut keinesfalls auf RAID-Level 0 auf. Statt Level sollte man eigentlich besser Typ sagen.

Bevor auf die einzelnen RAID-Level genauer eingegangen wird, folgen einige grundlegende Überlegungen zu Plattenzugriffen, denn die Änderung der Performance beim Schritt vom Einzellaufwerk zu RAID ist stark abhängig von der Anwendung:

Wichtig ist der Mix zwischen Schreib- und Lesezugriffen und die durchschnittliche Länge eines einzelnen Transfers.

Bei einem Einzelplattenlaufwerk ist ein Lesezugriff (Caches, Read-ahead-Buffer und andere Techniken zur Performance-Steigerung sollen vorläufig ausser Betracht bleiben) gleich schnell wie ein Schreibzugriff. Dies ist bei Platten-Arrays keinesfalls so und auch von Level zu Level unterschiedlich.

Geschwindigkeitsunterschiede gibt es auch von kurzen (meist einer oder ganz wenige Blöcke) zu langen Requests (meist mehrere Hundert Blöcke). Der erste Typ kommt vor allem in Datenbankanwendungen, Transaction Processing Systemen und kommerziellen Multiuser-Anwendungen vor. Der zweite Typ ist in der Regel bei Bildverarbeitung, Einsatz von Supercomputern oder technisch/wissenschaftlicher Datenerfassung zu finden. Jedes der weiter unten diskutierten RAID-Konzepte hat eine andere Charakteristik bei langen bzw. kurzen Requestlängen.

RAID ist keine Lösung für alle Arten von Problemen mit dem Plattendurchsatz. RAID ist keinesfalls immer schneller als der Einsatz von (konventionell genutzten) Einzellaufwerken. Auch beim Einsatz einer der nachfolgend beschriebenen RAID-Typen sollte man die Aufteilung der Daten optimieren. Aus der Regel, dass man auf wenige Daten sehr häufig und auf die meisten Daten sehr selten zugreift, folgt: Sinnvoll ist ein hierarchisches System mit Halbleiterspeicher (z. B. RAM-Disk) für ständig benutzte Daten, ein sehr schneller Massenspeicher (eventuell gespiegelt) für oft genutzte, einen durchschnittlich schnellen und grossen Massenspeicher (z. B. RAID) für weniger oft genutzte Daten und einen Archivspeicher (z. B optische Platten mit automatischem Wechsler) für selten benutzte Daten.

RAID-Level 0

Dieser Typ von RAID steht für Striping. Bei diesem Verfahren werden mehrere kleinere Laufwerke zu einem grossen logischen Laufwerk zusammengefasst. Der Striping-Faktor sagt dabei aus, wie gross die Stücke sind, welche jeweils auf eines der Laufwerke geschrieben werden. Sind die Stücke sehr klein (typisch ein Byte), so erreicht man unabhängig von der Länge des Lese- oder Schreibrequests eine wesentliche Erhöhung der Transferrate, da alle Laufwerke in einem RAID-0-Set praktisch gleichzeitig transferieren.

Bei kurzen Schreib-Requests (z. B. Einzelblöcken) hat diese Technik Nachteile: Kürzt man die physikalische Länge der Blöcke auf der Platte (bei 512 Byte Blöcken und vier Laufwerken z. B. nur 128 Bytes lang), vermindert sich die nutzbare Kapazität durch den zusätzlichen Platz für Blockheader. Lässt man die Länge der physikalischen Blöcke bei der Standardlänge, hat man zwar keinen Kapazitätsverlust, aber es muss beim Schreiben eines einzelnen Blocks erst auf allen Platten jeweils derjenige physikalische Block gelesen werden, in dem Teile des zu schreibenden Blocks stehen. Die Teilinformation muss ersetzt werden; Dann erst können alle beteiligten Blöcke wieder auf die Platten zurückgeschrieben werden.

RAID-0 mit kleinem Striping-Faktor bietet den Vorteil der hohen Transferrate beim Schreiben und Lesen von langen Requests, hat aber wesentliche Nachteile in der Leistung bei kurzen Requests.

Vergleicht man RAID-0 nicht mit einem (entsprechend grösseren) Einzellaufwerk, sondern mit mehreren kleineren Laufwerken, die ja kurze Requests überlappt abarbeiten können, wird der Nachteil von RAID-0 noch deutlicher.

Wählt man den Striping-Faktor nun gross (mehrere Blöcke), erreicht man, dass sowohl die Schreib- als auch die Lese-Performance bei kurzen Transfers mit der eines Einzelplattenlaufwerks vergleichbar bleibt. Auch ist es möglich, mehrere kurze Requests gleichzeitig auf unterschiedlichen Platten abzuarbeiten.

In beiden Fällen bleibt jedoch der Nachteil, dass bei Ausfall eines einzelnen Laufwerks auf die gesamten Daten nicht mehr zugegriffen werden kann. RAID-0 (Striping) ist eigentlich kein RAID (keine erhöhte Datensicherheit).

Host-based Striping gibt es bei vielen Betriebssystemen als Software-Lösung oder auch eingebaut im Platten-Controller. Da die Plattenlaufwerke vom Controller oftmals nur über einen Datenkanal angesprochen werden, kommt bei einer Controllerlösung meist der Vorteil der höheren möglichen Datenübertragung nicht zum Tragen, da die Requests auf den einzelnen Laufwerken doch sequenziell und nicht parallel abgearbeitet werden.

RAID-Level 1

RAID-1 bedeutet Mirroring. Hier werden alle Daten einer Platte auf alle weiteren Platten des RAID-Sets geschrieben. Vorteil: Bei Ausfall einer Platte bleiben die Daten weiter zugreifbar. Die Leistung beim Schreiben bleibt der einer Einzelplatte bzw. RAID-0 gleich (solange die Platten auf die Kanäle verteilt sind). Man geht davon aus, dass die zusätzliche Rechnerbelastung durch doppeltes Schreiben nicht zählt.

Die Leseleistung verdoppelt sich im besten Fall, da jetzt die Requests auf zwei Plattenlaufwerke (bzw. zwei Sets) aufgeteilt werden können, die unabhängig voneinander lesen können.

Allerdings sind die Kosten für RAID-1 hoch: Nur die Kapazität einer Festplatte des verfügbaren Platzes steht für die Originaldaten zur Verfügung; Der Rest wird durch redundante Daten verbraucht. Jedoch ist RAID-1 einfach zu implementieren.

Mirroring (von Einzelplatten) gibt es als Controller-Lösung oder als Software-Lösung für unterschiedliche Betriebssysteme.

RAID-Level 0+1

RAID-0+1, manchmal auch RAID-10 genannt, vereinigt Mirroring und Striping. Hier wird tatsächlich die Hälfte der Gesamtkapazität gespiegelt, wobei sich die hohe Sicherheit der Spiegelung mit der Performance von RAID-0 verbindet. In den meisten Fällen ist dies die schnellste RAID-Lösung, aber natürlich gilt auch hier das Argument von RAID-1: Die Kosten sind, da doppelt so viele Platten verwendet werden, sehr hoch.

RAID-Level 4

Während Ausfallsicherheit bei RAID-1 und 0+1 doppelte Plattenkapazität erfordert - und bei RAID-0 gar nicht gegeben ist - verwendet RAID-4 Parity, um die Daten zu sichern. Zu jeweils x Festplatten, die nach dem Striping-Verfahren beschrieben werden, kommt lediglich eine zusätzliche Parity-Platte, deren n-tes bit jeweils das Parity-bit zu den x n-ten bits der restlichen Platten enthält. Fällt eine Festplatte aus, kann aus dieser Parity-Platte zusammen mit den Daten der übrigen Platten bit für bit der Inhalt der defekten Platte rekonstuiert werden. Das Schreiben von Daten auf einer Platte erfordert allerdings immer auch das Ändern der Parity-Platte - beide Blöcke müssen zuerst gelesen und aus ihnen und den neuen Daten der neue Parity-Wert berechnet werden. So ist die Performance geringer als bei RAID-0 oder -1.

RAID-Level 5

Bei RAID 4 muss bei jedem Schreibzugriff auf die Parity-Disk zugegriffen werden. Dieses Laufwerk wird damit der Flaschenhals in diesem System. RAID-5 verteilt Parity und Daten blockbereichsweise auf alle Laufwerke. Jedes Laufwerk ist damit für einen bestimmten Blockbereich Parity-Laufwerk. Lesezugriffe werden etwas schneller, weil sie auf noch mehr Laufwerke verteilt werden können.

Bei kurzen Transfers ist aber auch RAID-5 auf der Basis von Zugriffen pro Zeiteinheit pro Megabyte einem Einzellaufwerk weit unterlegen.

Andere RAID-Level

Neben den oben genannten RAID-Leveln, die in einer Studie der Universität Berkeley erstmals beschrieben wurden und sich als Quasi-Standard etabliert haben, gibt es noch eine Reihe von herstellerspezifizierten RAID-Leveln, die aber in der Regel nur Modifikationen der o. g. RAID-Level darstellen.

Wo wird RAID nun implementiert? Es gibt zwei Möglichkeiten: entweder in einem Controller, der zwischen dem Rechner und den Laufwerken sitzt (als Karte im Rechner oder in einer separaten Box) oder im Hostrechner selbst. Vorteil der ersten Lösung: keine zusätzliche Belastung des Rechners durch die Verwaltung von RAID. Vorteil der zweiten Lösung: Da in diesem Falle nicht alle Daten durch den Flaschenhals RAID-Controller zum Hostrechner müssen, kann eine höhere Datentransferrate durch die gleichzeitige Verwendung mehrerer Übertragungspfade erreicht werden.

Eine Reihe von Herstellern (sowohl Plattenlaufwerks- als auch Controller-Hersteller) bieten RAID-Implementierungen an. Diese Implementierungen unterscheiden sich in folgenden technischen Eigenschaften:

Einfachere Implementierungen schliessen mehrere Laufwerke an einen SCSI-Bus an und fassen diese unter Verwendung von einem RAID- oder RAID-ähnlichen Konzept zusammen. Andere Implementierungen haben pro Plattenlaufwerk einen eigenen Controller. Sie erhöhen dadurch die Ausfallsicherheit, da selbst bei Ausfall des Controllers die Daten weiter zugreifbar bleiben.

Laufwerke können fest eingebaut werden. Es ist jedoch auf jeden Fall besser, wenn auch teurer, die einzelnen Laufwerke so einzubauen, dass sie im laufenden Betrieb ausgewechselt werden können und somit der Datenzugriff nicht unterbrochen werden muss (Hot Swap). Gute RAID-Systeme erlauben beim Austausch eines Laufwerks das Rekonstruieren der Daten für dieses Laufwerk während des normalen Betriebs.

Einen wichtigen Einfluss auf die Ausfallsicherheit von RAID-Systemen haben auch andere Elemente: Hängen alle Laufwerke an einem einzigen Power Supply, ist die Ausfallwahrscheinlichkeit (aber nicht notwendigerweise die Wahrscheinlichkeit des Datenverlustes) höher als bei getrennten Stromversorgungen für jedes einzelne Laufwerk oder einer anderen, redundanten Art der Stromversorgung. Natürlich sollten dann auch Kabel, Lüfter, Controller und Rechneranschlüsse doppelt ausgeführt werden, um den Single Point of Failure auszuschliessen.

Und noch eine Warnung: Bei allen Betrachtungen von Ausfallhäufigkeiten und Ausfallwahrscheinlichkeiten geht man davon aus, dass Laufwerksausfälle statistisch unabhängig voneinander vorkommen. In der Praxis können externe Ereignisse (Blitzschlag, Stromspitzen) eintreten, die zu einer höheren punktuellen Ausfallwahrscheinlichkeit - von mehr als einem Laufwerk - führen können, so dass die MTBF-Überlegungen für RAID-Systeme teilweise praxisfremd sind.

Und selbst bei einem RAID-System mit unendlich hoher durchschnittlicher Zeit zwischen zwei Ausfällen darf man das Backup nicht vergessen: Vor einem falschen Delete-Kommando oder einem Software-Fehler, der Daten zerstört, schützt auch RAID nicht. Und Würmer, Trojanische Pferde, Viren und Bomben werden wohl auch nicht aussterben oder Respekt gegenüber RAID entwickeln.

Fazit:

RAID-Systeme dienen der verbesserten Verfügbarkeit von Daten und nicht der Performance-Verbesserung. Sie sind in der Regel bei der Geschwindigkeit Einzellaufwerken unterlegen. Sinnvoll ist der Einsatz von RAID-Level 0 bis 5 zum Speichern von grossen Datenmengen, auf die entweder seltener oder nur mit langen Transfers zugegriffen wird. RAID bietet hier eine kostengünstige Möglichkeit, ausfallsichere Massenspeicher zu konfigurieren. Für häufiger benutzte Daten empfiehlt sich weiterhin der Einsatz von (gespiegelten) Einzellaufwerken, für extrem häufig verwendete Daten hingegen der Einsatz von RAM-Disks, die, vorausgesetzt die Anzahl der Schreibzugriffe ist nicht zu hoch, mit normalen Winchesterplatten gespiegelt werden können. Spiegeln sollte man wegen der geringeren Rechnerbelastung in der Regel im Controller bzw. Hostadapter. Braucht man die hohe Transferrate langer Transfers, sollte Striping mehrere Datenpfade zum Rechner zulassen und deswegen Host-based sein. Hardware-RAID-Systeme werden in den Kapiteln Externe RAID-Systeme von transtec und SCSI/IDE RAID-Systeme angeboten. Interne Hardware RAID-Systeme mit PCI-Controllern sind in den Kapiteln PCI-RAID-Controller von ICP vortex und Mega-RAID PCI-RAID-Controller von AMI zu finden.

Auf jeden Fall sollte ein RAID (und der Rechner) an eine USV-Anlage (Näheres dazu im Kapitel USV

)angeschlossen werden, da sonst im Fall eines Stromausfalls der eigentliche Sinn, die absolute Datenverfügbarkeit, nicht mehr erfüllt ist.

Software RAID

Windows NT, 2000 und XP bieten bereits standardmässig die Möglichkeit, mehrere Plattenlaufwerke zu einem RAID-System zusammenzufassen. Hierbei brauchen lediglich die Festplatten an einen SCSI-Hostadapter intern oder extern angeschlossen zu werden. Die Konfiguration wird dann über Windows NT vorgenommen. Diese Lösung ist zwar preisgünstig und einfach einzurichten, hat jedoch auch Nachteile. Vor allem, wenn sehr grosse Datenmengen übertragen werden bzw. wenn Zugriffe parallel von mehreren Usern (beispielsweise in einem Netz) auf das RAID erfolgen, hat dies Auswirkungen auf die Performance des NT-Rechners. Hierbei muss der gesamte Rechenaufwand (Verteilen der Daten auf die einzelnen Platten und Berechnen der Parity) von der CPU des Rechners aufgebracht werden. Des Weiteren wird das Betriebssystem des Rechners über eine Bootplatte geladen, die nicht redundant sein kann, da die RAID-Konfiguration erst nach dem Laden des Betriebssystems zur Verfügung steht. Auf der Bootplatte befinden sich auch alle Konfigurationsdaten für den RAID-Verband. Fällt die Bootplatte aus, ist das RAID-System nicht mehr operabel. Diesem Nachteil begegnen die folgenden Hardware-RAID-Lösungen mit separatem RAID-Controller.

Interne Hardware-RAID mit PCI-RAID-Controller

Hierbei übernimmt der RAID-Controller, wie bei den externen Hardware-RAIDs, die gesamte Rechenarbeit. Somit arbeiten die Controller, unabhängig von der CPU-Auslastung, mit konstanter Performance. Die RAID-Konfigurationsdaten befinden sich auf allen Festplatten des RAID-Systems und sind somit auch bei Ausfall einer Festplatte oder sogar des ganzen Controllers immer vorhanden. Bei Tausch des Controllers oder einer Festplatte werden die RAID Konfigurationsdaten eingelesen und der Rebuilt gestartet.

RAID-Controller sind mit internen Anschlussbuchsen und einem externen Anschluss für SCSI-Festplatten versehen. Somit hat man die Möglichkeit, die Festplatten des RAID-Systems in den Rechner einzubauen oder aber extern anzuschliessen. Weitere Informationen und detailliertere Angaben zu Anschlussmöglichkeiten von Festplatten sind in den Kapiteln PCI-RAID-Controller von ICP vortex

und Mega-RAID PCI-RAID-Controller

zu finden.

Externe Hardware-RAID

Die High-End-RAID-Lösung stellen die sog. Hardware-RAIDs dar. Hier sind der Controller und die Festplatten in einem separaten Gehäuse untergebracht. Das RAID-System wird mittels SCSI- oder FC-Kabel mit dem Hostadapter des Rechners verbunden.

Durch die Backplane, an der Controller und Festplatten direkt angeschlossen sind, erreicht man kürzeste Kabellängen und somit maximale Datensicherheit. Weitere Datensicherheit kann durch den Einsatz von redundanten Controllern erreicht werden. Hierbei wird bei Defekt des Controllers automatisch auf einen zweiten Controller im Gehäuse umgeschaltet, ohne Zeitverzögerung und Datenverlust. Der defekte Controller kann dann im laufenden System gegen einen neuen getauscht werden. Nähere Informationen hierzu stehen im Kapitel Externe RAID-Systeme von transtec

.

Hardware-RAIDs arbeiten, wie PCI-RAID-Controller, immer mit konstanter Performance, unabhängig von der CPU-Auslastung. Hierbei werden die Daten vom Hostadapter des Rechners über den SCSI-Bus direkt zum RAID-Controller übertragen. Dort werden die gesamten Daten in den Cache eingelesen. Danach ist der SCSI-Bus nicht mehr belastet. Der Controller des Hardware-RAIDs verteilt dann die Daten auf die einzelnen Platten und berechnet die Parity, in Abhängigkeit vom gewählten RAID-Level. Währenddessen ist die CPU des Rechners nicht mit den Rechenoperationen des RAID-Systems belastet. Ein entsprechend gross gewählter Cache, der als Write-back-Cache konfiguriert ist, kann die Schreib-Performance erheblich erhöhen. Das Lesen der Daten geschieht dann analog hierzu in umgekehrter Reihenfolge. Hardware-RAIDs können im Vergleich zu PCI-RAID-Controllern plattformübergreifend eingesetzt werden.


Sekundär-Datenspeicher

Informationsaufzeichnung ist heute mehr denn je eine Schlüsseltechnologie für grosse Bereiche in Wirtschaft und Technik, denn speziell Bereiche, die speicherplatzintensive Daten wie Multimedia-Anwendungen benötigen, verlangen nach schnellen, sicheren und kostengünstigen Massenspeichern. Ein anderer Aspekt ist die Datensicherheit, denn durch Hardwarefehler, vor allem aber durch Bedienungsfehler, können Daten in einem Rechner zerstört werden. Selbst wirklich erfahrene Benutzer können dies kaum vermeiden (auch Feuer und Wasser können Rechner und Daten zerstören). Deswegen ist es generell zu empfehlen, alle Daten regelmässig auf einen Datenspeicher-Träger zu kopieren und diesen an einem sicheren Ort zu verwahren.

Plattenspiegelung (Mirroring) und andere Verfahren bieten zwar teilweise einen Schutz vor Datenverlust, besonders bei Hardwarefehlern. Sie schützen Benutzer jedoch nicht vor irrtümlichen Löschbefehlen oder anderen, durch Software veranlasste Datenzerstörungen, wie zum Beispiel durch Viren oder Programmfehler.

Für die Datensicherung gibt es eine Reihe wechselbarer Datenträger, und bei der Auswahl der Speichertechnologie sollten folgende Aspekte berücksichtigt werden:

Wichtig ist ebenso die Austauschbarkeit des Datenträgers mit anderen Systemen, um das Backup auch auf einem anderen Rechner lesen oder den Datenspeicher-Träger für den Datentransport verwenden zu können. Ein wichtiger Aspekt ist die Netzwerkfähigkeit eines Datenspeichersystems. Besitzt man ein lokales Netzwerk, kann es sinnvoll sein, mehrere Rechner über das Netzwerk mit einem Datenspeicherlaufwerk zu sichern. Entsprechende Software ist auf dem Markt verfügbar. Der Vorteil liegt in geringeren Kosten und der einfachen, zentralen Bedienung.

Generell muss man zwei Arten von Backup-Datenträgern bzw. -Technologien unterscheiden: diejenigen, bei denen man direkt auf die Daten zugreifen kann, zum Beispiel Wechselplatten und optische Platten, und solche, bei denen Daten vor der Bearbeitung erst auf die Festplatte umkopiert werden müssen, zum Beispiel Magnetbandkassetten (siehe Kapitel 4.4). Die einen bieten den Vorteil schneller und bequemer Handhabung, die anderen haben einen deutlich geringeren Preis pro MB.

Der in den letzten Jahren eingetretene enorme Anstieg der Speicherdaten erforderte eine Erweiterung der bestehenden bzw. die Einführung neuer Technologien. Die Angebotspalette ist in jüngster Zeit sehr umfangreich und damit auch etwas unübersichtlich geworden. Bei Speicherkapazitäten von bis zu 2 GB pro Medium ist zwischen zwei grundsätzlich verschiedenen Technologien zu unterscheiden. Zum Einen existieren Wechselplattensysteme und ZIP- bzw. JAZ-Laufwerke, bei denen ein Magnetkopf die Daten induktiv liest. Zum Anderen werden optische Laufwerke angeboten, bei denen über einen Laser die Datenbits erzeugt und auch wieder gelesen werden können. Gemeinsam ist diesen Technologien allerdings die Art der Datenverwaltung, bei der direkter Zugriff auf die gespeicherten Daten besteht. Die Daten müssen vor dem Bearbeiten nicht erst auf eine Festplatte kopiert werden.

Disketten-Laufwerke

Die Technik von Disketten beruht auf einer wechselbaren, rotierenden magnetisierbaren Scheibe mit einer Zugriffszeit von etwa 150-250 ms. Sie haben den Vorteil der weiten Verbreitung für den Austausch mit anderen Systemen. Nachteilig war bisher die geringe Kapazität von 360 KB bis 2,88 MB. Diese reicht inzwischen, nachdem leistungsstarke PCs sowohl in den Unternehmen als auch für den privaten Gebrauch Einzug gehalten haben, nicht mehr aus.

Dieser Nachteil wurde durch das ZIP-Laufwerk von IOMEGA weitgehend aufgehoben. Mit 100 MB pro Speichermedium ist die Kapazität dieses Laufwerks auch für kleine bis mittlere Software-Pakete noch ausreichend. Ausserdem überzeugt dieses Laufwerk durch ein faires Preis-Leistungs-Verhältnis.

Seit Mitte 1999 ist von Sony ein HiFD-Diskettenlaufwerk verfügbar, das mit 200 MB Speicherkapazität die bis jetzt gängigen Laufwerke ablösen könnte. Dieses ist kompatibel zu den momentan eingesetzten Laufwerken und kann die 1,44-MB-Disketten lesen.

Allerdings kann jedoch die geringe "Flughöhe", mit der sich der Magnetkopf über der Speicherplatte bewegt, zu einem so genannten "Head-Crash" führen. Eine solche Berührung hat normalerweise den Verlust der dort gespeicherten Daten zur Folge. Dies kann auch bei den weiter unten beschriebenen Wechselplatten-Laufwerken vorkommen.

Wechselplatten-Laufwerke

Grössere Datenmengen lassen sich mit Wechselplatten verwalten, ohne dass durch Umkopieren Zeit verloren geht. Diese Technologie bietet sich besonders bei sicherheitskritischen Anwendungen an, wenn die Daten über Nacht in einen Tresor eingeschlossen werden müssen.

Es gibt unterschiedliche Technologien, von IOMEGAs JAZ-Laufwerk mit 1 GB Medien über Wechselrahmen, in die normale Festplatten eingesetzt werden können, bis hin zu Syquest-Laufwerken. Letztere haben den Nachteil, nicht stossfest zu sein, so dass ein Transport nicht empfehlenswert ist.

Sinnvoll ist der Einsatz von Wechselplatten nämlich auch bei ständig wechselndem Einsatzort, wenn z. B. ein Programmierer an mehreren Standorten tätig ist und stets Zugriff auf seine Projektdaten haben sollte. Da die Daten nach wie vor auf einem Plattenlaufwerk sind und damit auch die Gefahr des Datenverlustes bestehen bleibt, sollte man zusätzlich eine parallele Datensicherung auf einem anderen Medium vornehmen.

Optische Laufwerke

Optische Platten haben mit der CD-ROM allgemeine Verbreitung gefunden. Technologien wie CD-R und CD-RW, aber auch die Vergrösserung der Kapazitäten durch DVD lassen diesen Markt weiter wachsen. In diesen Bereich fallen auch magneto-optische Technologien mit ebenfalls wachsenden Kapazitäten.

CD-ROM-Laufwerke

CD-ROMs sind wechselbare optische Platten, die nach dem Beschreiben mit Daten im Fertigungsprozess nur noch gelesen werden können. Dieses Medium eignet sich mit seinen ca. 650 MB ideal für die Massenverteilung von Daten, wie z. B. für die Softwaredistribution, da die Reproduktionskosten bei entsprechenden Stückzahlen sehr gering sind. Die Nachteile der CD-ROMs, die

Nichtwiederbeschreibbarkeit und die relativ langsame Zugriffszeit (derzeit etwa 85-120 ms, je nach Laufwerk) spielen dort meist eine untergeordnete Rolle. Der Datenträger selbst ist überaus preiswert

(maximal 0,01 bis 0,02 DM pro MB). Sinnvoll ist die Massenproduktion von CD-ROMs in der Regel ab einer Auflage von über 100 Stück. Dabei werden die Daten, ähnlich dem Herstellen einer Schallplatte, in das Trägermaterial gepresst.

Die Lesegeschwindigkeit der CD-ROM Laufwerke wird gemessen an der Übertragungsrate eines Audio-Laufwerks, die 150 KB/s beträgt. Ein 14x Laufwerk beispielsweise liest 2,05 MB/s. Die neuesten CD-ROM-Laufwerke jedoch arbeiten mit bis zu 52facher Geschwindigkeit und einer Datentransferrate von 7800 MB/s. Laufwerke mit Lesegeschwindigkeiten höher als 14fach basieren auf der Partial- CAV-Technologie (Constant Angular Velocity). Diese zeichnet sich durch eine variierende Datentransferrate bei gleich bleibender Umdrehungsgeschwindigkeit im Innenbereich der CD aus. Beim Lesen der äusseren Spuren einer CD wechselt das Laufwerk in das bisher bei den CD-ROM-Laufwerken übliche CLV (Constant Linear Velocity)-Verfahren, bei welchem die Umdrehungsgeschwindigkeit vor dem Lesen angepasst wird. Dadurch ergibt sich eine konstante Datentransferrate.

Des Weiteren bietet die neue Generation von CD-ROM-Laufwerken neben der obligatorischen Geschwindigkeitssteigerung ein neues Feature: Multiread. Dies bedeutet bei CD-ROM-Laufwerken, dass sie auch die wiederbeschreibbaren CD-RWs lesen können.

Neben den normalen Einzellaufwerken werden auch CD-ROM-Wechsler angeboten. Die typische Wechslerzeit pro CD liegt bei ca. 3 bis 10 Sekunden. CD-ROM-Wechsler eignen sich vor allem für Anwendungen auf CD-ROM, bei denen grössere Datenmengen, auf die selten zugegriffen wird, im direkten Zugriff des Rechners sein sollten (z. B. Desktoppublishing oder Multimedia-Anwendungen). Auf dem Markt befindliche Wechsler-Systeme erlauben in einer einzigen Peripherieeinheit die Verwaltung von Datenmengen bis in den Terabyte-Bereich.

CD-R- und CD-RW-Laufwerke

Mit CD-Recordern (CD-R) können CD-Rohlinge (Write-once-CD) ohne grossen Aufwand beschrieben werden. Dabei werden die Daten mit Hilfe eines Laserstrahls auf den CD-Rohling geschrieben. Durch diese Recorder ist auch die Herstellung von nur einer einzigen CD in wirtschaftlich relevante Dimensionen gerückt. So lassen sich kleine Auflagen von Produktkatalogen, Softwareprodukten oder Grafiksammlungen auf CD-ROM erstellen. Auch zur Langzeitarchivierung eignen sich die beschreibbaren CDs. Die Datenträger sind sehr sicher, aber eine nachträgliche Änderung der Daten ist nicht möglich.

Die mit einem CD-Recorder beschriebenen CDs lassen sich ebenso wie die in grossen Auflagen gepressten CDs mit jedem handelsüblichen CD-ROM-Laufwerk lesen. Mit Wechslern, die einen CD-Recorder enthalten, besteht die Möglichkeit, kostengünstig Archivierung und Backup in kleinen und mittleren Netzwerken durchzuführen.

Steht jedoch die Produktion bzw. das Kopieren von CDs im Vordergrund, so werden seit neuestem CD-Dupliziersysteme angeboten, die als Standalone-Geräte Möglichkeiten zur Duplikation von CDs bieten. Mehr Informationen zu den einzelnen Geräten sind im Kapitel CD-Duplizier-und Printsysteme

. CD-Rewritable (CD-RW) ist eine Technologie, die es erlaubt, ein Medium wiederholt zu beschreiben. Dies kann bis zu 3000 Mal geschehen, allerdings muss derzeit noch jeweils die ganze CD am Stück gelöscht werden. Die Laufwerke beschreiben einmalig auch CD-R-Medien.

CD-RW-Medien können in bisher handelsüblichen CD-ROM-Laufwerken nicht gelesen werden, jedoch besitzen die seit kurzem im Handel angebotenen CD-ROM-Laufwerke die Multiread-Fähigkeit und können somit die CD-RWs lesen (zu Kompatibilitäten siehe Tabelle).

Nähere Informationen zu Produkten sind im Kapitel CD-ROM-Subsysteme zu finden.

DVD-Laufwerke

Nachdem CD-ROM mit seiner Kapazität lange Zeit als ausreichend angesehen wurde, entstand auf Druck der Videoindustrie mit DVD (Digital Versatile Disk, ursprünglich: Digital Video Disk) eine neue optische Technologie, die die Kapazität der Medien auf 5,2 GB erweiterte. Durch Verwendung der Rückseite und den Einsatz einer zweiten Datenschicht soll diese Kapazität in Zukunft noch vervierfacht werden. Erreicht wurde diese Kapazitätserweiterung durch eine Verringerung der Mindestlänge für Pits und des Track-Abstands der Windungen. Die DVD-Laufwerke können darüber hinaus alle herkömmlichen CD-Formate lesen.

Seit einiger Zeit sind DVD-R-Laufwerke (Recorder) auf dem Markt erhältlich. Allerdings verfügen diese bis jetzt nur über eine Speicherkapazität von 2,6 GB/Seite.

Der Siegeszug der DVD wurde jedoch dadurch unterbrochen, dass es keinen gemeinsamen Standard gibt. Toshiba, Hitachi und Panasonic entwickelten das DVD-RAM-Laufwerk mit 2,6 GB Kapazität pro Seite, wobei dieses mit Caddy arbeitet und erste Laufwerke erhältlich sind. Sony, Philips und HP dagegen haben ein DVD-RW-Laufwerk entwickelt, welches 3 GB Kapazität bietet, ohne Caddy arbeitet und zudem in zukünftigen DVD-Laufwerken gelesen werden kann. Ausserdem können die DVD-RW-Laufwerke auch die Inhalte von CD-RWs lesen, was DVD-RAM-Laufwerke nicht können.

Noch ist nicht abzusehen, welcher Standard sich bei der wiederbeschreibbaren DVD durchsetzen wird.

WORM-Platten

WORM-Platten (Write Once Read Multiple) sind optische Platten, die nur einmal beschrieben, aber beliebig oft gelesen werden können. Diese Technologie spielt fast keine Rolle mehr seit der Einführung von CD-R.

Ausblick

Die CD-ROM hat sich sowohl im Audio- wie auch im Computerbereich einen festen Platz erkämpft. Durch die Entwicklung der CD-R (einmal beschreibbar) und neuerdings der CD-RW (mehrfach beschreibbar) werden sich diese Technologien - sicherlich zu unterschiedlichen Anteilen - einen Platz im Markt sichern können.

Etwas anders sieht es bei der DVD (Digital Versatile Disk) aus. Diese Technologie wird unter Umständen die CD-ROM aus einigen Bereichen verdrängen können, da die Kapazität einer Disk um ein Vielfaches höher liegt.

Parallel zu den Entwicklungen im DVD-Bereich, wird auch an der Entwicklung einer MO-Video-Platte gearbeitet. Diese so genannte MO-7 (ASMO) soll über eine Speicherkapazität von 6,1 GB verfügen. Gleichzeitig brachten Laufwerkhersteller wie Maxoptix ebenfalls Nachfolgeprodukte auf den Markt, die mit 5,2 GB eine Verdoppelung der momentanen Kapazität erreichten.

Die Entwicklung im optischen Datenspeichermarkt geht zur Zeit mit grossen Schritten voran. Die OSTA (Optical Storage Technology Association) hilft beim Verschaffen eines Überblicks über derzeitige und zukünftige Technologien:

www.osta.org

www.osta.org


Backup-Software

Ein Backup ist aufgrund des nicht ausschliessbaren Datenverlusts (menschliches Versagen, technisches Versagen, Sabotage oder Viren) unverzichtbar. Es ist zwar möglich, ein Backup ohne unterstützende Software zu fahren, jedoch ist dies bei grösseren Datenmengen und bei Einsatz von Libraries fast nicht mehr realisierbar. Entsprechende Backup-Softwarepakete erleichtern den täglichen Backup und bieten viele Tools an, die auch eine sinnvolle Verwaltung der zu speichernden und gespeicherten Daten möglich machen (Archivierung und HSM).

Aus den geforderten Entwicklungen bei den Datenspeichern selbst resultiert auch eine ständige Überarbeitung und Erweiterung der unterschiedlichen Backup-Softwarepakete.

Der Bedarf an Speicherkapazität wächst schneller als die Kapazität einzelner Medien. Da die Beschaffung von immer mehr Festplatten die Kosten explodieren lässt, muss immer mehr auf Archivierung - die Auslagerung von Daten auf preiswertere, aber langsamere Medien - zurückgegriffen werden. Dies führt andererseits zu einem hohen Administrationsaufwand.

HSM-Software (Hierarchical Storage Management) ist in der Lage, diese Administration selbständig zu leisten. Aufgrund von vorgegebenen Parametern wie Häufigkeit des Zugriffs, File-Grösse, -Alter etc. werden Dateien gewichtet und nach Bedarf ausgelagert auf immer preiswertere/langsamere Medien, beispielsweise von Festplatten auf MO-Wechsler, von dort auf Tape-Libraries und weiter auf extern gelagerte Bänder. Im letzteren Fall wird bei Bedarf der Systemadministrator angewiesen, das entsprechende Band einzulegen.

Ein virtuelles File-System zeigt dem Anwender immer alle Dateien an, sowohl die tatsächlich auf der Festplatte vorhandenen als auch die ausgelagerten. Die virtuelle Kapazität ist dadurch unendlich. Beim Öffnen einer Datei wird diese zuerst auf die Festplatte zurückgeschrieben. Der Anwender bemerkt lediglich die entsprechend langsamere Zugriffszeit.

Mag diese langsamere Zugriffszeit manchen Anwender erschrecken - im schlimmsten Fall der Auslagerung auf externe Medien kann die Wartezeit eine halbe Stunde und mehr betragen - so mag die Überlegung trösten, dass auf 80 % aller Daten weniger als einmal pro Monat zugegriffen wird. Nicht einmal 5 % aller Daten werden öfter als einmal pro Woche verwendet.

Netzwerk-Storage-Server

Die Befriedigung des ständig wachsenden Speicherbedarfs in PC- und Workstation-Netzen erfordert den Einsatz von immer mehr File-Servern. Früher bedeutete das den Ankauf weiterer PCs und Workstations. Viel einfacher und auch preisgünstiger ist der Einsatz von Technologien, die als Network Attached Storage bezeichnet werden. Hier wird - ähnlich einem Communication- oder Print-Server - ein Netzwerk-Device speziell für eine einzige Aufgabe konstruiert, in diesem Fall für den Zugriff auf Speichermedien wie Festplatten und CD-ROM.

Die Vorteile dieser Technologie liegen auf der Hand:

Vereinfachung der Installation: Da der Netzwerk-Storage-Server nur als File-Server arbeitet, beschränkt sich die Verwaltung auf das Setzen von Netzwerkadressen und die Freigabe des Speicherplatzes für die Anwender. Dieser steht dann sofort allen autorisierten Benutzern im Netzwerk zur Verfügung.

Vereinfachung der Pflege: Da die Storage-Server mit standardisierten Protokollen arbeiten, gibt es keinen Aufwand beim Versionswechsel von Betriebssystemen.

Einfache Upgrades und Änderungen der Konfiguration: Durch den Einsatz weiterer Storage-Server kann der Speicherplatz problemlos erweitert oder umkonfiguriert werden.

Flexibilität: Netzwerk-Storage-Server sind durch ihre Protokollvielfalt oft auch ideal für gemischte Netze, die beispielsweise zum Teil unter Windows NT laufen, zum Teil unter Unix oder gar NetWare.

Alle Daten sind in jeder der definierten Betriebssystemumgebungen verfügbar, als ob sie auf einem entsprechenden Server im Netz liegen würden. Der Zugriff auf die Daten erfolgt dabei mit den jeweils plattformtypischen Verfahren. Aus Anwendersicht sind alle Dateien dann verfügbar wie auf einem File-Server des eigenen Betriebssystems.

Nähere Informationen zu den Produkten sind im Kapitel transtec 3800 Netzwerk-Storage-Server zu finden.

transtec AG, Waldhörnlestrasse 18, 72072 Tübingen, Deutschland,
Mail: webmaster@transtec.de