435 95 35MB
German Pages [320] Year 2010
IBM Systems and Technology Group
IBM Österreich Obere Donaustraße 95 1020 Wien ibm.com/at IBM Schweiz Vulkanstrasse 106 8010 Zürich ibm.com/ch Die IBM Homepage finden Sie unter: ibm.com IBM, das IBM Logo und ibm.com sind eingetragene Marken der IBM Corporation. Weitere Unternehmens-, Produkt- oder Servicenamen können Marken anderer Hersteller sein. Java und alle Java-basierenden Marken und Logos sind Marken von Sun Microsystems, Inc. in den USA und/oder anderen Ländern. Microsoft, Windows, Windows NT und das Windows-Logo sind Marken der Microsoft Corporation in den USA und/oder anderen Ländern. Intel, Intel logo, Intel Inside, Intel Inside logo, Intel Centrino, Intel Centrino logo, Celeron, Intel Xeon, Intel SpeedStep, Itanium, and Pentium sind Marken der Intel Corporation in den USA und/oder anderen Ländern. UNIX ist eine eingetragene Marke von The Open Group in den USA und anderen Ländern. Linux ist eine Marke von Linus Torvalds in den USA und/oder anderen Ländern. Gedruckt in Deutschland. © Copyright IBM Corporation 2010 Alle Rechte vorbehalten.
IBM System Storage-Kompendium 2010
IBM Deutschland GmbH IBM-Allee 1 71139 Ehningen ibm.com/de
IBM System Storage-Kompendium Die IBM Speichergeschichte von 1952 bis 2010
ibm.com/systems/de/storage € 49,90 – unverbindliche Preisempfehlung
ibm-7747_Storage_Kompendium_Hardcover_final.indd 1
29.01.2010 11:43:33 Uhr
Cover Photo: IBM TS3500 Tape Library David Hobby, USA, a.k.a. Strobist, www.strobist.com
2
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Vorwort des Autors Kurt Gerecke
Sehr geehrte Kunden, sehr geehrte Geschäftspartner, liebe Leser, begeben Sie sich auf eine spannende Zeitreise durch die IBM Speichergeschichte. Vor bereits 58 Jahren erfand die IBM die erste externe Speichereinheit in Form des Rollenbandes der IBM 726 mit einer Speicherkapazität von 1,4 MB. Lassen Sie sich faszinieren, was in diesem halben Jahrhundert an Erfindungen und Produkten von IBM im Speicherumfeld ent wickelt und auf den Markt gebracht wurde. Vielleicht möchten Sie sich durch dieses Buch auch an Ihre Anfangszeiten in der IT zurückerinnern und gedanklich Ihren beruflichen Werde gang Revue passieren lassen. Aber auch für alle jungen Menschen, die diese Zeitspanne nicht direkt erlebt haben, ist es ein faszinierendes Nachschlagewerk. Die beschriebenen Zeitepochen reflektieren sehr klar die ganzheitliche IBM Entwicklungsstrategie: Rechner und Speichersys teme gehören als Einheit zusammen! Speichertechnologien und Speicherlösungen wurden bis heute immer im Einklang mit den Servertechnologien vorangetrieben, um ausgewogene, performante und aufeinander abgestimmte Gesamtlösungen zur Verfügung zu stellen. Diese Strategie brachte viele neue Erfindungen hervor und machte IBM zum weltweiten Patentführer – und das seit 17 Jahren in Folge. Vor drei Jahren wurde der Nobelpreis für Physik an Peter Grünberg von der KFA in Jülich und Albert Fert von der Universität in Paris vergeben, die 1988 den GMR-Effekt (Giant Magnetoresistance) bei extrem niederen Temperaturen entdeckt hatten. Wir alle wissen, dass ohne diese Entdeckung die heutigen Festplattenkapazitäten nie möglich geworden wären. Was viele nicht wissen, ist, dass es IBM zu verdanken ist, dass aus der Entdeckung ein Produkt wurde. Bereits 1989 begann der IBM Forscher Stuart Parkin im IBM Labor Almaden in Kalifornien mit der Umsetzung und dem Ziel, den Effekt auch bei normalen Temperaturen zu realisieren. Er erforschte mehr als 30.000 Materialkombinationen, um 1997 den ersten einsetzbaren GMRLesekopf für Plattenlaufwerke zur Verfügung zu stellen. Alle drei Forscher wurde 1997 gemeinsam für die GMR-Entwicklung mit dem Euro-Physik-Preis ausgezeichnet. Vielleicht nicht alles, aber alles fundamental Wichtige wurde von IBM im Storage-Bereich entdeckt und entwickelt. Ich möchte Ihnen neben GMR ein paar weitere Eckdaten nennen: 1991 führte IBM drei zukunftsweisende Technologien ein, Dünnfilmbe schichtungen auf den Platten, die ersten MR-Köpfe (Magnetoresistive Köpfe) und RAID-5-basierende Subsystemarchitekturen. 1999 entdeckte IBM den paramagnetischen Effekt und im selben Jahr brachte IBM den ersten Microdrive auf den Markt, ein Laufwerk in der Größe einer Zwei-Euro-Münze. Im Jahr 2000 erhielt IBM als erste Firma die „National Medal of Technology for Innovations in Storage“ von der amerikanischen Regierung, eine der höchsten technologischen Ehrungen, die bis dahin aus schließlich an Einzelpersonen vergeben wurde. Alle diese faszinierenden Erfindungen und viele mehr finden Sie im Techno
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
3
Vorwort des Autors
logie-Anhang dieses Storage Kompendiums. Die IBM leistete auf dem Gebiet der Speicherentwicklungen Einmaliges und ich bin überzeugt, dass dies auch in der Zukunft der Fall sein wird. Widmen Sie Ihre Aufmerksamkeit besonders auch der jetzigen Zeitepoche, die vor allem durch Virtualisierung in allen Bereichen der Datenspeicherung geprägt ist. Alle aktuellen IBM Produkte sind dort ausführlich beschrieben. Das Kompendium ist also nicht nur ein historisches Nachschlagewerk, sondern informiert Sie vor allem über alle aktuellen IBM Speicherentwicklungen. Die Überarbeitung des IBM System Storage Kompendiums als Update 2010 erforderte doch wieder viel freie Zeit und viele Wochenenden. Deshalb möchte ich mich zuallererst wieder bei meiner Ehefrau Gabriele für das auf gebrachte Verständnis bedanken. Ihre Geduld war wieder einmal bewundernswert. Ein großer Dank gilt auch dem IBM Storage Produktexpertenteam für seine wertvollen Informationen. Herrn Dr. Stefan Radtke möchte ich für seine technischen Ausführungen des XIV Storage Systems danken, Herrn Jens Gerlach von der Firma LSI für seinen DS5000-Input, Herrn Stefan Neff für seinen TS7700-Beitrag, Herrn Hartmut Grund für seine Hilfe beim IBM Information Archive, Jürgen Loeb für seinen SOFS- bzw. SPSC-Input und Axel Melber für die Fotobearbeitung der Exponaten-Sammlung. Ganz besonders möchte ich mich bei den Herren Hans W. Spengler und Heinz Graichen vom IBM Museum in Sindelfingen für ihre tabellarischen Zusammenstellungen, Grafiken und Bilder von der jetzt im Museum fertiggestellten Plattenrotunde und dem Interview mit mir bedanken, bei dem beide den RAMAC 350-Zugriff detailliert darlegen. Ebenso möchte ich mich bei beiden dafür bedanken, dass ich die Plattenprofile, die vor allem Hans W. Spengler in einer zehnjährigen Arbeit zusammengestellt hat, in dieses neue Kompendium integrieren konnte. Allen anderen Kollegen, die mir dabei geholfen haben und jetzt nicht namentlich erwähnt sind, gilt ein ebenso großes Danke.
4
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Mein Dank gilt auch Herrn Ivano Rodella von IBM System Storage Marketing, der die Agenturarbeit ermöglichte, sowie den Sponsoren, die den Druck dieses Kompendiums finanziell unterstützt haben. Am meisten freut mich, dass ich die Herren Werner Bauer und Klemens Poschke, alle langjährige Kollegen und Freunde, dafür gewinnen konnte, an diesem Kompendium mitzuarbeiten. Werner hat das Thema des Systemverwalteten Speichers (System Managed Storage) im Mainframe-Umfeld aufgearbeitet. Klemens hat die Geschichte des Tivoli Storage Managers (TSM) dokumentiert, der dieses Jahr sein 20-jähriges Bestehen feiert. Ebenso ganz herzlich bedanken möchte ich mich bei Edelgard Schittko, die sich einfach ganz kurzfristig dazu bereiterklärte, das Thema BRMS im System i Umfeld aufzuarbeiten. Damit reflektiert das Kompendium jetzt eine ganzheitliche Dokumentation der wichtigsten Storage-Hardware- und -Softwareprodukte. Ein bisschen Reklame möchte ich auch noch machen! Sollten Sie sich im Raum Stuttgart aufhalten, vergessen Sie nicht, das IBM Museum, das Haus der Geschichte der IBM Datenverarbeitung, Bahnhofstraße 43 in 71063 Sindelfingen zu besuchen. Dort können Sie „live“ die Geschichte der Informationstechnologie von 1890 bis ins Jahr 2000 erleben. Auch das erste Plattenprodukt der IBM, die RAMAC 350 als Teil des damaligen Rechnersy stems IBM RAMAC 305, können Sie dort in Betrieb sehen. Ein besonderer Höhepunkt ist die neu aufgebaute Plattenrotunde. Begleitet von einer Diashow können Sie sich auf eine Zeitreise begeben und die faszinierenden Produkte und Erfindungen im Plattenbereich von 1956 bis ins Jahr 2000 kennenlernen. Melden Sie sich rechtzeitig wegen einer Terminabsprache über mich, Tel. 0170-2207066, oder Herrn Hans W. Spengler vom IBM Museum, Tel. 07031-271378 an. Ich wünsche Ihnen viel Freude und viel Spaß beim Lesen und Studieren des IBM System Storage Kompendiums und hoffe, dass Sie viele Gelegenheiten haben, diese Informationen für Ihre Zwecke erfolgreich einzusetzen. Mit den besten Grüßen
Ihr Kurt Gerecke
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
5
Vorwort des Co-Autors Klemens Poschke
Ein paar Worte persönlicher Bezug… Die Idee zu einer historischen Dokumentation der Tivoli Storage Manager Soft ware entstand im Gespräch mit meinem Freund und Kollegen Kurt Gerecke auf der CeBIT 2009, als er eine erweiterte Neuauflage dieses Buches zum 100-jährigen Bestehen der IBM Deutschland 2010 plante. Ich freue mich, mit einem TSMKapitel zum Erfolg des Buches beitragen zu können, weil die Geschichte von Tivoli Storage Manager und seinen Namensvorgängen eng mit der Geschichte der Speichertechnologie der IBM verknüpft ist. Insofern komplettiert dieses Kapitel einerseits den von Kurt Gerecke und Kollegen verfassten Hardware-Teil, dokumentiert aber auch die Tradition der erfolgreichen gemein samen Arbeit zwischen den Menschen aus unterschiedlichen Bereichen der IBM. Diese Zusammenstellung über die Geschichte des IBM Tivoli Storage Manager ist gleichzeitig auch ein Reflek tieren der letzten 20 Jahre meiner eigenen beruflichen Geschichte bei der IBM, da ich mich seit 1990 mit diesem Thema als Architekturberater beschäftige. Bei der Stoffsammlung und inhaltlichen Aufbereitung habe ich mich immer wieder gerne an viele sympathische Menschen erinnert, die ich über dieses Thema bei Kunden, Geschäftspartnern und als Kollegen kennengelernt habe. Das Kapitel beschränkt sich bewusst auf die Themenbereiche, in denen TSM und seine Namensvorgänger Teil von IBM Datensicherungs-/Archiv-Lösungen sind. Ich habe dabei absichtlich auch Informationen zu Firmenüber nahmen und Begleitprodukten des Backup-Marktes mit aufgenommen, um die historische Entwicklung und Marktbedeutung ganzheitlich zu beschreiben. 20 Jahre Beschäftigung mit diesem Thema ermöglichen mir, auf eine große Menge an Ressourcen zurückzugreifen, die bei der Bereitstellung der nachfolgenden Informationen, Dokumente und historischen Bilder geholfen haben. Ich möchte mich stellvertretend für alle Beiträge bei folgenden Kollegen besonders bedanken für die Übersen dung von Hintergrundinformationen, Dokumenten, Geschichten und Bildschirmfotos:
6
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Jim Smith (San José), Frank Albert Müller (Mainz), Chris Zaremba (Endicott), Edward Gretz (West Chester), Norm Pass (Almaden), Barry Fruchtman (Tucson), Dr. Hans-Joachim Renger (Böblingen), Claire Rankin (San José), Mike Welkley (San José), Paul Bradshaw (Almaden). Besonderer Dank gilt meinen Kollegen Wolfgang Hitzler (Ehningen) und Dr. Hans-Joachim Renger (Böblingen), die ihre Zeit geopfert haben, um den Text inhaltlich zu validieren, und meiner Frau Doris, die sich des Fach chinesisch auf grammatikalisch/stilistischer Ebene angenommen hat. Ich bedanke mich auch bei den Redaktionen der Zeitschrift „Computerwoche“ (Sandra Holleber) und dem Online Magazin „Monitor“ (Dipl.-Ing. Rüdiger Maier) für die Genehmigung, Artikelauszüge ihrer Publikationen aus dem Internet benutzen zu dürfen. Sollten sich trotz intensiver Recherche inhaltliche Fehler eingeschlichen haben, bitte ich dies zu entschuldigen und mich darüber zu informieren ([email protected]). Ich wünsche Ihnen viel Spaß und Freude beim Lesen und Studieren der 20-jährigen TSM-Erfolgsgeschichte und verbleibe mit den herzlichsten Grüßen
Ihr Klemens Poschke
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
7
Speicherentwicklung und Gesamtüberblick von 1952 bis 2010
Allgemeines:
Entwicklung der Speichersysteme von 1952 bis 2010
Die Geschichte der IBM Speichertechnologie und der IBM
1952 – 1961
die Anfangsepoche der elektromagnetischen Speicherung
Seite 13
1962 – 1974
die Epoche der Wechselplatten und die ‘Winchester’-Zeit
Seite 19
1975 – 1993
die Epoche der fest eingebauten Platten Seite 27 mit externen Kontrolleinheiten
sein kann, wenn es darum geht, technologische Grenzen zu
1994 – 1998
die Epoche der RAID-Systeme
Seite 37
überschreiten, um neue Möglichkeiten für die Speicherung
1999 – 2005
die Epoche der Multiplattform-Systeme und des FibreChannel SAN/NAS
Seite 51
2006 – 2010
die Epoche der Server-basierenden Speichersysteme und der Speicher virtualisierung
Seite 87
Speichersysteme ist mit ziemlicher Sicherheit eines der fas zinierendsten Ereignisse unserer Zeitgeschichte der letzten 58 Jahre. Spannend vom Anfang bis in die heutige Zeit soll diese Broschüre einen Überblick geben und vor allem auch das Verständnis entwickeln, wie erfinderisch die Menschheit
von Daten zu eröffnen. Die Vielzahl von Produkten und Erfin dungen in diesem Bereich macht es notwendig, die Zeitge schichte ein bisschen zu ordnen und in zeitgeschichtliche Epochen zu unterteilen. Da dieses Unterfangen bisher nie gemacht wurde, erlaubt sich der Autor, das Speicherzeitge
Die einzelnen Epochen beschreiben immer eine Zeitphase,
schehen von 1952 bis in die heutige Zeit in technologische
die durch besondere Produkte geprägt war, die in dieser
Epochen zu unterteilen, um dann im Detail die einzelnen
Zeitphase auf den Markt kamen. In vielen Fällen wurden die
Epochen von der Produkt- und Produktentwicklungsseite zu
Produkte über die definierte Epoche hinaus aktiv vertrieben
beleuchten. Nach den Produktepochen schließt das Kapitel
und wurden meistens erst in der Folgeepoche oder später
„IBM Storage Software“ an, das die wichtigsten SW-Entwick
vom Marketing zurückgezogen. Die einzelnen Produkte sind
lungen im Speicherumfeld darstellt. Am Ende dieses
in der Epoche, in der die Markteinführung erfolgte, so be-
Buches im Kapitel „Technologie-Anhang“ befindet sich ein
schrieben, dass sie den gesamten Lebenszyklus darstellen.
Technologie-Teil, der die Entwicklung der Speicherbasis technologien und Aufzeichnungsverfahren einschließlich
Das Storage Kompendium erhebt keinen Anspruch auf Voll
anstehender Technologien näher beschreibt.
ständigkeit, beschreibt aber die wichtigsten Produkte in der jeweiligen Epoche.
8
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Preisentwicklung Magnetplattenspeicher
Kapazitätsentwicklung Magnetplattenspeicher
Die Schnelligkeit der technologischen Entwicklung bei
Während der Preisverfall für das gespeicherte Megabyte
Magnetplattenspeichern von 1956 bis ins Jahr 2010 lässt
kontinuierlich anhielt, war in den letzten 10 Jahren ein über
sich im besonderen Maße aus dem Preisverfall für ein
dimensional hoher Preisverfall zu verzeichnen, der speziell
gespeichertes Megabyte ablesen. Der Verlauf war in etwa
in den letzten Jahren eine Spanne von 40 bis 70 % pro Jahr
folgendermaßen:
erreichte. Parallel dazu wurde die Aufzeichnungsdichte durch technologische Innovationen in einem Maße gesteigert,
Jahr Euro/MB Jahr Euro/MB
1956
1964
1975
1987
1991
12 000
8 000
70
12
9
1997
2000
2006
1
0.25
0.015
dass sie dem Preisverfall für das gespeicherte Megabyte standhalten und Rechnung tragen konnte.
2009 0.0054 (FC-Disk) 0.0025 (SATA)
Rechnet man den verminderten Platz- und Energiebedarf so-
Die Steigerung der Aufzeichnungsdichte war in etwa folgen dermaßen: Jahr
Produkt
Aufzeichnungsdichte (Millionen Bits/qcm)
1956
RAMAC 350
0.00031
1961
1311
0.008
1964
2311
0.017
1965
2314
0.034
1970
3330
0.12
1973
3340
0.26
1975
3350
0.48
1979
3370
1.2
1980
3375
1.51
1980
3380
1.9
1985
3380-E
2.99
1987
3380-K
5.47
1991
3390-3
13.95
1994
3390-9
41.6
1996
RAMAC 3
129.2
1999
ESS
427.5
2004
ESS
2.9 Milliarden Bits/qcm
2006
DS8000
5.8 Milliarden Bits/qcm
2009
DS8000-FC-Platten DS8000-SATA-Platten
8.7 Milliarden Bits/qcm 19.3 Milliarden Bits/qcm
wie den geringeren Wartungsaufwand pro Megabyte hinzu, so ist der Trend bei der Kostenentwicklung eher noch günstiger.
Im Jahr 2003, mit Verfügbarkeit der 146-GB-Laufwerke für ESS, wurde die magische Grenze von 1 Milliarde Bits auf dem Quadratzentimeter überschritten. Mit der heutigen Verfügbarkeit von 1 TB SATA-Laufwerken erreicht man eine Aufzeichnungsdichte von über 19 Milliarden Bits/qcm. Die großen Sprünge ergaben sich speziell in den letzten 10 Jahren (siehe auch Technologie-Anhang).
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
9
Produktübersicht der IBM Speichersysteme
Vorwort des Autors Kurt Gerecke......................... Seite.......3
Die Epoche der RAID-Systeme..........................Seite.....37
Vorwort der Co-Autors Klemens Poschke............. Seite.......6
RAID-Definitionen.................................................. Seite.....38
Speicherentwicklung, Gesamtüberblick............... Seite.......8
RAMAC 1/2/3 RAID-Plattensystem........................ Seite.....39
Preis- und Kapazitätsentwicklung
RVA RAMAC Virtual Array..................................... Seite.....40
Plattenspeicher...................................................... Seite.......9
RSA RAMAC Scalable Array................................. Seite.....40
Produktübersicht................................................... Seite.....10
7133 SSA-Plattensystem....................................... Seite.....41
Die Anfangsepoche der elektromagnetischen
3570 Magstar-MP-Magnetbandeinheit.................. Seite.....44
3590 Magstar-Magnetbandeinheit........................ Seite.....42
Speicherung.........................................................Seite.....13 726/727 Magnetbandsystem ............................... Seite.....14 RAMAC 305/350 Plattensystem ........................... Seite.....14 729 Magnetbandsystem....................................... Seite.....16
3494 B16, B18, B10, B20 Virtual Tape Server................................................ Seite.....44 LTO Linear-Tape-Open-Bandeinheiten.................. Seite.....46 LTO Libraries......................................................... Seite.....47
1405 Platteneinheit/1414 Steuereinheit................. Seite.....16 1301 Plattensystem............................................... Seite.....16
Die Epoche der Multiplattform-Systeme und
7340 Hyper Tapes................................................. Seite.....17
des FC SAN und NAS.........................................Seite.....51
2321 Magnetstreifenspeicher............................... Seite.....17
SAN Storage Area Network................................... Seite.....52 NAS Network Attached Storage............................ Seite.....53 iSCSI...................................................................... Seite.....54
Die Epoche der Wechselplatten und die ‘Winchester’-Zeit...........................................Seite.....19 1311 Wechselplattensystem................................. Seite.....20 1302 Plattensystem............................................... Seite.....21 2401 Magnetbandsystem..................................... Seite.....21 2314 Wechselplattensystem................................. Seite.....21 2305 Plattenspeicher ‘Zeus’.................................. Seite.....21 3330 Wechselplattensystem/3830 Steuereinheit.......................................................... Seite.....22 3340 Wechselplattensystem ‘Winchester’-Platte................................................. Seite.....23 3420 Magnetbandsystem..................................... Seite.....24 3410 Magnetbandsystem..................................... Seite.....24 3850 MSS-Massenspeicher.................................. Seite.....25
3350 Festplattensystem........................................ Seite.....28 3310 Magnetbandsystem..................................... Seite.....28 3370/3375 Plattensystem...................................... Seite.....28 3380 Plattensystem/3880 Steuereinheit................ Seite.....29 3430 Magnetbandsystem..................................... Seite.....30 3480 Magnetbandkassettensystem...................... Seite.....30 3390 Plattensystem/3990 Steuereinheit................ Seite.....31 9340/9345 Plattensystem...................................... Seite.....32 3490 Magnetbandeinheit...................................... Seite.....33 3495 Magnetbandarchiv....................................... Seite.....34 3494 Magnetbandarchiv....................................... Seite.....35
1962 – 1974
1975 – 1993
7133 + 7140 Hammer Shark SSA Plattenlösung für SAN........................................... Seite.....56 MSS Modular Storage Server Plattensystem........ Seite.....57 7135 RAIDiant-Array-Plattensystem...................... Seite.....57 FAStT-Plattensysteme............................................ Seite.....57 DS4000-Plattensysteme........................................ Seite.....60 SVC SAN Volume Controller.................................. Seite.....63 LTO2/LTO3 Linear-Tape-OpenBandlaufwerke....................................................... Seite.....63 LTO4 Linear-Tape-Open-Bandlaufwerke............... Seite.....65 3592/TS1120 Bandlaufwerk (Jaguar).................... Seite.....66 3584/TS3500 Bandarchiv...................................... Seite.....69 3582 Bandarchiv................................................... Seite.....71
mit externen Kontrolleinheiten...........................Seite.....27
1952 – 1961
Plattensystem........................................................ Seite.....54
3581 Band Autoloader.......................................... Seite.....71
Die Epoche der fest eingebauten Platten
10
ESS Enterprise Storage Server (Shark)
1994 – 1998
3583 Bandarchiv................................................... Seite.....71 TS3310 Bandarchiv............................................... Seite.....71 TS3100 Band Autoloader...................................... Seite.....72 TS3200 Bandarchiv............................................... Seite.....72 TS7510 Tape-Virtualisierung für Open Systems... Seite.....72 3995 Optisches Archivsystem.............................. Seite.....75 DR 450 Data Retention 450 Archivlösung............ Seite.....76 DR 550 Data Retention 550 Archivlösung............ Seite.....76 3996 Optisches Archivsystem.............................. Seite.....80 Nseries N3000/N5000/N6000/N7000.................... Seite.....81 Nseries Funktionen................................................ Seite.....84
1999 – 2005
2006 – 2010
Software
Anhang
Die Epoche der Server-basierenden
ADSM Version 3.1 (1997)...................................... Seite...191
Speichersysteme und der
Synergien IBM Speicherhardware und ADSM...... Seite...192
Speichervirtualisierung .....................................Seite.....87
Tivoli ADSM/Tivoli Storage Manager.................... Seite...195
DS8000 und DS6000 Plattensysteme................... Seite.....88
TSM Version 3.7 und 4.2....................................... Seite...196
XIV Storage Systeme............................................. Seite.....97
TSM Version 5.X.................................................... Seite...200
DS3000 Entry Plattensysteme............................... Seite...105
TSM für Data Retention (DR450/DR550)............... Seite...202
DS5000 Plattensysteme........................................ Seite...106
TSM – kleine Lösungen für den Einstieg.............. Seite...204
SVC San Volume Controller neue HW und SW..... Seite...111
TSM Version 6.1 (2009)......................................... Seite...204
Backup-Konzepte.................................................. Seite...117
Zusammenfassung und Schlusswort.................... Seite...206
TS7700 Tape Virtualisierung für z/OS................... Seite...120 TS7520 und TS7530 Tape –
BRMS für System i..............................................Seite...208
Virtualisierung für Open Systems.......................... Seite...128
Überblick............................................................... Seite...208
Daten-De-Duplizierung.......................................... Seite...132
Aktuelle Features................................................... Seite...208
IBM Daten-De-Duplizierung
Geschichte............................................................ Seite...215
mit ProtecTIER VTL und Hyperfactor.................... Seite...134
Zusammenfassung und Ausblick.......................... Seite...215
TS1130 Bandlaufwerk der Enterprise Klasse....... Seite...137 TS3500 ALMS Library Virtualisierung................... Seite...140
Technologie-Anhang...........................................Seite...217
TS3500 Hardware Erweiterungen 2007 – 2010.... Seite...142
Lochkarte und Lochstreifen.................................. Seite...218
TS3500 High Density (HD) Frames....................... Seite...142
Trommelspeicher................................................... Seite...218
iRMM Library Virtualisierung mit dem integrated
Magnetbandentwicklung....................................... Seite...219
Enterprise Removable Media Manager................ Seite...144
Magnetplatte......................................................... Seite...220
TS3400 Mini-Library für TS1120 Laufwerke.......... Seite...145
Entwicklung des IBM Systems 305
TS2900 Autoloader................................................ Seite...145
und des ersten Plattenspeichers IBM 350............ Seite...221
IBM Tape Library Überblick 2010......................... Seite...146
Funktionsweise IBM 350 und IBM 355................. Seite...222
GPFS/SOFS File Virtualisierung............................. Seite...147
Disketten................................................................ Seite...225
SPSC Smart Private Storage Cloud...................... Seite...147
Festplattenentwicklung.......................................... Seite...226
Tape Encryption mit TS1120/30 und LTO4........... Seite...152
Festplatten für PC’s............................................... Seite...229
IIA IBM Information Archive.................................. Seite...156
Induktive Aufzeichnung......................................... Seite...230
SAN und IP-Networking Update 2007 – 2010...... Seite...158
Magneto Resistive Aufzeichnung (MR)................. Seite...230
Green IT................................................................ Seite...161
PRML Encoding.................................................... Seite...232
Infini-Band............................................................. Seite...162
GMR Effekt – Giant Magneto-Resistance............. Seite...232
Neue Basis-Technologien..................................... Seite...163
Micro-Drives.......................................................... Seite...233 AFC Aufzeichnung................................................ Seite...234
Der System-verwaltete Speicher
Perpendicular Recording...................................... Seite...236
im Mainframe-Umfeld..........................................Seite...166
HAMR – Heat Assisted Magnetic Recording........ Seite...236
Speicherhierarchie................................................ Seite...166
IBM Museum......................................................... Seite...238
Entstehung............................................................ Seite...167
Magnetplatten Exponatensammlung.................... Seite...240
Funktionsweise...................................................... Seite...169
IBM Magnetplattenprofile...................................... Seite...246
SMS für Tape......................................................... Seite...172
Interview mit den RAMAC 350/355 Experten....... Seite...270
Komponenten und Funktionen.............................. Seite...172
Optische Speichertechnologien............................ Seite...274
Zusammenfassung................................................ Seite...176
Flashspeicher........................................................ Seite...280 RAM – Random Access Memory.......................... Seite...284
TSM – Tivoli Storage Manager...........................Seite...178
PCM – Phase Change Memory............................. Seite...285
Wie alles begann ... 1983-1993............................ Seite...178
Millipede-Nanotechnologie................................... Seite...287
ADSM V1.1 und V1.2............................................ Seite...183
Racetrack Memories............................................. Seite...290
Internet Forum und Benutzergruppen.................. Seite...187
Nanotechnologien................................................. Seite...293
ADSM Version 2.1 (1995)...................................... Seite...188 SAP R/3 Integration............................................... Seite...190
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
Sponsorenseiten.................................................Seite...299
1999 – 2005
2006 – 2010
Software
Anhang
11 11
12
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
1952 bis 1961
Die Anfangsepoche der elektromagnetischen Speicherung
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
13
1952 bis 1961 Die Anfangsepoche der elektromagnetischen Speicherung
Aufnahme des ersten Prototypen des Magnetbandsystems IBM 726 im Jahr 1951 mit zwei Bandlaufwerken pro Einheit
Zum ersten Mal in der Speichergeschichte wurden externe Speicher mit magnetischer Aufzeichnung von IBM 1952 angeboten: die IBM Magnetbandeinheit IBM 726 mit einer Speicherkapazität von 1,4 MB auf einem 12-Zoll-Rollenband
IBM Magnetbandeinheit Modell 726, Markteinführung 1952
(Durchmesser der Bandspule) mit 720 Metern Länge. Die
1956 kam das System IBM RAMAC 305 auf den Markt.
Einheit hatte zwei integrierte Bandlaufwerke. Dies erwies
Dieses System hatte erstmals eine Plattenspeichereinheit
sich allerdings als äußerst unpraktisch, weil keines der beiden
Type IBM 350. Das IBM 305 System wurde unter dem ein
Laufwerke im Fehlerfall oder bei Wartungsarbeiten weiterhin
getragenen Warenzeichen ‘RAMAC’ angekündigt (Random
zur Verfügung stand. Bereits ein Jahr später, 1953, folgte
Access Method of Accounting and Control). Der Rechner
die IBM 727 mit einem Laufwerk pro Einheit, die auf einem
des Gesamtsystems steuerte sowohl das Positionieren des
standardisierten Rollenband von ca. 740 Metern Bandlänge
Schreib-/Lesekopfes auf die gewünschte Plattenoberfläche
eine Kapazität von 4 MB bot. Bis 1956 war ein Teil der Steue
und Plattenspur als auch das Übertragen der Daten in beide
rung in der damaligen Rechnereinheit IBM 701 untergebracht.
Richtungen (Schreiben und Lesen).
Erste dedizierte Bandsteuereinheiten gab es dann ab 1956. Die Aufzeichnungsdichte der RAMAC 350 Platte lag bei 100 Bits pro Inch (40 Bits pro cm) und der Plattenstapel rotierte mit 1.200 Umdrehungen in der Minute (1200 RPM). Die durch schnittliche Suchzeit lag bei 600 ms. Der Plattenstapel bestand aus 51 Platten mit einem Durchmesser von 24 Zoll und bot eine maximale Kapazität von 5 MB (5 Millionen Characters). In Betrieb kann die RAMAC 350 im IBM Museum in Sindel fingen besichtigt werden.
Medium-Rollenband für IBM 726
14
1952 – 1961
1962 – 1974
IBM 350 RAMAC Platte, 51 Platten im Stapel mit 24 Zoll Durchmesser. 1956: Modell mit 5 MB (5 Millionen ‘Characters’), 1958: Modell mit 10 MB (10 Millionen ‘Characters’), Zurückziehung vom Vertrieb im Jahr 1960
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Verkaufstechnisch wurde bereits damals mit der RAMAC derselbe Marketing-Ansatz gewählt, den man auch heute noch, nur in anderen Größenordnungen, vorfindet. Wie macht man dem Käufer und Benutzer klar, was 5 MB sind? 5 MB lagen damals über jeder normalen Vorstellungskraft. Deshalb wurden in den meisten Spezifikationsunterlagen 5 MB so defi niert, dass das 60.000 – 80.000 Lochkarten entspreche, oder 2.000 Feet Bandlänge (die Bänder gab es ja bereits 4 Jahre früher) oder 940 Seiten mit bedrucktem Papier. Neben dem RAMAC-Plattenstapel und der dazugehörigen Zugriffsstation enthielt die Einheit 350 eine elektronische IBM RAMAC 350-Plattenstapel
und pneumatische Kontrolle für die Zugriffsstation und einen Luftkompressor. Die Schmierung der Plattenlager wurde durch
Damals gab es noch keine Zugriffskämme, sondern nur einen
eine Öl-Dunst-Schmierung durchgeführt.
Zugriffsarm, der in die Zwischenräume des Plattenstapels mit einer Seilzugmechanik hineingesteuert wurde. Die exakte
Die Einheit 350 hatte eine Länge von 152,4 cm (60 Inches),
Positionierung erfolgte mit Zahnstange und Klinke und wurde
eine Höhe von 172,72 cm (68 Inches) und eine Tiefe von
per Pressluft elektronisch gesteuert. Die Köpfe schwebten
73,66 cm (29 Inches) und wog etwa eine Tonne.
über der Platte in einem Abstand von 800 Micro-Inches. 1958 wurde mit der Ankündigung des Modells 2 die Möglichkeit
Das Gesamtsystem, bestehend aus Rechner, Platteneinheit,
geschaffen, die doppelte Kapazität abzubilden (10 MB). Bei
Kartenleser, Kartenstanzer, Drucker und Konsoleneinheit,
diesem Modell wurden zwei Zugriffsstationen eingesetzt, so-
kostete 185.000 Dollar und wurde auch unter Leasing zu
dass eine Station schreiben oder lesen und die zweite gleich
einer monatlichen Rate von 3.200 Dollar angeboten. In dem
zeitig suchen konnte, um für die Verarbeitung des nächsten
Zeitraum von 1956 bis 1960 wurden weltweit 1.500 Systeme
Satzes die Positionierung des Schreib-/Lesekopfes vorzube
installiert. 1960 erfolgte dann die Zurückziehung aller Modelle
reiten.
vom Vertrieb und 1961 die Einstellung der Produktion.
IBM RAMAC 350 Platte mit zwei Zugriffsstationen
IBM RAMAC 350 Einheit
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
15
1952 bis 1961 Die Anfangsepoche der elektromagnetischen Speicherung
‘Inch’ als auch die Anzahl der Bits in einer Spur wurden ver doppelt, sodass eine vierfache Kapazität des Plattenstapels erreicht wurde. Die Plattenstapel waren in zwei Ausführungen verfügbar, in einer Einheit mit 25 Platten im Stapel und einer mit 50 Platten. Die kleinere Einheit hatte eine Kapazität von 10 MB und die größere von 20 MB. Die Aufzeichnungsdichte betrug 220 Bits pro Inch, was 40 Spuren pro Inch entspricht. Die Schwebehöhe zwischen Kopf und Platte betrug 650 MicroInches und die Platten drehten sich mit 1.800 Umdrehungen pro Minute. Die Datenrate lag bei 17,5 Kilobytes pro Sekunde. Der IBM 1405 Plattenspeicher kam vor allem beim IBM 1401-Rechner zum Einsatz. Erstauslieferung IBM RAMAC 305 in Brasilien 1956
Ein Jahr später, im Juni 1961, wurde die IBM 1301 Platten1957 wurde der ‘Data Synchronizer’ am IBM System 709
einheit angekündigt. Sie wurde ein Jahr später, im 3. Quartal
eingeführt, der Vorläufer der heutigen Übertragungskanäle.
1962, an Kunden ausgeliefert. Die Entwicklung dieser Platten einheit trug in größtem Maße zur Weiterentwicklung zukünftiger
1959 führte IBM ein neues Programmpaket, das Eingabe-/
Plattensysteme bei und ist als Meilenstein in der gesamten
Ausgabesteuerungssystem IOCS für Magnetbänder und
Plattengeschichte zu betrachten. Das Plattensystem 1301 war
Magnetplatten (Input/Output Control System) ein. Es han
der Wegbereiter zukünftiger zur Anwendung kommender
delte sich um Makroinstruktionen zum Erstellen, Wiederauf
Technologien in zwei Bereichen: die ‘Air Bearing Slider’-
finden und Verarbeiten von Dateien sowie zur Fehlerkorrektur.
Technologie und separate Schreib-/Leseköpfe für jede
Außerdem steuerte IOCS die Datenblockbildung und die Ent
Plattenoberfläche mit der Möglichkeit, alle auf einen Daten
blockung. IOCS blieb für spätere Systeme von maßgeblicher
zylinder physisch eingestellten Köpfe elektronisch für die
Bedeutung.
zutreffende Plattenoberfläche zu selektieren und nacheinan
1958 verwendete IBM erstmals mit den Systemen IBM 7070 und 7090 die Technik der automatischen Programmunter brechung (Program Interrupt). Der Prozessor verzweigte bei bestimmten, von Eingabe-/Ausgabeeinheiten angezeigten Bedingungen automatisch zu Routinen, die den ‘Interrupt’ behandelten. 1958 wurde die Bandeinheit IBM 729 als Nachfolger des Vorgängers IBM 727 auf den Markt gebracht. Die IBM 729-Bandfamilie bot neben höheren Datenraten und höherer Speicherdichte die erste Schreibkontrolle. Mit der Einführung der IBM 729 wurde beim Schreiben auf Magnetband automa tisch geprüft, ob die eben geschriebene Information gültig war. Dazu wurde Stelle für Stelle in ein Prüfregister eingelesen und geprüft. Im Oktober 1960 wurde der Plattenspeicher IBM 1405 ange kündigt, der an den Systemen IBM 1401, 1410 und 1460 (nicht an System 7000) betrieben wurde. Dieser Plattenspeicher vervierfachte die Kapazität eines Plattenstapels im Vergleich zur RAMAC von 1956. Sowohl die Anzahl der Spuren pro
16
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
IBM 1405 Plattenspeicher, Ankündigung am 10. Oktober 1960, Zurückziehung 30. Juni 1970
1999 – 2005
2006 – 2010
Software
Anhang
IBM 1301 Plattenspeichereinheit, Ankündigung im Juni 1961, Zurückziehung aller Modelle im Oktober 1970
IBM 7340 Hyper Tape Drives in der Bildmitte, links die IBM 7640 Kontrolleinheit, rechts die IBM 729 Bandeinheiten
der zu bearbeiten. Damit war der Grundstein des Zylinder
Die Hyper Tape Drives IBM 7340 reflektierten die neuste
prinzips bei Plattenspeichern gelegt und der ‘Plattenzylinder’
Bandtechnologie, als sie 1961 auf dem Markt eingeführt
geboren!
wurden. Zusammen mit der Kontrolleinheit IBM 7640 bedienten sie die IBM Rechner 7074, 7080 und 7090. Die Hyper Tapes
Neben höherer Kapazität und Leistung bot die Maschine eine
erzielten wesentlich schnellere Lese- und Schreib-Geschwin
wesentlich flexiblere und höhere Übertragungsbandbreite
digkeiten im Vergleich zu den bisherigen Bandeinheiten.
durch das Prinzip, pro Plattenoberfläche einen Schreib-/Lese
Angeschlossen am IBM 7090 Rechner lieferten sie die dop
kopf zur Verfügung zu haben, und war auf die neue IBM 7000
pelten Übertragungsraten im Vergleich zum IBM 729 Band
Serie von Rechnern abgestimmt (7070, 7094, 7080 und 7090).
system, der Weiterentwicklung der IBM 727.
Die Kapazitätssteigerung zur ersten RAMAC lag bei Faktor 13. Die Platten rotierten mit 1.800 Umdrehungen in der Minute.
Am 7. April 1964 wurde mit dem System/360 der Magnet-
Durch die Verkleinerung des Flugabstandes zwischen Kopf
streifenspeicher IBM 2321 angekündigt. Mit seiner Gesamt
und Platte auf 250 Micro-Inches konnten 50 Spuren pro Inch
speicherkapazität von 400 MB auf 1.000 mit magnetisierbarer
und bis zu 520 Bits pro Inch aufgezeichnet werden. Das
Oberfläche versehenen Plastikstreifen galt er zu dieser Zeit
Modell 1 der IBM 1301 hatte ein Plattenmodul mit einer Kapa
als Massenspeicher. Jeder Streifen enthielt 100 Datenspuren,
zität von 28 MB, das Modell 2 arbeitete mit zwei Modulen und
hatte eine Kapazität von 0,2 MB und wurde in sogenannten
einer Kapazität von 56 MB. Angeschlossen an die IBM 7631
‘IBM 2321 Data Cell Drives’ aufbewahrt. 200 solcher Streifen
Steuereinheit konnten bis zu 10 Module (oder bis zu fünf 1301
konnten in einer Datenzelle untergebracht werden. Die sich
Einheiten) zum Einsatz kommen, sie boten für die 7000-Serie
auf einem drehbaren Karussell befindlichen Datenzellen
eine maximale Kapazität von bis zu 280 MB. Interessant waren
wurden durch Rotation so positioniert, dass der gesuchte
auch die damaligen Preise: Das Modell 1 konnte monatlich
Speicherstreifen durch einen Greifer erfasst und um die
für 2.100 Dollar geleast werden oder für eine Summe von
Schreib-/Lesetrommel geführt werden konnte. Damit konnte
115.500 Dollar gekauft werden. Das Modell 2 mit zwei
die adressierte Datenspur gelesen oder beschrieben werden.
Modulen lag bei 3.500 Dollar monatliche Leasingrate und
Die aufwendige Konstruktion und der damit verbundene hohe
einem Kaufpreis von 185.500 Dollar.
Wartungsaufwand standen einer weiten Verbreitung entgegen.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
17
1952 bis 1961 Die Anfangsepoche der elektromagnetischen Speicherung
Kommentar zur Anfangsepoche der elektromagnetischen Speicherung Neben der Erfindung der ersten externen Speichereinheiten mit dem Rollenband IBM 726 und der Platteneinheit IBM RAMAC 350 war der Topmeilenstein die Einführung der Plat teneinheit IBM 1301. Die IBM 1301 war das erste Plattensystem, das mit ‘Air Bea ring Slidern’ arbeitete und für den Zugriff einen Zugriffskamm Prinzip und Arbeitsweise des IBM 2321 Magnetstreifenspeichers
verwendete, der jede Plattenoberfläche im Plattenstapel mit dedizierten Schreib-/Leseköpfen ansteuerte. Mit der IBM 1301 wurde die Zylinderarchitektur im Plattenstapel eingeführt, die bis heute ihren Stellenwert behalten hat. Bemerkenswert ist auch die Tatsache, dass bereits damals nach Möglichkeiten gesucht wurde, kleine Files, die nicht so häufig gebraucht wurden, auf einem billigeren Massenspeicher abzulegen. Für diesen Zweck wurde der Magnetstreifenspei cher IBM 2321 eingeführt. Geprägt wurde die Epoche auch dadurch, dass bei neuen Systemankündigungen immer die dazugehörigen neuen Plat teneinheiten, die dem neuen System leistungsmäßig ange passt waren, Teil der Systemankündigung waren. Die Anfangsepoche legte viele Grundlagen für die Folge
IBM 2321, Gesamtkapazität von 400 MB, Ausbaustufen von 40 bzw. 80 MB, Zugriffszeiten von 95 bis 600 ms
18
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
epochen.
1999 – 2005
2006 – 2010
Software
Anhang
1962 bis 1974
Die Epoche der Wechselplatten und die ‘Winchester’-Zeit
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
19
1962 bis 1974 Die Epoche der Wechselplatten und die ‘Winchester’-Zeit
IBM 1311: Ankündigung am 11. Oktober 1962, Zurückziehung aller Modelle 1971
Die zwischen 1962 und 1964 eingeführten Magnetplatten-
Das erste Modell des Magnetplattenspeichers IBM 1311 mit
speicher IBM 1311, IBM 2311 und IBM 2314 zum Anschluss
Wechselplatten wurde im Oktober 1962 mit dem System
an die 360er-Systeme arbeiteten mit auswechselbaren
IBM 1440 angekündigt. Der Wechselplattenstapel war aus
Magnetplattenstapeln. Die neue Plattensteuereinheit IBM
sechs 14-Zoll-Platten aufgebaut, wog 10 Pfund und bildete
2841 war erstmals Mikroprogramm-gesteuert. Dies war
eine Speicherkapazität von 2 MB ab. Im Vergleich zur IBM
erforderlich, weil mehrere Speichertypen gesteuert werden
1301 verdoppelte sich die lineare Speicherdichte auf 1.025
mussten, einschließlich des neu verwendeten CKD-Formats.
Bits pro Inch. Dies wurde dadurch erreicht, dass der Abstand
IBM entwickelte das Aufzeichnungsformat CKD (Count,
zwischen den Köpfen zu den Plattenoberflächen im Vergleich
Key, Data, frei übersetzt: Sektorkennzeichnung, Schlüssel,
zur IBM 1301 um Faktor 2 auf 125 Micro-Inches reduziert
Daten), das als optimierte Version ECKD über das Jahr 2000
wurde. Die Platten drehten mit 1.500 RPMs und boten eine
hinaus gültig blieb und bis heute im Mainframe(z/OS)-Umfeld
durchschnittliche Zugriffszeit von 150 ms.
eingesetzt wird. Das ‘E’ steht für ‘Extended’, also zu deutsch ‘erweitert’. Wie ein Zugriff auf Daten nach dem CKD-Verfahren abläuft, ist mit dem Produkt der IBM 3330 beschrieben.
Das IBM 1302 Festplattensystem wurde am 23. September 1963 angekündigt und am 9. Februar 1965 wieder vom Vertrieb zurückgezogen
20
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
IBM 2401 Magnetbandeinheit
1999 – 2005
2006 – 2010
Software
Anhang
1963 wurde noch ein Nachfolger der IBM 1301 mit fest ein gebauten Platten angekündigt. Die IBM 1302 sah optisch genauso aus wie die IBM 1301, bot aber auf der Plattenober fläche 500 Datenspuren (1301 hatte 250 Spuren pro Platten oberfläche). Wie bei der 1301 wurden 20 Platten im Stapel verwendet und die Kapazität von 28 MB auf 58,5 MB gestei gert. Damit bot das Modell 1 der 1302 eine Kapazität von 117 MB und das Modell 2 von 234 MB. Die Datentransferrate wurde von 90 KB/s auf 180 KB/s gesteigert. 1964 kam speziell für die Rechnerfamilie System/360 das neue Magnetbandsystem IBM 2401 auf den Markt, das mit 9 Spuren gleichzeitig auf dem Rollenband aufzeichnen konnte und eine wesentlich höhere Zuverlässigkeit im Vergleich zu
IBM 2305 Fixed Head Storage, bekannt als ‘Zeus-Speicher’, Markteinführung 1971, Zurückziehung vom Vertrieb im Januar 1980
den Vorgängern IBM 726, 727 und 729 bot. Dies wurde durch
eine um 20 % schnellere Zugriffszeit boten, die im Bereich
die Einführung eines sogenannten CRC (Cyclic Redundancy
von 60 bis 75 ms lag. Die Kapazität blieb dieselbe. Im
Check) erreicht, das die erste automatische Fehlerkorrektur
Dezember 1970 wurde die Plattenfamilie 2314 noch durch
ermöglichte (Automatic Error Capture & Correction) und Basis
ein Modell B1 ergänzt, das 50 % höhere Kapazität anbot.
für die späteren ECCs (Error Correction Codes) bei Band systemen lieferte.
Im Januar 1970 wurde das Plattensystem ‘IBM 2305 Fixed Head Storage’ angekündigt, das unter dem Entwicklungs
Im April 1965 – ein Jahr nach der Ankündigung des Prozes
namen ‘Zeus’ entwickelt wurde und als IBM Zeus bekannter
sors System/360 – wurde das Plattensystem IBM 2314 als
wurde als unter dem offiziellen Typennamen. 1971 erfolgten
‘IBM Direct Access Storage Facility’ angekündigt. Dies war
die ersten Auslieferungen. Die IBM 2305 war für große Daten
das erste Plattensystem, bei dem Controller und der Strang
bankanwendungen und für das Batch Processing bestens
mit Plattenstapeln in einer Konfiguration bestellt und aufge
geeignet und wurde bei großen System/360 Rechnern der
baut werden konnten. Mit der 2314 wurde ein neuer Platten
Modelle 85 und 195 und später dann bei den System/370
stapel mit der doppelten Anzahl an Plattenoberflächen ein
Modellen 155 und 165 für diese Applikationsformen einge
geführt, der eine Speicherkapazität von 29,2 MB abbildete.
setzt. Mit zwar kleinen Speicherkapazitäten von 5,4 MB und
Das Gesamtsystem bot eine maximale Kapazität von 233,4
10,8 MB, jedoch mit einer durchschnittlichen Zugriffszeit von
MB. Im Vergleich zur 1311 war die 2314 um den Faktor 4
2,5 ms bzw. 5 ms war das System das schnellste seiner
billiger, was das gespeicherte MB betraf. Die Datenrate lag bei
Zeit. Die Datenrate lag bei 3 MB/s und damit 10-fach höher
310 KB pro Sekunde. Im Januar 1969 kamen zwei neue Versi
als bisherige Plattensysteme.
onen der 2314 auf den Markt, die Modelle A1 und A2, die
IBM 2314 Produktionslinie in Mainz 1969
1952 – 1961
1962 – 1974
IBM 2314 Plattensystemfamilie, Ankündigung Modell 1 am 22. April 1965, Modelle A1 und A2 am 10. Januar 1969, Modell B1 am 14. Dezember 1970, Zurückziehung vom Vertrieb im Jahr 1978
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
21
1962 bis 1974 Die Epoche der Wechselplatten und die ‘Winchester’-Zeit
1970 bis 1972: Der virtuelle Speicher, der auf Magnetplatten
Bei der Empfindlichkeit magnetischer Aufzeichnung gegen
abgebildet wurde, schaffte eine neue Qualität in der Bezie
elektrische und mechanische Störungen musste man von
hung zwischen Prozessoren und Magnetplattenspeichern.
Anfang an mit Bitfehlern rechnen. Über Zusatzbits zur Paritäts
Online-Anwendungen gewannen rasch an Bedeutung. Wie
prüfung entwickelte IBM immer ausgefeiltere Methoden, um
die neuen Prozessoren IBM/370 trugen Subsysteme aus
Redundanzbits zu generieren, die den gespeicherten Daten
den Steuereinheiten IBM 3830 und Magnetplatteneinheiten
angehängt wurden. Bei den Aufzeichnungsformaten CKD
IBM 3330 den steigenden Leistungs- und Zuverlässigkeits
und ECKD findet diese ‘Redundanz’-Aufzeichnung in den
anforderungen Rechnung. Neue Blockmultiplexkanäle sorgten
Zwischenräumen (Gaps) zwischen den Datensätzen statt.
für wesentlich höhere Datenübertragungsraten und trugen zu
Mit ihrer Hilfe ließen sich durch entsprechende Programme
einer wesentlich höheren Gesamtleistung bei. Dazu einige
in Rechnern und Steuereinheiten die meisten Bitfehler beim
Einzelheiten:
Übertragen ohne nennenswerte Zeitverzögerung korrigieren und durch technische Einflüsse verfälschte Daten praktisch
Die Plattensteuereinheit IBM 3830 war Mikroprogramm-gesteu
ausschließen. Die Verfahren setzten für jede Datei die Defini
ert, jedoch erstmals mit einem ladbaren Mikroprogramm
tion sogenannter ‘physischer Sätze’, einer einheitlichen Länge
speicher, der über eine Diskette geladen wurde. Mit dem
in Bytes, voraus. Solche Sätze wurden als Blöcke bezeichnet.
Mikroprogramm war es möglich, mehr Funktionen als in den
Bei Eingabe-/Ausgabe-Operationen wurden immer komplette
Vorgängermodellen zu realisieren. Dazu zählten das Erkennen
Blöcke übertragen und geprüft. Meistens war es zweckmäßig,
und Beseitigen von Bitfehlern, gegebenenfalls mehrfaches
in einem Block mehrere ‘logische Sätze’ zusammenzufassen.
Wiederholen von Kanalbefehlen vor Übergabe einer Fehler
Sie bestanden aus einem Ordnungsbegriff, dem in ‘Feldern’,
behandlung an den Rechner und das Sammeln von Infor
die nach Lage und Länge definiert waren, die zugehörigen
mationen über aufgetretene Fehler für das Systemprotokoll
Angaben und Informationen folgten. Bei administrativen
(LogRec). Diese Aufzeichnungen lieferten den Bedienern
Anwendungen wären z. B. Artikel-, Kunden- oder Personal
Informationen über den technischen Zustand von Datenträ
nummern die Ordnungsbegriffe. In den Feldern standen dann
gern und boten dem technischen Außendienst Hinweise für
alphabetische und numerische Informationen. Die Anzahl der
vorbeugende Wartung.
logischen Sätze im physischen Satz bezeichnete man als Blockungsfaktor.
IBM 3330, Kapazität 800 MB, 2-8 Laufwerke, Zugriffszeit 30 ms, Datenrate 806 KB/s, Ankündigung Modell 1 am 30. Juni 1970, Modell 2 am 4. Oktober 1972, Modell 11 am 17. Juli 1973, Zurückziehung vom Vertrieb am 20. Dezember 1983
22
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Nach bisherigen hydraulischen Zugriffsmechanismen benutzten die Magnetplatteneinheiten IBM 3330 erstmals für das ‘Suchen’, die horizontale Einstellung des Zugriffskammes mit den Schreib-/Leseköpfen, einen Linearmotor. Wie bei Lautsprechern wirkt ein durch variablen Stromfluss in einer Spule erzeugtes Magnetfeld dem statischen Feld eines Permanentmagneten entgegen. Deshalb die eng lische Bezeichnung ‘Voice Coil Motor’ (Lautsprecherspulen motor). Die Lage der Schreib-/Leseköpfe zu bestimmten Zeit punkten ergab sich aus der Stärke des von der Spule erzeugten Magnetfelds. Diese Technik setzte voraus, dass jeweils eine Oberfläche eines Plattenstapels mit vom Benut zer unveränderbaren Servospuren versehen war. Der darüber
IBM 3340, Maximalkapazität bis 4.800 MB, Winchester-Wechselplatten Modell 35: 35 MB, Modell 70: 70 MB, bis zu 64 Laufwerke (Modelle 158, 168), Datenrate 885 KB/Sekunde, Zugriffszeit 25 ms
angeordnete (Nur-)Lesekopf versorgte die elektronische Steu erung mit den für gezieltes Positionieren im Rahmen eines Regelungskreislaufs notwendigen Informationen. Diese
Kanal des Rechners, sobald der Anfang des im Kanalbefehl
Technik reduzierte damals die durchschnittliche Dauer einer
vorgegebenen Sektors erreicht war. Der Kanal war nur wäh
Suchoperation auf Anhieb um die Hälfte: statt 60 dann nur
rend der Datenübertragung belegt. Mehrere Platteneinheiten
noch 30 ms.
konnten Suchbefehle überlappt ausführen. Auch die Umdre hungswartezeit (damals bei ca. 17 bis 20 ms) belastete den
Für einen verbesserten Ablauf des direkten Zugriffs auf Daten
Kanal nicht. Diese Methode erlaubte höhere systemeffektive
war Folgendes von Bedeutung: Die Steuereinheit IBM 3830
Datenraten des Magnetplattensystems, die bei günstigen
konnte mithilfe entsprechender Informationen von der Servo
Konfigurations- und Anwendungsprofilen nicht sehr weit
platte als erste die Dreh- oder Winkelposition der an sie
unter der Übertragungsleistung der Einheiten lag.
angeschlossenen Magnetplatteneinheiten erkennen (RPS – Rotational Position Sensing). Mit dem Plattensystem IBM
1973: Das an mittlere Rechnersysteme IBM/370, Modelle 115,
3830/3330 lief ein Routinezugriff wie folgt ab: Nach Angaben
125 und 135, direkt anschließbare neue Magnetplattensystem
aus den Datenträgerinhaltsverzeichnissen, den sogenannten
IBM 3340 benutzte als auswechselbaren Datenträger das
VTOCs (Volume Table Of Contents), und den Indizes zu den
Datenmodul IBM 3348. Die auswechselbaren Datenmodule
Dateien generierte der Rechner mithilfe der Programme der
3348 boten 35 oder 70 MB Kapazität. Ein Modul enthielt in
Zugriffsmethodensteuerung einen Kanalbefehl. Dieser enthielt
einem geschlossenen, staubgeschützten Gehäuse den Plat
die Plattenadresse, von der zu lesen oder auf die zu schreiben
tenstapel und einen horizontal beweglichen Zugriffskamm mit
war, nach Einheit, Zylinder, Spur und Sektor. Die konzent
zwei Schreib-/Leseköpfen je Datenoberfläche. Das Modul war
rischen Spuren auf den Plattenoberflächen waren in Sek
auf die Welle des Antriebsmotors im Laufwerk aufgesetzt.
toren eingeteilt. Als Zylinder bezeichnete man die Summe
Nach dem automatischen Öffnen einer seitlichen Jalousie
der übereinanderliegenden Spuren auf einem Plattenstapel,
verbanden elektrische Steckverbindungen den Zugriffskamm
von denen bei einer gegebenen horizontalen Einstellung
mit dem Laufwerk und eine mechanische Verbindung den
eines Zugriffskammes mit ebenfalls übereinander angeord
Zugriffskamm mit dem Linearmotor. Der Grund für diese Kon
neten Schreib-/Leseköpfen gelesen oder auf die geschrie
struktion: Wenn auswechselbare Plattenstapel als Datenträger
ben werden konnte. Die Steuereinheit wandelte den Kanal
dienten, bedeutete das insbesondere für Zugriffskämme
befehl in spezifische Befehle für die Einheiten um. Den
extreme Ansprüche an die Fertigungstoleranzen, weil jeder
Suchbefehl zum Einstellen des Zugriffskammes auf den kor
Stapel zu jedem beliebigen Laufwerk passen musste und
rekten Zylinder führten die Einheiten selbstständig aus und
schon minimale horizontale Abweichungen der Köpfe über
meldeten der Steuereinheit den Abschluss der Suchopera
den Spuren zu Lesefehlern führte. Dieser Umstand setzte der
tion. Dann aktivierte die Steuereinheit den richtigen Schreib-/
horizontalen Spurdichte Grenzen und minderte die Sicherheit
Lesekopf, analysierte seine Position bezogen auf die Sek
und Zuverlässigkeit der Systeme. Maximal vier Module mit
toren und begann mit dem Übertragen der Daten über den
einer maximalen Kapazität von 280 MB konnten über einen Direktanschluss am IBM/370 Rechner betrieben werden.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
23
1962 bis 1974 Die Epoche der Wechselplatten und die ‘Winchester’-Zeit
Die neuen Magnetbandeinheiten IBM 3420, Modelle 4, 6 und 8, die 1973 auf dem Markt eingeführt wurden, steiger ten mit dem Verfahren der ‘gruppencodierten Aufzeichnung’ (Group Coded Recording) die Aufzeichnungsdichte von 1.600 auf 6.250 Bytes per Zoll und die maximale Übertra gungsrate wurde – je nach Modell – auf 470, 780 und 1.250 Kilobytes pro Sekunde gesteigert. Gleichzeitig erhöhte sich die Zuverlässigkeit um den Faktor 7 (im Vergleich zu den Modellen 3, 5, und 7). Um die Bedienung zu erleichtern, kündigte IBM 1971 parallel Aufbau IBM 3340 Winchester-Wechselplattenstapel
zum 3420 Magnetbandsystem das IBM 3410 Magnetband-
Die IBM 3340 mit den Modellen A2, B1, B2 und C2 wurden
system an, das von der Bauhöhe her Pultform hatte und
am 13. März 1973 angekündigt. Die Modelle B1 und C2
erstmals erlaubte, die Rollenbänder horizontal von oben ein
wurden am 20. Dezember 1983 und die Modelle A2 und B2
zulegen. Die Kapazitäten und die Technologie waren mit der
am 1. Mai 1984 vom Vertrieb zurückgezogen.
3420 vergleichbar, allerdings war die Schreib-/Lesegeschwin digkeit wesentlich niedriger. Die 3410 wurde deshalb – neben
Die Tatsache, dass beim Datenmodul der Magnetplatten
dem 3420 Magnetbandhochleistungssystem – als kosten
speicher IBM 3340 immer der gleiche Zugriffskamm schrieb
günstige Alternative für Benutzer der IBM System/370 und
und las, ermöglichte höhere Spurdichten bei gleichzeitig ge-
IBM System/360 angeboten.
steigerter Zuverlässigkeit. Die Konstruktion insgesamt führte zu kürzeren Suchzeiten und etwas höherer Übertragungs
1974: Im Zuge des verstärkten Übergangs der mit dem Sys
leistung gegenüber der IBM 3330.
tem/370 begonnenen Direktverarbeitung mit preisgünstigen Terminals zur Programmentwicklung und Problemlösung
24
Mit den neuen Magnetbandeinheiten IBM 3420, Modelle 3,
(VM/370, APL) wuchs die Zahl der Dateien bei Benutzern
5 und 7, die in 9-Spur-Technik mit einer Aufzeichnungsdichte
großer Systeme dramatisch. Anders als bei den mit wenigen
von 1.600 Bytes pro Zoll arbeiteten, konnte eine Datenrate –
großen Dateien und ausgefeilten Sicherungsverfahren arbei
je nach Modell – von 120, 200 und 320 Kilobytes pro Sekunde
tenden Datenbankanwendungen (IMS, CICS) wurde es
erzielt werden. Diese Modelle wurden 1970 eingeführt.
immer schwieriger, speziell die vielen kleinen, unregelmäßig
IBM 3420 Magnetbandeinheit, 1970 Modelle 3, 5 und 7, 1973 Modelle 4, 6 und 8
IBM 3410 Magnetbandsystem mit horizontaler Bandeinlegemöglichkeit
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
benutzten Bestände unter manueller Verwaltung zuverlässig zu sichern und zu archivieren. Um diese Aufgabe zu lösen und um kostengünstigeres Speichern von Daten unter Sys temkontrolle zu ermöglichen, führte IBM neue Hardware und Software ein. Der Massenspeicher MSS (Mass Storage System) IBM 3850 bildete auf zwei speziellen zylinderförmigen Magnetbandpatronen den Inhalt eines Datenträgers des Magnetplattenspeichers IBM 3330 ab. Man kann ihn als ersten virtuellen ‘Plattenspeicher’ bezeichnen, der gleich zeitig ein automatisches Bandarchiv darstellte. Alle aktiven Patronen lagerten in einem Schrank mit einander gegenü berliegenden Regalen in wabenförmigen Zellen. Bei Anfor
IBM MSS 3850 im Rechenzentrum im Hintergrund rechts
derung durch die Programme bewegte eine sinnreiche Kon
ILM, Information Lifecycle Management, das heute in
struktion einen sogenannten Picker automatisch zur richtigen
aller Munde ist, wurde bereits intensiv im Jahr 1974 gelebt!
Patrone. Der Picker hielt den Datenträger im Gegensatz zu
Der HSM (Hierarchical Storage Manager) als Verwalter der
späteren mechanischen Greifern elektromagnetisch fest und
Speicherhierarchie war damals ein Programm, das zunächst
brachte ihn zu einer Schreib-/Lesestation, von der die
in Verbindung mit dem Massenspeicher die ihm unterstellten
gewünschten Daten zum Verarbeiten auf bestimmte
Dateien gemäß vorgegebener Steuerungskriterien automatisch
Magnetplattenlaufwerke (Staging Devices) übertragen wur
sicherte und im Bedarfsfall wiederherstellte. Eine weitere
den oder umgekehrt. Nach Ablauf der Operation brachte
damals bereits verfügbare Funktion war das Verlagern von
die gleiche Vorrichtung die Patronen an ihren Lagerort
Dateien vom teuren Plattenspeicherplatz auf billigere Speicher
zurück. Der Bediener war nur noch mit den Patronen befasst,
(ursprünglich auf den MSS) während der Zeiten, in denen
die der Massenspeicher nach Programmvorgaben über
sie nicht benötigt wurden. Um den Speicherplatz optimal zu
entsprechende Stationen aussteuerte oder die er von außen
nutzen, konnte der HSM zu archivierende Dateien kompri
anforderte. Der Massenspeicher konnte bis zu 236 GB im
mieren, indem er leere Bereiche auf den Datenträgern aus
Zugriff der Prozessoren halten. Die technische Entwicklung
ließ, und er konnte darüber hinaus Daten mithilfe binärarith
der Magnetspeicher – Platte, Band – ließ keinen sinnvollen
metischer Verfahren verdichten (Compression, Compaction).
Nachfolger zu, während die zugehörige Software bis heute,
Zum Verarbeiten stellte er den ursprünglichen Zustand der
im Jahr 2006, hochaktuell blieb.
betreffenden Datei wieder her. An unterschiedlichste Konfigurationen mit unterschiedlichen externen Speichern angepasst, blieb der HSM fester Bestand teil späterer Pakete von Dienstleistungsprogrammen für den Bereich externer Speicher, z. B. der IBM DF-Produkte (Data Facility), die den systemverwalteten Speicher zum Ziel hatten. So wurden die DF-Produkte als Programmprodukte im Main frame-Umfeld, beginnend mit DFP, 1989 eingeführt. Kurz darauf folgte der DFDSS und der DFHSM, die dann alle unter dem Programmpaket DFSMS (Data Facility System Managed Storage) 1992 zusammengefasst wurden und ein Jahr später komplett ins MVS-Betriebssystem integriert wurden. HSM spielt unter unterschiedlichen Bezeichnungen bis heute eine ganz maßgebliche Rolle.
IBM Mass Storage System 3850 mit ‘Honeycomb Racks’ 1974
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
25
1962 bis 1974 Die Epoche der Wechselplatten und die ‘Winchester’-Zeit
IBM 3850 Roboter mit Doppelgreifer (Standard) in Aktion
IBM 3850 Bandpatronen mit 19,5 Metern Bandlänge und einer Kapazität von jeweils 50 MB im Größenvergleich zum 3330 Plattenstapel mit 100 MB Kapazität
Das MSS 3850 gab es in acht Modellvarianten. Das kleinste
Die Epoche war wie die Anfangsepoche durch neue System
Modell speicherte bis zu 706 Bandpatronen, bot eine Kapazi
ankündigungen geprägt, in denen immer das dafür passende
tät von 35,3 GB und konnte bis zur größten Variante mit
Platten- und Bandsystem Teil der Ankündigung war. Davon
bis zu 4.720 Patronen und einer Kapazität von 236 GB aus
losgelöste Speicherankündigungen fanden nicht statt.
gebaut werden. Der Einsatz der damals verwendeten Wechselplatten war bei Kommentar zur Epoche der Wechselplatten und
den Endbenutzern sehr beliebt, weil man diese tragbaren
der ‘Winchester‘-Zeit
Plattenmodule auch für den Datenträgeraustausch zwischen
Das starke Ansteigen der Rechnerleistungen durch neue
unterschiedlichen Lokationen einsetzen konnte. Die 1970 und
Systeme machte es notwendig, viele neue Dinge auf der
1973 neu angekündigten Modelle der 3420 wurden auschließ
Speicherseite einzuführen, um den neuen Leistungsanforde
lich für Backup-Zwecke eingesetzt. Erst in der Folgeepoche,
rungen dieser Rechner gerecht zu werden.
in der man wieder fest eingebaute Platten einsetzte und vom Prinzip der Wechselplatten wegging, erlebte die 3420
So wurden mit der IBM 2841 und IBM 3830 die ersten Mikro
eine wahre Blütezeit. Das Rollenband war dann das einzige
programm-gesteuerten Steuereinheiten und das bis heute
Medium, das als auswechselbarer Datenträger eingesetzt
gültige CKD-Format (heute ECKD bei zSeries) eingeführt. Für
werden konnte.
höhere Übertragungsbandbreiten sorgten die neu eingeführ ten Blockmultiplexing-Kanäle, die maßgeblich zu einer Ver
Da die kapazitiven Anforderungen immer größer wurden und
besserung der Gesamtleistung von Rechner und Speicher
neben Online-Speichern neue Massenspeicher mit höheren
peripherie beitrugen.
Kapazitäten verlangt wurden, war eines der Meilensteine die ser Epoche sicherlich das IBM 3850 Mass Storage System,
26
Bei den Platten selbst wurden kleinere Formfaktoren und
das erste Nearline-Roboter-System der Welt mit Bandpatronen,
kleinere Flughöhen zwischen Kopf und Plattenoberfläche
die wie die damaligen Wechselplatten als Online-Speicher
eingeführt, um die Leistung durch schnellere Drehgeschwin
adressiert wurden. Die Tatsache, dass bei dem MSS erstmals
digkeiten und Datenraten sowie die kapazitiven Möglichkeiten
ILM über eine HSM-Funktionalität eingeführt wurde, muss
zu verbessern. Fast parallel dazu wurde die Leistung der
besonders hervorgehoben werden. Diese HSM-Funktionalität
Bandsysteme angepasst und durch neue Möglichkeiten der
legte den Grundstein für die späteren DF-Produkte (Data
Mehrspurtechnik wurden die Datenraten erhöht.
Facility) im Mainframe-Umfeld.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
1975 bis 1993
Die Epoche der fest eingebauten Platten mit externen Kontrolleinheiten
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
27
1975 bis 1993 Die Epoche der fest eingebauten Platten mit externen Kontrolleinheiten
IBM 3350, Kapazität bis 2.536 MB, 317 MB per LW, 8 Laufwerke pro 3350 Strang, Zugriffszeit 25 ms, Datenrate 1.198 KB/s, links hinten: Display-Einheit für Microfiches, rechts hinten: Steuerkonsole des Systems/370 Modell 168
IBM 3310 Direct Access Storage, Plattensystem für IBM 4331 Rechner
1975: Mit dem Magnetplattenspeicher IBM 3350 ging die
Archivierung und Datenträgeraustausch blieb, löste die IBM
IBM wieder zu fest eingebauten Platten über. Das bedeutete
3350 einen deutlichen Verkaufsanstieg bei Magnetbandein
einen entscheidenden Schritt zu höherer Zuverlässigkeit
heiten aus, insbesondere bei den schnellen Modellen 6 und 8
und Verfügbarkeit sowie höherer Aufzeichnungsdichte. Bei
des Magnetbandsystems 3420. Fortan waren Magnetbänder
dieser Konstruktion waren gegenüber der mit Datenmodulen
unverzichtbarer Bestandteil größerer und auch mittlerer Daten
arbeitenden Type IBM 3340 potenzielle Störstellen nicht mehr
verarbeitungssysteme.
vorhanden, auf die 70 % der notwendigen Technikereingriffe zurückzuführen waren. Tatsächlich registrierte der IBM Tech
1979 führte IBM ein weiteres Plattensystem ein, das IBM 3310
nische Außendienst bei IBM 3350 im Durchschnitt weniger
Direct Access Storage, das in einer kompakten Bauweise
als einen Eingriff pro Einheit und Jahr. IBM 3350 und die Nach
hohe Leistung bei einem sehr günstigen Preis bot und seinen
folgeprodukte setzten das mit IBM 3330 begonnene Strang
Einsatz im Anschluss an IBM 4331, 4341, 4321, 4361 und
konzept fort. An eine Kopfeinheit (Master Unit) mit zwei Lauf
kleine 4381 Rechner fand. Jeder Plattenstapel bot eine
werken konnte man bis zu drei Nebeneinheiten anschließen.
Gesamtkapazität von 64,5 MB und der gesamte Plattenstrang
Ein Strang bestand also aus acht Laufwerken. Die Kopfeinheit
258 MB. Bis zu vier Plattenstränge konnten an obigen Rech
besaß grundsätzlich zwei Ein-/Ausgänge zur Steuereinheit
nermodellen betrieben werden und boten eine Gesamtkapa
IBM 3830. Die beiden Verbindungen konnten zu verschiede
zität von 1.032 MB.
nen Einheiten 3830 führen. Fielen ein Kanal, eine Steuerung oder Steuerelemente in der Kopfeinheit aus, lief der Betrieb
1979 bis 1983: IBM 3370 und 3375 waren neu entwickelte
auf der zweiten Verbindung zu jedem Laufwerk weiter, wenn
Magnetplatteneinheiten an der neuen Steuereinheit IBM 3880
auch mit geringerer Leistung. Man kann in diesem neuen
für damals mittlere Systeme. Sie arbeiteten aus Gründen der
Konzept den ersten Einstieg in Konzepte der Fehlertoleranz
Vereinfachung und Beschleunigung von Programmabläufen
erkennen.
mit festen Blöcken von 512 Bytes. Der Benutzer definierte größere Blocklängen mit einem Vielfachen von 512. Damit
Weil mit dem Magnetplattensystem IBM 3350 mit fest einge
war die erste FBA(Fixed Block Architecture)-Platte geboren.
bauten Platten nun die Magnetbandrolle das einzige aus wechselbare Speichermedium für Datensicherung, Offline-
28
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
IBM 3380 Platten und 3880 Steuereinheiten füllten damals ganze Rechenzentrumshallen
Die neue IBM 3880 Steuereinheit leitete ein neues Steue
werke kamen gerade rechtzeitig, denn zu diesem Zeitpunkt
rungsprinzip ein, das in der Weiterentwicklung 1985 die erste
war deutlich geworden, wie notwendig es bei der engen
Integration von Pufferspeichern, anfangs von 8 bis 16 MB,
Beziehung zwischen Prozessoren und Plattenspeichern war,
zur Folge hatte. Diese kleinen Pufferspeicher waren für das
die Leistung beider aufeinander abzustimmen.
Ein- und Auslagern von Seiten (Paging, Swapping) gedacht und wirkten sich zunächst auf die Leistung älterer Konfigura
1981 wurden die Standardmodelle AA4 und B04 der IBM 3380
tionen ohne Erweiterungsspeicher aus. Die Verwendung von
angekündigt. 1985 folgten die erweiterten Modelle AD4, BD4,
größeren Pufferspeichern führte dann zur Einführung neuer
AE4 und BE4. 1987 wurden die schnellen AJ4 und BJ4 und
Caching-Algorithmen. Die zu schreibenden Daten wurden in
die schnellen, großkapazitiven Modelle AK4 und BK4 ange
der Steuereinheit auf Halbleiterspeicherkarten zwischenge
kündigt. Ebenso erfolgte 1987 die Ankündigung der 3380 CJ2,
speichert und auf einem stromunabhängigen Schreibspeicher
eines Modells, bei dem die Steuereinheit im Plattengehäuse
dupliziert. Danach meldete die Steuereinheit dem Rechner
integriert war.
den Abschluss der Operation, obwohl die Daten noch nicht auf die Platten geschrieben waren. Diese Operation wurde damals als ‘DASD Fast Write’ bezeichnet, weil durch dieses Prinzip die Antwortzeiten zwischen den Plattensystemen und dem Rechner um ein Vielfaches verbessert wurde. Dieses damals eingeführte ‘Caching’-Prinzip für Plattensubsysteme wurde dann rasch weiterentwickelt und hat bis heute Gültigkeit. 1981: IBM 3380 waren Magnetplatteneinheiten, die als Neuentwicklung für die 3880 Steuereinheiten optimiert waren und das CKD-Format fortsetzten. Die IBM 3380 übertrug mit 3 MB pro Sekunde und nutzte dabei spezielle Fähigkeiten der Blockmultiplexkanäle (Data Streaming). Die neuen Lauf
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
IBM 3370, 1 Plattenstapel pro Einheit mit 2 Zugriffsarmen und 2 Adressen, Modell 1: 571 MB, Modell 2: 730 MB, jeweils per Einheit, bis zu 4 Einheiten mit 2.285 – 2.920 MB Kapazität, Zugriff 20 ms, Datenrate 1,86 MB/s
1999 – 2005
2006 – 2010
Software
Anhang
29
1975 bis 1993 Die Epoche der fest eingebauten Platten mit externen Kontrolleinheiten
Die Zeit der 3380-Platte brachte im Antwortzeitverhalten, im Durchsatz und in den hohen Kapazitäten für die damals betrie benen IBM Rechner 3031, 3032, 3033, 3042 und /370 große Fortschritte. Die durchschnittlichen Suchzeiten bewegten sich – je nach Modell – zwischen 12 und 16 ms. Immer zwei Laufwerke waren in einer Gehäuseeinheit untergebracht. Pro Laufwerk wurden Kapazitäten von 1,26 GB (J-Modelle) und 3,78 GB (K-Modelle) abgebildet. Dies bedeutete für einen voll ausgebauten 4-pfadigen Strang von J-Modellen eine IBM 3430 Magnetbandsubsystem, letztes Rollenband der IBM, Markteinführung 1983
Gesamtkapazität von 20,16 GB und bei den K-Modellen wurden bis zu 60,5 GB Gesamtkapazität erreicht. Die Platten wurden im 14-Zoll-Format gebaut. Um die gewich
1984:
tigen Plattenstapel aus den Gehäuseeinheiten zu heben, wur
Die erreichte Dynamik in der Leistung von 3880/3380 Plat
den vom technischen Außendienst speziell dafür gebaute
tensubsystemen und /370 Rechnern erforderte auch eine
Hubwagen eingesetzt.
Leistungsanpassung auf der Backup-Seite, den Magnetband systemen. Mit der IBM 3480 wurde der Wechsel von den bis
Im 3880/3380 Subsystem wurde aus Pfadredundanzgründen
dahin verwendeten Rollenbandsystemen auf die Kassetten
die Funktion ‘Dynamic Path Reconnect’ eingeführt, die im
technik eingeleitet. Das neue Magnetbandsystem IBM 3480
Falle eines Pfadfehlers dafür sorgte, dass die Datenübertra
übertrug, gleich schnell wie die Plattenspeicher IBM 3380, mit
gung zu jedem HDA des Subsystems auf einem alternativen
3 MB pro Sekunde und schloss damit die Lücke im Gesamt
Pfad erfolgen konnte. Diese Multipfadarchitektur in Verbindung
systemverhalten. Die bis dahin verwendeten 10,5-Zoll-Rollen
mit dem neuen Kanalsubsystem des Mainframes sorgte für
bänder der 3420 Technologie wurden durch handtellergroße,
einen um 30 % höheren Durchsatz im Speichersubsystem.
rechteckige Kassetten abgelöst. Bei einer Aufzeichnungs dichte von 38.000 Bytes pro Zoll nahmen die neuen Kassetten doppelt so viel Daten auf wie herkömmliche Bandrollen,
Physikalische Spezifikation der 3380 Plattensubsysteme: Modelle
A/B
D
E
CJ2
J
K
4
4
4
2
4
4
885
885
1770
885
885
2655
Tracks per Device
13275
13275
26550
13275
13275
39825
GB per Unit (Box)
2.520
2.520
5.041
1.260
2.520
7.562
Actuators per Unit Zylinder per Device
also bis zu 200 MB. Mit einem Zusatz, einem Vorratsschacht (Stacker), konnten mehrere Kassetten hintereinander automa tisch vorgeladen werden. Das erleichterte maßgeblich das Sichern großer Datenbestände.
Auf der Magnetbandsubsystemseite führte IBM 1983 das letzte Rollenbandsystem mit der IBM 3430 ein, das vor allem bei IBM 43xx- und IBM 303x Series-Prozessoren, aber auch bei dem damaligen Midrange System/38 seinen Einsatz fand. Die kompakte Bauweise erlaubte den Benutzern die Aufstel lung auf wesentlich kleinerer Fläche im Vergleich zur IBM 3420. Die Rollenbänder wurden von oben horizontal eingelegt wie bei IBM 3410 (1971). Aufgrund der ein Jahr später angekündigten neuen IBM 3480 Kassettentechnik als Ablösung der Rollenbänder fanden 3430 Einheiten nicht in großen Stückzahlen ihren Absatz, hielten sich aber dennoch ziemlich lange auf dem Markt, um der Daten trägeraustauschanforderung gerecht zu werden, die in den Folgejahren immer noch auf Rollenbändern gemacht wurde. IBM 3480 Magnetbandsystem
30
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
einen Kompromiss für Lesen und Schreiben finden, um beide Vorgänge zu ermöglichen. Jetzt konnten sie ausschließlich für den Schreibvorgang optimiert werden, denn das Lesen erfolgt bei der 3390 Technologie über eine zweite Kompo nente, einen Lesefilm. Der Film war sehr klein und bestand aus dünnen Schichten verschiedener Metalle wie Eisen, Chrom und Kobalt. Kurze Zeit später wurde der Film auf Nickel und Eisen umgestellt. Wenn sich innerhalb der Spur auf der Platte die Magnetisierungsrichtung umkehrte, änderte sich der 1984: Wechsel vom klassischen Rollenband auf die 3480 Kassettentechnologie
elektrische Widerstand vor allem in der mittleren Schicht des darüber befindlichen Kopfes sprunghaft. Dies bezeichnet man als magnetoresistiven Effekt, den man als Signal entsprechend
1989:
verstärkt und auswertet. Diese neue Technik gewährleistete
Mit der IBM 3390 Plattentechnologie wurde der bei IBM 3380
sicheres Lesen bei höchster Aufzeichnungsdichte, weil selbst
verwendete Formfaktor von 14 Zoll auf 10,8 Zoll reduziert.
kleinste Streufelder von Informationseinheiten differenziert
Anfangs wurde die 3390 Technologie noch mit der herkömm
werden konnten. Man führte – einfach gesagt – zwei Spezia
lichen ‘braunen Beschichtung’ produziert, wo Eisenoxyd-
listen ein, einen für das Schreiben optimierten induktiven Kopf
Partikel (Rostpartikel), die möglichst homogen in einer Kunst
und einen Spezialisten für den Lesevorgang (ausführliche
harzmasse zur gleichmäßigen Magnetisierung verteilt waren,
Beschreibung im Technologie-Anhang). Beide Spezialisten
als Magnetisierungsträger eingesetzt wurden. Die Einführung
zusammen bildeten das Schreib-/Leseelement, das vom
einer neuen Beschichtung, deren Entwicklung 1989 einge
Zugriffsmechanismus positioniert wurde.
leitet wurde und die 1991 zur Anwendung kam, ließ den Ein satz einer neuen Schreib-/Lesetechnik zu. Die neuen Köpfe
Die neue Schreib-/Lesekopf-Technik der IBM 3390 benötigte
schrieben – wie ihre Vorgänger – induktiv, erzeugten also
eine neue Beschichtung in sogenannter Dünnfilmtechnik.
Magnetfelder in der Beschichtung der Platten mithilfe eines
Dabei beschichtete man die Oberflächen von Glasplatten aus
winzigen Spalts im Metallkern miniaturisierter Elektromagnete.
einem speziell gehärteten Glas mit einer Legierung und unter
Bis zu diesem Zeitpunkt dienten die Elektromagnete auch
zog sie anschließend einem Einbrennprozess. Die magneto
zum Lesen. Für die Zahl der Spulenwindungen musste man
resistive Schreib-/Lesetechnik in Verbindung mit Dünnfilm beschichtungen auf den Platten kam innerhalb der 3390 Baureihe mit den Modellen 3 und 9 erstmals zum Einsatz. Die seit der Einführung von Magnetplatten verwendet Aluminium platte, die mit feinst gemahlenem, weichmagnetischem Material in einem Kunstharz als Bindemittel beschichtet war, hatte damit ausgedient. Im Vergleich zur IBM 3380 Baureihe lieferte die 3390 Bau reihe eine Verbesserung in der Zugriffszeit von 28 % und die Datentransferrate wurde um 40 % gesteigert, weil anstelle von 3 MB/s mit 4,5 MB/s übertragen werden konnte. So konnten die Kanalgeschwindigkeiten des damals neuen 3090 Rech ners genutzt werden. Ebenso konnte vom Rechner auf die Subsysteme über vier gleichzeitige Pfade übertragen werden (Four Path Data Transfer). Die 3390 Platten und auch noch die 3380 Platten wurden an der neuen IBM 3990 Steuerein heit angeschlossen, die mit höheren Plattenpuffergrößen (Cache) von 16 bis 64 MB (3990 Modelle 3) ausgestattet war.
Größenvergleich Magnetbandsysteme IBM 3420 gegenüber IBM 3480
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
31
1975 bis 1993 Die Epoche der fest eingebauten Platten mit externen Kontrolleinheiten
1989: IBM 3390-1/2, 1991: IBM 3390-3, 1994: IBM 3390-9, hinten IBM 3380-K Strang mit 60 GB Kapazität, vorne 3390-3 Strang mit 90 GB Kapazität, rechts IBM 3990 Steuereinheiten
Ein voll ausgebauter 3390 Modell 3 Strang mit 1 x A38 und
1991:
2 x B3C hatte also eine Gesamtkapazität von 90 GB. Das
In diesem Jahr wurde von IBM der erste Schritt in Rich
Großkapazitätsmodell 9, das 1994 auf den Markt kam, ver
tung kleinerer Formfaktoren von Magnetplattenlaufwerken in
dreifachte nochmals die Kapazität. Allerdings kamen die
Subsystemen eingeleitet. Die angebotenen Plattensysteme
Modelle 9 nur begrenzt zum Einsatz, weil die Platten aufgrund
IBM 9340 und IBM 0662, erstmals auf der Basis von Platten
ihrer hohen Kapazität langsamer waren, und wurden für
durchmessern mit 5,25 bzw. 3,5 Zoll, bestanden aus einem
Anwendungen eingesetzt, wo die Zugriffszeiten und Daten
Rahmen, in den die Steuereinheit zusammen mit mehreren
raten ausreichten.
Plattenlaufwerken eingebaut wurden. Ein Standardrahmen Typ 9309 nahm bis zu acht Platteneinschübe vom Typ IBM 9345 auf. Ein Platteneinschub enthielt zwei Laufwerke mit
Physikalische Spezifikation der 3390 Plattensubsysteme
jeweils 1 oder 1,5 GB Speicherkapazität. Es waren 5¼-ZollLaufwerke neuster Technologie mit einer Datenrate von
Modelle
Kapazität/ Actuator
Kapazität/ HDA
Anzahl HDAs
Kapazität/ Unit
A14
0.946
1.89
2
3.78
und in bewährter Count-Key-Data(CKD)-Speicherungsform.
A18
0.946
1.89
4
7.56
Für Anforderungen bis 24 GB gab es den Steuereinschub
B14
0.946
1.89
2
3.78
IBM 9341, der als 2-Pfad-Subsystem ohne Cache an die
B18
0.946
1.89
4
7.56
Prozessoren-Reihe 9221 oder 9370 angeschlossen war.
B1C
0.946
1.89
6
11.35
A24
1.89
3.78
2
7.56
Größerer Speicherbedarf und noch höhere Anforderungen
A28
1.89
3.78
4
15.1
wurden mit dem Standardrahmen IBM 9343 mit eingebauter
B24
1.89
3.78
2
7.56
Steuereinheit mit 4-pfadigem Funktionsumfang und mit 9345
B28
1.89
3.78
4
15.1
Einschüben abgedeckt. Die Kapazität konnte stufenweise auf
B2C
1.89
3.78
6
22.7
48 GB ausgebaut werden. Die IBM 9341/9343 erlaubten das
A34
2.838
5.67
2
11.34
A38
2.838
5.67
4
22.68
B34
2.838
5.67
2
11.34
B38
2.838
5.67
4
22.68
B3C
2.838
5.67
6
34.02
4,4 MB/s, mittlerer Umdrehungswartezeit von nur 5,6 ms
unterbrechungsfreie Hinzufügen von Platteneinschüben. Hohe Leistung ohne Cache wurde im Speziellen bei Datenbank anwendungen mit hohem Randomzugriff erzielt. Erhebliche Steigerungen bei entsprechenden Anwendungen wurden später durch einen modellabhängigen 32-MB- bis 64-MBCache möglich.
32
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software Anhang
Software Anhang
1989/1991:
primierungsverfahren gearbeitet, dem IDRC (Improved Data
Parallel zur 3390 Plattenentwicklungsreihe wurde 1989 auf
Recording Capability), das Komprimierungsfaktoren von bis
der Tape-Seite der Nachfolger des 3480 Bandsystems,
zu 3 :1 zuließ. Die neuen 3490 Systeme konnten mit ESCON-
die IBM 3490, verfügbar und 2 Jahre später die erweiterte
Kanälen angesteuert werden, wie es bei den 3390 Platten
Version in Form der IBM 3490E. Bei der 3490 Laufwerktech
der Fall war. Damit war der Grundstein für ESCON gelegt,
nologie wurde mit 18 Spuren, bei der 3490E Technologie mit
das im Laufe der nächsten Jahre die bis dahin verwendete
36 Spuren gearbeitet.
BMPX(Block Multiplex)-Verkabelung ablösen sollte.
Die 3490 Technologie verwendete zur Steuerung des Band
Die erreichte Aufzeichnungsdichte lag bei IBM 3490 bei
subsystems erstmals sehr leistungsstarke Kontrolleinheiten
38.000 BPI mit Kassettenkapazitäten von 600 bzw. 1.200 MB,
mit einem dynamischen Pufferspeicher von 2 bzw. 8 MB.
bei 3490E wurden durch die doppelte Spurzahl 78.000 BPI
Ebenso wurde bei der Aufzeichnung mit einem neuen Kom
erreicht mit Kassettenkapazitäten von 1.200 und 2.400 MB.
IBM 3490 Magnetbandsystem
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software Anhang
Software Anhang
33
1975 bis 1993 Die Epoche der fest eingebauten Platten mit externen Kontrolleinheiten
IBM 3495 Bandarchiv mit 5.660 bis 18.920 Kassetten (13,5 bis 45,5 TB), Höhe 2,38 Meter, Tiefe 2,46 Meter, Länge modellabhängig 13,4, 18,3, 23,2 oder 28,0 Meter, 4 bis maximal 64 Laufwerke IBM 3490
1992: IBM kündigte nach einigen Jahren der Kooperation im
Zum Vergleich: Der Massenspeicher von 1974 erlaubte
Bandarchivbereich mit den Firmen Grau und Haushahn ein
maximal etwa 0,24 TB.
eigenes automatisches Magnetbandarchiv IBM 3495 für große Prozessoren an, die unter dem Betriebssystem MVS
Das damals verwendete Robotersystem der 3495 war ton
unterstützt waren. Bei einer Kassettenkapazität IBM 3490 von
nenschwer und wurde vom Markt bis auf wenige Kunden
2,4 GB konnten die Benutzer die Library-Kapazitäten von
nicht sonderlich akzeptiert. Oft wurde an die IBM die Frage
13,5 TB auf 45,5 TB ausbauen.
gerichtet, warum ein tonnenschwerer Roboter notwendig sei, um eine kleine 3490 Kassette zu transportieren.
34
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
1993: Etwa eineinhalb Jahre später kam dann das automa
entwickelt und den Virtual-Tape-Server-Systemen VTS mit
tische Magnetbandarchiv IBM 3494 in wesentlich kom
ihren weiterentwickelten Funktionalitäten, die mit der Library
pakterer Bauweise und mit einem adäquaten Robotersys
bis heute betrieben werden können, angepasst. Mit der Ver
tem, das neben der MVS-Plattform auch AS/400- und
fügbarkeit der ersten Jaguar-3592-Laufwerke im September
RISC-6000-Systeme unterstützte.
2003 (siehe Epoche Multiplattformsysteme und SAN) entwi ckelte IBM eine intelligente Integration dieser kleinen Lauf
Das 3494 Librarysystem wurde in den Folgejahren funktional
werke in die 3494 Library. In der exakten Größe eines
erweitert und ist bis heute noch ein aktives Librarysystem, das
Magstar-3590-Laufwerks wurden Gehäuseeinheiten, soge
vor allem im Mainframe-Umfeld eingesetzt wird. Es war auch
nannte ‘Cradles’ gebaut, wo zwei Jaguar-Laufwerke im vor
die erste IBM Tape-Library, die den Mischbetrieb von 3490
deren Teil untergebracht werden können. Nach hinten sind
und 3490E Laufwerken und Kassetten ermöglichte und auch
die Cradles offen. Dort sind zwei Netzteile untergebracht.
den Nachfolger der 3490, die IBM 3590 Laufwerktechnologie,
Die beiden Jaguar-Laufwerke sind an beide Netzteile ange
unterstützte. Mit 3590 Laufwerken, die als Nachfolger der
schlossen, um die Stromversorgung über zwei unabhängige
3490E im Jahr 1995 verfügbar wurden, konnten mit dem
Quellen sicherzustellen. Die IBM 3494 wird im Jahr 2010
ersten Modell B Kanaldatenraten von 9 MB/s realisiert wer
noch in einigen Rechenzentren aktiv betrieben. IBM publi
den. Die 3494 war zudem eine Library, die gleichzeitig den
zierte im Jahr 2005 das ‘SOD’ (Statement of Direction),
Mainframe und Open Systems bedienen konnte und kann.
zukünftige Jaguar-Laufwerkstechnologien weiterhin zu unter
Später wurden die Modelle E und H der 3590 unterstützt.
stützen. So kann auch noch das neue Highend-Laufwerk
Der Library Manager der 3494 wurde kontinuierlich weiter
TS1130 in die Library eingebaut werden. Im Herbst 2009 erfolgt die Zurückziehung von Marketing. IBM plant, die Library 3494 bis Ende 2015 in der IBM Wartung zu halten.
1993 IBM 3494
1952 – 1961
IBM 3494 Gehäuseeinheit D22 mit ‘Cradles’ und TS1120(Jaguar)-Laufwerken
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
35
1975 bis 1993 Die Epoche der fest eingebauten Platten mit externen Kontrolleinheiten
Kommentar zur Epoche der fest eingebauten Platten
Anfang der 90er-Jahre wurde die ‘Braune’-Platten-Produktion
mit externen Kontrolleinheiten
umgestellt und Dünnfilm-Beschichtungen wurden eingeführt.
Die Anforderungen bezüglich Hochverfügbarkeit wurden
Dies führte zu wesentlich höherer Zuverlässigkeit, weil mit
immer höher. Deshalb ging man von den Wechselplatten auf
Grain-Strukturen gearbeitet werden konnte und Eisenoxyd
fest eingebaute Platten über. Fest eingebaute Platten waren
partikel (Rost) als Datenträger wegfielen. Die neu entwickelte
um ein Vielfaches zuverlässiger. Neben der Verfügbarkeit
Magnetoresistive Kopftechnik (MR-Kopftechnik) kam zum
wurden auch die Ansprüche an Investitionsschutz immer
Einsatz (siehe auch Technologie-Anhang).
höher. Um dem Rechnung zu tragen, etablierte die IBM über die gesamte Epoche das Prinzip des Wechsels für Steuer
Im Tape-Bereich kam 1984 der große technologische Wechsel.
einheiten und Plattenspeicher. Dies sah so aus, dass neue
Das Rollenband wurde durch eine kleine Kassette mit der
Platteneinheiten an die vorhandenen Steuereinheiten ange
3480 Bandtechnik ersetzt. Dies war vor allem notwendig,
schlossen werden konnten, dann kam eine neue, leistungs
um den Bandbereich in der Leistung den Platten und dem
stärkere Steuereinheit, an der die alten Platten betrieben
Gesamtsystem anzugleichen.
wurden. Dann wurden wieder neue Platten verfügbar, die an die vorhandene Steuereinheit angeschlossen werden konnten,
Anfang der 90er-Jahre kamen dann die ersten automatisierten
danach kam wieder eine neue Steuereinheit. Dieses Wechsel
Bandarchive mit den Produkten IBM 3495 und IBM 3494 mit
prinzip wurde vom Markt so positiv angenommen, dass es
Roboter und Greifersystemen, die die Bandkassetten trans
bis in die Folgeepoche der RAID-Systeme gepflegt wurde.
portieren konnten.
Auf der Steuereinheiten-Seite wurden mit der IBM 3880 erst
Insgesamt war die sehr lange anhaltende Epoche der fest
mals Cache und entsprechende Caching-Algorithmen einge
eingebauten Platten mit externen Steuereinheiten eine Epoche,
führt, um mit der Leistungsentwicklung der Rechnersysteme
die durch konstante Weiterentwicklungen im Hinblick auf
Schritt zu halten. Die wichtigste Funktion war hier das ‘DASD
Datensicherheit und Investitionsschutz geprägt war und sicher
Fast Write’. Dies wurde auch mit der neuen 3990 Steuerein
stellte, dass die Speicher mit den neu entwickelten Rechner
heit weitergepflegt und ausgebaut. Eine Funktion nach der
systemen Schritt hielten. Oberstes Gebot war neben Daten
anderen kam hinzu. Die funktionalen Erweiterungen setzten
sicherheit die Gesamtleistung des Verbundes von Rechnern
sich kontinuierlich bis zum letzten Modell der externen Steuer
und Speichersystemen.
einheiten, der 3990 Modell 6, bis Mitte der 90er-Jahre fort.
36
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
1994 bis 1998
Die Epoche der RAID-Systeme
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
37
1994 bis 1998 Die Epoche der RAID-Systeme
Plattensysteme mit RAID-Architekturen
3. Bereits 1987 schilderte die Universität Berkeley in Kalifornien
IBM bot 1994 ein völlig neues Konzept externer Magnetplat
(die Studie erfolgte im Auftrag der IBM) in einem Dokument
tensysteme unter dem erstmals seit 1956 wieder benutzten,
mit dem Titel „Eine Studie über redundante Anforderungen
eingetragenen Warenzeichen ‘RAMAC’ an. Dieses Mal stand
kostengünstiger Plattenspeicher“ (A Case for Redundant
die Buchstaben-Reihenfolge RAMAC für ‘RAID Architecture
Arrays of Inexpensive Disks), wie man die betreffenden
with Multilevel Adaptive Cache’.
Plattenlaufwerke zu einem aus Sicht der Betriebssysteme einzigen adressierbaren Datenträger zusammenschalten
Was war der Hintergrund und was bedeutete dies konkret?
konnte, um sie für größere Systeme zu nutzen und dabei entweder höhere Übertragungsraten oder höhere Daten-
1. Die Verarbeitungsgeschwindigkeit vergleichbarer Prozes-
verfügbarkeit oder beides zu erreichen. In diesem Papier
soren war zwischen 1964 und 1994 ungefähr 400-mal
wurden 5 RAID-Stufen (RAID-Levels) definiert, die sich in
schneller gewachsen als die Übertragungsrate der Zugriffs-
der Abwägung zwischen Übertragungsleistung und dem
mechanismen der Plattenspeicher und etwa 30-mal schneller
Grad der Fehlertoleranz unterschieden.
als die Übertragungsgeschwindigkeit der gängigen Kanäle. Am schnellsten wuchs die Kapazität pro Zugriffsmechanis-
RAID1 beschreibt die doppelte Speicherung von Daten auf
mus – ungefähr um den Faktor 6.000 – und damit doppelt
zwei Platten mit völlig identischem Inhalt (Spiegelung, Mirro
so schnell wie die Verarbeitungsgeschwindigkeit der Pro-
ring). Fällt ein Laufwerk aus, greift das System auf das
zessoren. Die Ansprüche an die Datenverfügbarkeit in
andere zu.
internationalen und firmeninternen Netzen nahmen ständig zu und weil technisches Versagen von Komponenten nie
Bei RAID2 werden die Daten byteweise auf mehrere Platten
ganz ausgeschlossen werden konnte, wuchs die Forderung
kopiert (Mehrfachspiegelung). Auf einer weiteren Platte wird
nach fehlertoleranten Systemen.
ein Fehlercode gespeichert, mit dessen Hilfe verlorene Daten
2. Parallel zur Entwicklung immer leistungsfähigerer Magnet-
rekonstruiert werden.
plattenspeicher für große und mittlere Systeme hatte die Industrie – IBM eingeschlossen – für den schnell wachsen-
Bei RAID3 werden die einzelnen Bytes ebenfalls auf mehre
den Markt der Einzelplatzrechner (PC, Laptop, Notebook)
ren Platten – allerdings abwechselnd – gespeichert und auf
in den Abmessungen kleine, aber auf hohem technischem
einer separaten Platte sogenannte Paritätsbits. Fällt eine
Niveau stehende, leistungsfähige und zuverlässige
Platte aus, lässt sich deren Inhalt über den der intakt geblie
Plattenlaufwerke auf den Markt gebracht. Damals war
benen Platten und die Paritätsbits wiederherstellen.
abzusehen, dass die Kapazitäten dieser Laufwerke rasant steigen würden. Es kam noch hinzu, dass diese kleinen
RAID4 unterscheidet sich von RAID3 dadurch, dass die
Plattenlaufwerke aufgrund hoher Maßenproduktion
Daten statt in einzelne Bytes in ganze Blöcke von mehreren
wesentlich kostengünstiger gefertigt werden konnten als
Kilobytes unterteilt werden.
die großen Plattenfiles, die zu diesem Zeitpunkt bereits als SLEDs (Single Large Expensive Disks) bezeichnet wurden.
Bei RAID5 erzeugt das System Paritätsbits für Blöcke von mehreren Kilobytes, die auf alle Platten so verteilt sind, dass sie immer auf einer anderen Platte stehen als die Daten, aus denen sie erzeugt wurden. Das Verfahren bietet hohe Sicher heit bei relativ schnellem Zugriff, weil durch die Verteilung parallele Schreib-Updates möglich sind. Deswegen erfuhr dieser RAID-Level die stärkste Verbreitung.
38
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Der Vollständigkeit halber seien noch später hinzugefügte
IBM fast ausschließlich für den eigenen Bedarf zum Vertrieb
RAID-Stufen erwähnt:
über die eigene Organisation an Endbenutzer produziert und war nur vereinzelt als Unterlieferant anderer Hersteller
RAID6 bietet gegenüber RAID5 zusätzliche Paritätsbits
aufgetreten (Branchen-Fachausdruck für solche Geschäfte ist
(zwei Parity-Schemen) und damit noch mehr Sicherheit (bis
OEM, Original Equipment Manufacturer). Ein Beispiel waren
zu zwei Platten können innerhalb eines Arrays ausfallen),
in den 80er- und 90er-Jahren geschlossene Verträge über
allerdings auf Kosten der Leistungsfähigkeit eines Arrays.
Lieferungen von leicht modifizierten IBM Plattenspeichern an Siemens. IBM ließ immer Fremdprodukte aller Art innerhalb
RAID7 protokolliert dazu noch sämtliche Schreibzugriffe.
ihrer Konfigurationen und Softwareplattformen zu, ohne in den Umgebungen anderer Hersteller als Anbieter aufzutreten.
RAID0 verteilt die Daten in kleinen Paketen auf mehrere Plat
Auf die bei den DV-Benutzern um sich greifende Vernetzung
ten und ermöglicht schnellen Zugriff, mangels Redundanz
von Datenverarbeitungsprodukten und DV-Plattformen ver
jedoch keine erhöhte Sicherheit. Schließlich gibt es noch
schiedener Hersteller – heterogene Client-/Serverumgebungen
RAID10, auch als Stufe 1 + 0 bezeichnet. Sie arbeitet wie
– reagierte IBM mit Angeboten, bei denen alle für die jewei
RAID0, jedoch mit zwei gleich großen Sätzen von Platten,
ligen Produkte relevanten eigenen und fremden Schnittstellen
wobei die zweite Gruppe das exakte Spiegelbild des Inhalts
unterstützt wurden. Das Storage-Geschäft wurde durch das
der ersten Gruppe enthält. Diese Lösung erfordert viele
Anwerben von entsprechenden Geschäftspartnern neben
Laufwerke.
dem eigentlich blauen Vertrieb zusätzlich vorangetrieben. Man arbeitete mit immer mehr Geschäftspartnern, die sich
Inzwischen haben sich (bis heute, im Jahr 2010) aus diesen
in ihrer Vertriebsorganisation erfolgreich um den Absatz von
Basis-RAID-Stufen gänzlich neue RAID-Levels entwickelt, die
IBM Hardeware- und Softwareprodukten bemühten. Dieser
jenseits der Standard-Levels liegen, teilweise unsinnig sind,
Trend hat sich bis heute noch maßgeblich verstärkt.
aber in manchen Fällen auch eine Optimierung der BasisLevels darstellen (wie z. B. RAID 1E, 1E0, 1.5, Matrix RAID,
Wie bereits eingangs dieses Kapitels beschrieben, machte
RAID15, 51, 53, 45, RAID5E, 5EE und RAID5DG/RAID ADG).
IBM 1994 als erste Firma das auf RAID5 basierende Magnet plattensystem verfügbar, der damaligen RAMAC 1 (IBM
4. Bereits 1992 konstituierte sich ein RAID-Beratergremium
9391). RAMAC 1 wurde im Juni 1994 angekündigt und war
(RAID Advisory Board) aus 40 Anwender- und Herstellerfir-
ab September 1994 verfügbar. Als Basis für eine RAMAC-
men, zu denen auch IBM zählte. Damit wurde RAID in den
Speichereinheit diente ein Einschub IBM 9392 (Drawer),
90er -Jahren zu einer Art Industriestandard. Die Original-
der mit mehreren anderen Einschüben in einen Rahmen
bezeichnung RAID wurde in der Bedeutung geringfügig
integriert wurde. Jeder dieser Einschübe beinhaltete vier
korrigiert: Aus ‘kostengünstigen Einheiten’ (Redundant
Plattenlaufwerke auf 3,5-Zoll-Basis mit jeweils 2 GB Kapazität
Array of Inexpensive Disks) wurden ‘unabhängige Ein-
(Allicat-Laufwerke), zwei Netzteile, zwei Kühlgebläse, einen
heiten’ (Redundant Array of Independent Disks).
RISC-Mikroprozessor als Controller, einen batteriegestützten Pufferspeicher (Non Volatile) und einen Akku. Jeder Einschub
Bereits seit 1978 besitzt IBM ein Patent über die Wiederher
stellte ein für sich geschlossenes RAID5-System dar. Bis zu
stellung von Daten, die auf einer ausgefallenen Einheit aus
16 dieser RAID5-Einschübe konnten in den Rahmen integriert
einer Gruppe von Laufwerken gespeichert wurden. Wie die
werden. RAMAC kam in zwei Ausführungen. Das RAMAC
gesamte Industrie bemühte sich IBM, den Herausforderungen,
Array beinhaltete nur die RAID5-Einschübe und wurde an
die sich aus den oben dargestellten Punkten ergab, wirksam
die damalige, leistungsstarke Steuereinheit 3990 angeschlos
zu begegnen. Die zunehmenden Veränderungen im Markt
sen. Das RAMAC Subsystem beinhaltete die übergeordnete
mit seiner ständig wachsenden Zahl von Anbietern, immer
Controllerfunktion in demselben Gehäuse, in dem auch die
mehr etablierten Hardware- und Softwareplattformen, dyna
Einschübe integriert waren, und war seitlich im Rahmen
mischen Innovationen und den damit immer kürzer werdenden
eingebaut. In der vollen Ausbaustufe lieferten beide
Produktzyklen machten es notwendig, die IBM Geschäftspo
Systeme eine nutzbare Plattenkapazität, RAID5-gesichert,
litik maßgeblich zu verändern und anzupassen. Bisher hatte
von 90 GB aus.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
39
1994 bis 1998 Die Epoche der RAID-Systeme
RAMAC 2 und RAMAC 3 folgten wegen der raschen Fort
Dies war einer der Hauptgründe, warum 1996 eine Koope-
schritte in den kapazitiven Möglichkeiten der 3,5-Zoll-Lauf
ration mit der Firma StorageTek bezüglich des Vertriebs
werke im Abstand von nur einem Jahr. Bei RAMAC 2 kamen
und der Weiterentwicklung des verfügbaren ‘Iceberg’-Plat
die Ultrastar-XP-Laufwerke und bei RAMAC 3 die Ultrastar-
tensystems geschlossen wurde und die IBM zwei Platten
2XP-Laufwerke zum Einsatz. Die rechnerische Kapazität ver
subsysteme der Firma STK in den Vertrieb nahm. Der ‘Ice
doppelte sich jeweils per Subsystem.
berg’ wurde von IBM unter dem Namen IBM RVA (RAMAC Virtual Array) vermarktet, das Großkapazitätssystem von
RAMAC 2 bot mit 16 Einschüben eine nutzbare Kapazität
STK als IBM RSA (RAMAC Scalable Array). Das RAMAC
von 180 GB und RAMAC 3 von 360 GB.
Virtual Array wurde im Juli 1996 mit sofortiger Verfügbarkeit angekündigt. Das leistungsstärkere RVA in der Turboversion
Mit RAMAC 3 in der Version des RAMAC Arrays zum An-
wurde knapp ein Jahr später, im April 1997, verfügbar.
schluss an 3990 Steuereinheiten wurde zeitgleich ein neues Modell der Steuereinheit eingeführt, der 3990 Modell 6. Diese
Das RAMAC Virtual Array IBM RVA IBM 9393 erfüllte die Be-
Steuereinheit war eine Doppelsteuereinheit, die in ein Gehäuse
dingungen von RAID6 und bot eine sehr intelligente Lösung
integriert war und an der zwei RAMAC 3 Arrays betrieben
für das Anlegen und das Wachstum von Dateien. Normaler
werden konnten. Damit lieferten zwei RAMAC 3 Arrays an der
weise mussten Benutzer bisher für wachsende Dateien ge-
3990-6 als ‘Doppelsubsystem’ eine Gesamtkapazität von bis
nügend Platz reservieren. Das bedeutete, einen ständigen
zu nutzbaren 720 GB aus.
Vorrat von leeren Spuren (Allocated Tracks) bzw. nicht genutzte Kapazität vorzuhalten. Wenn das System beim Ausführen
40
Die RAID5-RAMAC-Baureihe war auf dem Markt sehr erfolg
eines Programms für eine wachsende Datei keine Kapazität
reich, konnte aber über die Jahre nicht fortgesetzt werden,
mehr vorfand, führte das zum anomalen Abbruch der Opera
weil der Kostenfaktor in der Produktion dem Preisverfall der
tion. Beim RVA suchte das System automatisch freien Platz.
Gigabytes in den angebotenen Subsystemen nicht standhal
Reservierung (Allocation) war nicht mehr erforderlich und
ten konnte. Jeder Einschub als eigenständiges System und
Abbrüche wegen fehlenden Speicherplatzes ausgeschlos
bis zu 16 Einschübe unter einer eigenen Steuereinheit, dadurch
sen. Dieser spezielle Algorithmus wurde als logisch struktu
zwei Cache-Ebenen: das war sehr aufwendig zu produzieren.
rierter File-Algorithmus (Log Structured File) bezeichnet.
links: IBM RAMAC Subsystem mit integrierter Steuereinheit rechts: IBM RAMAC Array zum Anschluss an 3990 Steuereinheiten
1996 –1998 IBM RAMAC Virtual Array RVA, IBM RAMAC Virtual Array 1996, IBM RAMAC Virtual Array Turbo 1997, IBM RAMAC Virtual Array Turbo 2 1998, Kapazitäten von 840 GB bis 1.680 GB Arrays 13+2+1 RAID6 oder 2 x (5+2+1), Array Kapazität bis 420 GB, Minimalkonfiguration: 2 Arrays, Maximalkonfigura tion: 4 Arrays
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Waren Spuren auf den Platten wegzuschreiben, suchte sich die Kontrolleinheit den Platz auf beliebigen Platten in den verfügbaren Arrays. Die veralteten Spuren wurden in einem Space-Reclamation-Prozess wieder einfach zum Überschrei ben freigegeben. Das Ganze wurde über Pointertabellen ver waltet und die Pointer einer aktuellen geänderten Datei wurden einfach entsprechend angepasst. Diese neue Log-StructuredFile-Architektur als wirklich erste virtuelle Plattenarchitektur auf dem Markt erlaubte auch das sekundenschnelle Kopieren von einzelnen Dateien oder Volumes, ohne dass für die Kopie zusätzlicher Platz vorgehalten werden musste. Nur die Ver änderungen in Form von neuen Spuren oder Spur-Updates benötigten wieder neuen Platz. Dabei legte das System ent sprechende Kopier-Pointers an, die auf einzelner Spurbasis mit den originalen Pointers übereinstimmten. Diese Funktion wurde als ‘SnapShot’ bezeichnet. Durch dieses Prinzip konnte die RVA von der Plattenbelegung im Vergleich zu herkömm lichen Plattensystemen wesentlich höher genutzt werden. Beim RAMAC Virtual Array wurden im Backend IBM SSA-Platten eingesetzt und das System konnte mit 4,5-GB-, 9-GB- und später mit 18-GB-SSA-Platten konfiguriert werden. Das zweite Produkt aus der StorageTek-Reihe, die IBM RSA (RAMAC Skalierbares Array) entsprach den herkömmlichen Subsystemarchitekturen, konnte aber bereits 1996 in relativ kleinen skalierbaren Schritten auf 1,4 TB ausgebaut werden. Das System wurde aber relativ kurzfristig kapazitiv von der
IBM 7133 Plattensubsystem, SSA-Architektur mit SCSI-Host-Anschlüssen, Modell T40 ‘Deskside’ Entry, Modell D40 ‘Rackmountable Disk System’ Plattenart Kapazitäten von/bis 18,2 GB 72,8 – 291,2 GB 36,4 GB 145,6 – 582,4 GB 72,8 GB 291,2 GB – 1,16 TB 146,8 GB 587,2 GB – 2,34 TB
RVA in der Turbo- und Turbo-2-Version überholt und zeigte nur eine sehr geringe Marktdurchdringung. Plattensysteme für Open Systems
systeme (Small Computer Systems Interface) eliminierte. Bei
Während sich IBM in den 90er-Jahren bei der Magnetplatten-
SSA wurde für die Anbindung von Plattenlaufwerken mit einer
Subsystementwicklung im Mainframebereich vornehmlich auf
Loop-Technik gearbeitet, die es zuließ, dass man in die Loop
die RAMAC-Reihe konzentrierte, liefen parallel neue Architek
über neu entwickelte Adapter gleichzeitig zwei Schreib- und
turentwicklungen für Plattensubsysteme im Open-Systems-
zwei Lese-I/Os absetzen konnte und alle Laufwerke in der
Bereich. Bis Ende der 90er-Jahre gab es kein Plattensystem,
Loop gleichberechtigt bedient wurden. Die bekannte Arbi
das Server aus dem Open-Systems-Bereich (AIX und andere
trierung, wie es bei SCSI-basierenden Laufwerksträngen der
UNIX-Derivate und die Intel-Plattformen) und den Mainframe
Fall war, fiel weg. Bei einem SCSI-Laufwerkstrang musste
mit seinem MVS-Betriebssystem gleichzeitig bedienen konnte.
immer ein I/O fertig abgehandelt werden, bevor der nächste
Auf der Open-Systems-Seite ging IBM andere Wege. Begin
starten konnte. Zudem wurden Laufwerke, die ganz am Ende
nend in den 90er-Jahren wurde im IBM Labor in Hursley in
des SCSI-Strangs angeschlossen waren, in der Bedienung
England eine neue, Open-Systems-gerechte Plattenarchitek
benachteiligt. Ein SCSI-Strang hatte die Limitierung, dass
tur entwickelt, die unter dem Namen SSA für viele Jahre zur
maximal 15 Laufwerke angeschlossen werden konnten. Diese
Anwendung kommen sollte. SSA stand für Serial Storage
Limitierungen überwand die neue SSA-Architektur, die 1992
Architecture, eine Architektur, die die Limitierungen der bis
erstmals in Subsystemen zum Einsatz kam.
her an Open-Systems-Server angeschlossene SCSI-Platten
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
41
1994 bis 1998 Die Epoche der RAID-Systeme
Das bekannteste System war das IBM 7133 Serial Storage Architecture Disk Subsystem, das an RISC Systeme/6000, Power Servers und Power Stations angeschlossen werden konnte und immer mit den neusten 3 ½-Zoll-Laufwerken aus gestattet war. Das IBM 7133 Subsystem wurde im Juli 1995 mit sofortiger Verfügbarkeit angekündigt. Es war eines der erfolgreichsten Plattensysteme im AIX-Umfeld und wurde direkt über den AIX-Verkaufskanal vertrieben. Während des Lebenszyklus der 7133 wurden über 42.000 Plattensysteme weltweit in Produktion genommen, ein einzigartiger Verkaufs erfolg. Die letzten Systeme in SSA-Architektur (IBM 7133 Modelle T40 und D40) blieben bis 2003 im aktiven IBM Vertrieb und konn ten damals über Gateways an bestehende FibreChannelInfrastrukturen (SANs, Storage Area Networks) angeschlossen werden. 1999 kündigte die IBM für den Mainframe wieder ein eigenes, selbst entwickeltes Plattensubsystem unter dem Namen IBM ESS (Enterprise Storage Server) an, das allerdings mehr unter dem Entwicklungsnamen ‘Shark’ bekannt wurde und letztendlich die RVA und RSA im IBM Vertrieb ablöste. Sto rageTek vertrieb danach wieder selbst die RVA unter dem Namen STK Shared Virtual Array. Die ESS war nicht nur ein
Blick in die IBM 3590 Magstar Laufwerke
Plattensystem für den Mainframe, sondern konnte auch an alle gängigen Open-Systems-Plattformen angeschlossen
Mal in der Bandtechnologie magnetoresistive Schreib-/Lese
werden. Damit war die Voraussetzung geschaffen, mit einem
köpfe mit dem ‘Track Following Servo’-Prinzip eingesetzt, wo
Plattensubsystem sowohl den Mainframe als auch Open-
die Leseelemente konstant kontrollieren, wie gut die Bits vom
Systems-Server zu bedienen, wie es auf der Bandarchivseite
Schreibkopf geschrieben wurden. Die Kassetten wurden mit
bereits seit Jahren möglich war. Über die Folgejahre löste
128 Spuren vollgeschrieben und die Datenrate des Modells
die ESS dann auch im Open-Systems-Bereich teilweise
B der 3590 betrug damals faszinierende 9 MB pro Sekunde
das IBM 7133 Serial Disk System ab. Parallel dazu wurden
(native).
FibreChannel-basierende Plattensysteme für die OpenSystems-Plattformen eingeführt.
Die Laufwerke waren als Stand-alone-Version, also fest ein gebaut in einem Gehäuse mit entsprechenden Autoloadern,
Bandsysteme
zu bekommen, sie wurden aber genauso in der aktuellen Tape
Neben der Plattensubsystementwicklung in den 90er-Jahren
Library IBM 3494 eingesetzt. Voll ausgebaut konnte die IBM
führte IBM eine neue Bandlaufwerktechnologie als Ablö
3494 mit 3590-B Laufwerken eine Kapazität von 180 TB
sung der bis dahin verwendeten 3490 Technologie ein, die
(native) abbilden. Die Laufwerke selbst hatten zwei SCSI-
IBM 3590, die unter dem Namen Magstar bekannt wurde.
Schnittstellen und konnten entweder direkt an Open-Systems-
Das erste Laufwerk der Magstar 3590 war das Modell B, das
Server angeschlossen werden oder über eine Kontrolleinheit
auf einer ½-Zoll-Kassette eine native Kapazität von 10 GB
an ESCON-basierende Mainframe-Server.
aufzeichnete. Das 3590-B Laufwerk wurde im April 1995 angekündigt und war im September des gleichen Jahres ver
Die Magstar-Entwicklungsreihe wurde dann 1999 mit dem
fügbar. Bei dieser neuen Aufzeichnung wurden zum ersten
neuen E-Modell erweitert, das mit 256 Spuren die doppelte Spurzahl aufwies und eine Kapazität von 20 GB auf den Kas
42
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
16. Spur ein Parity-Block mitgeschrieben und über das logische Spurset von acht Spuren ‘gestriped’ – RAID5 auf Band.) Was Magstar in Sachen Recovery zu leisten vermag, zeigt ein Versuch mit dem Magstar E-Modell, der im Juni 1999 und im Juli 2000 im IBM Labor in Tucson, Arizona, durch geführt wurde. Zu dem Versuch wurden alle maßgeblichen Consultants wie Gartner Group und IDC eingeladen. Man hat mit dem E-Modell eine Kassette mit 256 Spuren voll beschrieben und ein sauberes Read Verify erhalten. Dann wurde die Kassette aus dem Laufwerk entladen. In die Mitte des Bandes wurde dann ein 1,25 mm großes Loch gestanzt. Dieses Loch spiegelte ca.100.000 Bits wieder, die dann fehl ten. Die Kassette mit dem Loch wurde wieder ins Laufwerk geladen und die Leseoperation wurde erfolgreich ohne Feh ler durchgeführt. Alle fehlenden Datenbits konnten durch den ECC (Error Correction Code) über die Bitblock-Verteilung und die Parity-Bit-Blöcke ‘recovered’ werden. Das war zu dieser Zeit mit Sicherheit mit keiner anderen Bandlaufwerks technologie durchführbar! Das Laufwerk hatte zwei SCSI-Schnittstellen. Ab Mai 2000 waren die Magstar-Laufwerke auch mit zwei FibreChannelIBM 3590 Magstar Tape Subsystem 1995: IBM 3590-B mit 9 MB/S Datenrate 1999: IBM 3590-E mit 14 MB/S Datenrate 2002: IBM 3590-H mit 14 MB/S Datenrate Kassettenkapazitäten (native): Modell normale Kassette lange Kassette 3590-B 10 GB 20 GB 3590-E 20 GB 40 GB 3590-H 30 GB 60 GB
Schnittstellen verfügbar. Damit konnten die Laufwerke direkt an ein FibreChannel-basierendes SAN-Netzwerk angeschlos sen werden. Etwas zeitversetzt kamen auch die entspre chenden Controller auf den Markt, welche den Anschluss der Laufwerke auch an FICON-basierende Mainframe-Rechner ermöglichten.
setten speicherte (native ohne Komprimierung). Die Daten rate wurde von 9 MB/s auf 14 MB/s gesteigert. Parallel dazu brachte IBM eine neue Kassette, die 3590 ‘Extended Length Cartridge’, die mit der doppelten Bandlänge (beschrieben mit 3590E) auch die doppelte Kapazität, nämlich 40 GB, abbildete. Damit erhöhten sich die 3494 Library-Kapazitäten auf 374 TB bei Verwendung der normalen Kassette und bis 748 TB bei der langen Kassette. Die Magstar-Entwicklungs reihe war ab Mai 1999 verfügbar. Das Modell E der Magstar-Baureihe besaß einen leistungs fähigen Controller, der neben der Aufzeichnung von Daten blöcken auch Parity-Blöcke aufzeichnete, um ein wesentlich höheres Error Recovery zu ermöglichen. (Bei der Aufzeich nung von 16 Spuren gleichzeitig wurde nach 7 Datenblöcken in der achten und nach weiteren 7 Datenblöcken in der
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
Lochstanzversuch mit Magstar 3590 Bändern 1999 und 2000 im IBM Labor in Tucson
1999 – 2005
2006 – 2010
Software
Anhang
43
1994 bis 1998 Die Epoche der RAID-Systeme
Das letzte Modell der 3590 Magstar-Reihe kam im Jahr 2002
dieses Problem zu beheben, fing IBM an, Tape-Virtualisie-
mit dem 3590 Modell H, das auf denselben Kassetten 384
rungslösungen für den Mainframe-Bereich zu entwickeln, um
Spuren aufzeichnete und so die Kassettenkapazitäten um
die dahinter angeschlossene physikalische Ressource sowohl
50 % steigerte. Das Modell H wurde am 25. Juni 2002 ange
in der Kapazität der Kassetten als auch in der Datenrate von
kündigt und war bereits am 28. Juni 2002 verfügbar. Die
Laufwerken maximal nutzen zu können. Aus einer anfänglichen
Datenrate der 3590-H blieb auf dem Stand des Vorgängers
Software-basierenden Volume-Stacking-Lösung entstand der
3590-E, bei 14 MB pro Sekunde. Die 3494 Library-Kassetten
3494 Virtual Tape Server VTS, der im Juni 1997 mit dem
kapazitäten erreichten jetzt 1 Petabyte native Kapazität in
ersten Modell B16 auf den Markt kam. Dabei wurden die
der vollen Ausbaustufe (ohne Kompression).
Tape Volumes, die es zu sichern galt, auf einem Plattenpuffer zwischengespeichert und dabei indexiert. Sobald so viele
Im September 1996 wurde von IBM ein neues Kassetten-
Volumes in den Plattenpuffer geschrieben waren, dass sie
bandsystem vorgestellt, das neben hoher Streamingge
eine 3590 Kassette füllen konnten, wurde eine Kopie der
schwindigkeit extrem schnelle Zugriffszeiten realisierte. Die
gesamten Ansammlung von Platten auf die schnellen Lauf
IBM Magstar MP 3570 bot eine Datentransferrate von 15 MB
werke geschrieben (Premigration) und dabei die Kassetten
pro Sekunde und Zugriffszeiten von nur wenigen Sekunden.
maximal aufgefüllt (Stacked Volume Prinzip). Das Original
Dies wurde mit einem besonderen Kassettendesign ermög
verblieb im Plattenpuffer. Dadurch konnte der Nutzgrad der
licht, wo die Grundstellung des Bandes in einem Zwei-Spulen-
Kassettenkapazitäten und der Laufwerkgeschwindigkeiten
Design in der Mittenstellung lag. So konnte beim Laden des
maximiert werden. Recalls von Volumes, die noch im Platten
Bandes sowohl nach links als auch nach rechts gespult wer
puffer standen, wurden in Plattengeschwindigkeit durchge
den, um schnell an eine File zu gelangen. Diese neue Kon
führt und beim Backup konnten viele Jobs parallel angestoßen
zeption allerdings ermöglichte nur kleine Kassettenkapazitäten
werden, da viele virtuelle Laufwerke zur Verfügung standen.
von 5 MB und später 10 MB, die vom Markt nicht in der breiten
IBM implementierte eine sogenannte ‘Outboard’-Lösung, die
Akzeptanz angenommen wurde, wie man es ursprünglich ge-
völlig transparent zum Host und dem MVS-Betriebssystem
dacht hatte. Deshalb war der Lebenszyklus der Magstar MP
war und dieselbe Transparenz gegenüber dem Bandverwal
auch nur von kurzer Dauer und auf etwa 3 Jahre beschränkt.
tungssystem und dem Katalogeintrag zeigte. Emuliert wurden 3490E Laufwerke mit Kassettenkapazitäten von 400 bzw.
Mit der Verfügbarkeit der ersten Magstar-Modelle 3590-B 1995
800 MB und der Host registrierte gar nicht, dass er keine
ergab sich im Mainframe-Umfeld eine neue Problemstellung,
physischen Laufwerke im Zugriff hatte.
denn die jetzt hohen Kassettenkapazitäten von 10 GB native und die hohen Datenraten von 9 MB/s native wurden nur zu
Der erste Virtual Tape Server IBM 3494 B16 war damals direkt
einem kleinen Teil genutzt. Eine weltweite Studie ergab, dass
als Gehäuseeinheit in das 3494 Bandarchiv integriert. Das
der Nutzgrad im Mainframe-Umfeld bei etwa 200-300 MB pro
B16-Gehäuse beherbergte den RS/6000 Server, einen RAID-
Kassette lag und die Datenraten bei durchschnittlich 2-3 MB/s
5-abgesicherten Plattencache mit SSA-Platten, der bis auf
lagen und bei vielen Backup-Jobs sogar unter 1 MB/s. Um
72 GB ausgebaut werden konnte, sowie die für den Host not wendigen ESCON-Anschlüsse und 400 Kassettenstellplätze. Später arbeitete man mit externen Einheiten, wie die Weiter entwicklung dieses Konzepts zeigt. Virtuelle Tape-Lösungen sind in unserer heutigen Zeit nicht mehr wegzudenken, weil es die einzige Möglichkeit ist, über diesen Weg Tape- und Tape-Library-Ressourcen maximal zu nutzen.
IBM Magstar MP 3570 Bandsubsystem
44
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Das Prinzip, den VTS (Virtual Tape Server) direkt in das 3494
auch noch für das alte Modell B18 in eingeschränkter Form
Bandarchiv zu integrieren, erwies sich als äußerst ungünstig.
zur Verfügung stand.
Zudem war die Durchsatzstärke der damaligen B16 sehr klein und erreichte nur 6-8 MB/s, weil ohne Kompression
Diese neuen Erweiterungen, als ‘Advanced Function’ bezeich
gearbeitet wurde. Deshalb kündigte die IBM bereits ein Jahr
net, erlaubten über ein APM (Advanced Policy Manage-
später, im Juni 1998, mit einer Verfügbarkeit im August 1998,
ment) neue Funktionalitäten am IBM VTS. Sie sind bis heute
ein neues externes Modell B18 an, das als separate Einheit
aktiv im Einsatz und bilden die Verzahnung mit SMS
neben der 3494 Library betrieben werden konnte. Diese neue
(System Managed Storage) als integralem Bestandteil des
Einheit bot Kompression an, die direkt in den Host-Adaptern,
z/OS-Betriebssystems.
damals auf ESCON-Basis, durchgeführt wurde. Das hatte den Vorteil, dass alle Daten im Plattenpuffer bereits komprimiert
Die Funktionalität ‘Logical Volume Pool Assignment’ bietet
waren und der Nutzgrad im Plattenpuffer durchschnittlich
die Möglichkeit, logische Volumes einzeln pro Nummernkreis
um Faktor 3 vergrößert wurde. Durch den Einsatz von SSA-
in unterschiedlichen physischen Kassetten-Pools zu verwalten.
Laufwerken mit 9 und 18 GB Kapazität wurde die Plattenpuf
Damit wurde der IBM VTS mandantenfähig. Mit ‘Selective
fergröße auf 288 GB und 576 GB gesteigert. Später wurden
Dual Copy’ können zwei Kopien eines logischen Volumes in
mit 36-GB-SSA-Files Plattenpuffer von bis zu 5,2 TB (nutz
zwei unterschiedlichen physischen Kassettenpools erzeugt
bar) möglich. Dadurch wurde die Verweilzeit der Volumes im
werden. Die Funktion ‘Peer to Peer Copy Control’ adressiert
Plattenpuffer um ein Vielfaches vergrößert und Recalls direkt
einen PtP-VTS-Komplex und erlaubt die Steuerung, welche
vom Plattenpuffer als virtuelle Mounts in Plattengeschwindig
logischen Volumes in einem PtP-Komplex im Immediate Copy
keit durchgeführt. Die damaligen B18-Einheiten erreichten, je
Mode und welche logischen Volumes im Deferred Copy Mode
nach Ausbaustufe, Durchsatzmöglichkeiten von 30 bis 40 MB/s.
gespiegelt werden.
Viele andere Firmen sprangen sehr schnell auf diesen Ge-
Mit ‘Tape Volume Cache Management’ (diese Funktion war
schäftszug auf und es wurde eine ganze Reihe von Band
bereits vorher verfügbar, allerdings Host-gesteuert) können
virtualisierungslösungen, HW-basierend, aber auch reine
logische Volumes einer Cache Management Preference Group
SW-Stacking-Lösungen auf dem Markt verfügbar. Viele ver
zugeordnet werden. Es stehen zwei Preference Groups zur
schwanden aber wieder sehr schnell vom Markt.
Verfügung. Die Preference Group steuert, wie die logischen Volumes im Plattenpuffer behandelt werden.
Das Modell B18 wurde in den Folgejahren funktional erweitert. Import-/Export-Möglichkeiten von logischen Volumes waren
Die wohl wichtigste Einführung im August 2000 war aber das
möglich. Mit der Einführung von Folgemodellen im August
Prinzip der Spiegelung von ganzen VTS-Systemen, die
2001, der Modelle B10 und B20, wurden neben den ESCON-
auch heute noch als Peer to Peer VTS bezeichnet wird und
Anschlüssen auch FICON-Anschlüsse verfügbar und eine
sich im Markt, vor allem bei Banken und Versicherungskunden,
große Palette von neuen Funktionen kam zum Einsatz, die
schnell durchsetzte. Dabei bietet ein Peer-to-Peer-VTS-Kom plex synchrone Spiegelmöglichkeit und eine asynchrone Spiegelung an. Über eine weitere Funktion, die 2004 einge führt wurde (Selective Peer to Peer Copy), können auch einzelne Volumes oder ganze Storage-Gruppen sowohl gespiegelt als auch ungespiegelt in einem VTS-Peer-toPeer-Spiegelkomplex verwaltet werden. Die VTS-Geschichte, die 1997 begann, war für die IBM vor allem im Mainframe-Umfeld eine einzigartige Erfolgsgeschichte und IBM entschloss sich, diese Erfolgsgeschichte mit neuen Systemen und neuen Funktionalitäten über die folgenden Jahre fortzusetzen.
IBM Virtual Tape Server VTS, 1997: Modell B16, 1998: Modell B18, 2001: Modell B10 und B20
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
45
1994 bis 1998 Die Epoche der RAID-Systeme
Linear Tape Open LTO Ultrium
Wenn man heute, 2010, die Marktanteile betrachtet, ging
In der ersten Hälfte der 90er-Jahre hatte sich im
diese Rechnung auf. DLT ist heute nahezu vom Markt ver
Open-Systems-Umfeld vor allem im Mittelstandsbereich und
schwunden.
bei kleineren Betrieben eine Tape-Technologie durchgesetzt, die diesen Markt beherrschte: DLT (Digital Linear Tape), eine
Als die LTO Group 1997 anfing, die Spezifikationen für die
günstige Alternative zur High-End-½-Zoll-Technologie, die für
Standardisierung zu entwickeln, hatte sie zuerst alle vorhan
kleine Unternehmen bezahlbar war und bis Mitte 1995 eine
denen Bandtechnologien auf ihre Plus- und Minus-Punkte
Marktdurchdringung von 90 % hatte. DLT-Hersteller und -An-
bewertet, um das Gute in LTO miteinzuarbeiten und das
bieter war Quantum. Der kleinere Teil des Marktes ging an
Negative auszulassen. Schluss mit dem Wildwuchs, Kompa
Helical-Scan-basierende Technologien und die QIC(Quarter
tibilität war gefragt! Ob Sony AIT oder 4 mm, 8 mm Helical
Inch Cartridge)- und Mini-QIC-Technologien.
Scan Technologie von Exabyte, Quantums DLT bis hin zum Super DLT, Philipps NCTP, Quarter Inch Cartridge oder Mini
Mit dem Zusammenschluss der Firmen IBM, HP und Sea-
Quarter Inch Cartridge: alles Technologien, die keine Kom
gate in einem neuen Tape-Entwicklungsgremium, dem
patibilität vorwiesen und daher Schwierigkeiten hatten, sich
sogenannten LTO(Linear Tape Open)-Gremium, wurde eine
weiter dauerhaft auf dem Markt zu behaupten!
Initiative gestartet, dem dominierenden umd marktbeherr schenden DLT von Quantum eine Alternative entgegenzu
Bei der Aufzeichnungstechnik entschied man sich aufgrund
setzen. Das LTO-Entwicklungsgremium fing 1996 mit seiner
der hohen Zuverlässigkeit für die IBM Magstar-Lineare-Ser
Arbeit an.
pentinen-Aufzeichnung, mit der das Band bei einer Daten rate von 15 MB/s mit 384 Spuren (LTO1) und 35 MB/s mit
Die Spezifikationen von LTO wurden von 1997 bis 1999 ent
512 Spuren (LTO2) beschrieben wird. Dabei wurden immer
wickelt, um als erster Bandtechnologie-Standard auf den
acht Spuren gleichzeitig geschrieben. Die Kassetten erreichten
Markt zu kommen und den damals herrschenden Wildwuchs
bei diesen Spurdichten native Kapazitäten von 100 GB (LTO1)
an unterschiedlichen Technologien und Medien zu stoppen.
und 200 GB (LTO2). Bei dieser hohen Spudichte war es not
LTO ist sowohl von der Technologie als auch vom Medium
wendig, eine möglichst exakte Führung der Schreib-/Lese-
ein offizieller ISO-Standard, der es erlaubt, LTO-Medien, un-
Elemente sicherzustellen.
abhängig von welchem Hersteller, auf jedem LTO-Laufwerk,
46
auch unabhängig von welchem Hersteller, zu verarbeiten.
Zu diesem Zweck wurde ein neues, zeitbasierendes Spur-
Heute haben über 30 Firmen die Fertigungslizenzen von LTO
nachführungssystem verwendet, das mit fünf vorgeschrie
erworben. Hinzu kommen zusätzlich die OEM-Abkommen, die
benen Servobändern mit jeweils acht Servobereichen arbei
die Entwicklungsfirmen IBM, HP und Seagate eingegangen
tete. Von der AIT(Advanced Intelligent Tape)-Technik von
waren. LTO hatte also eine große Chance, sich langfristig
Sony wurde das in der Kassette integrierte Memory Chip
gegenüber DLT auf dem Markt durchzusetzen.
übernommen, allerdings mit größerer Speicherkapazität (4 KB).
LTO1 Laufwerk mit LTO1 Ultrium Kassette
Kassettenladevorgang beim IBM LTO1 Laufwerk
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
IBM Autoloader und Library-Angebot mit LTO-Laufwerken, Ende 2000, links IBM 3584 Library, rechts unten IBM 3583 Library, darüber der Autolaoder IBM 3581 und das LTO Stand Alone Laufwerk IBM 3580
Dort wird das festgehalten, was z. B. bei Magstar in der Tape-
Passend zur LTO-Laufwerkentwicklung entwickelte IBM ein
Volume-Control-Region auf Band gespeichert wird: Hersteller
neues Library-Konzept, das mit einem Greifersystem arbei
angaben als Read-Only-Information, das Inhaltsverzeichnis
tet (bis heute), das die Features der standardisierten LTO-
des Bandes und Angaben wie viele Schreib-/Lesefehler auf
Kassetten optimal handhaben konnte. Das Robotersystem
dem Band vorkommen, um aus Sicherheitsgründen bei einem
mit diesem Spezialgreifer wurde Ende 2000 mit der neuen
bestimmten Schwellwert die Kassette auf ‘Read Only’-Status
IBM 3584 Library realisiert. Die IBM 3584, zum damaligen
zu setzen. Ebenso war Platz für anwenderspezifische Infor
Zeitpunkt auschließlich an Open Systems betreibbar, stellte
mationen vorgesehen. Neben der Speicherung auf dem Chip
das passende Gegenstück zur IBM 3494 Library dar, aller
wurden aus Sicherheitsgründen alle Informationen auch in
dings mit wesentlich moderneren Möglichkeiten und einer
der Tape-Volume-Control-Region des Bandes abgespeichert.
Robotergeschwindigkeit, die bis heute unerreicht ist.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
47
1994 bis 1998 Die Epoche der RAID-Systeme
Mit der Einführung der LTO-Bandtechnologie auf dem Markt änderte die IBM ihr bisher verfolgtes Konzept, alles selbst herzustellen. In dem damals bereits hart umkämpften OpenSystems-Markt als Einzelhersteller zu bestehen, der alle Arten von Lösungsformen abbildet und fertigungstechnisch baut, war unmöglich. Deshalb schloss IBM bereits 1999 mit der Firma ADIC ein OEM-Abkommen, das so aussah, dass ADIC LTO-Laufwerke von IBM bekam und im Gegenzug IBM die kleinen Libraries von ADIC, die dann unter IBM Logo mit IBM LTO-Laufwerken vermarktet wurden. So stellte ADIC die damaligen ‘Midrange Libraries’, die IBM 3583 und später die IBM 3582 (bei ADIC Skalar 100 und Skalar 24), zur Verfügung. Der einzige Unterschied zu den ADIC-Produkten war, dass IBM in beide Libraries eine eigene FibreChannel-basierende Steuereinheit integrierte, um den Libraries über die dadurch geschaffene Multipfadarchitektur die Möglichkeit zu geben, logische Partitionen als Sub-Lib raries anzulegen und um direkt FibreChannel-LTO-Lauf werke einzubauen. ADIC verwendete SCSI-Laufwerke, die dann über ein Gateway an SANs anschließbar waren. FCLaufwerke wurden bei ADIC erst Anfang 2005 verwendet und eingebaut. IBM 3583 Ultrium Scalable Tape Library mit geöffneter Tür
Die heute aktuellen Autoloader, Midrange Libraries und die Besonderheiten des 3584 Bandarchivs sind in der Folge epoche näher beschrieben.
IBM 3582 Display – Mini-Library mit bis zu 23 LTO-Kassetten
48
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Kommentar zur Epoche der RAID-Systeme
Ebenso hektisch waren die Entwicklungsjahre im Tape-
Im Vergleich zur Vorgängerepoche, wo über Jahre dieselben
Umfeld geprägt. Neben Magstar 3590, Magstar MP und der
Steuereinheiten und Platten aktuell blieben, war die Epoche
Entwicklung des Virtual Tape Servers (VTS) wurde die
der RAID-Systeme mit sehr schnellen Entwicklungszyklen
LTO(Linear Tape Open)-Bandtechnologie zusammen mit
sehr hektisch. RAMAC 1, 2 und 3 kamen hintereinander im
Hewlett-Packard und Seagate entwickelt und spezifiziert. Im
Abstand von nur einem Jahr.
Herbst 1999 war der Standard der LTO1-Technologie fertig. Danach begann ein Prestige-Wettrennen zwischen IBM, HP
In dieser Epoche herrschte ein enormer Preisdruck, der durch
und Seagate. Jeder wollte der Erste sein, der mit LTO1-
neue Mitbewerber und Player im Plattenumfeld hervorgerufen
Laufwerken auf den Markt kommt.
wurde. Seagate kündigte als erste Firma, bereits im Frühjahr 2000, RAMAC 3 war der letzte ‘Rolls Royce’, den die IBM baute,
ihre LTO1-Laufwerke an. Die Seagate-Laufwerke wurden aber
dann liefen die Kosten davon und die Produkte waren viel zu
dann doch als letzte verfügbar. IBM kündigte im September
teuer im Vergleich zum Mitbewerb. Das führte zum Zusam
2000 mit sofortiger Verfügbarkeit an. HP folgte mit Ankündi
menschluss von StorageTek und IBM und zum IBM Vertrieb
gung und Verfügbarkeit einen Monat später.
des RAMAC Virtual Arrays (ehemals STK Iceberg). Plötzlich musste der IBM Vertrieb ein Produkt verkaufen, von dem man
Die Epoche war geprägt durch Vertriebskämpfe vieler Mitbe
sich bisher immer distanziert hatte. Ein massives Umdenken
werber im Platten- und Tape-Umfeld und war deshalb so
war im Speichervertrieb angesagt. Log Structured File, die
hektisch, weil enorme Preis- und Prestigekämpfe stattfanden.
bisher von IBM negativ kommentierte ‘Garbage Collection – das kann doch nichts sein’ musste nun positiv dargestellt werden. Die Verbrüderung mit STK im Plattenumfeld musste erst einmal verdaut werden. Im Open-Systems-Bereich glichen die erfolgreiche Einführung der SSA-Architektur und der erfolgreiche Verkauf des Plat tensystems IBM 7133 den Einbruch im Mainframe-Umfeld entsprechend aus.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
49
50
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
1999 bis 2005
Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
51
1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS
1999 – 2006: IBM SAN, Switches und Direktoren der Hersteller Brocade, McData (CNT) und Cisco
SAN, NAS, iSCSI
Die Anfänge der ersten SAN-Infrastrukturen fanden aller
Die Epoche der RAID-Systeme war bis 1999 so gestaltet, dass
dings schon 2 Jahre früher statt. Sie kamen bereits 1996
Plattensysteme für den Mainframe-Bereich zur Verfügung
in Hochleistungsrechenzentren der Universitäten zum Ein
standen, während der Open-Systems-Bereich eigene, damals
satz und wurden von der Firma Ancor zur Verfügung gestellt.
direkt angeschlossene Plattensysteme verwendete. Nur Tape
1998 wurde der erste 8-Port-Switch von der Firma Brocade
Libraries waren in der Lage, beide Welten zu unterstützen.
im kommerziellen Rechenzentrumsumfeld bei der IT Austria
Das Datenwachstum in dieser Zeit war dramatisch, oft über
in Wien eingesetzt und in den Folgejahren gingen viele Firmen
60 % pro Jahr für Rechenzentrumsbetriebe. Die IP-Netze und
dazu über, in den unterschiedlichsten Unternehmensbereichen
die damit verbundene Infrastruktur, damals Ethernet auf
SAN-Infrastrukturen zu implementieren. Nicht nur im Open-
10-Mbit-Basis, erlaubten kaum, riesige Datenmengen über
Systems-Bereich erlebte die Glasfaser eine neue Blütezeit,
IP-Infrastrukturen hin und her zu bewegen. Der Ruf nach
auch die Mainframe-Umgebungen wechselten, beginnend
separaten Speichernetzwerk-Infrastrukturen wurde immer
mit dem Jahr 2001, von der bisherigen ESCON-Umgebung
lauter, um der Datenflut entgegenzuwirken. 1998 kamen
(Enterprise Storage CONnection) mit den bis dahin verwen
von der Firma Brocade die ersten FibreChannel-Switches
deten ESCON-Direktoren auf Glasfasernetze, um zusammen
auf 8-Port-Basis mit 1-Gbit-Ports auf den Markt. Eine neue
gefasste ESCON-Pakete über die Glasfaser zu übertragen.
Infrastruktur, das SAN (Storage Area Network) auf
Das Ganze wird heute als FICON bezeichnet (Fibre CON
FibreChannel-Basis, sollte in den kommenden Jahren eine
nection). Dadurch konnten die hohen Übertragungsraten
wahre Blütezeit erleben.
der Monomode-Glasfaser mit entsprechenden Multiplexing verfahren auch im Mainframe-Bereich genutzt werden.
52
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Bereits im Jahr 2003 waren Direktoren auf dem Markt, die
Heute sind SANs selbst für sehr kleine Betriebe bezahlbar.
sowohl FibreChannel- als auch FICON-Ports abbilden konn
Der Preisverfall von 2003 bis 2006 liegt in einem Bereich von
ten. Leider kann bis heute noch kein FC-Port als FICON-Port
nahezu 96 %. Dieser Preisverfall wurde maßgeblich durch die
oder umgekehrt genutzt werden und es wird sicherlich noch
neuen Bandbreitenmöglichkeiten der IP-Netze auf Ethernet-
einige Zeit dauern, bis SAN-basierende Infrastrukturen
Basis erzielt und stellt durchaus, vor allem heute (10-Gbit-
sowohl von der Open-Systems-Umgebung als auch von den
Ethernet), die Notwendigkeit von SANs infrage, wenn es um
Mainframes gleichzeitig genutzt werden können. Die Fibre
Engpässe in der Datenübertragungsmöglichkeit geht. Trotz
Channel SANs entwickelten sich rasch weiter. 2002 kamen
dem, vor allem aufgrund der Managementmöglichkeiten, ist
die ersten Switches mit 2-Gbit-Ports auf den Markt. Im
davon auszugehen, dass SAN-Netze von 4 Gbit in Richtung
Jahr 2006 waren alle Hersteller im Begriff, von 2-Gbit- auf
8 Gbit (oder 12 Gbit) weiterentwickelt werden, die zu den
4-Gbit-Technologie umzustellen, und bis Ende 2006 war die
bestehenden Netzen (Autosensing) kompatibel bleiben.
Umstellung soweit, dass ‘End to End’-SAN-Implementie rungen auf 4-Gbit-Basis realisiert werden konnten. Sowohl
Neben den Möglichkeiten und Vorteilen von SANs bot IBM
die Host-Adapter aller Server-Hersteller als auch die Host-
in den Jahren 2000 bis 2004 auch Lösungen und Produkte
Ports aller Storage-Anbieter waren auf 4-Gbit-Technologie
auf dem Sektor Networking Attached Storage (NAS) an.
umgestellt. Heute, im Jahr 2008, wiederholt sich dieses
NAS-Systeme sind vorkonfigurierte Fileserver. Sie bestehen
Spiel nur auf 8-Gbit-Technologie-Basis. Seit Anfang 2008
bis heute aus einem oder mehreren internen Servern mit vor
sind die ersten 8-Gbit-fähigen Direktoren auf den Markt
konfigurierter Plattenkapazität und werden über Ethernet an
gekommen.
das LAN angeschlossen, wo sie ihren Plattenspeicher als Fileserver oder als HTTP-Server zur Verfügung stellen. NAS-
In der Anfangszeit dieser Epoche waren SAN-Implementie-
Server sind speziell für das File Sharing entwickelt. Der Vor
rungen sehr kostenintensiv. Nicht jede Firma, vor allem im
teil von NAS im Vergleich zu klassischen Fileservern bestand
Mittelstandsbereich, konnte sich SANs finanziell leisten, um
im geringen Installations- und Wartungsaufwand.
der neuen Bandbreitenmöglichkeit Rechnung zu tragen. Hinzu kam die Hochpreispolitik der Glasfaserhersteller, die vor allem
Die IBM NAS-Modelle 200 und 300 waren Lösungen speziell
die für das Multiplexing erforderliche Monomode-Faser über
für Kunden, die in einem Windows-Umfeld Speicher konsoli
die Anfangsjahre sehr teuer gestaltete. Die Server-Adapter-
dieren wollten. Alle IBM NAS Appliances wurden mit einem
Hersteller schlossen sich dieser Hochpreispolitik an. Das
vorkonfigurierten Microsoft-Windows-Betriebssystem ausge
führte dazu, dass die Entwickler von Multiplexing-Verfahren
liefert. Dieses Windows wurde speziell für Fileserving ange
auf der Glasfaser kein großes Umsatzpotenzial mehr erken
passt. Routinen, die überflüssig waren, wurden aus dem
nen konnten und sich deshalb neuen Multiplexing-Verfahren
Betriebssystem entfernt, um die Leistung und Zuverlässig
auf Ethernet-Basis zuwandten. So kommt es, dass heute IP-
keit zu erhöhen. Dadurch boten die IBM NAS-Modelle sehr
Infrastrukturen auf Ethernet-Basis wesentlich größere Über
gute Performance in einer Windows-Umgebung (CIFS). Auch
tragungsbandbreiten bieten (2-Gbit- und 10-Gbit-Ethernet)
in einem gemischten Windows- und UNIX(NFS)-Umfeld zeigten
im Vergleich zu FibreChannel-Netzen.
die IBM NAS-Modelle eine gute Leistung.
Die Hochpreispolitik führte auch dazu, dass neben dem
Für klassische Block-I/O-Anwendungen wie Datenbanken
SAN eine neue Technologie, das NAS (Networking Attached
waren solche Fileserver nicht vorgesehen, weil diese Anwen
Storage), Einzug hielt. NAS-Technologie in Form von File-
dungen direkt auf einen formatierten Plattenplatz ohne ein
Server-Geräten mit eingebauten Platten kam ebenso zum
darüberliegendes Filesystem zugreifen. Dafür waren Lösungen
Einsatz wie Gateways, die prinzipiell nichts anderes als einen
wie Direct Attached Storage (DAS), Storage Area Networks
File-Server darstellten, aber die Möglichkeiten hatten, Platten
(SAN) und iSCSI-Produkte besser geeignet.
kapazitäten innerhalb eines SANs für File-Serving-Zwecke zu nutzen.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
53
1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS
Die iSCSI-Lösungen setzten sich allerdings auf dem Markt nicht wirklich durch, zumal kurze Zeit später der enorme Preisverfall der Monomode-Glasfaser einsetzte, der die Imple mentierung von SANs auch im Mittelstand und für Kleinbe triebe bezahlbar machte. Plattensysteme Im Juli 1999 wurde das erste IBM multiplattformfähige Plat tensystem, der Enterprise Storage Server ESS, angekündigt. Unter dessen Entwicklungsname ‘Shark’ fand das System IBM NAS Gateway 500, verfügbar Februar 2004, pSeries-basierend, bis 224 TB Kapazität im SAN
allerdings weit mehr Verbreitung als unter dem Begriff ESS.
Um die Speicherressourcen im SAN für Fileserving zu nutzen,
ten Modelle waren die E10 und E20 mit einer Kapazität von
bot die IBM, damals am Anfang als einziger Vendor, die Mög-
420 GB bis 11,2 TB. Dabei wurden Plattenlaufwerke von 9 GB,
lichkeit, vorhandene IP-Netzwerkstrukturen über ein NAS
18 GB und 36 GB als SSA-Platten verwendet, die über vier
Gateway mit dem SAN zu verbinden. Das NAS Gateway war
sogenannte Device Adapter Pairs in SSA-Loop-Technik an
ein dedizierter Fileserver. Dieser war mit dem SAN über Fibre
den Rechner angebunden waren. Am Anfang konnten die
Channel verbunden und so in der Lage, Kapazitäten z. B.
Plattentypen nicht gemischt werden, später allerdings war es
eines Enterprise Storage Servers ESS im SAN optimal für
möglich, unterschiedliche Platten in die Arrays einzubauen.
Fileserving einzusetzen. Durch die Nutzbarmachung eines
Cache-Größen von bis zu 6 GB waren konfigurierbar und
SAN-Speicherpools über Gateways konnten Fileserver in ein
ein Strom unabhängiger Schreibspeicher (NVS Non Volatile
SAN konsolidiert werden. Ebenso wurde durch die Nutzung
Storage) von 384 MB stand zur Verfügung. Die Arrays waren
des Speichers im SAN eine Server-unabhängige Skalierung
am Anfang ausschließlich unter RAID5 betreibbar. Für den
bezüglich der Kapazitäten möglich. Das NAS Gateway 300G
Mainframe standen die 3380- und 3390-Spurformate zur Ver
wurde später, im Jahr 2004, durch das wesentlich leistungs
fügung, an Open Systems (UNIX, Windows NT und AS/400)
stärkere Gateway 500 ersetzt.
wurden entsprechende LUNs emuliert (Logical Unit Number).
iSCSI ist eine gemeinsame Entwicklung der Firmen IBM und
Vom Vorgänger der ESS, dem Versatile Storage Server, einem
Cisco. Dabei wird das SCSI-Protokoll über TCP/IP übertragen.
Kurzläufer von wenigen Monaten, wurde der IBM Data Path
iSCSI verfolgt damit einen ähnlichen Ansatz wie SAN, mit
Optimizer für AIX und Windows NT als integraler Bestandteil
dem Unterschied, dass bei iSCSI eine TCP/IP-Verbindung
für die Multipfadfähigkeit der Maschine übernommen.
Die Typenbezeichnung war 2105 und die 1999 angekündig
das SCSI-Kabel ersetzt, und stellte damals in Bereichen mit niedrigen oder mittleren Leistungsanforderungen eine kosten
Funktional war die Maschine am Anfang noch schwach auf
günstigere Alternative zu SANs dar. Der Vorteil bestand darin,
der Brust und es standen nur begrenzt Copy Services als
dass bereits vorhandene IP-Netzwerke direkt genutzt werden
Funktionen zur Verfügung, was die Markteinführung nicht
konnten und nicht ein separates Glasfasernetz in Form eines
gerade vereinfachte. Später kamen dann die Mainframe-Funk
SANs aufgebaut werden musste. Die Implementierung von
tionen ‘Concurrent Copy’ und XRC, ‘eXtended Remote Copy’
iSCSI-Lösungen im Vergleich zu SANs war wesentlich ein
als asynchrone Spiegelmöglichkeit ganzer Systeme für S/390-
facher und erforderte nicht den hohen IT-Skill, der bei einem
Server (mit konsistentem Datenbestand auf der Sekundär
Aufbau eines Storage Area Network (SAN) notwendig war.
seite) und wiederum zeitversetzt die Funktion PPRC ‘Peer to
Die IBM Modelle IP Storage 200i (Modelle 200 und 225)
Peer Remote Copy’ als synchrone Spiegelung sowohl für
verwendeten im Gegensatz zu den NAS und NAS Gateways
den Mainframe als auch den Open-Systems-Bereich. Auch
Linux als Betriebssystem (Kernel) und boten eine Kapazität
FlashCopy (Instant- oder Point-in-Time-Copy) wurde auf
von 108 GB bis 1,74 TB an.
der Maschine implementiert, um in Sekundenschnelle Kopien erzeugen zu können, mit denen man sofort arbeiten konnte.
54
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Knapp 2 Jahre nach der Markteinführung bot die Maschine dann allerdings im Mainframe-Umfeld eine wesentlich höhere Funktionsvielfalt im Vergleich zu den auf dem Markt befind lichen Mitbewerbersystemen. Die Funktion PAV (Parallel Access Volume) erlaubt im Mainframe-Umfeld multiple I/OOperationen auf denselben logischen Volume. Multiple Allegiance lässt den parallelen Schreib- und Lesezugriff auf dasselbe logische Volume von verschiedenen S/390-Servern zu. I/O Priority Queuing verwendet die Priorisierungsinfor mationen des OS/390-Workloadmanagers im Goal Mode, um die Sequenz der einzelnen I/Os optimal zu steuern und Workloads mit unterschiedlicher Wichtigkeit entsprechend ihrer Priorisierung optimal zu behandeln. Das System kam mit neuen Management-Tools, der soge nannten ‘StorWatch’-Familie, auf den Markt, die es erlaubte, die Maschinen über das Web zu administrieren. Standard mäßig wurde die Maschine mit dem ESS Specialist ausge liefert, der vor allem für das Konfigurieren und für spätere Modifizierungen notwendig war. Als separates, zusätzlich käufliches Produkt wurde der ESS Expert zur Verfügung gestellt, der ausführliche Informationen über genutzte Kapa
Enterprise Storage Server ESS (Shark), 1999: Modelle E10/E20 bis 11 TB, 2001: Modelle F10/F20 bis 35 TB, 2002: Modelle 800 und 800 Turbo II bis 56 TB, April 2004: Entry-Modell 750 bis 5 TB (Brutto-Kapazitäten)
zitäten, Performance, Antwortzeiten, Cache Hit Ratios und mehr lieferte, um ein optimales Tuning auf der Maschine für
Der Wechsel von ESCON- auf FICON-Infrastrukturen brachte
die unterschiedlichen Workloads durchführen zu können.
damals enorme Infrastrukurverbesserungen und Infrastruktur einsparungen mit sich, weil in der Regel vier ESCON-Kanäle
Im Mai 2001 kamen die Folgemodelle F10 und F20, die
mit 18 MB/s durch einen FICON-Kanal mit 100 MB/s ersetzt
erstmals native FICON-Anschlüsse boten, um mit FibreChannel
werden konnten. Allerdings dauert die Penetration noch bis
im Mainframe-Umfeld zu arbeiten. Auch die bisher verwen
in die heutige Zeit an.
deten ESCON- und FC-Adapter waren verbessert worden und boten 100 MB/s Durchsatz pro Port in FICON und Fibre
Im August 2002 kam die letzte Modellreihe der ESS mit den
Channel Speed. Sie lieferten Entfernungsmöglichkeiten von
Modellen 800 und 800 Turbo II auf den Markt, die dann noch
bis zu 10 km (native) und bis zu 100 km über entsprechende
durch ein Einstiegsmodell 750 im Frühjahr 2004 ergänzt
SAN-Fabric-Komponenten aus. Die neuen Modelle konnten
wurde. Die neuen Modelle waren leistungsstärker und
mit bis zu 16 FICON-Anschlüssen und einer zusätzlichen
verwendeten zwei 2-, 4- oder 6-Way-SMP-Rechner mit bis
Cache-Option von 24 GB, also maximal 32 GB, ausgestattet
zu 64 GB Cache.
sein. Damit verbesserte sich die Leistung zu den Vorgänger modellen um ca. 40 %.
Dadurch waren ca. 42 % mehr Transaktionen bei Cache Standard Workloads möglich. Die neuen Modelle konnten im
Funktional stellten die neuen Modelle die Funktion PPRC und
Mischbetrieb Laufwerke mit 18 GB, 36 GB, 73 GB und 146 GB
FlashCopy auch der Systemplattform AS/400 und iSeries zur
ausgestattet werden und boten als Brutto-Kapazität von
Verfügung. Im März 2002 wurde auch die FICON-Unterstüt-
582 GB bis 56 TB. Die Laufwerke mit 18 GB, 36 GB und 73
zung für die bei Airline-Buchungssystemen verwendete
GB gab es mit Umdrehungsgeschwindigkeiten von wahlweise
TPF-Anwendung (Transaction Processing Facility) verfügbar.
10.000 Umdrehungen/Minute und 15.000 Umdrehungen/ Minute, während das großkapazitive 146-GB-Laufwerk nur mit 10.000 Umdrehungen/Minute zur Verfügung stand.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
55
1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS
Wahlweise konnten die Arrays mit RAID0, 1, 5 und 10 konfi
Ebenso wurden für die neuen Modelle die Management-
guriert werden und alle Platten in einem Array wurden mit
Möglichkeiten erweitert. So wurden erstmals offene APIs als
einem Striping-Verfahren (alle Laufwerke arbeiten gleichzeitig,
Industrie Standard Interface (SNIA-SMI-S) zur Verfügung ge-
wenn eine Spur in kleinen Stücken parallel auf alle Laufwerke
stellt. Die Maschinen konnten mit Scripting Tools über das
des Arrays geschrieben oder gelesen wird) angesteuert, um
CLI (Command Line Interface) automatisiert werden. Ebenso
eine optimale Schreib- und Lese-Performance sicherzustellen.
stand eine Web-basierende grafische Benutzeroberfläche
Für die Array-Anbindung wurden SSA-160-Adapter verwendet,
(GUI) für einfache Administration zur Verfügung.
die in einer Doppelloop einen Gesamtdurchsatz von 320 MB/s bei acht gleichzeitigen I/Os erreichen konnten. Der Gesamt
Für alle ESS-Modelle wurden RS/6000 basierende POWER5-
durchsatz (interne Bandbreite) lag beim Turbo-II-Modell bei
Prozessoren eingesetzt. Die E-Modelle verwendeten eine
3,2 GB/s. Die maximale Cache-Größe lag bei bis zu 64 GB.
H50 als 4-Way-SMP-Version mit einer Taktrate von 340 MHz. Die F-Modelle benutzten eine H70 als 4-Way-SMP mit
Das RAID-Management war komplett in die Adapterkarten
540 MHz. Die letzten Modelle der 800er -Reihe verwendeten
verlagert und bei sequenziellen Schreib-Workloads war die
einen H80-Rechner. Das Einstiegsmodell 750 benutzte eine
Maschine in der Lage, vom RAID5- in den RAID3-Modus um-
H80 als 2x2-Way mit 600 MHz, die Modelle 800 eine H80
zuschalten, bei der bis zu 64 gleichzeitige physische I/Os
als 2x4-Way mit 600 MHz und die leistungsstärkste ESS 800
auf die Platten möglich waren.
Turbo 2 eine H80 als 2x6-Way mit 750 MHz. Für die interne Übertragung in den Maschinen wurde mit PCI-Bussen
Alle Maschinen waren von Beginn an auf 2-Gbit-Hostan
gearbeitet.
bindungungstechnologie, also 2 Gbit FICON und 2 Gbit FibreChannel, ausgelegt. Daneben konnte die Maschine
Im Januar 2006 zog IBM alle ESS-Modelle mit Wirkung vom
immer auch noch mit ESCON- und Ultra-SCSI-Adaptern
April 2006 vom Vertrieb zurück.
konfiguriert werden. Parallel zur ESS wurde bei IBM bereits 1999 der Startschuss Die Modelle 800 und 800 Turbo II waren die Basis, um ein
gegeben, an Server-basierenden Speicherarchitekturen zu
komplett neues Remote-Copy-Verfahren zu entwickeln, das
arbeiten, die die Basis für die heutige, erste Server-basie
in seiner Leistungsfähigkeit bis heute einmalig im Markt ist
rende Speicherarchitektur legten und heute mit dem Produkt
und bei den Folgeprodukten der DS6000 und DS8000 maß
der DS8000 zur Verfügung stehen. Diese neue Architektur
geblich seinen Einsatz findet. Dieses neue Remote-Copy-
entwicklung fand parallel zur Weiterentwicklung der ESS statt
Verfahren wurde den neuen ESS-Modellen im April 2004 zur
und wurde unter größter Geheimhaltung vorangetrieben.
Verfügung gestellt und ermöglichte durch eine bidirektionale Implementierung über eine FibreChannel-Verbindung eine
Das erfolgreiche, SSA-basierende Plattensystem IBM 7133,
synchrone Spiegellast (PPRC) von bis zu 16.000 I/Os in der
das vor allem in RS/6000- und pSeries-Umgebungen einge
Sekunde (ESS), die sich später bei den neuen DS8000 auf
setzt wurde, bekam 2002 auch die Möglichkeit, in Fibre
bis zu 23.000 I/Os pro Sekunde steigerte – und das über
Channel SANs zum Einsatz zu kommen. Mit dem Adapter
einen einzigen FibreChannel-Link. Bei dieser neuen Imple
7140 konnte das Plattensystem an SANs angeschlossen
mentierung können extrem kurze Antwortzeiten, auch bei
werden und stellte eine neue Funktion über diesen Adapter,
synchroner Spiegelung über lange Entfernungen, erzielt
‘InstantCopy’, zur Verfügung. Damit konnte neben einem
werden. Bei den Modellen 800 der ESS wurden Antwort
RAID1-Spiegel eine weitere Kopie erzeugt werden, die dann
zeiten von 2 ms bei einer synchronen Spiegelung von über
für asynchrone Backup- oder Testzwecke verwendet werden
75 km erzielt.
konnte. Da die hier eingesetzte SSA-Technologie auch im Enterprise Storage Server ESS (Shark) eingesetzt wurde, bezeichnete man die Kombination von 7133 und dem Adapter 7140 auch als ‘Hammershark’. Die Nähe zur ESS (Shark) wurde auch durch eine Aufrüstoption unterstrichen, bei der 7133 Kapazität zur Erweiterung einer Shark genutzt werden konnte.
56
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Nach der Markteinführung der ESS als multiplattformfähiges
Im Jahr 2001 wurde diese Allianz zwischen IBM und LSI auf
Enterprise-Plattensystem erkannte IBM sehr schnell, dass
den gesamten Storage-Vertrieb erweitert, eine Allianz, die sehr
selbst Einstiegskonfigurationen einer Shark für den Mittel
erfolgreich werden sollte und bis in die heutige Zeit hochak
standsbereich zu teuer waren. Deshalb wurde bereits im
tuell ist. Das erste Produkt, das IBM über diese Allianz ver
Jahr 2000 mit der Firma Compaq ein OEM-Vetrtriebsver-
trieb, war ein Entry-Plattenprodukt, die FAStT200, damals
trag unterzeichnet, der IBM erlaubte, das aktuelle Compaq-
auch als IBM 3542 bekannt, das mit bis zu zwei FibreChan
Plattensystem mit FibreChannel-Anschlüssen zu vertreiben.
nel-Ports mit der Grundeinheit (10 eingebaute Festplatten)
Das Produkt MSS Modular Storage Server unterstützte
und zwei Erweiterungseinheiten EXP500 (pro EXP500
heterogene Serverplattformen im Windows-NT- und UNIX-
zusätzliche 15 Platten) eine maximale Kapazität von bis zu
Umfeld und wurde über Hubs und/oder Switches an FC-
2,1 TB anbot. Das System stellte eine preisgünstige, perfor
Server angeschlossen.
mante Plattenlösung für dezentrale Abteilungen und Arbeits gruppen mit bis zu vier Servern dar. Das System bot als
Die Zeit des MSS Modular Storage Servers war aber nur von
Entrysystem damals bereits eine ganze Reihe von Sicher
sehr kurzer Dauer und es wurden nur vereinzelte Systeme
heitsoptionen wie Dual Active RAID Controller, RAID 0, 1, 10,
installiert. Mit der Übernahme von Compaq durch Hewlett-
3 und 5, redundante Netzteile und Batterie sowie die Mög
Packard HP war die Allianz mit Compaq beendet.
lichkeit, alle Komponenten als ‘Hot Swaps’ zu tauschen. Im System konnten im Mischbetrieb Platten mit 18 GB, 36 GB
Daraufhin griff IBM auf eine seit Anfang der 90er-Jahre be-
und 73 GB eingesetzt werden.
stehende OEM-Allianz mit der Firma LSI zurück, die es erlaubte, dass IBM unter IBM Logo Plattenprodukte von LSI
Die Abkürzung ‘FAStT’ steht für ‘Fibre Array Storage Tech-
speziell im Intel-Umfeld (NetFinity) über den IBM xSeries-
nology’. Der ursprüngliche Name sollte FAST – für Fibre Array
Kanal vertrieb. Bereits 1993 wurden die LSI-Produkte IBM
Storage Server – lauten, war aber bei der Ankündigung der
7135-110 RAIDiant Array in den Vertrieb aufgenommen, 1995
LSI-Produkte bereits vergeben und konnte nicht verwendet
das IBM 7135-210 RAIDiant Array, 1998 der IBM 3526 FC
werden. Deshalb entschloss man sich für FAStT mit der
RAID Controller, 2000 die IBM 3552 FAStT500 und die IBM
Intention, dass das kleine ‘t’ nicht ausgesprochen wird. Trotz
3542 FAStT200 und im Jahr 2001 die IBM 1742 FAStT700.
allem setzte sich die Aussprache als ‘fast_T’ in ganzer Breite durch.
FAStT900
FAStT700
FAStT600 Turbo
FAStT600
FAStT200
FAStT200
2 Gbps FC
2 Gbps FC
2 Gbps FC
1 Gbps FC
2 Gbps FC
2 Gbps FC
SAN attachments (max)
4 FC-SW
4 FC-SW
4 FC-SW
4 FC-SW
4 FC-SW
4 FC-SW
Direct attachments (max)
8 FC-AL
8 FC-AL
4 FC-AL
4 FC-AL
2 FC-AL
4 FC-AL
Redundant drive channels
Four 2 Gb FC
Four 2 Gb FC
Four 2 Gb FC
Four 2 Gb FC
Four 1 Gb FC
Four 2 Gb FC
Drive types supported
FC, SATA
FC
FC, SATA
FC, SATA
FC
FC, SATA
224
224
112
56
66
56
Max physical capacity with FC
32 TB
32 TB
16.4 TB
8.2 TB
9.6 TB
–
Max physical capacity with SATA
56 TB
–
28 TB
28 TB
–
14 TB
XOR technology
ASIC
ASIC
Integrated
Integrated
Integrated
Integrated
Subsystem Cache
2 GB
2 GB
2 GB
512 MB
256 MB
512 MB
Host Interface
Max drives
IBM FAStT-Plattensubsystemfamilie, Spezifikationsübersicht
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
57
1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS
Die Reihe der FAStT-Plattensysteme wurde im Oktober 2001
mehr Kapazität benötigt oder eine höhere Performance er-
um die leistungsfähigeren Produkte FAStT500 und FAStT700
forderlich wird, gibt es die Möglichkeit, dieser Group eine
erweitert, die mit bis zu vier FibreChannel-Anschlüssen höhere
oder mehrere physische Laufwerke hinzuzufügen (DCE). Die
Kapazitäten boten. Im Hochleistungsbereich kam im Februar
in dieser Group befindlichen Volumes nutzen diese neue
2003 die FAStT900 dazu, um die Baureihe auch im oberen
Kapazität, die Disk wird automatisch in die Volume-Verteilung
Leistungsbereich abzurunden. Im April 2003 wurde die
aufgenommen.
FAStT500 duch die FAStT600 und FAStT600 Turbo ersetzt. Neben den Plattenerweiterungseinheiten EXP500 und EXP700
Sollte innerhalb eines zugewiesenen Volumes mehr Kapazität
(EXP steht für Expansion), die mit FibreChannel-Platten
benötigt werden, so ist im laufenden Betrieb auch hier eine
bestückt waren, kündigte IBM im Oktober 2003 die Erweite
Kapazitätserweiterung möglich (DVE). Voraussetzung hierfür
rungseinheit EXP100 an, die mit preislich günstigeren SATA-
ist, dass entsprechende Kapazitäten innerhalb der Array-
Platten bestückt war. Der dazu passende Controller wurde
Group zur Verfügung stehen (in diesem Fall kann über DCE
im Mai 2004 mit der FAStT100 angekündigt. SATA-Platten
eine beliebige, undefinierte Platte ergänzt werden). Diese
(Serial Advanced Technology Attached) sind günstige IDE-
Funktionalitäten ermöglichen es dem Anwender, flexibel auf
Platten mit seriellem Interface, die bisher auschließlich im
Kapazitätsanforderungen einzugehen und diese auf ein
Heim-PC-Bereich ihre Anwendung fanden. Mit Ausnahme
fachste Weise umzusetzen. Alle Funktionen arbeiten im lau
der schon länger verfügbaren FAStT200 waren alle Systeme
fenden Betrieb mit Data in Place und werden über den
jetzt mit 2 Gbit FibreChannel ausgestattet, und das sowohl
FAStT Storage Manager initialisiert.
Host-seitig als auch in der Anbindung der Plattenloops an den jeweiligen FAStT Controller. Über 90 % des Vertriebs
DRM: Dynamic RAID Migration. Genauso wie zugewiesene
dieser LSI-Plattensubsystem-Serie lief über IBM oder IBM
Kapazitäten sind ebenfalls zugewiesene RAID-Level nicht
Geschäftspartner und war im FibreChannel-Umfeld ein rie
statisch, sondern auch im laufenden Betrieb veränderbar.
siger Erfolg, der bis heute anhält.
Sollten sich durch Änderungen im Lastprofil, der Kapazitätsoder Sicherheitsanforderung Änderungswünsche am einge
Je nach Controllerstärke wurde bei den FAStT-Plattensystemen
setzten RAID-Level ergeben, so kann dieser im laufenden
eine Vielzahl von neuen Funktionalitäten eingeführt, die dann
Betrieb je RAID-Array angepasst werden. Es stehen die
vor allem in den oberen Modellen zum standardmäßigen Ein
RAID-Level 0, 1, 1+0, 3 und 5 zur Verfügung. Es kann von
satz kamen und bis heute in den Systemen verwendet wer
jedem RAID-Level zu jedem anderen RAID-Level gewechselt
den. Zum besseren Verständnis werden diese Funktionen im
werden. Voraussetzung ist, dass entsprechende Plattenkapa
Folgenden beschrieben.
zitäten (z. B. bei einem Wechsel von RAID5 zu RAID1) verfüg bar sind (DCE). Auch dies ist im laufenden Betrieb mit Data
DCE und DVE: Dynamic Capacity Expansion und Dynamic
in Place möglich. Die RAID-Berechnung wird im Controller
Volume Expansion ermöglichen, zugewiesene Speicherbe
über HW-Funktionalität durchgeführt.
reiche im laufenden Betrieb zu vergrößern. Innerhalb des
58
FAStT-Systems werden physische Laufwerke zu einzelnen
DAE: Dynamic Array Expansion. Sollte innerhalb einer FAStT
Array-Groups gebunden. Die Laufwerke können sich dabei
weitere physische Kapazität benötigt werden, so gibt es die
über verschiedene EXP-Erweiterungseinheiten verteilen. Die
Möglichkeit, im laufenden Betrieb die angeschlossenen Er-
Selektion der Laufwerke kann dem System überlassen werden
weiterungseinheiten mit weiteren FC-Laufwerken in verschie
(dann wird stets die performanteste Konfiguration gewählt)
denen Kapazitätsgrößen und mit unterschiedlichen RPMs zu
oder vom Administrator manuell definiert werden. Für die er-
bestücken (bis zu 14 Laufwerke je EXP700). Sollten in den
stellte Array-Group wird ein RAID-Level definiert, der für die
angeschlossenen EXPs keine freien Slots zur Verfügung ste
gesamte Array-Group Gültigkeit hat. Innerhalb dieser Array-
hen, so besteht die Möglichkeit, im laufenden Betrieb eine
Group können verschiedene Volumes definiert werden. Diese
weitere EXP700 an den FAStT-Controller anzuschließen. So
Volumes werden den einzelnen Servern zugewiesen. Für den
lassen sich einzelne Laufwerke oder ganze Erweiterungsein
Fall, dass der gewählte Plattenzusammenschluss (Array-Group)
heiten im laufenden Betrieb hinzufügen.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Neben diesen Standard-Funktionalitäten sind weitere,
•• VolumeCopy: Ergänzend zur Funktion FlashCopy ist für
optionale Funktionen verfügbar:
FAStT-Systeme mit FSM 8.4 auch die Funktion VolumeCopy verfügbar. VolumeCopy erstellt im Gegensatz zu FlashCopy
•• FlashCopy: Die Funktion FlashCopy (Point-in-Time-Copy)
eine physische Kopie. Es muss also für die Erstellung einer
ermöglicht bis zu 4 virtuelle Kopien eines bestehenden
VolumeCopy die gleiche physische Kapazität wie die der
Volumes. Diese Funktion kommt vor allem für die Erstellung
Source zur Verfügung stehen. Es besteht die Möglichkeit,
von Testumgebungen und die Erhöhung von Onlinezeiten
diese Kopie nach Wunsch zu priorisieren. Dies bedeutet,
bei Backups zum Einsatz. Wie funktioniert nun FlashCopy
dass I/O-Tätigkeiten zum Host bevorzugt, die Erstellung
bei den FAStT-Systemen?
der Kopie nur zweitrangig behandelt wird. VolumeCopy ist
Über dem FAStT Storage Manager (FSM) wird der Flash-
eine Funktion, die besonders für Testumgebungen (z. B. zur
Copy-Befehl über die GUI-Oberfläche abgesetzt. Über das
Durchführung von Releasewechseln etc.) oder für Online-
GUI wird in diesem Schritt ebenfalls ein Repository angelegt,
Backups geeignet ist.
ein physischer Datenbereich für die Änderungen zwischen
•• Remote Mirroring: Während die Kopierfunktionen FlashCopy
der Kopie und T0, dem Zeitpunkt des Spiegelungsbeginns.
und VolumeCopy Datenkopien innerhalb eines FAStT-
Die Größe des Repositorys ist abhängig von der Anzahl der
Systems zur Verfügung stellen, erstellt Remote Mirroring
Änderungen am Originalvolume. Die Erfahrung zeigt, dass
eine Kopie von Daten über eine SAN-Infrastruktur von einer
eine Repositorygröße von 20 % des Originalvolumes sinn-
FAStT auf eine weitere. Diese Funktion ist für die FAStT-
voll ist. Sollte bei längerer Kopievorhaltung oder über-
Systeme 700 und 900 verfügbar. Remote Mirroring ist eine
durchschnittlich vielen Änderungen der Source mehr Re-
bidirektionale, synchrone Kopie. Über dedizierte
pository-Kapazität benötigt werden, so kann dieser Bereich
FibreChannel-Ports können bis zu 32 Volumes auf eine
flexibel vergrößert werden (DVE). Die Erstellung einer Flash-
zweite FAStT gespiegelt werden. Remote Mirroring wird
Copy ist innerhalb von wenigen Sekunden abgeschlossen.
für Katastrophenvorsorge und High-Performance Copys
Zur weiteren Benutzung einer FlashCopy ist es wichtig, zu T0 auf einen konsistenten Datenbestand zurückzugreifen,
eingesetzt. •• Partitioning: Um unterschiedliche Speicherbereiche auf
da ansonsten eine inkonsistente Kopie entsteht. Die erstellte
der FAStT voneinander abzugrenzen, steht die Funktion
virtuelle Kopie (nach wenigen Sekunden) kann z. B. dem
Partitioning zur Verfügung. Die Abgrenzung bewirkt, dass
Backup-Server zur Datensicherung zugewiesen werden.
definierte Server nur auf den ihnen zugewiesenen Speicher
Wird während der Nutzung einer FlashCopy (Target) eine
bereich zugreifen können. Auf Speicherbereiche von
Änderung an der Source (Block A) vorgenommen, so wird
‘fremden’ Servern kann somit kein Zugriff erfolgen. Dies
das Original vor der Änderung in das Repository übernom-
erhöht die Sicherheit der einzelnen Speicherbereiche. Be-
men. Wird das Target geändert, so wird diese Änderung
sonders in Microsoft-Umgebungen ist diese Funktion sehr
ebenfalls im Repository gespeichert. Wurden an der
wertvoll, da die Betriebssysteme keine derartige
Source keine Änderungen vorgenommen, so greift man
Funktionalität bieten.
bei der Nutzung der Copy (Target) automatisch auf die Source zurück.
FAStT900
FAStT700 FAStT600 Single/Dual/Turbo
FAStT200 FAStT100 FAStT RAID Controller Familie
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
59
1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS
Laufwerkerweiterungseinheiten, Management SW und das Einbau-Rack
EXP100 Serial-ATA-Technologie
EXP700 2-Gb-FC-AL-Technologie
Laufwerkeinheiten
FAStT Storage Manager (FSM)
Das Rack
Mit der Ankündigung der ersten Server-basierenden Spei-
Für die FAStT-Plattenfamilien wurden im Einzelnen folgende
cherarchitekturen mit den Plattenprodukten DS6000 und
Rebrandings durchgeführt:
DS8000 unternahm IBM im September 2004 ein generelles, einheitliches Re-Branding der Plattenprodukte. DS steht für Disk System. Die Zahl dahinter soll die Leistungsfähigkeit des jeweiligen Systems reflektieren: je höher die Zahl, desto
Naming Prior to Sept 7, 2004
New naming as of Sept 7, 2004
IBM TotalStorage FAStT Storage Server IBM TotalStorage DS4000 FAStT
DS4000
FAStT Family
DS4000 series
Neben der Vereinheitlichung der Plattenproduktnamen wurden
FAStT Storage Manager vX.Y (example FSM v9.10)
DS4000 Storage Manager vX.y (example 9.10)
auch die Namen der jeweiligen Funktionalitäten entsprechend
FAStT100
DS4100
angepasst. Vergleichbare Funktionen der DS6000 und DS8000
FAStT600
DS4300
wurden bei den FAStT-Systemen mit denselben Begriffen
FAStT600 with Turbo Feature
DS4300 Turbo
bezeichnet. Dies betraf vor allem die Remote-Copy-Spiegel
FAStT700
DS4400
verfahren.
FAStT900
DS4500
höher die Leistung.
EXP700
DS4000EXP700
Das synchrone Spiegeln von Plattensystemen wird bei der
EXP100
DS4000EXP100
DS6000 und DS8000 als Metro Mirroring bezeichnet, das
FAStT FlashCopy
FlashCopy for DS4000
asynchrone Spiegelverfahren als Global Mirroring. Die neu
FAStT VolumeCopy
VolumeCopy for DS4000
eingeführten Begriffe sollen dem neu entwickelten Spiegel verfahren, das auf der ESS Modell 800 als Plattform entwickelt
FAStT Remote Volume Mirror (RVM)
Enhanced Remote Mirroring for DS4000
wurde und heute das leistungsfähigste Spiegeln im Markt
FAStT Synchronous Mirroring
Metro Mirroring for DS4000
darstellt, gebührend Rechnung tragen.
FAStT Asynchronous Mirroring (New Feature) w/o Consistency Group
Global Copy for DS4000
FAStT Asynchronous Mirroring (New Feature) with Consistency Group
Global Mirroring for DS4000
Die jetzt neu bezeichnete DS4000-Plattensubsystemfamilie wurde im Mai 2005 durch ein neues Hochleistungsmodell DS4800 ergänzt, das eine doppelt so hohe Leistungsfähig keit im Vergleich zur DS4500 auslieferte. Die DS4800 war vom Aufbau her bereits beim Verfügbarwerden eine 4-GbitMaschine und somit das erste 4-Gbit-Plattensystem auf dem Markt. Die Cachegrößen am Anfang konnten je nach Modell mit 4 GB, 8 GB und später 16 GB konfiguriert werden. Die DS4800 hatte zudem noch eine andere positive Eigenschaft
60
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
in der Bauweise: Die Maschine war RoHS-konform und ent
Legierungen, Barium-Derivate etc. in Neuprodukten einge
sprach bereits 2005 der neuen EU-Richtlinie, die seit 1. Juli
setzt werden dürfen. Diese neue Richtlinie gilt EU-weit und
2006 in Kraft ist.
betrifft alle Neuprodukte in der Elektro- und IT-Industrie, die ab dem 1. Juli 2006 vertrieben werden.
Im Jahr 2003 bildete sich in den USA ein Gremium, das es sich zur Aufgabe machte, Plattensubsysteme unterschiedli
Die DS4100 als SATA Controller wurde durch den neuen
cher Hersteller nach realen und produktiven Workloads aus
DS4200 SATA Controller ersetzt, die EXP100 mit 250-GB-
zutesten und diese Ergebnisse zu publizieren. Dieses heute
und 400-GB-SATA-Platten durch die EXP420 mit 500-GB-
fest etablierte Gremium nennt sich ‘Storage Performance
SATA-Platten.
Council’ bzw. SPC. Die DS4300 Dual Controller wurden durch die DS4700 Modell 70 Die neue DS4800 übertraf als Midrange-Plattensystem in der
und die DS4300 Turbo durch die DS4700 Modell 72 ersetzt.
Leistung alle anderen Hersteller mit großem Abstand und er-
Ebenso wurde die EXP710 mit FibreChannel-Platten durch
reichte eine Spitzenpunktzahl von 42.254. Damit ist die DS4800
die EXP810 mit FC-Platten auf 4-Gbit-Basis ersetzt.
heute das schnellste Plattensystem im Midrange-Markt. Die DS4500, ehemals FAStT900, wurde durch ein neues EinDa die älteren DS4000-Produkte mit Ausnahme der neu ver
stiegsmodell, das Modell 80 der leistungsstarken DS4800,
fügbar gewordenen DS4800 nicht der RoHS-Richtline ent
ersetzt. Bei diesem Einstiegsmodell 80 wurde die interne
sprachen, wurden im Mai 2006 alle nicht RoHS-konformen
Übertragungsbandbreite leicht verringert und die Prozessoren
Produkte durch entsprechend neue ersetzt.
der Controller wurden mit einer 100-MHz-Taktung (im Ver gleich zu einer 133-MHz-Taktung) versehen. Damit schließt
RoHS steht für ‘Restriction of Hazardous Substances’
das Modell 80 der DS4800 die Leistungslücke zwischen den
und stellt ab dem 1. Juli 2006 eine gesetzlich kontrollierte
Hochleistungsmodellen der DS4800 und dem Midrange-
EU-Richtlinie dar, die genau vorschreibt, welche Materialien,
Modell 72 der DS4700.
DS4000 Series aktuell im Jahr 2006
DS4800 4 Gbit 4/8/16 GB Cache RoHS compiliant
DS4700 Modell 72 4 Gbit 4 GB Cache RoHS compiliant DS4700 Modell 70 4 Gbit 2 GB Cache RoHS compiliant DS4200 4 Gbit 2 GB Cache RoHS compiliant SATA Controller
DS4800 Modell 80 4 Gbit 4 GB Cache RoHS compiliant
EXP810 4 Gbit RoHS compiliant EXP420 4 Gbit RoHS compiliant SATA-Platten 500 GB
Aktuelle Modelle der IBM DS4000-Plattenfamilie im Jahr 2006
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
61
1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS
DS4000 Erweiterungen 2007 und 2008 Im Jahr 2007 stellte IBM für die DS4000 Plattenfamilie eine ganze Reihe von Erweiterungen vor. Im Mai 2007 wurden für die DS4000 750 GB SATA-Platten und 300 GB Fibre Channel-Platten mit 15.000 Umdrehungen in der Minute eingeführt. Damit skaliert eine DS4800 auf bis zu 68 TB bzw. 168 TB Speicherkapazität (je nach Verwendung des Plattentyps). Im Oktober 2007 kamen viele funktionale Erweiterungen für alle Systeme DS4000 dazu. Für die Systeme DS4200 und DS4700 steht als neue RAID-Option RAID6 zur Verfügung. RAID6 sichert den Ausfall von zwei Platten im RAID-Array ab, da mit zwei Parity-Schemen gear beitet wird (siehe auch unter RAID). Die Anzahl der Mirror
Ansicht und Aufbau des Hochleistungsmodells DS4800
Relations wurde verdoppelt, ebenso die Anzahl der Flash
Die DS4800 hat alle Festplatten in der Expansion Unit
Copies. Mit Verfügbarkeit im Februar 2008 können für alle
EXP810 konfiguriert. Weitere Expansion Units sowie auch
Systeme LUNs konfiguriert werden, die größer als 2 TB sind.
einzelne Festplatten können im laufenden Betrieb hinzuge fügt und in Betrieb genommen werden.
Die leistungsstarke DS4800 bekam die Erweiterung, dass bis zu 512 Server an das Plattensystem angeschlossen
Alle Komponenten der DS4800 sind redundant ausgelegt,
werden können. Es stehen jetzt vier aktuelle Modelle der
z. B. Controller, Stromzufuhr und Kühlung. Ebenfalls wird der
DS4800 zur Verfügung, die sich hauptsächlich in der Cache-
Cache gespiegelt und ist über eine Batterie bis zu 72 Stun
Größe unterscheiden. So sind, je nach Modell, die Cache-
den vor Verlust geschützt. Zusätzlich ist bei der DS4800 die
Größen 4 GB, 8 GB und 16 GB verfügbar.
Midplane, die als Interconnect Module bezeichnet wird, im laufenden Betrieb tauschbar. Dies ist bislang einmalig bei
Bedient werden die RAID-Level 0, 1, 3, 5 und 10 (der neue
Plattensystemen im Midrange-Umfeld.
RAID6-Level steht ausschließlich der DS4200 und DS4700 zur Verfügung). Die Berechnung der RAID-Level bzw. die
Ebenfalls einmalig ist die Performance der DS4800. Die
XOR-Kalkulation in der DS4800 erfolgt in einem eigens
Maschine hält bis heute die Führungsposition im Benchmark
entwickelten ASIC. Dies ist ein spezieller Prozessor, der
des Storage Performance Councils. Dies ist ein Random
speziell für diese Workload konzipiert wurde. Dies macht
I/O-orientierter Benchmark, bei dem reale Workloads hinter
die DS4800 frei von Latenzen, weil weder der Cache noch
legt werden. Die genauen Testdaten sowie die Beschreibung
andere durchsatzrelevanten Teile der Maschine damit belas
findet man unter www.storageperformance.org.
tet werden. Der DS4000 Storage Manager wird für alle Systeme kosten frei mit jedem System mitgeliefert. Ebenso ist die Multi pathing Software sowie die Call-Home-Funktionalität ohne zusätzliche Kosten einsetzbar. Als Premium-Features stehen die Funktionen FlashCopy, VolumeCopy und eRVM zur Ver fügung. Diese sind nicht kostenfrei, jedoch wird immer nur eine Lizenz pro System und Funktion herangezogen. Sowohl bei Kapazität und Leistung als auch beim Preis bie tet die aktuelle Modellreihe der DS4000 für jeden Endbenut zer eine maßgeschneiderte Plattenlösung im FibreChannelUmfeld an.
62
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
SAN-Virtualisierung
Onlineverfügbarkeit sowie die Produktivität und Effizienz von
Die Epoche der Multiplattform-Systeme war stark durch die
Administratoren. Darüber hinaus bietet er zur weiteren Ver
Einführung von FibreChannel-Netzen und den Aufbau von
einfachung des Betriebs die Möglichkeit, erweiterte Kopier
SANs geprägt. Damit wurde das Thema Speichervirtualisie
services systemübergreifend für Speichersysteme vieler ver
rung im SAN zu einem der aktuellsten Themen im Storage-
schiedener Anbieter einzusetzen. In seinem vierten Release
Umfeld – wobei das Konzept von Virtualisierung nicht neu
wurde der SAN Volume Controller auf die Verwaltung noch
ist. Speichervirtualisierungskonzepte sind im Mainframe (z. B.
größerer und verschiedenartiger Speicherumgebungen aus
DFSMS) oder im UNIX-Bereich in Form von ‘Logischen
gelegt. Mit der jetzt erweiterten Unterstützung für zahlreiche
Volume-Managern’ schon lange im Einsatz. Der Einsatz von
Speichersysteme anderer Anbieter, wie z. B. EMC, HP und
Storage Area Networks (SAN) hat die Entwicklung hin zur
HDS, erlaubt der SAN Volume Controller die Einrichtung
Speichervirtualisierung beschleunigt. Ebenso die Komplexität
einer mehrstufigen Speicherumgebung, sodass jede Datei
heutiger heterogener Infrastrukturen hinsichtlich der Server,
aufgrund ihres Stellenwerts auf dem entsprechenden Sub
Speichernetze und Speichersubsysteme.
system abgespeichert werden kann. Die neueste Version des SAN Volume Controller, die im Juli 2006 verfügbar wurde,
Der primäre Ansatz von Speichervirtualisierung war die
beruht auf 4-Gbit-Technologie und ist RoHS-konform.
Entkoppelung der physischen Speicherressourcen von der direkten Zuordnung zu Serversystemen. Diese SAN-basierte
Bandsysteme
Lösung legt eine Virtualisierungsebene zwischen Server- und
Neben der Plattensubsystem-Weiterentwicklung und den
Speichersysteme. Vorrangiges Ziel ist die gemeinsame Nut
Fortschritten auf dem Gebiet von SAN-Glasfasernetzen blieb
zung von Speicher quer über die gesamte Speicherhardware
auch die Weiterentwicklung der Tape-Technologien spannend.
sowie alle Serverplattformen und Betriebssysteme. Virtualisie
Nach Einführung der LTO-Bandtechnologie 2000 (Ultrium 1)
rung im Speichernetzwerk ermöglicht es, Speicherressourcen
mit 100 GB nativer Kapazität auf der Kassette wurde bereits
plattformunabhängig zu integrieren, aufzurüsten, zu migrieren,
im Februar 2003 die Generation 2 (Ultrium 2) der LTO-Lauf
zu replizieren und zu verteilen.
werke mit einer Kassettenkapazität von 200 GB native einge führt. Im Februar 2005 kam die Drittgeneration (Ultrium 3),
Um diese enorme Flexibilität innerhalb eines SANs zu
wieder mit einer Kapazitätsverdoppelung auf 400 GB native
bekommen, entwickelte die IBM in Hursley, UK, das Pro-
pro Kassette. Auch die Geschwindigkeit der Laufwerke wurde
dukt SAN Volume Controller, auch SVC genannt, das im
massiv verbessert. LTO2-Laufwerke arbeiteten bereits mit
Juni 2003 angekündigt und im September 2003 verfügbar
35 MB/s mit 8-Spur-Technik. Bei LTO3 wurde auf 16-Spur-
wurde.
Technik und eine Datenrate von 80 MB/s umgestellt.
Der IBM SAN Volume Controller wurde für einen Einsatz ent
Wie vorgesehen wurde die Schreib-/Lese-Rückwärtskompa
wickelt, bei dem Kapazitäten mehrerer heterogener Speicher
tibilität eingehalten. So können LTO3-Laufwerke immer noch
systeme zu einem einzigen Speicherreservoir, das von einem
Kassetten der Generation 1 lesemäßig verarbeiten und Kas
zentralen Punkt aus verwaltet werden kann, zusammengefasst
setten der Generation 2 sowohl schreiben als auch lesen.
werden. Er ermöglicht Änderungen an physischen Speicher systemen mit minimalen oder keinen Beeinträchtigungen für
Mit der Einführung der LTO3-Laufwerkgeneration im Februar
Anwendungen, die auf den Hosts ausgeführt werden, und
2005 wurden neben den bisher verwendeten überschreib
er minimiert Ausfallzeiten durch geplante oder ungeplante
baren Kassetten auch sogenannte WORM-Kassetten
Ereignisse, Wartungsmaßnahmen und Sicherungen. Zudem
(Write Once Read Many) eingeführt, die durch eine Mehr
erhöht der SVC die Auslastung der Speicherkapazitäten, die
fachkennzeichnung als Überschreibschutz keine Möglichkeit mehr bieten, abgespeicherte Daten zu verändern oder zu löschen. Die WORM-Kennzeichnung ist auf der linken Seite der Kassette in einem eingebauten Transponder-Chip hinter legt, das mit Radiofrequenz ausgelesen wird. Die Kenn zeichnung steht zudem im eingebauten Memory-Chip der
IBM SAN Volume Controller SVC
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
63
1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS
Ultrium LTO Six-Generation Roadmap
WORM
WORM
WORM
WORM
Generation 5 1.6 TB
Generation 6 3.2 TB
Native Capacity
Generation 1 100 GB
Generation 2 200 GB
Generation 3 400 GB
Generation 4 800 GB
Native Transfer Rate
up to 20 MB/s
up to 40 MB/s
up to 80 MB/s
up to 120 MB/s up to 180 MB/s up to 270 MB/s
Standardisierte LTO-Roadmap bis Generation 6
Kassette und in der Tape Volume Control Region am Band
Die etwas eigenwillige Farbwahl der standardisierten LTO-
anfang. Um absolut manipuliersicher zu sein, wird bei der
Kassetten kommt aufgrund einer wichtigen Anforderung zu-
Herstellung dieser WORM-Kassetten die Kennzeichnung
stande. Farbenblinde müssen in der Lage sein, die Kassetten
noch auf die vorgeschriebenen Servobänder gebracht: eine
optisch zu unterscheiden.
Vierfach-Kennzeichnung, die sicherstellt, dass LTO3-WORMKassetten nicht mehr überschrieben werden können. LTO-
Lag der Marktanteil 1999 mit 90 % noch DLT-Technologie
WORM-Kassetten sind zweifarbig gekennzeichnet. Die eine
von Quantum, hat sich das Bild seither um 180 Grad gedreht
Hälfte ist schwarz und die andere in weißer Farbe.
und die LTO-Technologie dominiert heute mit über 80 %.
Mit der Verfügbarkeit von LTO3 wurde die offizielle Roadmap
Der LTO-Massenmarkt mit billigen LTO-Laufwerken in halb
um zwei weitere Generationen mit LTO5 und LTO6 erweitert.
hoher (Half High) Bauweise wurde bisher ausschließlich von
Es ist davon auszugehen, dass alle 2 bis 2 ½ Jahre eine neue
Hewlett-Packard HP abgedeckt. Mit einer Ankündigung im
LTO-Generation gemäß dieser Roadmap auf dem Markt ver
Oktober 2006 steigt auch IBM in dieses Segment ein und
fügbar wird.
bietet halbhohe LTO3-Laufwerke im Niedrigpreisbereich an. Die Laufwerke sind mit einer Ultra 160 SCSI Schnittstelle ausgestattet und arbeiten mit einer Daten-Transfer-Rate von 60 MB/Sekunde (native).
LTO1-Kassette, 100 GB Kapazität (native)
64
1952 – 1961
1962 – 1974
LTO2-Kassette, 200 GB Kapazität (native)
1975 – 1993
1994 – 1998
LTO3-Kassette, 400 GB Kapazität (native)
1999 – 2005
2006 – 2010
LTO4-Kassette, 800 GB Kapazität (native)
Software
Anhang
Im April 2007 kündigte IBM mit sofortiger Verfügbarkeit als
Die Unterschiede der Verschlüsselungstechnik liegen im
erster Hersteller LTO4-Laufwerke und -Kassetten an.
‘Key-Handling’ und sind ausführlich im Kapitel ‘Encryption’ beschrieben.
Das IBM TS1040 Laufwerk ist ein LTO4-Laufwerk in voller Bauhöhe (Full High) und für den Einbau in IBM Libraries
Die IBM TS1040 Laufwerke sind in den Autoloader TS3100
vorgesehen. Das Laufwerk arbeitet mit einer Datenrate
und in die IBM Libraries TS3200, TS3310 und TS3500 ein
von bis zu 120 MB/s (native) und die Kassettenkapazität
baubar. Neben den TS1040 Laufwerken für die Libraries
der neuen LTO4-Kassetten beträgt 800 GB (native).
kündigte IBM im April 2007 auch Stand Alone LTO4-Laufwerke an, die auch in ein 19-Zoll-Rack eingebaut werden
Das Laufwerksinterface bietet einen Anschluss über einen
können. Die ‘Stand Alone’ Laufwerke werden unter dem
4 Gbit FibreChannel, SCSI oder 3 Gbps Dual Port SAS. Von
Begriff TS2340 vermarktet und weisen dieselben Spezifikati
der TS1120 (3592) Technologie wurde der Surface Control
onen wie TS1040 auf. Auch hier handelt es sich um Lauf
Guiding-Mechanismus zur optimierten Bandführung über
werke mit voller Bauhöhe (Full High). Die TS2340 haben
nommen. Ebenso bietet das Laufwerk vorausschauende
wahlweise einen Anschluss über 3 Gbps Dual Port SAS
Fehlerbehandlung SARS (Statistical Analysis and Reporting
oder SCSI und ein LED-Display zur Administration.
System), einen verbesserten ECC (Error Correction Code) und Digital Speed Matching. Ein interner Pufferspeicher von
LTO4-Laufwerke können LTO1-Kassetten nicht mehr verar
256 MB (LTO3 hatte nur 128 MB) sorgt dafür, dass der
beiten. Sie können LTO2-Kassetten auslesen und LTO3-Kas
Datenstrom nicht abreißt. Insgesamt passt sich das Lauf
setten im LTO3-Mode beschreiben und lesen. Mit den LTO4-
werk an 6 Geschwindigkeiten des Servers an (30, 48, 66, 84
Kassetten bietet ein LTO4-Laufwerk das Maximum an
103 und 120 MB/s) und reduziert so die Start/Stop-Aktivi
Kapazität (800 GB auf der Kassette) und die hohe Datenrate
täten. Adaptive Kompression von Daten dient zur optimalen
von bis zu 120 MB/Sekunde.
Nutzung der Bandkapazitäten. WORM-Kassetten sind neben den Standard-Kassetten verwendbar und die Lauf
Im November 2006 kündigte IBM in der LTO4-Reihe die
werke sind als erste LTO-Generation Encryption-fähig. LTO4
IBM TS2240 als externes LTO4-Laufwerk mit halber Bauhöhe
von IBM zeichnet sich durch sehr geringen Energiebedarf
(Half High) als weitere Option zu Full-High-Laufwerken an.
mit Powermanagement-Funktion, u. a. Sleeping-Modus bei
Das halbhohe LTO4-Laufwerk ist als ‘Stand Alone’-Laufwerk
Nichtgebrauch, aus (maximaler Strombedarf 27 Watt). IBM
oder ‘Rackmounted’ erhältlich. Im Gegensatz zu LTO3 erzie
setzt auf hohe Qualität, z. B. den Einsatz von Metall, und ver
len die halbhohen LTO4-Laufwerke dieselben Datenraten
meidet Plastik (weniger Störungen). Diese Merkmale führen
(120 MB/s) wie die Laufwerke mit voller Bauhöhe. Für die
zu einem stabileren Betrieb im Vergleich zu den alten LTO-
Produktion der halbhohen LTO4-Laufwerke nahm IBM Mitte
Generationen. Es können Laufwerks-/Zugriffsstatistiken
2006 ein neues Fertigungswerk in Singapur in Betrieb.
geführt und ggfs. Fehler vorhergesagt werden, um so Lauf
Viele Elemente aus der Produktion der Laufwerke mit voller
werke präventiv auszutauschen, bevor ein Fehler auftritt.
Bauhöhe wurden dort übernommen, sodass sichergestellt
Viele Innovationen, die im Enterprise-Bandlaufwerk IBM Sys
ist, dass die halbhohen Laufwerke in Qualität und Sicherheit
tem Storage TS1120 stecken, wurden in die IBM LTO4-Lauf
einem extrem hohen Maßstab gerecht werden.
werke integriert. Unter Nutzung der Verschlüsselungstechnik der TS1120 Technologie können die LTO4-Bandlaufwerke
Im Februar 2008 gab IBM bekannt, dass die halbhohen
Daten komprimieren und danach verschlüsseln mit fast kei
LTO4-Laufwerke im TS3100 Autoloader und in der TS3200
ner Auswirkung auf die Leistung des Laufwerks (ca. 1 %).
Library integriert werden können. Anstelle von einem ganz hohen Laufwerk können zwei halbhohe Laufwerke eingebaut werden. Damit fasst der Autoloader TS3100 bis zu zwei halbhohe LTO4-Laufwerke und die Library TS3200 bis zu vier. In der TS3200 ist auch der Mischbetrieb von ganz hohen und halbhohen Laufwerken unterstützt (ein ganz hohes und zwei halbhohe Laufwerke).
IBM TS1040 LTO4-Laufwerk ohne Gehäuse
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
65
1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS
Die Magstar-3590-Bandentwicklung als 1/2-Zoll-Format lief
Das PRML Encoding hatte auf der Platte bereits 1995 Einzug
parallel zur LTO-Entwicklung, allerdings wurde dabei das
gehalten, aber es war bisher nicht möglich, dieses Verfahren
ausgereifte Aufzeichnungsverfahren mit Parity-Informationen
auf Band einzusetzen. Grundvoraussetzung für den Einsatz
beibehalten. Die Magstar-Entwicklungsreihe fand im Juni 2002
von PRML ist die Erzeugung von extrem gut durchmagneti
mit der Generation 3, den Modellen 3590-H, ihren Abschluss.
sierten Bits auf dem Datenträger. Die Beschichtung der
Dabei wurde die Lese-Rückwärtskompatibilität der vorange
3592-Kassette im Zusammenhang mit den Flat-Lap-Köpfen
gangenen Generation, also für Kassetten, die mit dem B- oder
mit 10-fach höherer Induktionsstärke macht es möglich, solch
E-Modell beschrieben wurden, sichergestellt.
hochqualitative Bits zu erzeugen. Die 3592-Kassette ist auch das erste Medium, bei dem mit starker Induktion gearbeitet
Mit dem neuen H-Modell schrieb man 384 Spuren in noch
werden kann, ohne negative Erscheinungen wie z. B. weniger
verdichteterer Form auf die Kassette. Für die Extended Length
Kapazität zu bekommen. Damit kann man ca. 50 % mehr in
Cartridge bedeutete das eine Kapazität von 60 GB unkom
der Datenspur unterbringen und so 50 % mehr an Kapazität
primiert und 180 GB komprimiert (3 : 1). Die Datenrate von
auf Kassetten mit der gleichen Bandlänge und der gleichen
14 MB/s wurde beibehalten. Damit erreichte Magstar im Jahr
Spurzahl realisieren.
2002 dieselbe Spurdichte wie die LTO-Generation 1 im Jahr 2000.
Die Flat-Lap-Kopf-Technik verbessert das Schreib-/Lese signal zwischen Kopf und Band, weil eine wesentlich höhere
Mit dem von IBM im September 2003 neu angekündigten
Induktion ermöglicht wird. Vor und hinter der Kopfreihe wird
Kompaktlaufwerk 3592 wurde ein neues ‘Tape-Zeitalter’
zusätzlich ein Unterdruck erzeugt, der Staubpartikel, die
eingeleitet, dessen Dimension nur wenigen bis heute bewusst
sich – aus welchen Gründen auch immer – ansammeln, ent
ist! Schaut man aber genauer auf die integrierte Technologie
sprechend absaugt (‘Self Cleaning Machines’). Diese Kopf-
und auf die neue Beschichtungsart der 3592-Kassetten, kann
Technologie kam erstmals in vollem Umfang bei LTO2 zur
man diesen Entwicklungsschritt mit 1984 vergleichen. 1984
Anwendung und wurde in weitergehender Form im neuen
leitete die IBM den Wechsel vom Rollenband auf die Kasset
Laufwerk 3592 implementiert. Dadurch ist die Qualität der
tentechnologie ein. Mit der 3592-Technologie, die unter dem
erzeugten Bits wesentlich höher und die Möglichkeit, die Daten
Entwicklungsnamen ‘Jaguar’ entwickelt wurde, ergaben sich
wieder zu lesen, ist ziemlich unübertroffen in der Industrie.
technologische Möglichkeiten für Bandkassetten und den
Ebenso wird dadurch sichergestellt, dass selbst bei Lang
Einsatz von Bandlaufwerken, von denen bis dahin nur geträumt
zeitlagerung von Bändern nahezu kein Impulsverlust auftritt.
werden konnte. Das ‘Surface Control Guiding System’ ermöglicht eine ganz Das Laufwerk selbst hat neben der neuen Flat-Lap-Kopf-
exakte Führung der Schreib-/Leseelemente über Servobänder.
Technik, dem neuen, angepassten Guiding System mit Roller
Die Repositionierung der Elemente auf den Servospuren
Bearing und dem zeitgesteuerten Spurnachführungssystem
erfolgt über eine Zeitsteuerung, die über vorgeschriebene
mit Servobändern (alle drei Elemente sind auch im LTO2-
Analogsignale (Analogspuren) in den Servobändern und eine
und LTO3-Laufwerk integriert) erstmals PRML Encoding
Zeitmessung durchgeführt wird. Dadurch wird die Oberfläche
(Partial Response Maximum Likehood – siehe auch Techno
des Bandes für die Feinführung genutzt und nicht der Rand
logie-Anhang) implementiert, das eine Bit-Abbildung von 1:1
bereich des Bandes, wo bei klassischen Aufzeichnungen
auf Band erlaubt.
Servospuren aufgebracht waren. Damit lassen sich die Feh lerquellen vermeiden, die aufgrund der Bandspannung im Außenbereich auftreten können. Flat-Lap-Technik und das neue Guiding System wurden erstmals in den Produkten LTO2 und 3592 implementiert. PRML Encoding ist nur in der 3592 realisiert, weil die neue Beschichtung der 3592-Kas sette Voraussetzung für dieses neue Encoding-Verfahren ist.
66
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Mit 40-MB/s-Datenrate und unglaublich schnellen Spul- und
Flush. Die RABF-Marke verweist einfach in ein Spurset, das
Fast-Search-Zeiten entpuppte sich das IBM 3592-Laufwerk
vor einem liegt und eigentlich zum Schreiben noch gar nicht
in dieser Zeit als das schnellste und zuverlässigste Laufwerk
vorgesehen ist. In diesem neuen Spurset streamt das Lauf
auf dem Weltmarkt. Eine weitere Besonderheit der Jaguar-
werk einfach weiter, d. h., tröpfelt etwas in den Pufferspeicher
Technologie sind neue, funktionale Möglichkeiten, die sich
rein, wird zeitgleich eine Kopie auf Band in dem Spurset
aufgrund der 3592-Beschichtung implementieren ließen, weil
erzeugt, das noch nicht zum Schreiben vorgesehen ist. Da
ein 3592-Medium keine Limitierungen in der Benutzerhäufig
einfach weitergestreamt wird, unabhängig davon, ob Daten
keit hat. Mit der Funktion ‘Virtual Back Hitch’ können viele
kommen oder nicht, können natürlich regelrechte ‘Löcher’
Rücksetz-Zeiten beim File Retrieval und alle Start-/Stopp-
zwischen den tatsächlich weggeschriebenen Daten entstehen.
Positionierungszeiten bei einzelnen File-Transfers, die nicht
Den ganzen Vorgang könnte man auch als ‘Nonvolatile
sequenziell verarbeitet werden können, auf breiter Basis eli
Caching auf Tape’ bezeichnen, da parallel auf Band und in
miniert werden.
den Pufferspeicher geschrieben wird. Das Band stellt den stromunabhängigen NVS-Schreibspeicher dar und der Puf
Klassisch arbeitet ein Laufwerk so, dass immer über den Puf-
ferspeicher den Cache. Geht der Cache aus irgendwelchen
ferspeicher auf Band geschrieben wird. Das Laufwerk bekommt
Gründen kaputt, kann jedes Laufwerk trotzdem die auf Band
also Daten in den Pufferspeicher und über den sogenannten
geschriebenen Daten verarbeiten, da der Hinweis auf das
Flush-Buffer-Befehl die Instruktion, die bisher erhaltenen
Spurset über die RABF-Marke sichergestellt ist.
Daten auf Band rauszuschreiben. Ist dies geschehen, wird der Flush-Buffer-Befehl als Tapemark in der Spur hinterlegt.
Ist der Pufferspeicher nun zu 50 % voll oder kommt das
Sind keine zu schreibenden Daten mehr vorhanden, stoppt
Laufwerk ans Bandende, dreht das Laufwerk um und
das Laufwerk. Kommt wieder etwas in den Pufferspeicher
schreibt zurück. Ist der Pufferspeicher voll, wird der
mit dem entsprechenden Flush-Buffer-Befehl, kann der Befehl
gesamte Pufferspeicher nun sequenziell in das richtige
nicht sofort ausgeführt werden, weil das Laufwerk ja gestoppt
Datenspurset herausgeschrieben. Danach wird der Verweis
hat. Das Laufwerk muss jetzt zurücksetzen, um an dem Tape
der RABF-Marke aufgelöst, so, als ob nichts geschehen
mark, der zuletzt geschrieben wurde, in der Streamingge
wäre. Virtual Backhitch oder Nonvolatile Caching auf Tape
schwindigkeit zu sein, in der der Flush-Buffer-Befehl durchge
ist eine geniale Tape-Funktionalität, weil Repositionierungs
führt werden kann. Dieses Zurücksetzen wird als Backhitch
zeiten eingespart werden und zusätzlicher Bandstress ver
bezeichnet. Ein Backhitch ist also nichts ‘Gutes’, da er Zeit
mieden wird.
benötigt und das Band zusätzlich (vor allem im Außenbereich) stresst. Mit Virtual Backhitch werden in der 3592 solche Posi
Das 3592-Laufwerk selbst hat noch nie dagewesene
tionierungsvorgänge auf den minimalsten Level eingegrenzt!
Schock- und Vibrationseigenschaften und kann selbst bei hohen Erschütterungen noch sauber schreiben und lesen.
Wie funktioniert nun Virtual Backhitch: Stellt die Control Unit
Dies wurde durch eine selbstkalibrierende Aufhängung des
aufgrund der Pufferspeicherauslastung fest, dass nicht mehr
Laufwerks im Gehäuse realisiert.
im Streamingmodus gearbeitet werden kann, schreibt das Laufwerk in die momentane Spur eine sogenannte RABFMarke. RABF steht für Recursive Accumulative Backhitchless
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
67
1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS
Im November 2005 wurde die zweite Generation der Jaguar-
siger im Vergleich zu LTO3-WORM-Kassetten, bieten aber
Laufwerke verfügbar. Die 3592 Generation 2, die Marketing-
neben allen WORM-Sicherheiten den Vorteil, dass das Fort-
seitig als TS1120-Laufwerk (TS steht für Tape System)
schreiben immer möglich ist, auch wenn in dem Bereich,
bezeichnet wird, war und ist das erste Bandlaufwerk, das
wo fortgeschrieben werden muss, fehlerhafte Spuren oder
mit zwei 4-Gbit-FibreChannel-Schnittstellen angesteuert
Spurbereiche vorkommen sollten. Dies wird dadurch sicher
wird und dadurch auf komprimierter Basis eine Datenrate
gestellt, dass bei 3592-Kassetten auf den Servobändern
von 260 MB/s realisiert. Die bisher verwendete 8-Spur-Tech
nicht nur die WORM-Kennzeichnung aufgebracht wird, son
nik wurde auf 16-Spur-Technik umgestellt und die Induktion
dern zusätzlich sogenannte Appendflags, die für die Fehler
der Köpfe wurde nochmals verdoppelt, sodass noch ‘bessere’
korrektur herangezogen werden. LTO3-WORM-Kassetten
Bits auf dasselbe Medium geschrieben werden können. Die
arbeiten ohne Appendflags, d. h., gibt es beim Fortschrei
mit kurzer Bandlänge gestaltete 60-GB-Kassette wird beim
ben der Kassette fehlerhafte Bereiche, dann lässt sich die
Beschreiben mit der zweiten Generation zur 100-GB-Kassette
LTO-WORM-Kassette einfach nicht mehr weiterschreiben.
und die 300-GB-Kassette wird zur 500-GB-Kassette. Jaguar 2 schreibt mit einer unglaublichen Datenrate von 100 MB/s
Ende Oktober 2006 kündigte IBM eine neue 700-GB-Kas-
896 Spuren auf die 3592-Kassetten. Aufgrund der extrem
sette für die TS1120-Laufwerke an. Damit stehen jetzt drei
gut erzeugten Streufelder von Bits und Tapemarks konnte
Kassetten (überschreibbar und als WORM) zur Verfügung:
die Streaming-Geschwindigkeit beim High Speed Search auf
Die 100-GB-Kassette mit 120 Meter Bandlänge, die 500-GB-
10 ms erhöht werden. Das heißt, das Band spult bei einer
Kassette mit 609 Meter Bandlänge und die neue 700-GB-
File-Anforderung mit 36 km in der Stunde vor. Diese hohe
Kassette mit 825 Meter Bandlänge.
Geschwindigkeit ist einmalig im Markt und erlaubt trotz hoch kapazitiver Kassetten durchschnittliche Zugriffszeiten von
Mit der Markteinführung von LTO im Jahr 2000 kündigte IBM
27 Sekunden (100-GB-Kassette) und 46 Sekunden (500-GB-
ein neues Bandarchiv, die IBM 3584, für den unternehmens
Kassette). Auch der Stromverbrauch konnte auf 46 Watt re-
weiten Einsatz im Open-Systems-Bereich an. Im Laufe der
duziert werden. Vergleichbare Laufwerke benötigen heute
Folgejahre wurde die 3584 Library maßgeblich erweitert.
das Doppelte an Strom.
Heute stellt sie die strategische Library-Plattform der IBM dar. Seit Juni 2005 wird neben den Open-Systems-Plattformen
Auch die einmalige Funktion des Virtual Backhitch wurde
auch die zSeries (Mainframe) als Serverplattform unterstützt.
durch die Verwendung eines 512 MB großen Pufferspeichers
Sie machen aus der 3584 ein Bandarchiv, das unternehmens
(Generation 1 hatte Pufferspeicher) mit 128 MB und durch
weit für alle Rechnerplattformen eingesetzt werden kann und
zwei eingebaute Control Units weiter optimiert.
das aufgrund der hohen Leistungsfähigkeit und Flexibilität alle vergleichbaren Archivprodukte auf dem Markt in den
Im Vergleich zu LTO bietet die Jaguar-Technologie neben
Schatten stellt.
überschreibbaren Kassetten auch WORM(Write Once Read Many)-Kassetten an. 3592-WORM-Kassetten sind hochprei
IBM TS1120(3592 Generation 2)-Bandlaufwerk der Spitzenklasse
68
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
IBM 3592 WORM-Kassetten in platingrauer Farbe und WORM-Labels
1999 – 2005
2006 – 2010
Software
Anhang
IBM 3584 Doppelgreifer
In dem 3584 Archiv können sowohl LTO-Laufwerke und -Kassetten als auch 3592-Laufwerke und -Kassetten betrieben werden. Ebenso ist der Mischbetrieb in getrennten Frames möglich. Wie schon bei der älteren 3494 Library früher eingeführt, wurde das System im Frühjahr 2005 so erweitert, dass es mit zwei Robotersystemen betrieben werden kann, wobei der zweite Roboter immer im Active Mode betrieben wird. Dabei werden Zahlen von weit über 1.000 Mounts in der Stunde erzielt. Des Weiteren kann die 3584 mit zwei Robotersystemen nahezu unterbrechungsfrei mit Frames erweitert werden (max. IBM 3584 Grundeinheit mit Ein-/Ausgabestation
60 Sekunden, wobei kein Roboter Command verloren gehen
Auf der CeBIT in Hannover sorgte die 3584 immer wieder
kann).
für viele Menschentrauben. Viele können es nicht fassen, dass es technisch möglich ist, einen Roboter mit dieser
Seit Mai 2005 kann das 3584 Archiv auch an zSeries-Ser-
wahnsinnig schnellen Geschwindigkeit zu betreiben. Bei
ver angebunden werden. Dies gilt ausschließlich für den
einer Roboter-Service-Zeit von unter 3 Sekunden in einer
Betrieb von 3592-Laufwerken und wurde dadurch realisiert,
2-Frame-Konfiguration (Kassette holen, in ein Bandlaufwerk
dass an der 3584 jetzt mehrere Library Manager 3953 L05
laden, Kassette aus einem anderen Bandlaufwerk entladen
und J70 ESCON/FICON Controller betrieben werden kön
und ins Fach zurückbringen) ist es fast nicht möglich, die be-
nen. Im Gegensatz zur 3494 Library sind die Library Mana
wegten Kassetten mit dem bloßen Auge zu sichten. Schneller
ger und J70 Controller nicht mehr in die Library Frames inte
geht es wirklich nicht mehr!
griert, sondern werden in externen Frames 3953 F05 installiert und an die Library angeschlossen. Dies bietet eine
Diese Geschwindigkeit ist möglich, weil sich ein neu entwi
wesentlich höhere Konfigurationsflexibilität. Die 3584 unter
ckelter Greifer (IBM Patent) in die LTO- und 3592-Kassetten
stützt bis zu vier Library Manager und damit die Anbindung
in dort angebrachte Einkerbungen einhakt, die Kassetten in
von bis zu acht Virtual Tape Servern (3494-B10/B20).
einen Schacht zieht und der Greifer so lange verhakt bleibt, bis die Kassetten in ein Laufwerk oder an einen Stellplatz
Bei VTS-Spiegelungen (Peer to Peer VTS) kann jetzt auf der
zurückgebracht werden. Die Kassette kann also auch bei
primären Seite eine 3494 Library und auf der sekundären
höchsten Geschwindigkeiten oder schnellsten Drehungen
Seite eine 3584 Library oder umgekehrt stehen, d. h., im
nicht verloren gehen. Alle Roboterbewegungen sind Servo-
VTS-Peer-to-Peer-Spiegel-Betrieb ist der Mischbetrieb beider
kontrolliert, um diesen Geschwindigkeiten Rechnung zu tragen.
Libraries möglich.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
69
1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS
Für den Betrieb von Native-Laufwerken an zSeries-Systemen
Im Mai 2006 wurde die IBM 3584 im Zuge der Frame-Umstel
gibt es fast keine Limitierungen, da in der 3584 bis zu 64 x
lungen auf 4-Gbit-FibreChannel-Technologie in TS3500
J70-Controller mit bis zu 192 Laufwerken konfiguriert werden
(TS steht für Tape System) umbenannt und es stehen ent
können.
sprechende neue Frames zur Verfügung. Die Library IBM 3584 bzw. TS3500 wird von IBM selbst produziert. Mit der
Das 3584 Archiv bietet in jeglicher Hinsicht maßgebliche Vor
Umstellung auf 4-Gbit-Technologie wurde auch die RoHS-
teile im Vergleich zu herkömmlichen Libraries. Eine Multi
Konformität des TS3500 Library-Produktes bekannt gegeben.
pfad-Architektur mit direkter Anbindung von LTO- und 3592
Ebenso wurden die bis dahin verwendeten J70-Steuerein-
FibreChannel-Laufwerken ermöglicht das logische Partitio
heiten, die für die Anbindung von TS1120-Laufwerken an
nieren der Library (bis zu 192 Partitionen). Ebenso stehen die
den Mainframe benötigt wurden, durch neue RoHS-konforme
Optionen ‘Control Path Failover’ und ‘Data Path Failover’
leistungsstärkere C06-Steuereinheiten mit 4-Gbit-FICON-
zur Verfügung. Mit der Funktion ALMS (Advanced Library
Anschlüssen ersetzt. RoHS steht für ‘Restriction of Hazardous
Management System) können die logischen Partitionen
Substances’ und stellt ab dem 1. Juli 2006 eine gesetzlich
dynamisch vergrößert und verkleinert werden, unabhängig
kontrollierte EU-Richtlinie dar, die genau vorschreibt, welche
davon, wo die Laufwerke oder die Kassetten in der Library
Materialien, Legierungen, Barium-Derivate etc. in Neupro
untergebracht sind.
dukten eingesetzt werden dürfen. Diese neue Richtlinie gilt EU-weit und betrifft alle Neuprodukte in der Elektro- und IT-
Die WWN(World Wide Name)-Adresse ist den Laufwerk
Industrie, die ab dem 1. Juli 2006 neu vertrieben werden.
schlitten zugeordnet und erlaubt einen Laufwerkaustausch, ohne dass neu ‘gebootet’ werden muss.
Im mittleren und unteren Systemsegment produzierte IBM keine eigenen Libraries, sondern kaufte die ‘nackten’ Libra
Mit der Anbindung der 3584 an zSeries-Server signalisierte
ries über OEM-Verträge ein, um sie dann mit IBM LTO-Lauf
IBM klar, dass die 3584 mit ihrem einzigartigen Robotersys
werken auszustatten.
tem die strategische Library-Plattform für zukünftige Weiter entwicklungen darstellt. Von dieser Weiterentwicklung profi tiert aber auch die 3494 Library, die alle Erweiterungen erhält, die am Library Manager entwickelt werden. Ebenso wird die 3494 neben der 3584 alle geplanten neuen Laufwerkgenera tionen des 3592-Laufwerks integrieren (SOD vom Mai 2005).
IBM 3583 Modelle L18, L36 und L72, Kapazität mit LTO1-Kassetten bis 7,2 TB (native), ADIC vertrieb unter ADIC Logo das Produkt als Scalar 100
70
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Mit der Ankündigung der ersten LTO-Laufwerke im Jahr 2000
In die Mini-Library wurden 1 bis 2 LTO-Laufwerke eingebaut
wurden auch OEM Libraries und Autoloader angekündigt,
und es konnten bis zu 23 Kassetten verwaltet werden. Neun
die nach dem Umbau/Ausbau als IBM Logo-Produkt weiter
Kassetten hatten fest eingebaute Stellplätze, die anderen
vertrieben wurden. So wurden 1999 ein Autoloader der Firma
14 Stellplätze wurden über zwei herausnehmbare 7er-Kasset
ADIC als IBM 3581-Produkt und ein mittleres Archivsystem
tenmagazine abgedeckt.
auch von ADIC als IBM 3583 eingeführt. Der Autoloader war mit einem LTO-SCSI-Laufwerk (LVD oder HVD) ausgestattet
Im Mai 2006 wurde der OEM-Autoloader von ADIC durch
und konnte bis zu acht LTO-Kassetten verwalten. Das Archiv
einen neuen Autoloader der Firma BDT IBM 3581 ersetzt,
system 3583 konnte mit sechs LTO-Laufwerken ausgestattet
der auch bis zu acht Kassetten verwalten konnte, aber in
werden und je nach Modell 18 Kassetten, 36 und 72 Kassetten
Flachbauweise konstruiert war und dadurch sehr platzspa
verwalten. Am Anfang wurden ausschließlich SCSI-Lauf
rend in ein Standard-19-Zoll-Rack integriert werden konnte.
werke eingebaut. Um die Library an ein FibreChannel-Netz anschließen zu können, wurden über ein eingebautes FC-AL
Auch bei der Midrange-Library-Reihe musste bis 30. Juni
Gateway die bis zu sechs SCSI-Laufwerke ‘daisy chained’
2006 die Umstellung auf die neue, ab 1. Juli 2006 geltende
angeschlossen.
EU-RoHS-Richtlinie durchgeführt werden.
Diese FibreChannel-Anschlussweise der IBM 3583 verur
Die Library 3583 wurde bereits im Oktober 2005 durch eine
sachte bei bestimmten Host-FibreChannel-Adaptern Adres
neue Library TS3310 ersetzt. Die TS3310 stammt auch aus
sierungsprobleme. Deshalb wurde im Mai 2003 in der 3583
dem Haus ADIC, hatte vorbereitete 4-Gbit-Technologie inte
ein eigener IBM Controller eingebaut, der durch eine Multi
griert und war zum Verfügbarkeitszeitraum RoHS-konform.
pfad-Architektur erlaubte, direkt FC-Laufwerke in der Library
Am Anfang konnte die Library nur mit der Grundeinheit, einer
zu betreiben und die Library zu partitionieren. Bis zu drei
Erweiterungseinheit und bis zu sechs LTO3-Laufwerken und
logische Partitionen waren in der 3583 möglich.
122 Kassettenstellplätzen konfiguriert werden, im Mai 2006 wurden dann die Erweiterungen bis zum Maximalausbau mit
Im Mai 2004 wurde dieses Midrange-Library-Portfolio ergänzt
bis zu vier Erweiterungseinheiten und damit bis zu 18 LTO3-
durch eine Mini-Library, die IBM 3582. Die Library ist ein
Laufwerken und bis zu 398 Kassettenstellplätzen bekannt
OEM Produkt der Firma ADIC. Sie ist ausgestattet mit dem
gegeben. IBM verwendet bei dieser neuen Library wiederum
IBM Controller für die Anbindung von FC-LTO-Laufwerken
einen eigenen FC-Controller für die Anbindung der Lauf
und bietet die Möglichkeit, mit zwei logischen Partitionen
werke. Damit ist die Library partitionierbar und es können
betrieben zu werden.
bis zu 18 logische Partitionen betrieben werden. Die Zuord nung von Laufwerken und Stellplätzen auf logische Partitionen ist wesentlich flexibler als beim Vorgänger 3583.
IBM 3581 Modelle L28 und F28, Autoloader der Firma BDT
1952 – 1961
1962 – 1974
1975 – 1993
IBM 3582 Mini-Library mit bis zu 23 LTO-Kassetten. ADIC vertrieb unter ADIC-Logo das Produkt als Scalar 24
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
71
1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS
Tape-Virtualisierung im Open-Systems-Umfeld Tape-Virtualisierung war bisher nur im Mainframe-Umfeld sinnvoll (siehe VTS Virtual Tape Server). Mit der Zunahme der Geschwindigkeit und der Datenrate, wurde es immer schwieriger, die Geschwindigkeit solcher Laufwerke auch maximal auszunutzen. Ein LTO3-Laufwerk arbeitet heute mit 80 MB/s, ein Jaguar-Laufwerk TS1120 sogar mit 100 MB/s (native). Um diese hohen Laufwerkgeschwindigkeiten auch maximal nutzen zu können, werden zunehmend Plattenpuf fer als Zwischenspeicher eingesetzt. Um eine geeignete, sinnvolle Backup-Konzeption zu etablieren, muss zwischen dem klassischen Backup über das IP-Netz (LAN-Backup) und dem LAN-free-Backup, wo die Daten über ein Fibre Channel-Netz (SAN) auf die Bandlaufwerke übertragen werden, unterschieden werden. Wird der Backup klassisch über das LAN gefahren, ist die sinnvollste Art einer Virtualisierung, den IBM TSM (Tivoli Die neue IBM Midrange Library IBM TS3310 mit bis zu 18 LTO3-Laufwerken und maximal 398 Kassettenstellplätzen, hier mit einem Erweiterungsframe. ADIC vertreibt unter ADIC-Logo das Produkt als ADIC 500i
Storage Manager) einzusetzen, über den TSM-Server auf einen Plattenpuffer zu sichern und unter Kontrolle des TSM vom Plattenpuffer auf Band zu migrieren. Diese Funktionali
Im Zuge der gesamten RoHS-Umstellung wurde sowohl der
tät hat der TSM schon seit vielen Jahren. Auf diese Weise
Autoloader von BDT IBM 3581 als auch die Mini-Library von
können die hohen Geschwindigkeiten der Laufwerke genutzt
ADIC IBM 3582 durch neue Produkte der Firma BDT ersetzt.
werden. Der Vorteil dieser Lösung liegt in der Automation, weil
Die 3581 wurde durch die IBM TS3100 ersetzt, ein neuer
man alle Policy-Regeln des TSM entsprechend nutzen kann.
Autoloader mit einem 4-Gbit-Fibre-LTO3-Laufwerk und bis zu 22 Kassettenstellplätzen. Die Mini-Library 3582 wurde durch
Im LAN-free-Bereich macht eine Virtualisierung dann Sinn,
die IBM TS3200 ersetzt, die bis zu zwei 4-Gbit-LTO3-Lauf
wenn viele LAN-free-Clients betrieben werden, denn jeder
werke und bis zu 44 Kassetten aufnehmen kann. Die TS3200
LAN-free-Client benötigt ein dediziertes Bandlaufwerk. Betreibt
besitzt dieselbe Partitioniermöglichkeit wie ihr Vorgänger.
ein Rechenzentrum den Backup mit vielen LAN-free-Clients, benötigt man dieselbe Anzahl an physikalischen Laufwerken,
Damit sind alle Library-Produkte und -Bandlaufwerke, die IBM
und das kann teuer werden. Hier machen virtuelle Band
vertreibt, durchgängig auf 4-Gbit-Technologie umgestellt
archive Sinn, weil man viele virtuelle Laufwerke zur Verfügung
und entsprechen der EU-RoHS-Richtlinie, die am 1. Juli 2006
hat. Um diesem Umstand gerecht zu werden, kündigte IBM
für Neuprodukte in Kraft getreten ist.
im Oktober 2005 das virtuelle Bandsystem TS7510 für OpenSystems-Umgebungen an.
IBM TS3200
72
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Band-Virtualisierung für Open Systems (Virtual Tape Library VTL) Das virtuelle Bandarchiv TS7510 besteht aus mehreren wichtigen Komponenten und ist Server-basierend aufgebaut. Als Server werden xSeries-Rechner mit einem Linux-Kernel eingesetzt. Die Maschine kann mit einer (Single) oder zwei xSeries (Dual-Server-Konfiguration) ausgestattet werden. Die Dual-Server-Konfiguration bietet die Möglichkeit des ‘Active Failover und Failback’. Die eingesetzten Server stellen die virtuelle Einheit dar und emulieren virtuelle Bandlaufwerke. Bis zu 512 virtuelle Laufwerke werden pro Rechnereinheit emuliert. Bei einer Dual-Server-Konfiguration werden bis zu 1.024 virtuelle Laufwerke emuliert. Abgebildet werden LTO2-, LTO3- und 3592(Jaguar 1)-Laufwerke. Es stehen bis zu 128 virtuelle Libraries und bis zu 8.192 virtuelle Volumes zur Ver fügung, also pro Rechnereinheit 64 virtuelle Libraries und 4.096 virtuelle Volumes. Geschrieben wird in einen Plattenpufferspeicher. Hierzu sind in dem Gehäuse zwei Platten-Controller und entsprechende Plattenerweiterungseinschübe auf Basis der DS4000 einge baut. Das erste Frame wird mit einem zweiten Frame erweitert, wenn größere Kapazitäten notwendig werden. Die Minimal konfiguration erlaubt 5 TB nutzbaren Plattenplatz und kann auf die maximale Konfiguration von bis zu 46 TB ausgebaut werden. Insgesamt stehen acht 2-Gbit-Ports zur Verfügung, vier für den Plattenzugriff und vier für den Host und die phy sikalischen Bandlaufwerke. Spiegelungen der Maschine
Vituelle Tape Library IBM TS7510
können über zwei 1-Gbit-Ethernet-Ports über das IP-Netz durchgeführt werden (Remote-Replikation). Dabei kann mit Compression und Encryption als Zusatzoptionen gearbeitet werden.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
73
1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS
Archivierungslösungen
Bereits 1982 gründeten IBM und Sony eine Entwicklungsallianz
Archivierung von Informationen ist schon ein sehr altes
mit dem Ziel, optische Technologien gemeinsam weiterzu
Thema, denkt man an die Höhlenmalereien der Grotte Chau
entwickeln. So enstanden im IT-Umfeld Anfang der 90er-
vet im Vallon Pont d’Arc in Südfrankreich, die auf ca. 31.000
Jahre optische Archivierungsmöglichkeiten, sogenannte ‘Juke’-
Jahre geschätzt werden – die wohl erste Überliefung von
Boxen mit optischen Platten und entsprechenden Schreib-/
Informationen aus Menschenhand.
Lesegeräten, die sich in dieser Zeit auch als Archivierungs einheiten zur Langzeitarchivierung durchsetzten. Es etablierten
Die Techniken, der Nachwelt Informationen zukommen zu
sich drei unterschiedliche optische Medien, die WORM-Platte
lassen, haben sich seitdem stets verbessert. Zunächst wurden
(Write Once Read Many), die magneto-optische Platte MO
Information in Stein gemeißelt und in Ton gebrannt, bis die
und die ‘Schein-WORM’-Platte, die sogenannte CCW(Conti
Ägypter ca. 4.000 Jahre vor unserer Zeit das Papyrus – den
nuous Composite WORM)-Platte, eine magneto-optische
Vorgänger des heutigen Papiers – entdeckten, um in ein
Platte, die bei der Herstellung eine Kennzeichnung bekommt,
facher Technik, Informationen darauf festzuhalten. Mit fort
die sicherstellt, dass das Medium nicht versehentlich über
schreitender Technik war es nun auch möglich, mehr Informa
schrieben wird.
tionen zu speichern und der Nachwelt zu hinterlassen. Denken wir nur an das Alte Testament, das einen Zeitraum von ca.
Bereits 1992 begann man, die für die IT-Branche entwickelten
2.000 Jahren vor Christi Geburt umfasst und aus insgesamt
Formate WORM, MO und CCW, basierend auf der Rote-Laser-
zwölf Büchern besteht.
Technik, zu standardisieren. Ein ISO-Standardisierungsgre mium bildete sich und selbst der deutsche DIN bildete den
Mit der Erfindung des Buckdrucks durch Johannes Guten
NI23-Arbeitskreis, einen Ausschuss des deutschen DIN zur
berg aus Mainz, Mitte des 15. Jahrhunderts, war es dann
Normierung von optischen Datenträgern, der der internatio
auch möglich, Informationen einfach zu vervielfältigen, was
nalen ISO direkt zuarbeitete und seine entsprechende Posi
zu vielen interessanten Überlieferungen beigetragen hat und
tion abgab. Die als 1 x Standard verabschiedete ISO-Norm
natürlich auch zum Wachstum an Informationen.
reflektierte eine 650-GB-Platte in allen drei Formaten, mit dem
>>
>> >>
Entwicklung der optischen Technologien in den 90er-Jahren
74
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
IBM 3995 optisches Archivierungssystem mit den einzelnen Modellvarianten mit 8 x Standard
2 x Standard kam die 1,3-GB-, mit dem 4 x Standard die
Nach der Verabschiedung des 8 x Standards passierte viele
2,6-GB-Platte. 1998 wurde der letzte Standard als 8 x Stan
Jahre nichts mehr bezüglich einer sinnvollen Standardisierung.
dard verabschiedet, der immer noch auf dem roten Laser
Dies lag darin begründet, dass ein 16 x Standard technisch
basierte. Der 8 x Standard bot auf allen drei Formaten
nicht realisierbar war, da der rote Laser in diesem Bereich
5,2 GB Kapazität pro Platte.
eine Streuung zeigte, die es nicht zuließ, auf einem nach 8 x Standard erzeugten Pit durch Optimierung der Laserfre
Um Rückwärtskompatibilität zu gewährleisten, war der Stan
quenz 4 Pits unterzubringen. Auch trug der technologische
dard so gestaltet, dass Medien des 1 x Standards sowohl
Wechsel zur Blaue-Laser-Technik (auch ‘Blue Ray’ genannt)
lese- als auch schreibmäßig von Schreib-/Lesegeräten des
dazu bei, dass ein noch realisierbarer Standard in Rote-
2 x Standards verarbeitet werden konnten und selbst der
Laser-Technik als 12 x Standard nicht weiterverfolgt wurde.
4 x Standard noch in der Lage war, Medien des 1 x Standards zu lesen. Mit dem 8 x Standard kam der Bruch, da nicht mehr
Hier noch ein wichtiger Hinweis, der zeigt, wie tief IBM in
vorgesehen war, Medien des 1 x Standards auf Schreib-/
der Entwicklung von optischen Technologien engagiert war.
Lesegeräten des 8 x Standards verarbeiten zu können.
Der heutige blaue Laser ist ein IBM Patent, das aus einer gemeinsamen Entwicklung von IBM und Sony hervorging.
Mitte der 90er-Jahre wurde die WORM-Platte – vom Gesetz geber anerkannt für viele Archivierungsanforderungen – mit
Im Jahr 2000 ergab sich in Deutschland eine massive Ände
einer Haltbarkeit von 300 Jahren spezifiziert. Viele Unter
rung für die Langzeitarchivierung. Die GDPdU-Richtlinie
nehmen gingen dazu über, Langzeitarchivierung auf diesen
wurde verabschiedet und im Jahr 2001 nochmals genauer
optischen Juke-Boxen zu betreiben. IBM bot auf diesem
verifiziert. Diese Richtlinie nahm Abschied von der Vorgabe,
Gebiet das IBM 3995 optische Archivsystem an.
bei bestimmten aufzubewahrenden Daten optische WORMMedien zu verwenden. Damit war der Weg frei, neue Lösungs konzeptionen zu entwickeln, die nicht unbedingt auf optischen Technologien aufgebaut sind.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
75
1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS
Wenn die Archivierung gesetzlichen Bestimmungen und
Aufgrund der veränderten Bedingungen für die Langzeitarchi
Anforderungen unterliegt, spricht man auch von revisionssi
vierung kündigte IBM das System DR450 im Oktober 2003
cherer Archivierung. In vielen Bereichen erkennt der Gesetz
an. Das System wurde mit Standardkomponenten aufgebaut
geber die digitale Archivierung als revisionssicher an, stellt
und als Langzeitarchivierungslösung für den Open-Systems-
aber gleichzeitig auch Anforderungen an die Art und Weise
Bereich zur Verfügung gestellt. Die Lösung bestand aus
der Archivierung. In Deutschland gibt es z. B. die Grund-
zwei pSeries-p615-Servern, die in einem hochverfügbaren
sätze zum Datenzugriff und zur Prüfbarkeit digitaler
HACMP-Cluster (AIX-Betriebssystem) zusammengefasst waren.
Unterlagen (GDPdU). Viele Gesetze und Bestimmungen
Auf diesen Servern war der IBM Tivoli Storage Manager für
stellen allgemeine Anforderungen an die revisionssichere
Data Retention aufgesetzt, der sicherstellte, dass die archi
Archivierung. Zumeist werden die Aufbewahrungszeiträume
vierten Dateien und Dokumente innerhalb der Aufbewah
von archivierten Daten vorgeschrieben. Weiterhin muss
rungsfrist nicht gelöscht oder modifiziert werden. Die Daten
sichergestellt sein, dass die Daten im digitalen Archiv nicht
wurden auf SATA-Platten (siehe auch Technologie-Anhang)
verändert oder gelöscht werden können – in einer Welt mit
einer FAStT600 mit EXP100-Erweiterungseinheiten abge
zwei bis drei neuen Computerviren pro Tag gar keine so
speichert. Kapazitäten von 3,5 TB bis 56 TB konnten konfi
einfache Sache. Einige Bestimmungen schreiben auch vor,
guriert werden. Das Magnetplattensystem war über ein
Kopien der Originaldaten in getrennten Räumen zu erstellen.
redundant ausgelegtes, FibreChannel-basierendes SAN an
Revisionssicherheit bedeutet natürlich auch, dass die Inte
die Server angeschlossen. Optional konnten an diesem SAN
grität der Daten zu jeder Zeit nachweislich gewährleistet ist.
auch IBM 3592 Bandlaufwerke mit entsprechenden WORM-
Es muss also auch anhand von Protokollen nachgewiesen
Kassetten und/oder überschreibbaren Kassetten betrieben
werden, dass die Daten dem Original entsprechen. Die ein
werden.
gesetzte Technologie zur Archivierung wird aber heute von fast keinem Gesetz oder einer Bestimmung vorgeschrieben.
Bereits im Jahr 2005 kam die Weiterentwicklung der DR450 mit der DR550 auf den Markt, die im Jahr 2006 mit
In einigen Fällen, z. B. im medizinischen und pharmazeu
allen seinen Komponenten auf RoHS-Konformität umgestellt
tischen Bereich, müssen Daten 30 Jahre und länger archi
wurde.
viert werden. Eine Frage, die sich daraus ergibt, ist: Gibt es ein digitales Archiv, das auch in 30 Jahren noch Bestand
Das IBM DR550-System besteht heute aus den IBM Standard-
hat? Eine zeitgemäße Antwort darauf ist, dass die Informati
Software- und Hardware-Komponenten AIX, SSAM, pSeries
onen von Zeit zu Zeit auf neue Systeme und Technologien
p52A, den SAN-Komponenten 2005-B16, Disk System DS4700
überführt werden müssen. Überführung von Informationen
und Disk-Erweiterungseinheiten EXP810. Optional kann man
und informationsverarbeitenden Systemen auf neue Systeme
ein hochverfügbares DR550-System bestellen. Dabei beinhal
und Technologien – nachfolgend auch Migration genannt –
tet das System zusätzlich noch die Cluster-Software HACMP.
ist heutzutage der einzige Weg, um die Daten auch in 30
Der Vorteil dieses Konzepts liegt auf der Hand: Der Anwen
Jahren noch lesen zu können.
der erhält ein System, dessen Komponenten schon lange im Markt erprobt sind. Kernkomponente von DR550 ist der System Storage Archive Manager, ein Derivat vom Tivoli Sto rage Manager for Data Retention, der jegliche Veränderung oder Löschung von Informationen verhindert und somit die revisionssichere Speicherung erlaubt.
76
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
In der Produktfamilie IBM System Storage™ DR550 gibt es drei Modelle: •• Das DR550-Express-System ist eine Einstiegslösung, die aus einer IBM pSeries Model 52A besteht mit internen SCSI-Festplatten, die als RAID5 konfiguriert sind. Mit dem DR550 Express Model wird ein Monitor-Kit mit Keyboard
IBM DR550 Express
und Maus geliefert sowie ein SAN Switch 2005-B16, der für
Die Anbindung des Archivsystems IBM DR550 an die Anwen
den Anschluss von Tape oder einer Disk-Erweiterungs
dung erfolgt über das Tivoli Storage Manager for Data Reten
einheit vorgesehen ist. Ein DR550-Express-System erhält
tion API (Application Programming Interface). Typische Anwen
man mit einer Einstiegskapazität von 1,1 TB (brutto). Das
dungen, die Daten auf einem DR550-System zu archivieren,
System kann um 4 TB oder 8 TB (brutto) erweitert werden,
sind Dokumenten-Management-Systeme, wie z. B. IBM Con
durch den Anschluss eines DS4700-RAID5-Systems. Ein
tent Manager oder Enterprise-Content-Management-Systeme,
entsprechender Einbauschrank kann optional mitbestellt
wie z. B. Opentext Lifelink Enterprise Archive Server. Das TSM
werden.
API steht dem Anwender frei zur Verfügung. Alle Anwen
•• Das DR550-Single-Node-System besteht aus einem Ein-
dungen, die das TSM API implementiert haben – gleichgültig
bauschrank, in dem eine IBM pSeries p52A, ein SAN Switch
auf welcher Plattform diese Anwendung betrieben wird – kön
2005-B16, ein Disk System DS4700 und optional ein oder
nen Datenobjekte auf der DR550 archivieren und lesen.
mehrere EXP810 eingebaut und fertig konfiguriert sind. Ein Single-Node-System kann man mit einer FestplattenKapazität von 8 TB oder 16 TB bestellen und bis auf 112 TB (brutto) ausbauen. •• Das DR550-Dual-Node-System besteht aus den gleichen Komponenten wie das Single-Node-System, mit dem Unterschied, dass alle Komponenten redundant (doppelt) ausgelegt sind. D. h., in den Einbauschrank sind zwei IBM p52A und zwei SAN Switches 2005-B16 eingebaut und redundant konfiguriert. Ein Dual-Node-System kann man mit einer Festplatten-Kapazität von 8 TB oder 16 TB bestellen und bis auf 112 TB (brutto) ausbauen. Es handelt sich hierbei um ein hochverfügbares System. Die Informationen werden innerhalb der DR550 auf Festplat ten gespeichert – optional auch verschlüsselt – und erlauben schnelle Zugriffzeiten. Die Performance aus Anwendersicht kann mithilfe der Multiobjekt-Transaktion noch gesteigert werden, insbesondere, wenn viele Objekte mit einem Male gelesen oder geschrieben werden. Dabei werden innerhalb einer Transaktion mehrere Objekte gespeichert oder gelesen. Mandantenfähigkeit lässt sich mit SSAM auch realisieren. Das erlaubt die logische Trennung von Speicherbereichen für verschiedene Klienten und auch das Reporting von benutzter Speicherkapazität. Dabei ist sichergestellt, dass ein Klient nur auf die Daten zugreifen kann, die in seiner Partition gespei chert sind. IBM DR550-Dual-Node-System
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
77
1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS
pondenz, Office-Dokumente, Faxe, Präsentationen, Audio- und Videodateien etc. verwalten kann. Ebenso ist eine Anbindung an SAP zur Dokumenten- und Datenarchi vierung möglich. Auf diese Weise kombiniert das Komplett paket modernste Technologie mit einem raschen ROI sowie höchster Investitions- und Zukunftssicherheit. Das Komplettpaket besteht aus der benutzerfreundlichen und
DR550 File System Gateway
leistungsfähigen E-Mail-Archivierungslösung IBM Common Im Mai 2007 kündigte die IBM für die DR550 ein File Sys-
Store für Lotus Domino und Microsoft Exchange sowie dem
tem Gateway an. Über das DR550 Gateway kann ein Datei
IBM Content Manager als Basis-Repository. Hinzu kommt ein
system aufgebaut werden, in dem die Daten vor dem Über
IBM System x3650 Server mit Intel Xeon Quadcore-Prozes
schreiben geschützt sind. Das Gateway wird vorkonfiguriert
soren, der speziell für anspruchsvolle Aufgaben im Unter
ausgeliefert. Nach außen wird ein CIFS- oder NFS-Dateisy
nehmenseinsatz wie z. B. Enterprise Content Management
stem ausgegeben. Die Gateways können ‘geclusteret’ wer
(ECM), Virtualisierung, Enterprise Resource Planning (ERP)
den, um eine HA-fähige (High Availability) Lösung aufzu
oder Datenbankanwendungen entwickelt wurde. Als Spei
bauen.
cherkomponente dient das IBM System Storage DR550, das eine leistungsfähige Funktionalität zur Ablage relevanter
Im August 2007 stellte IBM der DR550 750-GB-SATA-Plat-
Dokumente gemäß gesetzlicher Aufbewahrungsfristen und
ten zur Verfügung. Mit diesen neuen großen Platten kann
-vorschriften auf magnetischen Speichermedien bietet. Die
eine DR550 auf bis zu 168 TB Kapazität ausgebaut werden.
DR550 unterstützt dabei eine nicht löschbare und nicht wieder beschreibbare Datenspeicherung.
Seit August 2007 stehen mit der DR550 Komplettlösungspakete für die E-Mail-Archivierung zur Verfügung. Diese
Im Februar 2008 machte IBM die DR550-Lösung als
Komplettlösungen für Lotus Domino und Microsoft Exchange
Maschine mit zwei Modellen DR1 und DR2 in der Version 4.5
adressieren die Anforderungen kleinerer und mittelständischer
verfügbar. Dies zeigt deutlich, dass IBM stark in das Infor
Unternehmen. Das Lösungspaket aus einer Hand enthält
mation-Retention-Segment investiert. Durch die erweiterte
aufeinander abgestimmte, skalierbare Software- und Hard
Nutzung des System Storage Archive Managers (SSAM) für
ware-Komponenten der IBM und kann rasch implementiert
policy-basierten Information-Retention-Betrieb ermöglicht
werden. Basierend auf unternehmensspezifischen Aufbe
die DR550 eine transparente und automatisierte Bewegung
wahrungs- und Zugriffsprofilen, ermöglicht die Lösung eine
archivierter Daten zwischen verschiedenen Speicherklas
sichere Verwaltung und Archivierung von E-Mails einschließ
sen. Dadurch können Kosten eingespart werden, ohne die
lich Dateianhängen in deren gesamten Lebenszyklus. Dabei
Sicherheit der archivierten Daten zu gefährden. Das inzwi
wird sowohl geschäftlichen Anforderungen als auch natio
schen preisgekrönte System ist jetzt als Maschine verfügbar.
nalen oder internationalen Compliance-Vorschriften Rech
Es stehen zwei Modelle zur Verfügung: Die DR1 besteht aus
nung getragen und ebenso den Wünschen vieler Unterneh
einem 25U-Einheiten großen Rack, ist vorintegriert und eig
men nach einer Optimierung des Speicherbedarfs und der
net sich besonders für mittelständische Kunden. Die DR2
Reduzierung von Administrationskosten. Das Komplettpaket
wurde speziell für Großunternehmen entwickelt und ist in
zur E-Mail-Archivierung für den SMB-Bereich (Small and
einem größeren 36U-Einheiten-Rack untergebracht. Die DR2
Medium Business) ist jederzeit zu einer umfassenden Archi
bietet Single- oder Dual-Node-Konfigurationsoptionen für
vierungslösung erweiterbar, die sämtliche unstrukturierten
höhere Verfügbarkeit und Skalierbarkeit.
Unternehmensinformationen wie z. B. digitalisierte Korres
78
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software Anhang
Software Anhang
Die physikalische Anbindung der DR550 an die Server
Die DR550 bietet auch den Anschluss anderer externer
systeme erfolgt über Ethernet-Schnittstellen und basiert auf
Speichertechnologien wie z. B. WORM Tape oder optische
dem TCPIP-Protokoll. Standardmäßig wird ein Ethernet Inter
Speicher. Generell wird empfohlen, dass ein externes Gerät
face benutzt. Wahlweise können aber auch 2 oder mehr
eine Native-WORM-Funktionalität besitzt, wenn es an ein
Ethernet Interfaces angeschlossen werden, was eine Ska
DR550-System angeschlossen wird.
lierbarkeit des Datendurchsatzes erlaubt. Der Anschluss von Bandlaufwerken an die DR550 erfolgt Das TSM API im Zusammenwirken mit SSAM bietet der An-
über das SAN. Die Anbindung von WORM Tape hat zwei
wendung verschiedene Möglichkeiten zur Kontrolle der Auf
entscheidende Vorteile für den Anwender:
bewahrungszeit. So kann eine Anwendung unter Benutzung der Ereignis-basierenden Aufbewahrungsregel Datenobjekte
1. Kopien der Daten können auf WORM Tape geschrieben
mittels Event löschen. Natürlich nur unter der Bedingung,
werden und in einem anderen Brandabschnitt
dass die konfigurierbare Mindestaufbewahrungszeit für das
katastrophensicher aufbewahrt werden.
Datenobjekt bereits abgelaufen ist. Mithilfe der chronolo
2. Wenn die Daten auf Festplatte in der DR550 ‘altern’ und
gischen Aufbewahrungsregel sorgt SSAM für die Löschung
somit die Zugriffe seltener werden, können sie auf WORM
der Daten nach Ablauf einer festgelegten Aufbewahrungszeit.
Tape ausgelagert werden. Die Tapes benötigen weniger
Die Aufbewahrungsregeln werden dabei in sogenannten
Strom, Wartung und Austausch und sind somit viel kosten-
Management-Klassen definiert, die Anwendung weist ein
günstiger als Festplatten.
Objekt dann nur noch einer Management-Klasse zu, wodurch dem Objekt die entsprechende Aufbewahrungszeit zugeord net wird. Mit dem zusätzlichen Löschschutz, einer weiteren Option des TSM API, kann die vordefinierte Aufbewahrungs regel für Objekte außer Kraft gesetzt werden. Damit kann verhindert werden, dass ein Objekt nach Ablauf der normalen Aufbewahrungsfrist gelöscht wird.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software Anhang
Software Anhang
79
1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS
Modell 174
Modell 80
Modell 32
IBM 3996 optische Archive – 960 GB bis 10,4 TB
Im Herbst 2003 wurde endlich ein neuer Standard, basierend
Es bleibt abzuwarten, ob – basierend auf der Blaue-Laser-
auf dem blauen Laser, auf dem Markt verfügbar. Der neue
Technik – ein klassischer optischer 4 x Standard verabschiedet
1 x Standard reflektierte eine 30-GB-Platte in den bisher
wird, da inzwischen andere Lösungsoptionen für die Lang
klassischen Formaten WORM, MO und CCW. Die Firma Plas
zeitarchivierung auf dem Markt etabliert sind.
mon, die auch sehr aktiv in der Standardisierung der neuen Blaue-Laser-Technik mitwirkte, bot als erste Firma im Jahr
Hinzu kommt noch die Tatsache, dass, ebenfalls auf Blaue-
2004 Juke-Boxen mit den neuen optischen Platten an. Im
Laser-Technik basierend, der Standard der ersten hologra
Herbst 2005 kam ein OEM-Vertrag zwischen Plasmon und
fischen Platte mit einer Kapazität von 150 GB im XY-Format
IBM zustande, der es IBM erlaubt, diese Juke-Boxen unter
im Jahr 2003 verabschiedet wurde, Anfang 2005 bereits
IBM Logo zu vermarkten. Am Anfang war der Verkauf zum
der 2 x Standard mit einer 500-GB-Platte und Ende 2005
Anschluss an iSeries-Server beschränkt, seit Juni 2006 kön
ein 2 x Standard als Zusatzstandard für die ‘Consumer’-
nen die Juke-Boxen auch an pSeries-basierende Server
Industrie in Form einer 300-GB-Platte. Holografische CDs
angeschlossen werden. Mit den Modellen 32, 80 und 174
und CD-ROMs lassen sich aufgrund der verwendeten Poly
bietet die IBM 3996 Kapazitäten von 960 GB bis 5,2 TB an.
merbeschichtung (Kunststoff) wesentlich kostengünstiger
Im August 2007 kündigte IBM für die 3996 optischen Archiv
produzieren als z. B. klassische DVDs oder im IT-Umfeld
systeme die Verwendung der neuen optischen Platten mit
verwendete WORM-, MO- oder CCW-Platten.
60 GB in den Formaten WORM, MO und CCW an. Die neue Plattengeneration reflektiert den 2 x Standard, basierend auf der blauen Laser-Technologie. Damit skaliert die IBM 3996 auf eine Kapazität von bis zu 10,4 TB. Die kapazitiven Mög lichkeiten liegen also deutlich unter den Möglichkeiten einer DR550.
80
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Neue NAS-Produkte
Die IBM Nseries bietet Antworten auf die Fragen der Ver
Das Jahr 2005 war durch eine weitere Überraschung geprägt.
einfachung der Storage-Infrastrukturen und des zentralen
Am 4. April 2005 wurde eine enge Kooperation und Allianz
Datenmanagements, des Backups der Daten und deren ein
zwischen IBM und der Firma Network Appliance bekannt
fachster Wiederherstellung.
gegeben. Diese Allianz ermöglicht IBM, alle NetApp-Produkte als IBM Logo-Produkte zu vertreiben. Da IBM bisher auf dem
IBM läutet mit der Nserie die Konvergenz der Speicherwelten
Gebiet des NAS (Network Attached Storage) nur begrenzt
ein. Stand NAS für ‘Einfachheit’ und Funktionsvielfalt, so
aktiv war, ermöglicht diese Partnerschaft IBM, auf dem Gebiet
wurden beim Thema SAN Argumente wie High Performance,
des ‘File-Servings’ ein breites Storage-Lösungsportfolio anzu
Skalierung und Ausfallsicherheit genannt. Mit der Nseries
bieten. Am Anfang waren nur die kleinen NetApp-Geräte
werden nun diese Unterschiede aufgehoben.
unter IBM Logo verfügbar, seit Ende 2005 die Geräte mittlerer Leistungsklasse, seit Juni 2006 entsprechende Gateways und
Es stehen dabei generell zwei Modelltypen zur Verfügung.
seit August 2006 die Hochleistungsgeräte und damit nahezu
Systeme mit internen Diskdrives (Filer) und Systeme, die
die gesamte Produktpalette von NetApp.
externe SAN-Disk-Ressourcen verwenden, die sogenannten NAS-Gateways. Die Skalierung der beiden Systemreihen reicht von Entryüber Midrange- hin zu Enterprise-Storage-Kapazitäten und Anschlussmöglichkeiten. Als herausragendes Merkmal sei erwähnt, dass alle Systeme dasselbe Betriebssystem Data ONTAP nutzen. Die Nseries-Produkte bieten eine große Möglichkeit, Server im Netzwerk mit ihren spezifischen Zugriffsprotokollen anzu schließen. Diese umfassen die NAS-File-I/O-Protokolle (CIFS, NFS) sowie die Block-I/O-Protokolle iSCSI und FCP. Die Nseries bietet eine enorme Flexibilität in Bezug auf die Ausbaustufen und die Möglichkeit, verschiedene Disk-Tech nologien für die jeweilige Lösung zusammenzustellen. FiberChannel Diskdrives und SATA Diskdrives können gemischt werden. Eine Nseries, bestückt mit FibreChannel Disks, kann so für ein Mission-Critical-, High-Performance- und Transaktionsorientiertes Umfeld eingesetzt werden. Nseries, bestückt mit SATA Diskdrives, kann die ideale Wahl für Kunden sein, die eine Disk-to-Disk-Backup-Möglichkeit suchen oder sich für Archivierung interessieren. Alle Nseries-Systeme nutzen ein einziges Betriebssystem mit einer enormen Vielfalt von weiteren, zusätzlichen SW-Opti onen, angefangen vom Storage- und System-Management, über Inbound- und Outbound-Copy-Services bis hin zur kompletten D/R-Lösung mit integrierten Backup-Funktionen.
IBM Nseries N5000 und Nseries N7000
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
81
1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS
Die Hochleistungssysteme Nseries 7000 bestehen aus der N7600, die kapazitiv bis 420 TB (bis zu 672 LUNs) skaliert, und der N7800, die auf bis 504 TB (bis zu 672 LUNs) ausge baut werden kann. Bei der N7600 werden vier 2,6-GHz-AMDOpteron-Prozessoren, bei der N7800 acht 2,8-GHz-AMDOpteron-Prozessoren verwendet. Bei beiden Hochleistungssystemen können neben den anderen Platten auch 500-GBSATA-Platten eingebaut werden. Auch die ‘Köpfe’ der Hochleistungssysteme sind als Gateways verfügbar. IBM N3700
Da das Thema ‘gesetzeskonforme Archivierung’ einen immer
Um das Portfolio der Nseries-Produkte zwischen N5000 und
wichtigeren Stellenwert einnimmt, bietet die Nseries WORM-
N7000 in der Skalierbarkeit abzurunden, kündigte IBM im
Funktionen an. Damit können Daten als nicht ‘lösch-/verän-
November 2006 das Modell N5600 als neues leistungs
derbar’ abgespeichert werden, um den entsprechenden
stärkstes Modell der N5000-Reihe mit einer Verfügbarkeit ab
Richtlinien Rechnung zu tragen. Es können bestimmte
dem 8. Dezember 2006 an. Die N5600 bietet auf Basis
Speicherbereiche im System oder auch die gesamte Nseries
einer 64-bit-Architektur Kapazitäten von bis zu 252 TB und
einfach als ‘WORM’-Bereiche definiert werden. Eine breite
eine 30 – 40 % höhere Leistung im Vergleich zur N5500 und
Unterstützung der namhaften Application-Management-SW-
schließt damit die Lücke zwischen N5500 und N7600.
Hersteller ist gegeben. Als Ergänzung der N5600 Appliance kündigte IBM im Mai Die Nseries bietet SW-Funktionen an, die dem Systemadmi
2007 das NAS Gateway N5600 an. Zum selben Zeitpunkt, mit
nistrator das Management seiner Microsoft-Exchange-, Micro
Verfügbarkeit im Juni 2007, wird die Nseries-Reihe durch
soft-SQL-, IBM DB2- und Oracle-Datenbanken erleichtern. Mit
die neuen Modelle N5300 und das NAS Gateway N5300
255 SnapShots (Point-in-Time-Kopien) können Applikationen
ergänzt. Die N5300 integriert eine 64-Bit-Maschine und ska
bei Fehlern leicht wiederhergestellt werden. Ein patentierter
liert kapazitiv auf bis zu 126 TB. Das Gateway ist durch die
RAID-DP-Algorithmus sorgt für hohe Datenverfügbarkeit und
64-Bit-Maschine bestens für 4-Gbit-SANs geeignet. Im
schützt vor dem Datenverlust bei Ausfall von zwei Platten in
August 2007 kommen zwei neue Einstiegssysteme hinzu,
einer RAID-Gruppe. Dies ist vor allem beim Einsatz von SATA-
das Entrysystem N3300, das bis auf 24 TB Kapazität ausbau
Platten sinnvoll.
bar ist, und die N3600, die auf bis zu 69 TB Kapazität ausge baut werden kann. Die alte N5500 und das N5500 Gateway
Das Einstiegssystem N3700 bietet eine Kapazität von bis
wurde im Oktober 2007 vom Vertrieb zurückgezogen.
zu 16 TB, die mittleren Systeme N5200 bis zu 84 TB (bis zu 168 LUNs) und N5500 bis zu 168 TB (bis zu 336 LUNs).
Im Oktober 2007 wird den Nseries-Produkten eine neue
Wahlweise können Platten mit 72 GB, 144 GB und 300 GB
Management Software, der Virtual File Manager VFM zur
konfiguriert werden. Bei den mittleren Systemen werden zwei
Verfügung gestellt. Dieses Software-Produkt wurde von der
2,8-GHz-Xeon-Prozessoren verwendet. Der sogenannte ‘Kopf’
Firma Brocade entwickelt und bietet die Möglichkeit der
der Filer (der Begriff hat sich für den Controller der Appliance-
File-Virtualisierung.
Lösung eingebürgert) ist bei den mittleren Systemen auch als Gateway verfügbar und bedient sich der verfügbaren
Im Februar 2008 kündigte IBM eine neue Generation der
Plattenkapazitäten in einem SAN.
Nseries für große Rechenzentrumsbetriebe an. Die nächste Generation der N7000series ist sowohl als Appli ance als auch als Gateway verfügbar. Die neuen Modelle N7700 und N7900 ermöglichen eine höhere Skalierbarkeit für den Rechenzentrumsbetrieb in großem Maßstab. Die
82
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
neuen Systeme bieten eine Skalierbarkeit mit bis zu 1.176 TB
gleichen Zuge werden im Oktober 2008 mit Wirkung vom
Kapazitätsunterstützung für speicherintensive Anforderungen
Februar 2009 die Systeme N5200, N5300 und N5600 von
in Rechenzentren. Die N7000series ermöglicht es IT-Betrei
Marketing zurückgezogen. Im Vergleich zur N5000-Reihe
bern, SAN- und NAS-Speicheranforderungen auf einem ein
bietet die N6000-Reihe 1,4-fach bis 2-fach höhere Leistungs
zigen System zu konsolidieren.
fähigkeit, weil sie auf moderner Hardware basieren und mehr Cache besitzen. Auch haben die N6000-Systeme die
Für die Entry-Systeme stehen neue Plattenlaufwerke zur Ver
Möglichkeit, mit neueren Betriebssystemständen auf Basis
fügung. Für die N3300 und N3600 werden nun auch SATA-
von Data ONTAP zu arbeiten.
oder SAS-Laufwerke im Controller unterstützt. Die N3300 verfügt über eine erweiterte Skalierbarkeit von bis zu 68 TB
Nseries unterstützt eine Vielzahl von Servern und Betriebs
und die N3600 von bis zu 104 TB. Zusätzlich wurde bei fol
systemen via FCP, CIFS, NFS und iSCSI. Die angeschlossenen
genden Modellen die Kapazität aufgestockt: N5300 (von
Platten-Arrays können in RAID4 oder RAID-DP (Double Parity),
168 auf 336 TB), N5600 (von 252 auf 504 TB), N7600 (von
das dem RAID6-Level entspricht, konfiguriert werden.
420 auf 840 TB) und N7800 (von 504 auf 1.008 TB). Der SnapManager für Office SharePoint-Server von Microsoft ist
Mit der Nseries-Familie stellt die IBM maßgeschneiderte
jetzt auf allen Systemen der Nseries verfügbar.
Plattenspeicherlösungen im Filer- und NAS-Umfeld zur Verfügung.
Im August 2008 kündigt IBM die neuen Nseries-Systeme N6040 und N6070 an. Die N6040 bietet Kapazitäten von bis
Es stehen für die IBM Nseries zurzeit 40 verschiedene SW-
zu 420 TB und die N6070 von bis zu 840 TB. Die N6000-
Funktionen zur Verfügung. Im Anhang sind die wichtigsten
Reihe wird im Februar 2009 durch das Modell N6060
beschrieben.
ergänzt, das eine Kapazität von bis zu 672 TB bietet. Im
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
83
1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS
SnapShot
Daten – vereinfacht gesagt – synchron oder asynchron über
SnapShots sind lesbare, konsistente Sofort-Kopien (Point-in-
SAN oder LAN auf eine Disaster-Recovery Site. Bei Ausfall
Time Copy) eines Datenbestandes, genauer eines Files oder
der Produktiv-Seite stehen die Daten trotz Ausfalls zur Verfü
einer LUN. Es können bis zu 255 SnapShots pro File/LUN
gung. Ist die Produktiv-Seite wieder operational, werden die
erzeugt werden. Das Besondere daran ist, dass sie platz
Daten von der DR-Seite wieder zurückkopiert.
sparend sind, d. h., dass sie beim Erzeugen keinen zusätz lichen Plattenplatz benötigen. Dies geschieht dadurch, dass
SnapVault und SnapLock
nur der Verweis auf die Daten (Pointer) gespeichert wird.
SnapVault und SnapLock sind Lösungen für das Backup und
SnapShots können manuell angestoßen oder auch automati
die Archivierung von Daten. SnapVault ermöglicht ein Backup
siert prozessiert werden – so können z. B. alle 5 Minuten
einer Nseries auf eine andere (oder von vielen auf eine).
Point-in-Time-Kopien erzeugt werden. Durch die hohe Anzahl
Durch den Einsatz von günstigen SATA Disks kann auf das
der SnapShots (255) ist damit ein sehr granulares und zeit
Backupsystem schnell und kostengünstig gesichert werden.
nahes Backup/Recovery möglich. Da SnapShots in einem
Da ein Restoring von Disk erfolgt, sind die Daten auch schnell
speziellen Verzeichnis abgelegt werden, ist es auch für den
wiederherstellbar. SnapLock bietet die Möglichkeit, die
User selbst sehr einfach (per Drag&Drop) seine gelöschten
gesamte Nseries oder einen Teil der Disks als WORM-Bereich
Dateien selbst wiederherzustellen.
(Write Once Read Many) zu nutzen. Daten, die hier abgelegt werden, können erst nach dem Ablauf des Aufbewahrungs
SnapRestore
datums gelöscht und/oder verändert werden.
SnapRestore nutzt die zeitnahen SnapShot-Kopien, um eine File, ein File-System oder eine LUN wiederherzustellen. Sind
Open System SnapVault (OSSV)
SnapShots nur lesbare Kopien und müssen für die Wieder
OSSV verhält sich wie SnapVault mit dem Unterschied, dass
herstellung der Daten in das aktive Filesystem kopiert werden,
die OSSV (Open System SnapVault) Software-Server sichern
kann mit SnapRestore sehr leicht das aktive Filesystem auf
und wiederherstellen kann. Hierfür muss die OSSV SW auf
eine SnapShot-Kopie aufgesetzt werden. Dies bedeutet, dass
den Server (Open, d. h. Unix und Windows) installiert wer
für eine Datenwiederherstellung keine Daten umherkopiert
den. Die Server sichern dann auf eine Nseries als Backup
werden. Ein solches Restoring geht mit einem einzelnen Kom
system.
mando sehr schnell vonstatten! Eine 300 GB große Datenbank kann mit dieser Technik in ca. 2 bis 3 Minuten restored werden.
Cluster Failover Cluster Failover (CFO) ist eine Standardkomponente bei
SnapManager
jedem Dual-Controller (A20 oder G20) der Nseries. Bei Aus
SnapManager wurde speziell für Datenbanken (Oracle und
fall eines Controllers übernimmt automatisch der zweite
MS SQL) und Mail-Applikationen (MS Exchange) entwickelt.
Controller die Server-I/Os und der Datenzugriff bleibt erhalten.
Basierend auf SnapRestore bietet der SnapManager ein hochintegratives SW-Paket für den Systemadministrator.
MetroCluster
Statt aufwendiger Scripts kann er hiermit per GUI einfache
Erweitert man die Cluster-Failover-Funktion (CFO) über
Backup-Tasks aufsetzen, Restoring-Prozesse anstoßen oder
Gebäudegrenzen hinweg, erhält man den MetroCluster.
per ‘Klick’ Datenbank-Clones für Testzwecke erzeugen. Es besteht sogar die Möglichkeit, einzelne Mailboxen (mit Kalen
Der MetroCluster repliziert die Daten vom Controller 1 des
dereinträgen, Kontakten, Attachments) für das MS Exchange-
primären RZs zum Controller 2 des sekundären RZs und
Umfeld nach einem Fehlerfall einfach wiederherzustellen.
garantiert Datenkonsistenz und deren Verfügbarkeit. Fällt die primäre Site aus, erlaubt MetroCluster einen Failover mit einem
SnapMirror
einzigen Befehl des Administrators. MetroCluster ist im Gegen
Sind SnapShot und SnapRestore Backup/Recovery-Funkti
satz zu SnapMirror keine DR-, sondern eine Business Conti
onen, ist mit SnapMirror eine Funktion entwickelt worden,
nuity-Lösung. Basierend auf dem Design, in dem die Daten
die für die Spiegelung der Daten von einer Nseries auf eine
bereits auf beiden Seiten synchron und im sofortigen Zugriff
andere Nseries eine D/R Funktion liefert. SnapMirror spiegelt
liegen, ist eine sofortige Weiterführung der Geschäftsprozesse möglich. Diese Übernahme ist soweit automatisiert, dass der
84
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Administrator nur noch einen einzigen Befehl absetzen muss.
Mit SnapDrive ist das jetzt sehr einfach: Aus dem GUI der
Stretch MetroCluster bietet einen Schutz von bis zu 300 m
Applicationserver heraus wählt man das entsprechende
zwischen zwei Nseries-Systemen. Fabric MetroCluster bietet
Volume an und gibt die neue größere Kapazität ein. Im Hin
darüber hinaus einen Schutz von bis zu 100 km mit SAN-
tergrund (also unterbrechungsfrei) wird das Volume ver
Switchen.
größert. SnapDrive kommuniziert mit der Nseries, um diese Aktionen durchzuführen. SnapDrive spart Zeit und Kosten
A-SIS (Advanced Single Instance Storage)
und hilft Prozesse zu vereinfachen, da diese via GUI erle
Um die gespeicherte Datenmenge auf einem Backup- oder
digt werden können. Darüber hinaus kann SnapDrive auch
Archivsystem zu reduzieren, kann Data-Deduplication einge
neue Drives anlegen und diese ‘mounten’ (d. h., den Servern
setzt werden. Bei Nseries heißt diese Funktion A-SIS (Advan
zur Verfügung stellen). SnapDrive unterstützt MSCS (Micro
ced Single Instance Storage Deduplication). Identische Daten
soft Cluster) und VSS und sollte für iSCSI und FC immer ein
werden nur einmal gespeichert, was bei bestimmten Appli
gesetzt werden. Mit dieser Funktion werden Microsoft, Win
kationen bis zu 70 % Ersparnis in der Speicherkapazität
dows- sowie Unix/Linux-Derivate unterstützt.
ausmachen kann. Auf Systemebene analysiert die Nseries identische Blöcke im Hintergrund (für die Applikation trans
SyncMirror
parent) und speichert diese nur einmal ab. A-SIS ist ideal
SyncMirror ist ein Standardfeature, bei dem jeder I/O fak
für Archive oder Backup-Systeme.
tisch auf zwei getrennte Diskpools geschrieben wird. Dies entspricht quasi einem RAID1 innerhalb eines Systems.
SMBR (Single Mailbox Recovery für Exchange)
SyncMirror lässt sich am besten mit dem LVM (Logical
Im Gegensatz zu Lotus Domino, bei dem jede Mailbox sepa
Volume Manager) unter AIX vergleichen.
rat als eigene Datenbank gespeichert wird (und damit eine einfach wiederherstellbare Einheit darstellt), legt Exchange
RAID-DP
verschiedene Mailboxen zusammen und in .edb- und .stm-
Herkömmliche Single-Parity RAID-Technologien bieten Schutz
Files ab. Diese Files werden im Laufe der Zeit sehr groß.
beim Ausfall eines Disk-Drives. Es wird erwartet, dass kein
Das erschwert das Restoring, weil man mit sehr großen .edb-
anderer Fehler in der Daten-Rekonstruktionszeit auftritt. Sollte
und .stm-Files arbeiten muss, wenn eine einzelne Mailbox
dennoch ein Fehler in dieser Phase auftreten, kann es zu
wiederhergestellt werden muss.
Datenverlusten führen. Dies ist besonders im Hinblick auf die immer größer werdenden SATA Drives der Fall, die inzwischen
Die Lösung hierfür ist SMBR, eine SW, die diese großen Files
1 TB Datenvolumen fassen können. RAID DP (Double Parity)
durchsucht, um die gewünschte Mailbox (inklusive Anhän
sichert den Ausfall von zwei Disk-Drives. RAID DP schreibt
gen, Foldern etc.) wiederherzustellen. SMBR setzt auf den
16 Stripes, die vorher kalkuliert werden (Data und Parity),
SnapShots auf und muss nicht auf dem Produktionsserver
gleichzeitig auf das Disk-Backend.
laufen. Eine ‘Content Analyse’ ist eine Option der SMBR: mit ihr kann der Inhalt von E-Mails, Anhängen etc. analysiert
Spares Drives greifen bei Ausfall einer Disk. RAID-DP ent
und protokolliert werden.
spricht also RAID6.
SnapDrive
FlexVol
SnapDrive ist die SW, die es ermöglicht, aus dem Applikati
FlexVol ist eine Standard-SW, die für das LUN-Management
onserver heraus Volumes zu verwalten, zu vergrößern, kon
entwickelt wurde. FlexVol bedient sich dabei aus dem
sistente SnapShots auszulösen und LUNs zu clonen (ohne
gesamten Disk-Storage-Pool der Nseries, um daraus die
FlexClone Feature).
einzelnen LUNs zu formen. Es werden dabei alle verfüg baren ‘Spindeln’ im Backend ausgenutzt, ohne dass I/O-
Müssen in einem klassischen Storage-Subsystem die Volu
Engpässe durch dedizierte Disk-Zuteilungen entstehen.
mes für eine Datenbank vergrößert werden, muss der Ser veradministrator spätestens dann einen Prozess anstoßen, um mehr Speicherplatz zu beantragen.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
85
1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS
FlexShare
zentrales Management, wurde zu einer der Hauptanforde
FlexShare priorisiert den Service für wichtige Workloads
rungen von Rechenzentren, die SANs betrieben. Dazu ent
durch Zuordnung von Prioritätsstufen von 1 – 5 für jedes
wickelte IBM das Programmpaket IBM TPC (Total Productivity
Volume. So kann z. B. der I/O einer Datenbank gegenüber
Center). Nach 1-Gbit-SANs kamen 2-Gbit- und 4-Gbit-SANs
Fileservices bevorzugt bedient werden. FlexShare ist ein
in Zeitabständen von etwa drei Jahren zum Einsatz. Seit
Standardfeature der Nseries.
2006 sind 4-Gbit-FibreChannel-SAN-‘End to End’-Lösungen möglich.
FlexClone FlexClone ermöglicht, mehrfache Clones von FlexVols zu
Im NAS-Umfeld brachte IBM hauptsächlich Lösungen in Form
erzeugen (z. B. für Testzwecke, QA, DWH etc.). FlexClones
von Gateways, die sich allerdings während der gesamten
verbrauchen zum Zeitpunkt der Erstellung keinen zusätz
Epoche nicht durchsetzen konnten. IBM hatte zu wenig Fokus
lichen Speicherplatz. Sie setzen auf SnapShots auf und sind
auf die NAS-Möglichkeiten und konzentrierte sich haupt
in Sekunden erzeugt und schreibend veränderbar. Sie
sächlich auf die SANs. Am Ende der Epoche, im Jahr 2005,
haben die gleiche Performance wie FlexVols inklusive aller
kam es zu einer Allianz der Firmen IBM und Network Appli
Eigenschaften eines FlexVols (dynamisches Vergrößern und
ance, die auf dem Gebiet NAS sehr erfolgreich waren und
Verkleinern). Eine Einschränkung ist zu berücksichtigen:
bis heute erfolgreich sind. Diese Allianz ermöglicht IBM, auch
‘Parent FlexVol’ und Base SnapShot können nicht gelöscht
auf dem Gebiet NAS entwickelte Lösungen anzubieten und
werden, solange ein davon abhängiges FlexClone Volume
das Gesamtspeicher-Portfolio auszubauen.
existiert. Über ‘Split’ kann das FlexClone Volume von seinem ‘Parent Volume’ getrennt werden und unabhängig weiter
Auf der Bandentwicklungsseite war neben der Einführung
existieren. Dafür wird freier Platz im Aggregat benötigt, um
von LTO2 und LTO3 eines der Meilensteine die Einführung
die ‘Shared Blocks’ zu kopieren.
der sensationellen Jaguar-Bandlaufwerktechnologie mit dem 3592- und später TS1120-Laufwerk. Jaguar ist das ‘Vehicle’,
Kommentar zur Epoche Multiplattform-Systeme und FibreChannel
um im Tape-Umfeld ganz neue Wege beschreiten zu kön
SAN und NAS
nen. Jaguar eröffnet technische Möglichkeiten, die wir uns
Die Schnelligkeit und Hektik nahm in dieser Epoche im Ver
vielleicht heute noch gar nicht vorstellen können (siehe
gleich zur Vorgänger-Epoche noch weiter zu. Hinzu kamen
Technologie-Anhang, Kapitel Magnetband).
neue Komplexitäten durch neue FibreChannel-Netze (SANs) und die Möglichkeiten im Networking-Attached-Storage-Um-
Für die Langzeitarchivierung entstanden neben optischen
feld. Storage wurde durch viele neue Produkte im SAN- und
Archiven neue und bessere Lösungsansätze, weil der Gesetz
NAS-Umfeld zwar vielseitiger, aber auch komplexer und
geber nicht mehr vorschrieb, welches Medium benutzt werden
schwieriger.
muss. Dadurch wurden bessere und sinnvollere Lösungen möglich. IBM entwickelte die Lösung DR450 (Data Retention),
In dieser Epoche lösten sich die Speichersysteme von ihrer
die durch die DR550 ersetzt wurde und heute erfolgreich im
bisherigen Abhängigkeit von den Servern. Multiplattform-Sys
Langzeitarchivierungsbereich eingesetzt wird.
teme wie die ESS konnten jede Server-Plattform bedienen.
86
Neben diesen Multiplattform-Systemen wurden parallel für die
Die verfügbaren Produkte am Ende dieser vielseitigen Epoche
Open-System-Plattformen FibreChannel-Systeme gebaut, die
werden mit absoluter Sicherheit die Folgeepoche mit ent
sich an den entstehenden und immer weiter verbreiteten SANs
sprechenden Weiterentwicklungen begleiten und Lösungen
anschließen ließen. SANs und SAN-Strategien beherrschten
für die durch SAN und NAS komplex gewordene Speicher
immer mehr den Markt. Das gilt auch heute noch! Auch die
welt bieten. Insbesondere werden vor allem die Bereiche des
zSeries stellte von ESCON auf FICON um, um ESCON-Proto
DS4000-Plattensystems, des San Volume Controller, der ge-
kollpakete über den FibreChannel zu transportieren. SAN-
samte Band- und Bandarchivbereich, Band-Virtualisierungs
Virtualisierung war das Fokusthema, dem IBM mit dem SAN
lösungen und der Bereich der Langzeitarchivierung mit der
Volume Controller antwortete. SAN-Management, vor allem
DR550 schnell vorangetrieben werden.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
2006 bis 2010
ynchrone Kopie mit Metro Mirror Asynchrone zuder 300 km) Die (bis Epoche Server-basierenden Speichersysteme(keine D und der Speichervirtualisierung
A
B
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
87
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
Was wird uns die neue Epoche der Server-basierenden
nen. Konsolidiert man heute Server auf der Serverebene
Speicherarchitekturen und der Speichervirtualisierung
und Speichereinheiten auf der Speicherebene, lassen Ser
bringen? Was erwartet uns technologisch in den nächsten
ver-basierende Speicherarchitekturen eine Vertikalkonsoli
Jahren?
dierung von Servern und Storage zu. Applikationen können von der Serverebene auf die Storage-Ebene verlagert wer
Der Autor erlaubt sich, eine persönliche und durchaus rea
den. Dies ist vor allem für Applikationen von wesentlichem
listische Abschätzung der nahen Zukunft in dieses Storage-
Vorteil, die viele I/Os zwischen einer Servereinheit und einer
Kompendium einzuarbeiten.
Storage-Einheit produzieren. Diese I/Os können alle einge spart werden, wenn die Applikation von einer Speicherein
Server-basierende Plattensysteme
heit durchgeführt wird (‘No I/O-is the best I/O’).
Die Ansätze von Server-basierenden Speicherarchitekturen sieht man bereits in der Vorgänger-Epoche in den Produkten
Das erste Produkt in dieser Server-basierenden Speicherar
DR550 (pSeries-Server) für die Langzeitarchivierung und
chitektur ist das Plattensystem DS8000, das am 12. Oktober
TS7500 Familie (xSeries-Server mit Linux Kernel) für die
2004 von IBM angekündigt wurde. Die Ankündigung
Bandvirtualisierung im Open-Systems-Bereich. Auch die
erfolgte zweifelsfrei viel zu früh und es dauerte fast noch ein
SAN-Virtualisierung mit dem SAN Volume Controller muss
ganzes Jahr, bis die Maschine den Stabilitätsgrad hatte, um
dazugezählt werden.
produktiv eingesetzt zu werden. Heute hat die Maschine eine noch nie dagewesene Stabilität und eine Leistungsfä
Allerdings bedeuten Server-basierende Speicherarchitek
higkeit, die kein anderes vergleichbares System auf dem
turen weit mehr. Systeme auf dieser Basis sind nicht nur
Markt ausliefert. Mit der DS8000 wurde am 12. Oktober
Maschinen, auf denen Daten gespeichert werden, sondern
auch der kleine Bruder, die DS6000, angekündigt.
auch gleichzeitig Server, die Applikationen durchführen kön
IBM DS8100 2-Wege-System
88
1952 – 1961
1962 – 1974
IBM DS8300 4-Wege-System
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Die DS8000 ist das derzeit leistungsfähigste Plattensystem
Die folgende Tabelle gibt einen Überblick über die Skalier
auf dem Markt. Mit 3,4 Millionen I/Os pro Sekunde ist sie
barkeit des Speichersystems DS8000. Die Systeme wurden
unschlagbar im Vergleich zu anderen Plattensystemen. IBM
im Hinblick auf nahezu lineare Skalierbarkeit konzipiert. Dies
trat mit dem Speichersystem DS8000 aber nicht an, um
geht aus der unten stehenden Tabelle hervor. Den Einstieg
irgendwelche Spitzenpositionen auf irgenwelchen Rang
in die DS8000-Welt bietet das 2-Wege-System DS8100, das
listen zu erzielen, sondern um mit weniger, leistungsfähiger
bis 116 TB auf Basis von 300-GB-Laufwerken skaliert. Stei
Hardware die Datenspeicherung günstiger zu gestalten. Es
gen die Kapazitätsanforderungen, erhöhen sich bei dem
geht um die Wirtschaftlichkeit und Spitzentechnologie hilft
System alle zur Leistungssteigerung erforderlichen Kompo
dabei, die Total Cost of Ownership (TCO) günstiger zu
nenten wie Anzahl der Prozessoren, Cache, FC/FICON-
gestalten. TCO setzen sich aus Hardware-Anschaffungs
Adapter und Disk-Adapter. Dies gilt auch für die zukünftig
kosten und Betriebskosten zusammen. Mit dem Einsatz von
geplanten Erweiterungen. Steigen die Kapazitätsanforde
DS8000 wird beides reduziert. DS8000 führt zu geringeren
rungen über 192 GB hinaus, sind zukünftig 8-Wege- und
Anschaffungskosten und wesentlich günstigeren SAN-Infra
12-Wege-Systeme bis hin zum 32-Wege-System ohne Archi
strukturkosten, weil weniger Komponenten benötigt werden.
tekturänderung machbar. Bei einer nahezu verdreifachten
Gleichzeitig reduziert sich der Management- und Tuning-
Kapazität von über 500 TB skaliert das System nahezu
Aufwand, weil die Hardware leistungsfähiger ist und weniger
linear mit, da dann auch alle wesentlichen Komponenten zur
überwacht und optimiert werden muss. Durch Architektur
Leistungserbringung wie Cache, Prozessoren, FC/FICON-
prinzipien wie ein Stripe-all-Design und selbstlernende und
Adapter und Disk-Adapter beim Upgrade vom 4-Wege- auf
sich an veränderte Workloads automatisch anpassende
das 12-Wege-System verdreifacht werden. Die zukünftigen
Caching-Algorithmen erreicht die DS8000, dass die Hard
Systeme sind Bestandteil einer lang angelegten Roadmap.
ware optimal genutzt wird.
Die 8-Wege- und 12-Wege-Systeme werden realisiert werden, sobald sich der Bedarf nach dieser extrem hohen Leistungs fähigkeit auf dem Markt abzeichnet.
2-way
4-way
8-way
12-way
Server Processors
2-way POWER5
4-way POWER5
8-way POWER5
12-way POWER5
Cache
16 to 128 GB
32 to 256 GB
64 to 512 GB
96 to 768 GB
FICON (2 Gb/s) (4 ports per adapter)
8 to 64
8 to 128
up to 256
up to 384
FibreChannel (2 Gb/s) (2 ports per adapter) 8 to 64
8 to 128
up to 256
up to 384
ESCON (2 Gb/s) (4 ports per adapter)
4 to 32
8 to 64
up to 128
up to 192
Device Ports
8 to 32
8 to 64
8 to 128
8 to 192
Drives 73 GB (15K RPM), 146 GB, (15K RPM) 146 GB (15K RPM), 300 GB (10K RPM)
16 to 384
16 to 640
up to 1792
up to 1792
Physical Capacity
1.2 to 115 TB
1.2 to 192 TB
up to 538 TB
up to 538 TB
Number of Frames
1 to 2
1 to 3
2 to 8
2 to 8
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
89
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
IBM DS8100 Innenaufbau
IBM DS8300 Innenaufbau
Die DS8100 besteht aus einer Basiseinheit und maximal
In der Zukunft wird es neben den Storage-LPARs auch
einer Erweiterungseinheit. An die DS8300 können bis zu
Anwendungs-LPARs geben. Da die DS8000 eine pSeries
zwei Erweiterungseinheiten angeschlossen werden. Seit
integriert hat, können alle Möglichkeiten eines Servers für
Oktober 2006 können bei den DS8000 Turbo-Modellen bis
die Datenspeicherung genutzt werden. Es ist insbesondere
zu vier Erweiterungseinheiten angeschlossen werden. Damit
daran gedacht, Anwendungen mit einer hohen Affinität zu
bietet die DS8000 Turbo die Möglichkeit, über 300 TB FC-
Storage (viele I/Os) direkt auf dem Speichersystem laufen
Platten und über 500 TB FATA-Platten zu betreiben (maximal
zu lassen und die internen Bandbreiten der DS8000 für opti
1.024 Plattenlaufwerke).
male Performance zu nutzen.
Die Speichersysteme DS8000 sind die ersten Speichersys
Ein wesentliches Merkmal der DS8000 sind die überle
teme im Markt mit echten Storage-LPARs. Wie bei einem
genen Copy-Services, die einen unterbrechungsfreien RZ-
Server können auf einer physischen Einheit logische LPARs
Betrieb ermöglichen. Dazu gehören die Funktionen syn
mit eigenem Prozessor, eigener Bandbreite, eigenen HBAs,
chrones und asynchrones Kopieren (Metro Mirror/Copy,
eigenem Disk-Adapter, eigenen Laufwerken und eigenem
Global Mirror/Copy) sowie Point-in-Time Copy (FlashCopy).
Mikrocode gebildet werden. Die LPARs sind robust vonein
Die Spiegelfunktionen der DS8000 sind heute wegen ihrer
ander isoliert. Selbst ein Crash in einer LPAR beeinflusst
Leistungsfähigkeit (Entfernung, Anzahl I/Os über eine Lei
die zweite LPAR nicht. Das LPAR-Konzept eignet sich daher
tung, Anzahl gleichzeitiger Spiegel) und ihrer Funktionalität
besonders gut für die Sicherstellung eines bestimmten Ser
(Konsistenzgruppen, Suspend-/Resume-Möglichkeit,
vice-Levels für bestimmte Anwendungsbereiche. Produktion
Umdrehen der Spiegelungsrichtung, drei Spiegel gleichzei
und Test können auf einer Maschine gefahren werden, ohne
tig etc.) einzigartig im Markt. Derzeit gibt es keine leistungs
dass die Testaktivitäten die Produktion beeinflussen. zSeries
fähigere Remote-Copy-Implementierung auf dem Markt.
und Open Systems Workload können ebenfalls ohne Beden ken auf der gleichen Maschine betrieben werden, da jede LPAR mit ihren eigenen Ressourcen ausgestattet ist. Zum heutigen Stand bietet die DS8300 zwei LPARs, die jeweils 50 % der Ressourcen erhalten. In Kürze wird die Auf teilung flexibler werden und Sub-Prozessor-Allokationen werden möglich sein.
90
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Während DS8000 auf Basis der POWER5-Architektur ganz
DS6000 stellt für IBM bei Plattensystemen einen Durchbruch
klar den High-End-Speichermarkt adressiert, gibt es noch
im Platzbedarf dar. Während der bisherige Einstieg in die
ein riesiges Marktpotenzial mit geringeren Anforderungen an
Enterprise-Welt mit der ESS 750 nicht ohne mindestens
Leistung und Skalierbarkeit. Dieses Marktpotenzial adres
einen Quadratmeter Stellfläche plus zusätzliche Serviceflä
siert IBM mit einem modularen Speichersystem auf Basis
che sowie einen stabilen Doppelboden, der eine Tragfähig
der PowerPC-Prozessortechnologie. Wichtig für dieses
keit von über einer Tonne gestatten musste, zu ermöglichen
Marktsegment ist ein kompaktes, modulares Design, das
war, erreicht die DS6000 völlig neue Dimensionen. Der maß
eine hohe Leistung auf kleinstem Raum ermöglicht, keine
stabsgerechte Vergleich unten zeigt den großen technolo
besonderen Anforderungen an die RZ-Infrastruktur stellt und
gischen Fortschritt. Der Einstieg in die Enterprise-Welt ist
sich perfekt in die vorhandene IT-Landschaft mit Servern in
jetzt mit weniger als 5 % des Volumens bisheriger Speicher
19-Zoll-Racks integrieren lässt.
systeme möglich. Damit gehen verringerte Anforderungen bzgl. der Servicefläche, der RZ-Infrastruktur und des Strom
Diesen Designanforderungen entspricht das Speicher-
bedarfs einher.
system DS6000. Das System ist voll und ganz für den Mas senmarkt und seine spezifischen Anforderungen konzipiert.
Die DS6000 entspricht im logischen Aufbau der DS8000.
Das System basiert auf modularen Einschüben mit 3U-Bau
Der Unterschied besteht in der Plattform, auf der das
höhe, die sich in vorhandene 19-Zoll-Racks einbauen lassen,
System betrieben wird. HA- und DA-Code sind im Wesent
ohne dabei Kompromisse in der Leistungsfähigkeit einzu
lichen identisch, da es sich um autarke Einheiten handelt.
gehen. Das Speichersystem skaliert von 288 Gigabyte bis
Die Funktionalität des Speichersystems ist ebenfalls iden
auf 38,4 TB.
tisch. Der große Unterschied ist die Prozessor-Plattform. Da der PowerPC-Prozessor über keine Partitionierungsmöglich keiten verfügt, entfällt diese Komponente. Zudem wird der Prozessor nicht durch AIX, sondern durch Linux gesteuert.
75,25”
5,25” 19” IBM ESS 750 mit 5 TB Kapazität
1952 – 1961
1962 – 1974
IBM DS6000 mit 4,8 TB Kapazität
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
91
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
haben eine Kapazität von 500 GB pro Laufwerk. Das bietet für die Plattensysteme die Möglichkeit, innerhalb des Systems mit einer Zwei-‘tier’-Storage-Hierarchie zu arbeiten. So können die FC-Platten für die klassische Transaktions verarbeitung und hoch frequentierte Daten eingesetzt wer den und die günstigeren, aber langsameren FATA-Platten für sequenzielle Datenverarbeitung und nur wenig benutzte Ansicht IBM DS6800 Plattensystem
Daten.
Wesentliche Änderungen betreffen auch den Abstraction Layer, der alle HW-Spezifikationen von der Funktionsebene
Damit bietet eine DS8000 voll ausgebaut mit FATA-Platten
isoliert. DS6000 ist also ein reines Speichersystem, das
eine Bruttokapazität von 320 TB und eine kleine DS6000 bis
nicht für Applikationszwecke in der Zukunft eingesetzt wer
zu 64 TB an Bruttokapazität.
den kann. Die Maschine besteht im Prinzip aus 5 Komponenten, soge nannten ‘Customer Replaceable Units’ (CRUs). Dies sind Laufwerke, Stromversorgung, Controller, Batterie und ein ‘Light-Path-Diagnose-Modul’. Wann immer eines dieser Teile defekt ist, erhält der Kunde ein Ersatzteil zugeschickt, das er in Minuten mit wenigen Handgriffen selbst einsetzen kann.
1st tier-FC Drives - Transactional IO - Heavily used data
Das Gleiche gilt für den Mikrocode. Wann immer eine neue Version verfügbar ist, wird der Kunde davon informiert und kann sich aus dem Internet den neuesten Mikrocode herun terladen und unterbrechungsfrei einspielen.
Flash
Unterstützt wird man bei der Fehleranalyse durch Light Path Diagnostics, SNMP-Meldungen und ein GUI. Die Fehlerana lyse ist voll vom System gestützt. Interaktive Hilfefunktionen vereinfachen die Reparatur. Zur einfachen Administration und schnellen Implementierung verfügt das Speichersystem
2nd tier-FATA Drives - Streaming data - Little used data
über einen Express Configuration Wizzard, der das erstma lige Konfigurieren oder Umkonfigurieren stark vereinfacht. Die DS6000 und DS8000 sind die ersten Plattensysteme von IBM, die mit vier Jahren Gewährleistung angekündigt wurden. Aufgrund dieser langen Gewährleistung erkennt man bereits, dass diese neue Architektur sehr lange Bestand haben wird. Am 22. August 2006 mit Verfügbarkeit im September 2006 kündigte IBM die neusten Erweiterungen für die DS6000 und DS8000 an. Beide Plattensysteme können jetzt neben der Auswahl an FibreChannel-Platten auch mit günstigeren Fibre-ATA(FATA)-Platten bestückt werden. Die Platten
92
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Für die DS8000 wurden neue Modelle angekündigt, die
Fällt die Lokation B aus, stellen inkrementelle Resynchroni
POWER P5+ Prozessortechnologie integriert haben und
sationsverfahren die Verbindung zwischen A und C her und
damit 15 % höhere Leistungsfähigkeit ausliefern. Die
gewährleisten damit weiterhin unterbrechungsfreien Spiegel
I/O-Cages wurden auf 4-Gbit-FibreChannel- und FICON-
betrieb. Steht die Lokation B wieder zur Verfügung, wird
Ports umgestellt. Damit ist die DS8000 das erste Plattensys
über ein inkrementelles Verfahren von A nach B resynchroni
tem auf dem Markt, das mit 4-Gbit-FICON-Ports am zSeries-
siert. Nach Abschluss der Resynchronisation werden die
Host arbeiten kann. Die DS8000-Systeme mit P5+ Prozessoren
Lokationen B und C wieder über Global Mirror verbunden
werden als DS8000-Turbo-Systeme bezeichnet.
und so die Ausgangssituation wieder hergestellt.
Ein neue Einrichtung, die als ‘Synergy Feature’ bezeichnet
Fällt Lokation C aus, ist die Anwendung A nicht betroffen
und im November 2006 verfügbar wird, verbessert maßgeb
und die synchrone Spiegelung zwischen A und B bleibt
lich die Gesamtleistung der Komponenten DS8000 Turbo,
erhalten. Steht die Lokation C wieder zur Verfügung, wird
DB 2 und AIX und erzielt eine wesentlich effektivere Kom
Global Mirror inkrementell wieder aufgebaut und die Aus
munikation zwischen Rechner und Speichersystem für DB2-
gangssituation wieder hergestellt.
Anwendungen. Dies wird durch eine gezielte ‘End to End’Prioritätensteuerung ermöglicht.
Parallel Access Volume (PAV): Die Funktion, von mehreren Rechnern und Anwendungen gleichzeitig auf diesselbe
Teil der Ankündigung vom 22. August 2006 war zudem die
Plattenadresse zu schreiben und von ihr zu lesen, wurde im
Möglichkeit, bei DS8000-Turbo-Systemen mit einem dritten
z/OS-Umfeld mit dem Enterprise Storage Server (siehe auch
Spiegel bei Remote-Copy-Verfahren zu arbeiten. Diese
ESS) eingeführt und für die DS8000 weiter optimiert. Der
Lösung wird als ‘3 Site Disaster Recovery Solution’
Workload Manager (WLM) im z/OS steuerte die dynamische
bezeichnet. Damit wird auch im Disaster-Fall ein konstanter
Zuordnung und Umordnung der dafür notwendigen ‘Alias’-
Zugriff auf die Daten gewährleistet. Diese Möglichkeit war
Adressen, was als dynamisches PAV bezeichnet wird. Im
bisher nur über RPQ (Request for Price Quoting) gegeben.
November 2006 kündigte IBM für die DS8000 Hyper PAV an. Dabei wurde die Funktion so geändert, dass z/OS im
Das dreifache Remote-Spiegelverfahren setzt sich aus
Zusammenspiel mit der DS8000 für jeden einzelnen I/O eine
den Komponenten ‘Metro Mirror’ und ‘Global Mirror’ (ehe
Alias-Adresse aus einem Pool nehmen kann, ohne dass
mals PPRC XD – Peer to Peer Remote Copy eXtended
eine Koordination zwischen z/OS-Systemen notwendig ist.
Distance – und FlashCopy) zusammen. Von der Lokation A
Damit kann sofort auf sich ändernde Workloads reagiert
wird mit der DS8000-Turbo synchron zur Lokation B gespie
werden. Hyper-PAV benötigt bei derselben Workload nur
gelt. Die Lokation B spiegelt dann asynchron auf die Loka
etwa die Hälfte an Alias-Adressen und bietet im Vergleich
tion C weiter.
zum dynamischen PAV bei derselben Anzahl an AliasAdressen die Möglichkeit, 50 % mehr I/Os zu prozessieren.
Fällt die Lokation A aus, wird die Anwendung auf die Loka tion B umgeleitet und Global Mirror läuft ohne Unterbre
Am 22. August 2006 wurde als neues Software-Produkt IBM
chung zwischen den Lokationen B und C weiter. Kommt
TotalStorage Productivity Center (TPC) für Replikation
Lokation A wieder online, wird von der Lokation B nach A
angekündigt. TPC für Replikation erlaubt ein zentrales
auf inkrementeller Basis resynchronisiert. Nach Abschluss
Management der Copy-Services-Funktionen Metro Mirror,
der Resynchronisation kann die Anwendung von B nach A
Global Mirror und FlashCopy für die Produkte DS6000,
zurückverlagert werden.
DS8000, DS8000 Turbo, SAN Volume Controller SVC und ESS Modell 800.
Synchrone Kopie mit Metro Mirror (bis zu 300 km)
A
Asynchrone Kopie mit Global Mirror (keine Distanz-Begrenzung)
B
C
FlashCopy
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
93
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
Im Jahr 2007 stellte IBM für die DS8000 Plattensysteme
Neben den neuen Performance Features wurden im Novem
erhebliche Erweiterungen zur Verfügung.
ber 2007 für die Maschinen auch neue funktionale Erweite rungen verfügbar. Space efficient FlashCopy kann durch
Im Februar 2007 kündigte IBM mit Verfügbarkeit März für
Reduzierung der benötigten Plattenkapazität für Kopien
alle DS8000-Systeme neben den bisherigen Plattentypen
signifikant die Kosten senken. Dadurch können gleichzeitig
300-GB-FibreChannel-Platten mit 15.000 Umdrehungen
die Strom- und Klimaanforderungen gesenkt werden. Flash
an. Die DS8000 war damit das erste System auf dem Markt,
Copies benötigen nur Plattenplatz, wenn Veränderungen am
das mit diesen schnellen großkapazitiven Platten ausgestat
Original durchgeführt werden. Dynamic Volume Expansion
tet werden konnte. Im Mai 2008 kamen erhebliche Kapazi
vereinfacht das Management durch ‘Online’-Vergrößerung
tätserweiterungen dazu. Konnte bisher ein 4-Way-System
von logischen Laufwerken bei Datenwachstum. Neben die
mit bis zu 640 Platten (bei 2-Way sind es bis zu 384 Platten)
sen Erweiterungen wird das TPC (Total Productivity Center)
in einer Konfiguration von drei Einheiten ausgestattet sein,
bei Auslieferung von neuen DS8000-Systemen standardmä
war es seit Juni 2007 möglich, ein 4-Way-System DS8300
ßig als neu umbenanntes SSPC (System Storage Producti-
mit bis zu 1.024 Platten zu konfigurieren. Dazu werden an
vity Center) mitgeliefert und bietet damit einen einheitlichen
die Basiseinheit vier zusätzliche Erweiterungseinheiten
Zugang zum Management von IBM und anderen Speicher
angeschlossen, insgesamt also eine Konfiguration mit fünf
systemen. Damit stehen dem IT-Benutzer eine einheitliche
Gehäuseeinheiten. Bei Verwendung der 500-GB-FATA-Platten
Management-Oberfläche und eine gemeinsame Konsole für
steigerte sich so die maximale Kapazität auf bis zu 512 TB
DS8000-Systeme und die SVCs (San Volume Controller) zur
pro System.
Verfügung.
Seit November 2007 stehen der DS8000 weitere leistungs
Am 26. Februar 2008 wurden zusammen mit der Ankündigung
optimierende Features zur Verfügung. Die Funktion Storage
des neuen Mainframe-Systems z10 neue Erweiterungen für
Pool Striping mit Rotate Extends reflektiert einen neuen
das DS8000 Plattensystem speziell im z/OS-Umfeld ange
Default-Algorithmus, der neue logische Platten in 1-GB-
kündigt. Mit der Funktion z/OS Metro/Global Mirror Incre-
Schritten über das Backend verteilt und so die Leistung
mental Resync entfällt bei einer dreifachen Remote Spiege
ohne spezielles Tuning optimiert. AMP (Adaptive Multi-
lung die Notwendigkeit, eine volle Kopie für die Resynchroni-
stream Prefetching) stellt eine neue Caching-Technologie
sation nach einer Hyper-Swap-Situation zu erzeugen. Die
von IBM Research zur Verfügung, die, auf Workloads bezo
Erweiterung Extended Distance FICON reduziert den Bedarf
gen, ein selbstoptimierendes Prefetching durchführt. AMP
von Kanalerweiterungseinheiten (Channel Extenders) bei
entscheidet dynamisch, was und wann in den Cache vorge
z/OS Global Mirror- (zweifache Remote-Spiegelung) und z/OS
laden wird. Das kann den Durchsatz von sequentiellen und
Metro/Global Mirror-Konfigurationen (dreifache Remote-Spie
Batch-Workloads dramatisch verbessern, d. h., Laufzeiten
gelung) durch eine höhere Parallelität der Leseoperationen.
können erheblich verkürzt werden. AMP verbessert den Lese-
Die neue Möglichkeit des z/OS Basic Hyper Swap erlaubt
Durchsatz aus einem RAID5-Array nahezu um Faktor zwei!
die Konfiguration von Disk Replication Services über das
AMP kann Hot-Spot-Situationen verhindern, wenn sehr hohe
grafische User Interface (GUI) der DS8000 Plattensysteme.
Anforderungen an sequentielle Workloads gestellt werden.
Diese Möglichkeit kann auch für DS6000- und ESS-Systeme
IBM z/OS Global Mirror Multiple Reader bietet im zSeries-
genutzt werden, bei denen das GUI auch zur Verfügung steht.
Umfeld einen deutlich höheren Durchsatz bei Remote-Spie
Die Möglichkeit des z/OS Basic Hyper Swap ist auch ohne
gelungen.
GDPS (Geographically Dispersed Parallel Sysplex) benutzbar. z/OS Basic Hyper Swap ist eine einzigartige Funktion, die auch ohne GDPS einen automatischen Failover auf das Remote-Plattensystem vornimmt, wenn die primäre Site nicht mehr zur Verfügung stehen sollte. Dies ist aber ausschließlich bei den IBM Systemen DS8000, DS6000 und ESS möglich. Plattensysteme anderer Hersteller werden nicht unterstützt.
94
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Mit dem Release 4.0 bekommt die DS8300 im August 2008
‘Secure Data Overwrite’ garantiert die sichere Löschung
die Möglichkeit mit variablen LPARs und damit mit mehr
von sensiblen Daten auf Platten. Dieser Service wird durch
Flexibilität zu arbeiten. Bisher war nur eine Aufteilung von
einen geschulten IBM Techniker durchgeführt.
50 %/50 % möglich, jetzt ist auch eine variable Aufteilung von 25 %/75 % bzw. 75 %/25 % der System-Ressourcen
Mit dem Release 4.2 im Februar 2009 kommen für die
unterstützt.
DS8000-Systeme weitere fundamentale Erweiterungen zum Tragen. Die DS8000-Systeme können jetzt neben FC-Platten
Innerhalb der separaten System-Ressourcen können unter
und SATA-Platten mit SSDs (Solid State Disks) ausgestattet
schiedliche Versionen des Microcodes betrieben werden,
werden. Dabei sind Solid State Disks in der Größe von 73
z. B. separate Produktions-Systeme oder Testsysteme und
GB und 146 GB unterstützt. Standardmäßig ist der Werks
das innerhalb eines physischen Storage-Systems. Variable
einbau vorgesehen, für den Feldeinbau muss ein RPQ
LPARs werden innerhalb der DS8300 ohne zusätzliche
gestellt werden. Dieser RPQ dient zur Sicherstellung der
Kosten ab Microcode R.4.0 zu Verfügung gestellt. Mit R.4
optimalen Performance.
können nun folgende Aufteilungen vorgenommen werden: 50/50 % Split (Factory Default), 75/25 % Split und 25/75 %
Als erstes IBM Subsystem unterstützt DS8000 in Verbindung
Split. Die Aufteilung kann für die System-Ressourcen Pro
mit speziellen Disk-Drives die Verschlüsselung der Daten
zessoren, NVS und Cache erfolgen. Host Adapter Slots,
(Encryption) auf den Platten. Dadurch kann sichergestellt
Device Adapter Slots und Storage Enclosure Slots bleiben
werden, dass selbst bei einem Verlust der Disk-Drives die
nach wie vor im 50/50 % Split.
Daten nicht ausgelesen werden können. Im Gegensatz zu anderen Lösungen macht Encryption auf Disk-Drive-Level
Mit dem Release 4.1 im September 2008 erhält die
Verschlüsselung ohne Leistungsverluste möglich. Es müs
DS8000-Familie folgende Erweiterungen:
sen keine Änderungen in Anwendungen oder der StorageInfrastruktur vorgenommen werden. Die Verwaltung der
Unterstützung von Raid 6 als erweiterter Plattenschutz, ins
Schlüssel wird analog zu der Tape-Verschlüsselung mit dem
besonders geeignet für große Platten, z. B. bei 1 TB SATA-
Softwareprodukt TKLM, früher EKM, vorgenommen (siehe
Platten. Bei FC-Platten wird aufgrund der geforderten hohen
auch unter Tape Encryption).
Plattenperformance und durch die schnelle architekturbe dingte Wiederherstellung des RAID-Verbundes bei einem
Mit der Einführung von hochkapazitiven 1 TB SATA-Platten
Plattenausfall weiterhin RAID5 bevorzugt angewandt. Mit
eigenet sich das DS8000 Plattensystem auch für den Ein
der Integration von 450 GB FC 15K-Platten erweitert sich
satz von Data-De-Duplication-Technologien, z. B. in Verbin
zum einem die mögliche Gesamtkapazität und erhöht so die
dung mit den Diligent-Produkten (siehe unter Data-De-Dupli
Wirtschaftlichkeit des Systems. Ein neuer IBM Service
cation IBM ProtecTIER). Mit dem Release 4.3 im Juli 2009 unterstützt die DS8000 ‘Thin Provisioning’ ohne Leistungsbeeinträchtigung. Die Funktion Thin Provisioning ist optional zu bestellen und ist für die gesamte Kapazität einsetzbar. Thin Provisioning kann die Nutzung der Storage-Kapzität erhöhen und damit zur ökonomischen Nutzung des eingesetzten Speichers erheb lich beitragen. Die Storage-Administrationskosten können durch automatisiertes Storage Provisioning reduziert werden. Ein neues Feature, das ‘Quick Initialization Feature’ ermöglicht das schnelle Einrichten von Copy Services.
Plattenlaufwerk oben, Solid State Disk unten
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
95
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
zHPF Multi-Track Support für DS8000
Wie die Vorgängersysteme ist die Maschine mit den neuen
Diese einzigartige Funktion der DS8000 in Verbindung mit
optimierten Cache-Algorithmen ausgestattet: SARC (Simpli
zSeries führt zu erheblich verbesserten I/O-Leistungen.
fied Adaptive Replacement Cache) als Grundalgorithmus
Erreicht wird diese Leistungsverbesserung durch ein opti
verbunden mit AMP (Adaptive Multistream Prefetching) zur
miertes I/O-Protokoll.
Optimierung von Leseoperationen von den Platten in den Cache und IWC (Intelligent Write Caching) zur Optimierung
IBM DS8700 Plattensystem
der Schreib-Workload. Das Antwortzeitverhalten der DS8700
Im Oktober 2009 kündigt IBM die neue Maschine DS8700
dürfte derzeitig alle verfügbaren Plattensysteme im Markt
als Nachfolger der Plattensysteme DS8100 und DS8300 an.
weit übertreffen.
Die DS8700 basiert auf Power6-Technologie und arbeitet
96
mit P6-Prozessoren mit 4,7 GHz. Die Leistungsfähigkeit
Verbunden mit der DS8700-Ankündigung ist ein Ausblick
der Maschine ist ca. 2,5 Mal schneller als die DS8300. Die
einer Roadmap bis 2013. Diese Roadmap beinhaltet Funk
Rio-G Loop wird ausschließlich für die P6 ‘Server to Server’-
tionen zur optimalen Nutzung von SSDs durch Analyse des
Kommunikation eingesetzt, während die Plattenarrays über
I/O-Verhaltens und dynamische Verlagerung von Extends,
PCI-E (Express)-Karten angesteuert werden. Durch diese
die sich optimal für die Speicherung auf SSDs eignen. Mit
Architekturänderung bekommt die Maschine eine optimale
diesem neuen Algorithmus bekommt die Maschine die
Backend-Anbindung und höhere Backend-Bandbreite, was
Fähigkeit, Storage Tiers optimal auszunutzen und die Daten
sich vor allem bei Verwendung von schnellen SSDs (Solid
dem I/O-Verhalten entsprechend auf SSDs, FC-Platten und
State Disks) auszahlt.
SATA-Platten abzuspeichern.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
IBM XIV Storage Nahezu jedes Unternehmen ist heute von der steigenden Flut digital zu speichernder Daten betroffen. Laut der IDCStudie „The Diverse and Exploding Digital Universe“ wird das installierte Speichervolumen allein innerhalb der kom menden vier Jahre um 600 % wachsen. Schon heute stellt die Speichersystemadministration viele Firmen vor erheb liche Probleme. Das erwartete hohe Wachstum kommt aller dings nicht aus dem klassischen Rechenzentrumsbereich, sondern fällt im Bereich der unstrukturierten Daten an. Wäh rend im klassischen RZ-Betrieb sogenannte ‘Scale Up’-Plat tensysteme den Anforderungen an immer schnellere Ant wortzeiten Rechnung tragen (z. B. DS8000 mit schnellen FibreChannel-Platten und SSDs) fehlen im Bereich des Datenwachstumsumfelds kostengünstige ‘Scale Out’Systeme, die trotz wachsender Kapazität eine gleichblei bende hohe Leistungsfähigkeit bieten. Eine solche Anforde rung kann nur mit einer Architektur gelöst werden, die es erlaubt, Standardkomponenten, wie kostengünstige SATAPlatten und PC-basierende Prozessoren, so zu integrieren, dass eine hohe Zuverlässigkeit und hohe Leistungsfähigkeit
Dabei hat z. B. jede Platte immmer denselben Füllgrad und
gewährleistet wird, auch wenn das System kapazitiv wächst.
dieselbe Arbeitslast. Wächst das System in der Kapazität, stehen mehr ‘Arbeiter’, also mehr Plattenlaufwerke, zur Ver
Diese neue ‘Scale Out’-Anforderung nahm der ehemalige
fügung und steigern die Leistungsfähigkeit und den Durch
Chef-Entwickler der EMC-Symmetrix Systeme Moshe Yanai
satz des Gesamtsystems. Das ist der perfekte Sozialismus!
zum Anlass, die Firma XIV zu gründen, um ein neuartiges Speichersystem zu entwickeln, das diese neuen Aspekte
XIV-Architektur
von Anfang an berücksichtigt. Die Firma XIV wurde 2002
Ein wesentliches Merkmal der IBM XIV-Systeme ist die hohe
gegründet, die ersten Systeme waren bereits 2005 in Pro
Parallelität durch eine modulare GRID-Architektur. Anders
duktion. Am 31.12.2007 wurde die Firma XIV von IBM aqui
als traditionelle Systeme gibt es nicht nur zwei Controller,
riert. Bis Ende 2008 sind bereits über 100 Systeme im pro
die sämtliche I/Os verarbeiten müssen, sondern mehrere
duktiven Einsatz und seit Oktober 2008 sind die Systeme in
voneinander unabhängige Module. Diese Module bestehen
der zweiten Generation als IBM Produkte verfügbar.
aus Standard-Servern mit optimiertem Linux-Betriebssystem. Die hohe Parallelität wird nun dadurch ermöglicht, dass ein
IBM XIV Storage System
patentiertes Load-Balancing-Verfahren sämtliche I/Os über
Die Entstehung von XIV Storage ist etwas Besonderes! Mit
alle Systemkomponenten verteilt: Module, Switche, Caches
der neuen XIV-Architektur erblickt der erste Plattensub
und Disks.
system-Sozialismus das Licht der Welt! Es ‘menschelt’ nicht, daher funktioniert der Sozialismus perfekt! Wenn
XIV-Standard-Hardware
immer die Maschine etwas zu tun hat, sei es etwas auf
Ein IBM XIV Storage System besteht aus mehreren Modulen,
Platte wegzuschreiben, von der Platte auszulesen oder sich
jedes Modul mit eigenen CPUs, eigenem Cache-Speicher
intern zu reorganisieren, müssen alle daran arbeiten. Die
und eigenen (lokalen) Disks. Einige Module besitzen darü
integrierten PCs, alle Plattenlaufwerke ohne Ausnahme
ber hinaus FibreChannel und iSCSI-Interfaces, die zur
arbeiten immer gleichzeitig die anstehende Workload ab.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
97
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
XIV GRID-Architektur mit verteiltem Speicher, Caches und CPUs
redundanten Anbindung der Hosts dienen. Diese Module
Beim Einsatz von 1 TB Disks ergibt sich also eine Bruttoka
werden auch als Interface-Module bezeichnet. Als Betriebs
pazität von 15 * 12 * 1 TB = 180 TB. Durch die hohe I/O-
system auf den Modulen (Servern mit Intel CPUs neuester
Parallelität können im Vergleich zu FibreChannel-Disks lang
Generation) dient ein optimiertes Linux, was allerdings für
samere Disks mit SATA-II-Technologie verwendet werden,
den Anwender transparent ist. Die Kommunikation der
ohne dass dadurch die Systemperformance langsamer
Module erfolgt über zwei Gigabit-Ethernet-Switche. Die hohe
wäre als bei traditionellen High-End-Speichersystemen mit
Performance wird durch die Parallelisierung aller I/Os
FibreChannel-Disks. Der Vorteil bei der Verwendung der
erreicht, welche sich stets über alle Module erstreckt.
Standard-Komponenten für die Module und den Intercon nect besteht darin, dass neue Technologieentwicklungen
Ein voll ausgebautes XIV-Rack besteht aus:
rasch und ohne Neuentwicklungen eingesetzt werden kön nen. Stehen beispielsweise schnellere Module in Form von
•• 15 Modulen mit jeweils
Standard-Servern oder neue Adapter zur Verfügung, können
-- Intel Quad-Core CPUs
diese sofort ausgetauscht werden. Gleiches gilt für die Inter
-- 8 GB RAM (Cache)
connect-Switche. Derzeit ist jedes Modul über 4-Gigabit-
-- 4x Gigabit Ethernet für die interne Kommunikation
Ethernet-Verbindungen angeschlossen. Auch der Austausch
-- 12 Disk-Drives (1 TB SATA II)
durch 10-Gigabit-Ethernet-Switche oder Infiniband ließe sich
•• 6 Interface-Module mit insgesamt
kurzfristig realisieren (selbstverständlich verzögern eventuell
-- 24 x 4 GB FC-Adapter
notwendige Software-Anpassungen und vor allem Integrati
-- 6 x 1GB iSCSI-Adapter
onstests den Einsatz neuer Technologien).
•• 2 Gigabit-Ethernet-Switche für die interne Kommunikation •• 3 unterbrechungsfreie Stromversorgungseinheiten
98
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Datenverteilung und Load Balancing
mance des Systems herabgesetzt, da beim Zugriff auf
Um eine möglichst granulare und gleichmäßige Verteilung
Daten dieses Volumes zusätzliche XOR-Operationen not
der Daten und I/O-Operationen zu ermöglichen, verteilt das
wendig sind.
System jedes vom Administrator angelegte Volume immer auf 16.384 (oder ein Vielfaches davon) primäre und
Da ja primäre und sekundäre Partitionen immer über Module
genauso viele sekundäre Partitionen mit einer Größe von
hinweg „gespiegelt“ werden, können sogar mehrere Disks
jeweils 1 MB:
innerhalb eines Moduls oder gar ein komplettes Modul aus fallen, da selbst dann immer noch eine intakte Datenkopie
•• Die Partitionen werden nach einem ‘pseudo-zufälligen’
im System vorhanden ist. Auch in diesen Fällen beginnt das
Algorithmus auf alle Disks (und damit über alle Module)
System sofort im Hintergrund die fehlenden Kopien neu zu
verteilt. Dies gilt grundsätzlich für alle Volumes, wodurch
erzeugen, immer unter Erhaltung der Gleichverteilung und
immer eine optimale Performance für alle Volumes erreicht
damit einer gleichmäßigen Auslastung aller Systemkompo
wird.
nenten.
•• Eine Partition enthält dabei entweder eine primäre oder sekundäre Kopie der Daten. Primäre und sekundäre Daten
Das Modul, das für eine IO-Operation eine primäre Partition
werden stets in unterschiedlichen Modulen, also auch auf
beschreibt, sendet parallel zum lokalen IO den gleichen
unterschiedlichen Disks gespeichert.
Datenblock für die sekundäre Kopie an ein anderes Modul. Erst wenn beide Module die Datenblöcke im Cache haben,
Das Verteilungsverfahren arbeitet autonom und dynamisch.
wird dem Host die IO-Operation bestätigt. Das Schreiben
Fällt z. B. eine Disk aus oder wird aus dem System entfernt,
der Datenblöcke auf die jeweils lokalen Caches erfolgt im
werden sofort alle darauf befindlichen (primären oder
Hintergrund.
sekundären) 1 MB-Partitionen von allen anderen Disks neu kopiert bzw. verteilt. Dadurch arbeitet diese Wiederherstel
Vergleich zu bekannten RAID Verfahren
lung extrem schnell. Kopiert werden dabei übrigens nur Par
Das dargestellte Verteilungsverfahren der Daten entspricht
titionen, die tatsächlich Daten enthalten. In der Praxis sind
keinem der üblichen RAID1- bis RAID10-Mechanismen. Von
die Daten einer 1 TB SATA-II-Disk innerhalb weniger Minu
den Eigenschaften ist es einem RAID10-Verfahren am ähn
ten wieder redundant. Die maximale Dauer zur Herstellung
lichsten, bei dem die Datenblöcke verteilt (engl. striping) und
einer 1-TB-Disks beträgt 30 Minuten. Die Wiederherstellung
gespiegelt werden. Würde man 180 Disks in einem RAID10-
einer ausgefallenen Disk in einem RAID5- oder RAID6-Array
Array konfigurieren, wäre die Performance beider Disk-
dauert in der Regel mehrere Stunden, manchmal Tage.
Anordnungen zu Beginn des Betriebes identisch. In der Pra
Zusätzlich ist während dieser langen Zeitspanne die Perfor
xis verflüchtigt sich dieser „Gleichstand“ aber recht schnell:
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
99
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
•• Bei Kapazitätserweiterungen oder Änderung von Volume-
Wiederherstellung vollständiger Datenredundanz zu erlan
Größen ist die Gleichverteilung bei RAID-Arrays nicht mehr
gen. Im Gegensatz zu RAID5- oder RAID6-Verfahren arbeitet
gewährleistet. Manuelle Nacharbeit am Storage- und Host-
die Wiederherstellung jedoch sehr viel schneller, weil alle
system (Rebuild des Stripings etc.) ist arbeitsintensiv und
verbleibenden Disks an den notwendigen IO-Operationen
finden oft nicht statt. Manchmal müssen für solche Opera-
beteiligt sind und außerdem der Zugriff auf die Daten in die
tionen ganze Arrays oder Volumes umgezogen werden.
ser Zeit keine zusätzlichen XOR-Operationen erfordert.
•• Eine Gleichverteilung aller I/Os über alle Systemkomponenten erfordert bei traditionellen Systemen genaue
Diese Eigenschaften führen dazu, dass das XIV-System trotz
Kenntnis der Architektur und aller Virtualisierungs-
langsamerer SATA-II-Technologie eine höhere Performance
schichten. Diese Arbeiten können häufig nur von Spezia-
und eine höhere Verfügbarkeit besitzt als klassische High
listen durchgeführt werden. Das Auslagern solcher Tätig-
End RAID-Systeme mit FibreChannel-Technologie.
keiten an die Anwender ist nicht möglich. Verteilte Caches Wie bereits erwähnt, sind derlei Maßnahmen bei XIV-Syste
Auch hinsichtlich der Caches sorgt die verteilte Architektur
men nicht nötig (und auch nicht möglich), da der Vertei
für Vorteile gegenüber Dual-Controller Systemen. Die unab
lungsalgorithmus autonom und dynamisch arbeitet. Sobald
hängigen Caches sind jeweils nur für die in den Modulen
das System zusätzliche Module bekommt, beginnt das
vorhanden 12 Disks zuständig. Dies gewährleistet eine mini
System mit der Umverteilung der 1-MB-Partitionen, um wie
male Latenzzeit und maximale Bandbreite. Für das Schrei
der eine Gleichverteilung über alle Systemressourcen zu
ben der Daten vom Cache auf die Disks steht die volle
erlangen. Auch wenn Module oder Disks entfernt werden,
Bandbreite von zwei dedizierten PCI-X Bussen zur Verfügung.
beginnt eine Neuverteilung, um eine Gleichverteilung und
Verteilung der 1-MB-Partitionen eines Volumes auf alle Disks im System.
100
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Die gesamte CPU-Leistung eines Moduls steht ausschließ
die 12 Disks eines kompletten Moduls plus drei zusätzliche
lich für diesen lokalen Cache zur Verfügung, was u. a. drei
berücksichtigt. Ferner benötigt das System für interne Zwe
Dinge ermöglicht:
cke ca. 3,5 TB. Daraus ergibt sich für die Nettokapazität:
•• Aggressives Im-Voraus-Lesen (engl. prefetching) von
K (Netto) = (15 * 12 – 12 – 3) * 1TB / 2 – 3,5 TB = 79,5 TB
Datenblöcken mittels intelligenter Algorithmen. •• Sehr kleine Datenblöcke im Cache. Traditionelle Systeme
Werden mehr oder weniger als 15 Module verwendet,
arbeiten aufgrund eines einfacheren Cache-Manage-
vermindert bzw. vergrößert dies die Nettokapazität ent
ments meist mit Datenblöcken von 32 oder 64 KB. Das XIV-
sprechend.
System kann aufgrund der hohen lokalen CPU-Leistung mit 4-KB-Blöcken arbeiten, was eine sehr effiziente Cache-
XIV-Funktionen
Nutzung zur Folge hat.
Thin Provisioning
•• Eine Cache-Synchronisation ist nicht notwendig, weil jeder
Mit Hilfe des Thin Provisionings lassen sich Speicherkapazi
Cache nur für seine lokalen Daten bzw. Disks zuständig ist.
täten effektiver nutzen. Bei einem traditionellen System wird der für ein Volume vorgesehene Speicherplatz sofort allo
Auch hinsichtlich einer für High-End-Systeme notwendigen
kiert und steht somit anderen Anwendungen nicht mehr zur
Verfügbarkeit hat eine verteilte Cache-Struktur Vorteile:
Verfügung und zwar auch dann nicht, wenn der Speicher
Selbst beim Ausfall eines gesamten Moduls geht bei einem
platz gar nicht genutzt wird. Das führt in der Praxis zu einer
Ein-Rack-System nur ein Fünfzehntel der Cache-Kapazität
sehr schlechten Auslastung. Anwender wollen nämlich von
und Leistung verloren.
vornherein so viel Speicherplatz reserviert haben, wie auf absehbare Zeit notwendig ist, weil andernfalls spätere
Sämtliche Caches sind durch redundante unterbrechungs
manuelle Nacharbeit notwendig ist. Beim XIV-System hin
freie Stromversorgungseinheiten (UPS) abgesichert. Das
gegen kann ein Volume im Prinzip beliebig groß sein. Ist
System besitzt insgesamt drei solcher UPS-Einheiten, die
beispielsweise für eine neue Anwendung bekannt, dass das
sich permanent zwischen dem öffentlichen Netz und den
Datenvolumen in drei Jahren 10 TB beträgt, kann gleich ein
Modulen befinden, sodass diese kurzfristigen Ausfälle oder
Volume mit entsprechender Größe angelegt werden. Der tat
Spannungsspitzen verborgen bleiben. Erst bei einem Ausfall
sächlich belegte Speicherplatz entspricht lediglich dem der
von mehr als 30 Sekunden fängt das System an, geordnet
wirklich gespeicherten Daten. Ist irgendwann der physika
herunterzufahren. Ein bei anderen Systemen übliches Write-
lische Speicherplatz des Systems (oder Pools) erschöpft,
Through-Verfahren beim Ausfall eines Controllers oder bei
können einfach neue Module hinzugefügt werden. Der Ver
Stromausfällen ist also bei XIV nicht notwendig.
teilungsalgorithmus sorgt sofort für eine Neuverteilung der Daten und die Kapazität ist erweitert. Auch hier ist also kei
Speicherkapazität
nerlei Nacharbeit notwendig.
Wie bereits beschrieben, besitzt jedes Modul 12 lokale Disks. Beim Einsatz von 1 TB SATA-II Disks ergibt sich somit
Diese Überprovisionierung ist übrigens nicht systemweit
für ein volles Ein-Rack-System eine Bruttokapazität von:
gültig, sondern jeweils nur innerhalb eines Storage-Pools. Ein Pool stellt eine administrative Domain dar, innerhalb
K (Brutto) = 12 Disks * 15 Module * 1 TB = 180 TB
derer eine Quota-Verwaltung möglich ist.
Wie im Kapitel Datenverteilung und Load Balancing
Was passiert nun, wenn diese Überprovisionierung für viele
beschrieben, werden stets alle Daten über alle Disks verteilt
Volumes erfolgt, diese über die Zeit wachsen und die physi
und zwar redundant. Dedizierte Spare-Disks, die im Normal
kalischen Kapazitätsgrenzen erreicht werden? Wie in jedem
betrieb nichts tun, gibt es hier nicht. Dennoch muss natür
Storage-System wird die Kapazitätsauslastung überwacht.
lich so viel Kapazität in „Reserve“ gehalten werden, wie Disk
Bei Überschreiten konfigurierbarer Kapazitätsgrenzen wird
ausfallen können sollen. Für diese Reservezwecke werden
der Administrator benachrichtig (SNMP, SMS oder E-Mail).
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
101
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
Reagiert dieser nicht, beginnt das System bei kritischer
dabei nur lesend zugegriffen werden. Bei Bedarf können
Auslastung Snapshots zu löschen. Dabei priorisiert das
Snapshots aber auch mit einem Handgriff als beschreibbar
System nach Wichtigkeit (beim Anlegen von Snapshots kon
(engl. writeable) markiert werden. Dies ist oft hilfreich für
figurierbar) und nach Alter. Reichen auch diese Maßnahmen
Tests oder andere Szenarien, bei denen auf die Daten
nicht mehr, kann das Systemverhalten auf zwei Reaktionen
schreibend zugegriffen werden muss.
konfiguriert werden: Entweder werden alle Volumes gelockt oder auf ‘read-only’ gesetzt. In jedem Fall bleibt aber die
Snapshots von Snapshots
Datenintegrität erhalten.
Manchmal ist es wünschenswert, von einem Snapshot eine weitere logische Kopie zu haben. XIV-Systeme können mit
Durch das Thin Provisioning wird in der Praxis die Spei
demselben Mechanismus mehrere Kopien eines Snapshots
cherauslastung um 20 – 30% verbessert.
erzeugen. So könnte ein Snapshot z. B. als beschreibbar markiert werden, während die zweite Kopie für ein Backup
Snapshots
dient.
XIV-Systeme sind mit extrem schnellen und einfach zu handhabenden Snapsho-Mechanismen ausgestattet. Der
Consistency Groups
beschriebene Verteilungsalgorithmus der Daten setzt
Für manche Anwendung ist es wichtig, konsistente
voraus, dass Verteilungstabellen die Informationen beinhal
Snapshots zu erzeugen, wenn die Anwendung mehrere
ten, welche Datenblöcke auf welchen Disks gespeichert
Volumes benutzt. Dies trifft z. B. auf Datenbanken zu, wenn
sind. Wird nun für ein Volume oder eine Gruppe von
diese ihre Log-Dateien auf separaten Volumes speichert.
Volumes ein Snapshot erzeugt, werden lediglich diese Meta-
Für diese Fälle können mehrere Volumes zu Konsistenz
Informationen gespeichert. Dies ist eine reine Memory Ope
gruppen (engl. Consistency Groups) zusammengefasst wer
ration, die immer ca. 150 ms dauert, unabhängig von der
den. Beim Erzeugen eines Snapshots ist dann sicherge
Größe eines Volumes (dies gilt ebenso für das Löschen von
stellt, dass selbige konsistente Daten enthalten, d. h., dass
Snapshots). Auch der verwendete Speicherplatz für ein
der Zeitstempel der verschiedenen Volumes identisch ist.
Snapshot ist zu diesem Zeitpunkt gleich null. Erst wenn
Volumes einer Konsistenzgruppe müssen alle demselben
Datenblöcke verändert werden, sorgt ein ‘redirect-on-write’
Storage-Pool angehören.
dafür, dass der modifizierte Datenblock an eine andere Stelle geschrieben wird. Diese Technik ist schneller als das
Automatischer Snapshot bei entfernter Spiegelung
übliche ‘copy-on-write’ Verfahren, da eine Schreiboperation
XIV-Systeme erzeugen vor einem Synchronisationsprozess
weniger notwendig ist.
entfernter Spiegel automatisch einen sogenannten ‘last-con sistency-snapshot’ auf dem Zielsystem. Der Grund hierfür ist
XIV-Snapshots führen deshalb in der Praxis zu keiner Perfor
die Sicherstellung eines konsistenten Zustands für den
mance-Einbuße. Pro System können bis zu 16.000
Fall, dass während des Synchronisationsprozesses das
Snapshots erzeugt werden.
Quellsystem ausfällt oder die Verbindung unterbrochen wird. In diesem Fall ist es möglich, dass das Zielsystem einen
102
Volume-Kopien
inkonsistenten Zustand hat. Der automatische Snapshot
Selbstverständlich können auch Volume-Kopien erzeugt
kann dann verwendet werden, um zu einem definierten,
werden. Volume-Kopien können – wie Snapshots – sofort
konsistenten Zustand zurückzukehren. Diese automatischen
nach deren Initiierung verwendet werden. Das physikalische
Snapshots haben eine Deletion-Priority von null, d.h., sie
Kopieren läuft im Hintergrund, bis alle Datenblöcke kopiert
werden im Falle einer Überprovisionierung eines Pools nicht
sind.
automatisch gelöscht.
Beschreibbare Snapshots
Remote Mirroring/Disaster Recovery
Ein Snapshot kann jedem beliebigen Host zugewiesen wer
Für katastrophenresistente Installationen ist es möglich, ent
den. Dies ist oft hilfreich für eine Weiterverarbeitung der
fernte Spiegel (engl. Mirror) auf einem anderen XIV-System
Daten, z. B. Erzeugen von Backups oder als Datenquelle für
zu erzeugen. Dies kann entweder über dedizierte iSCSI
ein Data-Warehouse. Standardmäßig kann auf Snapshots
oder FibreChannel-Ports implementiert werden.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Derzeit werden zwei Möglichkeiten der synchronen Spiege lungen unterstützt: Best Effort: Beim Ausfall des Kommunikationspfades oder des Zielsys tems kann weiter auf dem primären System gearbeitet wer den. Sobald der Link wieder zur Verfügung steht, werden die in dieser Zeit geänderten Blocks nachträglich resynchro nisiert. Mandatory: Beim Ausfall des Kommunikationspfades oder des Zielsys tems sind keine Schreibzugriffe mehr auf dem primären
Energieverbrauch traditioneller Systeme mit FC-Disks vs. XIV
System möglich. Diese Art der Implementierung erfordert besondere Sorgfalt bei der Planung des gesamten SANs.
Auch andere Eigenschaften der XIV-Architektur helfen, den
Alle Komponenten (Fabrics, Links, Switche etc.) sollten
Energieverbrauch zu senken:
redundant ausgelegt sein. Physikalische Kapazität wird nur „verbraucht“, wenn die Spiegel können pro Volume angelegt werden und es können
Anwendung tatsächlich Daten schreibt, jedoch noch nicht
mehrere Ziel-Volumes definiert werden.
beim Anlegen eines Volumes. Das Thin Provisioning erlaubt es somit, eine Überprovisionierung vorzunehmen, was bis
An einem Zielsystem angeschlossene Hosts können die
zu 30% weniger nicht genutzte Kapazität bedeutet.
Volumes zwar sehen, diese befinden sich aber im ‘read-only’Modus. Wird im Falle eines Disasters das sekundäre Zielsys
Durch das gleichmäßige Verteilen der Daten eines Volumes
tem zum primären System, können die Volumes beschrieben
auf alle Disks im System entstehen keine ungenutzten „Rest
werden. Die Volumes des ehemals primären Systems werden
stücke“, die häufig dann entstehen, wenn verschiedene
nun zu sekundären Volumes und sind für diesen Zeitraum
RAID-Arrays für verschiedene Zwecke konfiguriert werden
nur lesbar (read-only).
bzw. Volumes auf verschiedene Arrays verteilt werden müssen.
Energieverbrauch
Management
Durch die GRID-Architektur und die beschriebenen I/O-
Das einfache Management von XIV-Systemen macht deren
Load-Balancing-Mechanismen können selbst für sehr hohe
große Stärke aus. Aufgrund des beschriebenen dyna
Performance-Anforderungen Disks mit hoher Speicherdichte
mischen und autonomen Verteilungsverfahrens der Daten
und SATA-II-Technologie verwendet werden. Um eine ent
auf alle Volumes entfällt beispielsweise vollständig die
sprechende Performance zu erreichen, müssen traditionelle
Planung hierfür. Bei traditionellen Systemen ist hier oft eine
Systeme FC-Disks verwenden, die nicht nur wesentlich
aufwendige Planung und Vorarbeit erforderlich, um für die
teurer sind, sondern vor allem mehr Energie verbrauchen,
verschiedenen Anwendungen eine optimale Performance
weil sie erstens schneller drehen und zweitens für die gleiche
und Verfügbarkeit zu gewährleisten. Ferner müssten die Ein
Kapazität mehr Disks benötigt werden.
stellungen bei Systemveränderungen nachgezogen werden, was wiederum arbeitsintensiv ist. All diese Dinge entfallen
Ein vollständig ausgebautes XIV-Rack mit 180 Disks und
bei XIV-Systemen vollständig. Gleiches gilt auch für die
einer Bruttokapazität von 180 TB hat einen Energieverbrauch
Platzierung von Snapshots. Auch hier sind keine besonderen
von 7,7 kW. Dies entspricht einem Verbrauch von 43 W pro
Vorkehrungen zu treffen.
TB Datenvolumen. Traditionelle Storage Systeme mit 146-GBFC-Disks haben einen Verbrauch von 180–380 W pro TB.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
103
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
Benutzerschnittstellen
Statistikdaten
Das Management von XIV-Systemen ist über drei Wege
Neben den regulären Administrationsaufgaben können auch
möglich:
Statistikdaten über die genannten Benutzerschnittstellen abgerufen werden. Das System speichert die Performance-
Eine grafische Benutzeroberfläche (GUI). Diese ist intuitiv
Daten eines Jahres. So können beispielsweise I/Os pro
bedienbar, die vollständige Administration eines XIV-
Sekunde oder Durchsatzzahlen in MB/s aus jedem Zeitfenster
Systems ist in wenigen Stunden erlernbar. Geübte Storage-
innerhalb der letzten 12 Monate abgerufen und genauer
Administratoren kommen häufig sofort ohne Vorbereitung
untersucht werden. Bei der Ausgabe kann z. B. gefiltert
zurecht. Eine Demo für grafische Benutzeroberflächen
werden auf:
befindet sich auf der XIV-Web-Seite: http://www.xivstorage.com/demo/GUI_Demo.html
•• Interfaces •• Hosts
Ein Kommandozeileninterface (CLI). Hier können alle admi
•• Volumes
nistrativen Aufgaben per Kommandozeile eingegeben oder
•• Targets
durch Skripte automatisiert werden.
•• Cache Hit/Miss-Raten •• Read, Write oder Read/Write
SMI-S-konforme-Storage-Management Werkzeuge: StorageTools, wie z. B. das Tivoli Productivity Center, können
und vieles mehr. Selbstverständlich können diese Daten
verwendet werden, um XIV-Systeme zu administrieren.
über das CLI auch zur Weiterverarbeitung in andere Tools exportiert werden.
Ansicht Statistikdaten über die GUI
104
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Interoperabilität
Allgemein zeichnen sich die Modelle durch eine geringe
XIV-Systeme können an allen gängigen offenen Systemen
Bauhöhe von nur 2U aus sowie eine Skalierbarkeit von bis
betrieben werden, die iSCSI und/oder FibreChannel-Spei
zu 48 Festplatten. In der Kopfeinheit können bis zu 12 Fest
chersysteme unterstützen. Dazu gehören z. B. AIX, Solaris,
platten untergebracht werden. Der Controller und damit das
HP-UX, Linux und die verschiedenen Windows-Varianten.
Gesamtsystem ist über die Erweiterungseinheiten EXP3000
Auch gängige Cluster-Lösungen unterstützen die XIV-Sto
(bis zu 3 weiteren Einheiten) ausbaubar.
rage Systeme. Seitens der Betriebssysteme hat die DS3000-Familie eine Release XIV Storage System Software Version 10.2
geringeres Portfolio an anschließbaren Betriebssystemen.
Im November 2009 kündigt IBM für XIV den Release 10.2
Hier werden die Systeme Windows, Linux und Novell
an, der folgende Erweiterungen einführt:
standardmäßig angeboten. Zusätzlich bietet die Maschine je nach Modell die Anschlussmöglichkeit von VMware, SVC
Asynchrones Spiegeln von XIV-Volumes und Consistency
(San Volume Controller) oder AIX.
Groups und die Unterstützung des Thin Provisioning Space Reclamation Features der Veritas Storage Foundation. DS3000 Platten Entry System Im Februar 2007 überraschte IBM den Markt mit der Ankün digung eines Entry-Plattensystems, der DS3000. Das System wird wie die DS4000-Reihe von der Firma LSI gebaut und als IBM Logo-Produkt vertrieben. Am Anfang war das System nur über den Vertriebskanal IBM System x beziehbar. Als die ersten Performance Benchmarks ergaben, in welche ansehnliche Leistungsklasse die Maschine skaliert, wurde das System im April 2007 in den gesamten Storage-Vertrieb der IBM integriert. Rück- und Frontansicht der DS3000
Die DS3000-Familie zeichnet sich im Allgemeinen durch ein hervorragendes Preis-Leistungs-Verhältnis aus und bietet
Jedes Modell besitzt einen Ethernet-Zugang für das
einen extrem günstigen Einstiegspreis. Es stehen drei
Management. Zusätzlich kann die Maschine auch über die
Modelle zur Verfügung.
Host Connectivity administriert werden. Mit 512 MB Ram pro Controller steht ausreichend Speicher für das Caching
Die DS3200 zeichnet sich durch 6 SAS-Hostanschlüsse aus.
zur Verfügung. Dieser Speicher kann mit weiteren 512 MB
Die DS3300 zeichnet sich durch maximal 4 x 1 Gbit Ether
pro Controller erweitert werden. Dies ergibt eine maximale
net iSCSI-Hostanschlüsse aus. Die DS3400 zeichnet sich
Cache-Größe von 2 GB pro System.
durch maximal 4 FibreChannel-Ports aus, die in den Geschwindigkeiten 4, 2 und 1 Gbps arbeiten können. Die
Trotz „Entrysystem“ wird bei der DS3000 auf redundante
Platten- und Backend-Technologie ist in allen drei Modellen
Komponenten nicht verzichtet. Die DS3000 hat auch bei
SAS mit der Möglichkeit, auch SATA-Platten anzubinden.
einer Single-Controller-Variante redundant ausgelegte Lüfter
Anfangs standen ausschließlich 300-GB-SAS-Platten (Serial
und Netzteile.
Attached SCSI) zur Verfügung bei einer maximalen ausbau baren Kapazität von bis zu 14,4 TB. Seit Oktober 2007 können
Der DS3000 Storage Manager ist analog zum DS4000
auch 750-GB-SATA-Platten integriert werden. Damit skalie
Manager ebenfalls intuitiv zu bedienen und leicht zu instal
ren die Systeme auf eine maximale Kapazität von 35,2 TB.
lieren. Der initiale Setup der Maschine erfolgt in 6 Dialog-
Der Mischbetrieb von SAS-Platten und SATA-Platten wurde
geführten Schritten und sollte innerhalb von 45 Minuten voll
sichergestellt.
zogen sein, d. h., nach spätestens 45 Minuten sind die
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
105
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
Positionierung der Entry Systeme DS3000 zu den bestehenden DS4000-Systemen (P= Performance, F=Funktionalität)
ersten Volumes den angeschlossenen Servern bekannt
Für die DS3300 steht ein neues Modell 32T zur Verfügung,
gegeben. Der DS3000 Storage Manager unterstützt die
das speziell für Telco-Umgebungen ein 48 V basierendes
RAID-Level 0, 1, 3, 5 und 10.
doppeltes Netzteil auf Gleichstrombasis in der ControllerEinheit integriert hat (iSCSI DC-Powered Controller). Damit
Durch den Recovery Guru und durch automatische Benach
kann die DS3300-32T problemlos in Telco-Umgebungen ein
richtigungen erhält man proaktiv, auch schon vor Crash-
gesetzt werden.
Situationen, Meldungen über eventuelle Fehler oder Überschreitungen von Schwellwerten. Die Benachrichtigung
DS5000 Plattensysteme
erfolgt über SNMP und / oder per E-Mail.
Der August 2008 stand ganz im Zeichen der Ankündigung des neuen Midrange ‘Flagship’ DS5000, die das Produkt
106
Im Februar 2008 kündigte IBM für alle drei DS3000-Modelle
portfolio nach oben abrunden sollte. Das bewährte Hard
1.000 GB (1 TB) SATA-Platten an. Damit bekommt das
ware-Design mit der austauschbaren Midplane der DS4800
Entry-System DS3000 als erstes Plattensystem der IBM die
übernehmend, wurde das System mit einigen weiteren
Möglichkeit, Platten mit 1 TB an Kapazität zu verwenden. Mit
Funktionen ausgestattet. So lassen sich bei der aus zwei
diesen Platten kann jede Erweiterungseinheit mit 12 TB
Produkten bestehenden DS5000-Familie (DS5100 und
Plattenplatz konfiguriert werden. Das Gesamtsystem,
DS5300) die Host-Schnittstellen-Karten (kurz HIC, Host
bestehend aus Kopfeinheit und drei Erweiterungseinheiten,
Interface Cards) modular austauschen. Dem Anwender steht
liefert mit den 1 TB SATA-Platten eine maximale Kapazität
die Anschlussmöglichkeit über 1 GBit iSCSI, wahlweise
von 48 TB aus.
auch über 4 Gbit oder 8 Gbit FC zur Verfügung.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Ebenso wurde die kapazitive Skalierbarkeit von bisher 224
erhalten. Hierbei wird der Controller selber über eine
Platten bei der DS4800 auf 448 Platten angehoben. Damit
Batterie bei einem Stromausfall so lange betrieben, bis der
einhergehend wurden die Anzahl der Disk-Backend-Kanäle
Cache-Inhalt auf den permanenten Speicher verlagert
auf sechzehn 4-Gbit-FC-Kanäle verdoppelt.
wurde. Danach wird die DS5000 ordentlich herunterge fahren.
Beim Design der Storage Controller wurde hier wieder Augenmerk auf die lineare Skalierbarkeit bis zur letzten
Für das Cache Mirroring bei der DS5000 stehen jetzt
Platte gelegt. Die RAID-Berechnung erfolgt über einen eige
dedizierte Kanäle zur Verfügung, um die gesamte interne
nen ASIC. Diese beiden Eigenschaften sorgen für eine her
Bandbreite des Systems ohne Einschränkungen nutzen zu
vorragende Leistung im Bereich von Transaktionen und
können.
Datendurchsatz. Beides wird eindrucksvoll durch die SPC-1und SPC-2-Tests belegt (www.storageperformance.org).
Funktionell wurde die DS5000 gegenüber dem Vorgänger DS4800 um Raid6 erweitert. Das verwendete Raid-Verfahren
Eine Neuerung gegenüber allen anderen Midrange-Pro
ist dabei P+Q Raid6, ein Industriestandard, der gemeinsam
dukten im IBM Portfolio stellt eine Veränderung des Cache-
mit Intel entwickelt wurde.
Schutzes dar. Während bei allen Vorgängermodellen im Falle eines Stromausfalls der Cache über eine Backup-Batterie bis zu 72 Stunden gestützt wurde, wird der Cache-Inhalt bei der DS5000 mit Hilfe von Flash-Memory-Bausteinen aufrecht
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
107
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
•• Solid State Disk Drives (SSD): Im Herbst 2009 angekündigt, wird die Möglichkeit hinzugefügt, bis zu 20 SSD-Laufwerke in einer DS5000 zu betreiben. Im Gegensatz zu einer herkömmlichen Platte (Abbildung), verfügt die SSD über keine rotierenden bzw. sich bewegenden Bauteile. Hierdurch entfällt die Rotationslatenz, sodass gerade im Bereich der Transaktionen eine deutliche Verbesserung erzielt werden kann. Als typischer Anwendungsbereich können hier die Log-Bereiche einer Datenbank angesehen werden. Zum Zeitpunkt der Ankündigung stand die SSD in der Größe von 73 GB zur Verfügung. Herkömmliche Platte
•• High Density Enclosure EXP5060: Neben der 16 Platten
SSD Drive
fassenden Erweiterungseinheit EXP5000 und EXP810 Im Jahr 2009 erfolgten dann Schritt für Schritt weitere Funk
steht mit der Ankündigung der EXP5060 eine 60 SATA-
tionserweiterungen der DS5000-Familie:
Platten fassende 4U Expansion Unit zur Verfügung. Diese bietet, verteilt über 5 Schubladen, eine hohe Kapazität
•• Full Disk Encryption Drive (FDE): Hierbei handelt es sich
(60 1TB-SATA-Platten) und sehr geringen Platzbedarf. Um
um eine FC-Platte, die in der Lage, ist darauf befindliche
die benötigte Performance zu gewährleisten, ist bei der
Daten über einen auf den Disks befindlichen Key zu ver-
EXP5060 erstmals möglich, ein Trunking von mehreren FC-
schlüsseln. Die Freischaltung der Verschlüsselung erfolgt
Backend-Kanälen der DS5000 zu nutzen. Mit der EXP5060
über einen weiteren, auf dem Speichersystem vorgehal-
soll primär der HPC- (High Performance Computing) und
tenen Key. So ist sichergestellt, dass die Daten bei dem
Archivierungsmarkt adressiert werden.
Entfernen einer FDE-Platte nicht lesbar sind und damit die darauf befindlichen Daten gegen unberechtigten Zugriff geschützt sind. Eine Funktion, die gerade bei der Speicherung von personen- bzw. kundenbezogenen Daten die Datensicherheit erhöht. •• Anschluss System I: System I konnte auch zuvor über einen VIOS angeschlossen werden, mit der Ankündigung im Herbst 2009 kam dann aber die Möglichkeit, System I native an eine DS5000 anzuschließen, hinzu. Dies ist eine Funktion, auf die viele Anwender von System I lange gewartet haben. Diese Eigenschaft in Kombination mit der gleichzeitigen Möglichkeit, bis zu 64 GB Cache zu unterstützen, gewährleistet die für die Anwendungen von System I so wichtige Response- und Servicezeit.
108
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Ankündigung DS5020 – das Ende der DS4000-Ära
iSCSI zur Verfügung. Beide Protokolle können parallel auf
Mitte 2009 galt es, einen Nachfolger für die DS4700 zu
einem Controller betrieben werden und ermöglichen ein ent
finden. Zum Ankündigungstermin 25.08.2009 wurde dann
sprechendes ‘SAN Tiering’.
schließlich die DS5020 vorgestellt. Wie alle Mitglieder der DS4000/DS5000-Familie unterstützt Die DS5020 verfügt, ebenso wie ihr Vorgänger DS4700,
die DS5020 eine Vielzahl von Zusatzfunktionen wie:
über die Ausbaufähigkeit bis zu 112 Disks, die über mehrere 4-Gbit-Kanäle angeschlossen werden. Als Disktypen stehen
•• Storage-Partitionen
Standard FibreChannel, FDE FibreChannel und SATA-Platten
•• FlashCopy
zur Auswahl. Alle Plattentypen können nebeneinander in der
•• VolumeCopy
selben Expansionseinheit betrieben werden.
•• RemoteVolume Mirroring. •• Disk Encrypton etc.
Um den Anforderungen vor allem von virtualisierten Umge bungen Rechnung zu tragen, wurde bei der Controller-Ent
Daten aus bestehenden DS4000-Systemen können direkt
wicklung ein besonderes Augenmerk auf eine ausgewogene
auf neue DS5000-Systeme, z. B. durch Remote VolumeMirro
Leistung gelegt. Auf der einen Seite steht eine hervorra
ring oder in manchen Konstellationen auch durch physische
gende Performance bei Transaktionen, die einen maximalen
Migration der Festplattengruppen übernommen werden.
Ausbau sinnvoll erscheinen lässt, und auf der anderen Seite liefert das System sehr beeindruckende Durchsatzergeb
Nach der Ankündigung der DS5020 wird die DS4700 bis
nisse. Beide Werte wurden in entsprechenden SPC-1- und
Ende 2009 verfügbar bleiben. Danach wird das Kapitel der
SPC-2-Tests dokumentiert. Der mit Flash Memory abgesi
DS4000-Storagesysteme geschlossen.
cherte Datencache ist bis auf 4 GByte erweiterbar. Um eine für den Betrieb so wichtige Integration der Applika Eine weitere Besonderheit ist die Möglichkeit, im FrontEnd,
tionen und deren Betriebssystemplattformen zu gewährleisten,
also im Anschluss der Server verschiedene Protokolle zu
begleiteten beide Ankündigungen (DS5000 und DS5020)
nutzen. Hier stehen 4/8 Gbit FibreChannel und auch 1 Gbit
eine Vielzahl von Lösungsangeboten.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
109
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
Hier seien exemplarisch genannt:
Für die gesamte Systemfamilie steht auch eine vollständige Integration in die IBM Virtualisierungslösung SVC (SAN
•• Integration in VMware vCenter über ein PlugIn
Volume Controller) zur Verfügung.
•• Unterstützung von VSS/VDS •• SMI-S-Integration •• Oracle Enterprise Manager PlugIn •• Lösungsangebot für DeDuplikation Lösungen (ProtecTier) •• TSM FlashCopy Manager •• Backup Integration wie z. B. mit FastBack •• Integration in das System Storage Productivity Center (SSPC)
110
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Virtualisierung
sungen ihre installierten Speicherkapazitäten schlecht aus. Weltweite Kundenumfragen ergaben, dass die effektive Nut
SAN Volume Controller SVC – Virtualisierung von Plattensystemen
zung bei etwa 50% liegt. Auch beim Austausch von Speicher
im SAN-Umfeld
systemen im Rahmen von Business-Continuity-Maßnahmen
Die ersten Geräte des SAN Volume Controllers SVC waren
war hoher Aufwand notwendig, und zumeist wurde der
im September 2003 verfügbar und sind in der Epoche der
Anwendungsbetrieb für die gesamte Migrationsdauer unter
Multiplattform-Systeme und des FibreChannel SAN und NAS
brochen. Der IBM SAN Volume Controller (SVC) erleichert
beschrieben. Die Konzeption des SVC und die dazugehörige
dies erheblich, indem er Migrationen bei laufendem
Software wurde über die Jahre kontinuierlich weiterentwickelt
Betrieb ermöglicht.
und der heutige Produktplan des SVC sieht für die nächsten Jahre viele neue Erweiterungen bezüglich der Hardware
Eine Speichervirtualisierung mit IBM SVC bietet gegenüber
und Software vor. Deshalb ist es notwendig, die Konzeption
traditionellen Speicherlösungen den Vorteil, dass Speicher-
und den SVC selbst besser zu verstehen.
platz weitgehend herstellerunabhängig zugeordnet wer den kann. Hieraus folgt eine einfachere Administration, da
Die Administration von Speicherkapazitäten stellt nach wie vor
sich die virtuelle Oberfläche unabhängig von den jeweils
einen hohen Anteil der IT-Kosten dar. Virtualisierte Speicher
installierten Speichersystemen konfigurieren lässt. Die Grund
landschaften bieten hier eine mögliche Lösung, indem sie
idee besteht darin, schnell und flexibel Plattenspeicher dort
Speichersysteme sowohl unterschiedlicher Bauarten und
zuordnen zu können, wo gerade Bedarf entsteht. Dem stand
Hersteller gemeinsam verwalten und flexibel den Servern
bisher im Wege, dass am SAN angeschlossene Server nur
zuweisen können. Eine Speichervirtualisierung mit dem SAN
Zugriff auf die ihnen zugeordneten Speicherbereiche hatten.
Volume Controller begegnet diesen Herausforderungen mit
Eine virtualisierte Speicherlösung wie der SVC löst dieses
einer skalierbaren Architektur. Viel Aufwand haben viele Unter
starre Muster auf, da die Server hier nur noch Zugriff auf vir
nehmen in den letzten Jahren betrieben, um sich von einer
tuelle Speicherbereiche haben. Die SVC-Software entschei
dezentralen Speicherlandschaft mit direkt angeschlossenem
det nach entsprechenden Vorgaben, wo die Daten physisch
Speicher (Direct Attached Storage, DAS) hin zu einer zen
abgelegt werden. Dabei bietet die Lösung Schnittstellen zu
tralen Speicherlösung mit einem Storage Area Network (SAN)
allen marktüblichen Betriebssystemen, Hardwareplattformen
zu entwickeln. Wohl existieren Storage Area Networks nicht
und Speichersystemen und ermöglicht ein Management
flächendeckend, vielfach bilden sie aber bereits den Stan
über eine zentrale Konsole.
dard. In der jetzigen Phase geht es darum, sowohl Server umgebungen als auch Speichersysteme weitgehend zu vir
Einige wichtige Hardwarefunktionen verbleiben nach wie vor
tualisieren. Die derzeit existierenden SAN-Lösungen sind oft
im Speichersystem und sind unabhängig vom SVC. So wer
recht starre Umgebungen und bilden meist Einzellösungen
den die Systeme vor dem Anschluss an den SVC wie in der
für Plattformen bestimmter Hersteller und Fachbereiche. Folg
Vergangenheit eingerichtet. Es werden RAID-Arrays und
lich sind Änderungen aufwendig und unterbrechen meist den
anschließend die LUNs (Logical Units) gebildet. Dies erfolgt
Anwendungsbetrieb. Falls ein IT-Betreiber unterschiedliche
im Zuge der Installation mittels der vom Hersteller mitgelie
Speichersysteme – unter Umständen mehrerer Hersteller –
ferten Administrierungssoftware. Die so definierten LUNs
installiert hat, benötigt er jeweils unterschiedliche Adminis
werden dann dem SVC zugeteilt, der sie in sogenannte
trations-Tools. Auch ist die hardwarebasierende Datenspiege
‘Managed Disks’ (MD) umwandelt. Eine MD hat eine feste
lung zwischen Speichersystemen unterschiedlicher Bauart
Größe und ist nicht mehr veränderbar. Danach werden eine
nicht möglich, das Gleiche gilt für Speichersysteme unter
oder mehrere MDs in sogenannte ‘Managed Disk Groups’
schiedlicher Hersteller.
zusammengefasst. Für die angeschlossenen Server werden im SVC virtuelle LUNs definiert, worauf der jeweilige Server
Administrationsarbeiten geraten damit sehr aufwendig, weil
zugreift. Die Definition legt auch fest, welcher Managed Disk
Plattformwissen und die zugehörige Pflege gleich mannig
Group die virtuelle LUN zugeordnet wird. Dies bestimmt, wo
fach vorzuhalten ist. Weiterhin lasten heutige Speicherlö
letztlich die Daten physisch abgelegt werden.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
111
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
Einfache Datenmigration
Insgesamt stellt der SVC eine vollständige Appliance-Lösung
Eine Datenmigration von LUNs zwischen unterschiedlichen
dar, die Hardware, Software und Managementkonsole bein
Speichersystemen führt der SVC im laufenden Arbeitsbe
haltet. Jeder der zwei zu einem sogenannten Node-Paar
trieb durch. Verliert eine Applikation, deren Daten sich bei
gehörigen IBM System x-Server ist mit einem 2-Prozessor
spielsweise auf einem High-Performance-Speicher befinden,
system mit 2 x 2,4-GHz-Intel-Prozessoren ausgestattet, hat
für das Unternehmen an Priorität – etwa aufgrund hoher
8 GB Cache und vier 4-Gbit/s-FibreChannel-Ports (2145-
Betriebskosten für den Fachbereich, lassen sich deren
8G4). Diese neuen Prozessoren stehen seit Mai 2007 zur
Daten online auf günstigere Low-Performance-Speicher
Verfügung und erhöhen die Leistungsfähigkeit von 160. 000
migrieren. Dies erfolgt durch eine Änderung der Zuordnung
I/Os auf bis zu 276 .000 I/Os. Über die Managementkonsole
einer virtuellen LUN zur Managed Disk Group.
können alle Administrationen ausgeführt und im Fehlerfall auch notwendige Analysedaten ausgelesen werden. Enthal
Neben der Datenmigration zum Speichersystemaustausch
ten sind auch zwei Komponenten zur unterbrechungsfreien,
können nun auch Pflegearbeiten während der Arbeitszeit
batteriegepufferten Stromversorgung (UPS).
stattfinden. Speicherinhalte der Subsysteme lassen sich im laufenden Betrieb auf andere, freie Bereiche eines anderen
Die Implementierung des SVC vollzieht sich wie bei anderen
Subsystems verlagern. Alle Datenverlagerungen finden
Geräten, die neu ins SAN eingebunden werden. Anpas
unter Kontrolle des Speicheradministrators statt und müssen
sungen im SAN-Zoning und die Zuweisungen der Daten
von diesem eingeleitet werden. Der SVC bietet hierbei keine
pfade dürften für einen erfahrenen SAN-Administrator nichts
regelbasierte Datenverschiebungen aufgrund von Zugriffs
Neues bedeuten. Zur Datenaufnahme in der virtuellen
häufigkeiten an. Dies können Analyse-Tools übernehmen, die
Ebene führt der Administrator zunächst einen Imagemode
etwa im IBM Total Storage Productivity Center eingebettet
mit jeder einzelnen LUN durch. Dies bedeutet, dass die bis
sind. Es bietet ein komplettes SAN-Management inklusive
herigen LUNs eines Servers dem SVC zugeordnet und von
Speicherplatz- und Zugriffsanalysen und kann regelbasierte
hier als virtuelle LUN an den jeweiligen Server weiterge
Kopiervorgänge in einem hierarchischen Speichersystem
reicht werden. Im nächsten Schritt können diese LUNs einer
(HSM) anstoßen. Dabei lassen sich alle IBM Speicherpro
anderen ‘Managed Disk Group’ zugeordnet werden. Das hat
dukte, wie auch Tape Libraries, integrieren. Eine Virtualisie
zur Folge, dass die Daten auf die dieser Gruppe zugeord
rung von Tape Libraries mit dem IBM SVC ist allerdings
neten MDs verlagert werden. Dies erfolgt im laufenden
nicht möglich.
Betrieb und ist für den jeweiligen Server transparent.
SVC-Redundanz Der redundante Aufbau des SVC stellt eine höchstmögliche Verfügbarkeit der Speicherumgebung sicher. Die LinuxCluster-Lösung besteht aus mindestens zwei IBM System xServern. Alle kritischen Elemente sind doppelt ausgelegt, was das Risiko von Systemausfällen weitgehend minimiert. In jedem der zum Cluster gehörigen Server läuft ein LinuxKernel, das von IBM auf Virtualisierungsbedürfnisse ange passt wurde und nicht von außen modifizierbar ist. Notwen dige Veränderungen werden wie ein Firmware-Update behandelt, das der Kunde selbst oder ein Dienstleister durchführt. Die Virtualisierungssoftware läuft genau wie opti onale Copy-Service-Routinen unter Kontrolle dieses Linux-
SAN Volume Controller SVC: 3 Knoten im Cluster
Kernels.
112
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Ein Highlight beim SAN Volume Controller besteht in der
SVC Standortübergreifende Spiegelungen
hohen Performance. Der SVC erfüllt alle Skalierungsanfor
Eine hardwarebasierende Datenspiegelung (synchron oder
derungen, indem ein Cluster heute auf bis zu acht Knoten
asynchron) als typische Funktion zur Erfüllung von Business-
erweitert werden kann. Falls ein Cluster mit einem Node-
Continuity-Vorgaben ist normalerweise herstellerübergreifend
Paar an Performance- oder Kapazitätsgrenzen stößt, ist im
nicht möglich. Der SVC führt eine Datenspiegelung in der
laufenden Betrieb eine Erweiterung um jeweils ein weiteres
Virtualisierungsschicht durch. In einer virtualisierten Speicher
Node-Paar (bis zu einem Maximum von vier Node-Paaren
umgebung ist damit die Datenspiegelung nun auch zwischen
pro Cluster) möglich. Jeder Knoten des IBM SVC hat einen
Systemen unterschiedlicher Bauart und Hersteller möglich.
8 GB großen Hauptspeicher, der fast vollständig als Cache
Im Desasterfall lässt sich schnell vom primären auf den
genutzt wird. Bei bis zu acht Nodes pro Cluster ergibt sich
sekundären Speicher umschalten. Dies erfordert in der Regel
somit eine Cache-Größe von bis zu 64 GB. Die Nutzung
einen Eingriff durch den Administrator, was durch vorher
des Cache im IBM SVC bringt Performance-Vorteile gegen
erstellte Skripts unterstützt oder automatisiert werden kann.
über traditionellen Speicherlösungen, da sämtliche Speicher zugriffe gegen den Cache des SVC laufen. Damit verliert die
SVC Spiegelungsoptionen
Performance der angeschlossenen Speichersysteme an
Insgesamt laufen beim SVC alle Spiegelungsaktivitäten
Bedeutung, weil ein Großteil der I/Os durch den vorgeschal
zwischen verteilten Standorten zumeist über Glasfaser ab.
teten Cache des SVC bedient wird.
Bei großen Entfernungen können SAN-Router zum Einsatz kommen, die auf der einen Seite das FC-Protokoll in ein IP-
Damit erfüllt der IBM SAN Volume Controller alle Performance-
Protokoll und auf der Gegenseite wieder in ein FC-Protokoll
Anforderungen von marktgängigen Systemen. Unterstrichen
umwandeln. Alternativ bieten einige Hersteller hierfür auch
wird dies vom SPC-Benchmark-Test (Storage Performance
die DWDM- (Dense Wave Division Multiplexing) oder
Council) der gleichnamigen Herstellervereinigung, den alle
CWDM-Technologie (Coarse Wave Division Multiplexing) an.
Anbieter von Speichersystemen freiwillig durchführen können.
Mit diesen Geräten ist eine Bündelung von verschiedenen Protokollen (etwa IP, FC, FICON, ESCON) auf die Mindest zahl von physischen Verbindungen (in der Regel Dark Fibre) möglich.
Diese Grafik beschreibt eindrucksvoll die nahezu lineare Skalierung eines SVC Clusters von 2 Knoten über 4, 6 bis 8 Knoten. Es waren bei diesen Tests 1536 15K RPM Laufwerke in RAID10 notwendig, um einen 8 Knoten SVC in die Sättigung zu bringen. Damit hält der SVC den Rekord im SPC-1 Benchmark. Die Benchmark Ergebnisse können unter www.storageperformance.org abgerufen werden.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
113
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
SVC Kopierfunktionen (FlashCopies)
Space Efficient Virtual Disk (SEV)
FlashCopies eignen sich zur Backup-Unterstützung von
Space Efficient Vdisk ist nichts anderes als ”Thin Provisio
Datenbanken und Filesystemen. Ein FlashCopy wird als
ning” oder ”Storage Overallocation”.
Point-in-Time Copy ausgeführt und erzeugt im Moment seiner Aktivierung eine Festplatte, die eine exakte Kopie der Quell
Anwender können virtuelle Disks erzeugen, die eine unter
festplatte zum Startzeitpunkt ist.
schiedliche reale und virtuelle Kapazität haben. Die reale Kapazität definiert, wie viel physische Kapazität tatsächlich
Mit dem Software Release SVC Version 4.2, das im Mai
durch eine Vdisk verwendet wird. Die virtuelle Kapazität
2007 zur Verfügung gestellt wurde, kam die neue Funktion
definiert, wie groß die virtuelle Disk den angeschlossenen
Multi Target FlashCopy hinzu, die es erlaubt, 16 Kopien
Servern gegenüber erscheint.
einer Festplatte zu erzeugen, d. h., von einer Source 16 Targets abzubilden.
Eine SEV unterscheidet sich nur minimal von normalen Disks und kann wie eine normale Disk vergrößert oder ver
Mit dem Software Release SVC Version 4.2.1 vom Okto-
kleinert werden. Sie wird wie andere non SEV Disks aus
ber 2007 kündigte IBM die Funktion des Incremental
jedem beliebigen Pool erzeugt. Die Umwandlung zwischen
FlashCopy und des Cascaded FlashCopy an. Incremental
SEV und NON SEV wird über Vdisk Mirroring durchgeführt.
bedeutet, dass eine bestehende FlashCopy auf den aktuellen
SEVs helfen Platz einzusparen von allokierter, aber nicht
Stand gehoben werden kann. Es werden dann nur die bis
genutzter Kapazität. Das Einsparungspotenzial hängt von
dahin angefallenen Änderungen der Ursprungsfestplatte
der Betriebssystem-Umgebung und der Anwendung ab (in
kopiert. Cascaded bedeutet, dass man auch von der Kopie
Windows-Umgebungen oft über 50%). SEVs verbessern
weitere Kopien erzeugen kann. Das ist insbesondere dann
den Ausnutzungsgrad der physischen Disks zusätzlich
wichtig, wenn man eine inkrementelle FlashCopy speichern
(neben dem schon vom Pooling-Konzept der Disk- und
möchte, bevor man sie fortführt. In Summe können bis zu 16
Spare-Kapazität herrührenden Potenzial). SEV ist die Basis
Kopien einer Ursprungsfestplatte erzeugt werden. Konsis
für Space Efficient FlashCopy.
tenzgruppen werden in allen Modi unterstützt. Space Efficient FlashCopy (auch als SnapShot bekannt) Die Version SVC Version 4.2.1 bietet zudem die Möglichkeit,
Space Efficient FlashCopy funktioniert wie Standard Flash
Copy-Service-Kapazitäten von 256 TB per I/O-Gruppe auf
Copy mit dem Unterschied, dass das FlashCopy Target eine
1.024 TB zu steigern, und eröffnet jetzt die Möglichkeit, eine
Space Efficient Vdisk ist. Damit wird für den FlashCopy nur
maximale Kapazität von 8 PetaByte (vorher war es nur 2 PB)
so viel Platz allokiert, wie aktuell benötigt wird.
per SVC-Cluster abzubilden. Virtual Disk Mirroring Im Mai 2008 kündigt IBM den SVC Release 4.3 mit Verfüg
Vdisk Mirroring kann man sich wie einen internen LVM
barkeit im Juni 2008 an. Der Release 4.3 enthält viele
(Logical Volume Manager) in einer AIX-Umgebung vorstellen.
Erweiterungen und neue Funktionen, die im Folgenden
Vdisk Mirroring stellt eine neue Vdisk-Konfiguration dar, bei
beschrieben sind.
der eine ‘gespiegelte Vdisk’ zeitgleich auf zwei unter schiedliche Mdisk-Sets geschrieben wird, die normalerweise auf zwei unterschiedlichen Disk-Systemen liegen. Der SVC hält beide Kopien synchron. Im Versagensfall eines Spei
114
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
chersystems hat das keinen Einfluss auf die Verfügbarkeit einer gespiegelten Vdisk. Der Spiegel wird nach Wiederver fügbarkeit automatisch resynchronisiert. Spiegelkopien kön nen gesplittet werden und die Mdisks können in Disk Groups mit unterschiedlichen Extent Sizes liegen. Dabei können eine oder beide Kopien Space Efficient sein. Vdisk Mirroring kann zusammen mit den SVC Copy Services genutzt werden. Normalerweise werden SVC-Cluster in einem Rechenzen trum aufgebaut. Mit Vdisk Mirroring besteht die Möglichkeit, einen ‘Stretched SVC Cluster’ aufzubauen (RPQ notwendig), indem die Knotenpaare auf jeweils zwei Rechenzentren ver teilt werden. Die SVC-Knotenpaare werden dabei über Longwave FC im Switch verbunden. Distanzen von bis zu
Neue leistungsstarke SVCs mit Solid State Disks (SSDs)
10 km sind möglich.
mit SVC Release 5.1 Im Oktober 2009 kündigt IBM mit Verfügbarkeit November
Erhöhung der FlashCopy Target Volumes auf 256
2009 den SVC Release 5.1 an, der neben funktionalen
Für die Kapazität von FlashCopy gibt es nur noch zwei
Erweiterungen neue leistungsstärkere Prozessor-Hardware
Begrenzungen: Aus einem Source Volume können bis zu
beinhaltet. Das neue SVC Modell 2145 CF8 basiert auf dem
256 Target Volumes erzeugt werden und die maximale
IBM System x3550 M2-Server mit Intel Core i7 quad-core
Kapazität von allen Spiegelaktionen darf 1 PB nicht über
2,4 GHz Prozessoren und leistet nahezu das Doppelte wie
schreiten. Es bestehen nun keine Einschränkungen mehr
der Vorgänger 2145 8G4. Die neuen Maschinen sind mit der
bezüglich der Vermischung von Copy-Aktionen.
dreifachen Cache-Größe von 24 GB ausgestattet und eine I/O-Gruppe bietet damit 48 GB als Cache-Speicher an.
Höhere Skalierbarkeit von Virtual Disks
Damit ergeben vier Knotenpaaren im Clusterverbund eine
Die Skalierbarkeit in der Anzahl an Virtual Disks wurde ver
Cache-Größe von 192 GB. Jeder SVC-Knoten bietet zudem
doppelt und auf 8.192 Virtual Disks erhöht.
8 x 8 Gbps FC-Ports. Das heißt, im Maximalausbau mit vier Knotenpaaren im Cluster stehen 32 x 8 Gbps FC-Ports zur
SVC Entry Edition
Verfügung. Durch die schnelleren Prozessoren und die
Zeitgleich mit dem Release 4.3 stellt IBM auch eine kosten
Verdreifachung des Caches gewinnt der SVC eine unge
günstige Einstiegslösung, die SVC Entry Edition, zur Verfü
wöhnlich hohe Leistungsfähigkeit. Per I/O-Gruppe, also per
gung. Diese Geräte basieren auf einem x3250 Server mit
Knoten, werden 120.000–140.000 IOPS möglich, im Vollaus
einem Intel Xeon E3110 3,0 GHz 6 MB L2 Cache Dual-Core
bau also 480.000–540000 IOPS.
Prozessor. Wie das aktuelle Modell 8G4 haben die Entry Geräte 8 GB Cache und vier 4 Gbps FibreChannel-
Die neuen SVC Engines können mit eingebauten SSDs
Anschlüsse. Die SVC Entry Edition ist preislich um ca. 40%
(Solid State Disks) ausgestattet werden. Bis zu vier SSDs
günstiger positioniert und erreicht ca. 60 % des Durchsatzes
mit einer Kapazität von 146 GB können in eine Engine ein
und der Leistungsfähigkeit des 8G4-Modells.
gebaut werden, per I/O-Gruppe also bis zu acht SSDs und damit einer SSD-Bruttokapazität von 1.168 GB per I/O Group. Dabei werden nur 600 GB genutzt, weil der Großteil der SSDs gespiegelt wird. Bei einer maximalen Konfiguration mit vier Knotenpaaren im Cluster stehen damit bis zu 2,4 TB an nutzbarer SSD-Kapazität zur Verfügung.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
115
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
iSCSI-Unterstützung
Multiples Cluster Mirroring erlaubt den Aufbau einer drei
Die neuen SVC-Geräte können auch mit eingebauten Ether
fachen Spiegelung. Vier SVC-Cluster bilden eine Mirror-
net-Ports ausgestattet werden und so direkt an iSCSI ange
Gruppe. Jede Disk kann von jedem Cluster auf einen ande
schlossen werden. Es werden dazu die vorhandenen LAN-
ren Cluster gespiegelt werden.
Ports des SVC verwendet. Installationsbasis Dezember 2009 Fällt ein Knoten des SVCs aus, wird die entsprechende IP-
Weltweit wurden bis zum Dezember 2009 über 17.000 SVC-
Adresse auf den anderen Knoten übernommen. Somit ist es
Knoten ausgeliefert. Diese Knoten sind in mehr als 5.000
nicht nötig, MPIO-Software für iSCSI auf dem Host zu instal
SVC-Systemen im produktiven Einsatz.
lieren. Neue Funktionen Mit Release 5.1 stehen dem SVC neue Funktionen zur Ver fügung. Reverse FlashCopy erlaubt FlashCopy Targets als ‘Restore Point’ für die Source zu werden, ohne dass die FlashCopy-Beziehung aufgebrochen wird. Dabei werden multiple Targets und multiple ‘Roll Back Points’ unterstützt.
116
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Backup-Konzepte
Tapes sind austauschbare Datenträger, das heißt, sie können
Unabhängig von der jeweiligen Implementierung, ist die
in Sicherheitsräume ausgelagert werden oder zwischen
Bedeutung eines Backups von unternehmenskritischen Daten
unterschiedlichen Lokationen ausgetauscht werden. Tapes
unbestritten. Zu den klassischen drei Business-Faktoren
benötigen keinen Strom, wenn sie einmal beschrieben sind,
Mensch, Boden und Kapital hat sich in den letzten Jahren ein
und sind wesentlich länger haltbar (LTO als ECMA-Standard
weiterer Faktor geradezu aufgedrängt. Der Faktor Informa
bis zu 30 Jahre). Neben überschreibbaren Kassetten stehen
tion. Informationen sind die Lebensader jedes Unternehmens
heute nahezu in allen Tape-Technologien auch WORM-Bänder
und die IT ist dazu da, den Bestand und die Weiterentwick
(Write Once read Many) zur Verfügung, die sich besonders
lung dieser Lebensader zu sichern und zu unterstützen.
im Umfeld der Langzeitarchivierung einsetzen lassen.
Ein Backup ist eine Datenkopie an einem je nach Implemen
Welche Alternativen stehen uns heute für ein sicheres Backup zur
tierung lokalen oder entfernten Ort. Eine solche Datenkopie
Verfügung?
schützt vor dem totalen Verlust bei menschlichen Fehlern,
Das klassische und traditionelle Backup beginnt mit einem
Hardware-Fehlern, Virusinfektionen und totalem Verlust einer
lokal an den Server angeschlossenen Bandlaufwerk. Bei
Lokation. Ein gut durchdachtes Backup-Konzept ist eine per
mehreren Servern wird dies sehr schnell betreuungsintensiv
sönliche Versicherung für den Fortbestand der Arbeitsfähig
und skaliert daher nur begrenzt. Der nächste Schritt dazu
keit und somit im Extremfall für den Fortbestand eines
wäre eine zentrale, LAN-basierte Datensicherung z. B. über
gesamten Unternehmens.
TSM und einen entsprechenden Backup-Server, bei dem Disk- oder Tape-Systeme direkt an die Server angeschlossen
Plattentechnologie vs. Bandtechnologie im Backup-Umfeld
werden. So können mehrere Server eine gemeinsame Band
Eine Platte bietet direkten Zugriff und Vorteile beim Single File
sicherungs-Infrastruktur nutzen (z. B. eine Tape Library). Bei
Restore und Filesystem Restore. Ebenso bietet sich die Mög
größeren Datenvolumen, z. B. bei DBs, bietet sich ein SAN-
lichkeit mit „multiple Streams“ auf der Platte zu arbeiten,
basiertes Backup an, das die hohen Daten-Transfermengen
umso die Backup-Zeitfenster zu reduzieren. Platten haben
vom lokalen Netzwerk (LAN) fernhält und so insbesondere
aber genauso Nachteile! Sie bieten keinen Vorteil bei großen
Vorteile bei der Geschwindigkeit und Zugriffsmöglichkeit rea
File Backups oder Full Image Backups (hier ist das Tape
lisiert.
meistens wesentlich schneller). Platten können nicht bewegt, also nicht als bewegliche Datenträger eingesetzt werden, sie
Trotz der immensen Weiterentwicklungen im Tape Bereich,
benötigen Strom und kosten bei entsprechend hohen Kapazi
immer kürzeren Zugriffszeiten mit höheren Schreibdurchsät
täten mehr als Tape-Lösungen. Auch stellt sich die funda
zen und Kapazitäten sind die Daten trotzdem nicht im dauer
mentale Frage, welche Plattentypen setzt man für den
haften Zugriff (Online).
Backup ein? Sollen es ATA-, SATA-, FATA-, SAS- oder FCPlatten sein? Was ist das richtige Preis-Leistungs-Verhältnis in
Dies kann nur durch eine Diskspeicherinfrastruktur erreicht
Relation zur Zuverlässigkeit und Sicherheit?
werden. Vor dem Hintergrund des Preisverfalls bei Festplat tenlaufwerken, insbesondere bei den günstigen SATA-Platten
Tapes dagegen sind sequentielle ‘Streaming Devices’ und
(Serial ATA) ergeben sich mannigfaltige Möglichkeiten. Eine
heute in der Datenrate meistens schneller als Platten. Des
Möglichkeit ist, das Backup-Konzept komplett von Tape auf
halb ist es in der Regel performanter, große Files oder große
Disk umzustellen. Dadurch wird eine hohe Verfügbarkeit und
Datenbanken direkt auf native Tapes wegzusichern. Tapes
Geschwindigkeit erreicht, jedoch ist es schwierig bis unmög
sind ‘On Demand’, skalieren also in Performance und Kapa
lich, die Daten physisch in eine entfernte Lokation zu bringen
zität, indem einer Tape Library entweder zusätzliche Lauf
(Bergwerk, Bunker, Vault, Bank). Je nach Sensibilität der Daten
werke oder zusätzliche Kassetten zugeführt werden.
wird dies empfohlen bzw. ist z.T. Bestandteil von gesetzlichen Vorgaben. Zudem entstehen sehr hohe Energiekosten sowie zusätzliche Migrationsaufwände bei einer reinen Disklösung, die den Vorteil der vermeintlich günstigen Hardware- Investition schnell aufheben. Um die Vorteile beider
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
117
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
Technologien nutzen zu können, setzt sich zunehmend die
Es gibt VTLs auf dem Markt, die keine Tape-Anbindung
Kombination von Disk und Tape durch für ein schnelles,
haben. Da stellt sich diese Frage natürlich nicht! Allerdings
hochverfügbares und trotzdem sicheres Backup. Dies ist
ist von solchen Konzeptionen dringend abzuraten, da es in
industrieweit bekannt als Disk-to-Disk-to-Tape-Backup. In die
eine technologische Einbahnstraße führt, aus der man nur
sem Konzept werden die Disks als Backup-Puffer (Staging
wieder mit sehr viel Aufwand und Kosten herauskommt. VTLs
Area) benutzt, um kürzlich zurückliegende Backups für eine
ohne Tape-Anbindung mit sehr günstigen ATA- oder SATA-
gewisse Zeit online zu halten und dann nach Ablauf einer
Platten müssen in der Regel komplett nach drei Jahren aus
gesetzten Frist auf Tape auszulagern. Dies gilt auch bei Virtu
Sicherheitsgründen ausgetauscht werden, um Plattenausfälle
alisierungslösungen von Tape: Hier werden Tape-Laufwerke
und Datenverlust zu vermeiden. Sind hier sehr große Kapazi
auf Disk emuliert, d. h., Disks stellen sich dar wie ein Band
täten betroffen, kommt es in der Regel zu einer regelrechten
laufwerk. Integrierte Tape-Virtualisierungslösungen kombinie
Kostenexplosion!
ren Hardware und Software zu einer einfach bedienbaren Vir tuellen Tape Library (VTL). Erst die Möglichkeit, auch auf
Beim Einsatz von VTLs und Diskbuffern kann eine effektivere
physische Tapes zu migrieren, bietet eine operative, kosten
Nutzung des Plattenpuffers durch De-Duplizierungsverfahren
günstige und effiziente Umgebung.
eine große Menge an sonst benötigten Plattenplatz einspa ren, weil nur noch Datenblöcke einmal abgespeichert werden
118
Wird mit einer Kombinationslösung aus Platte und Band gear
und Duplikate vermieden werden. Die Einsparung ist dabei
beitet, stellt sich die Frage, wie groß muss das vorgeschaltete
direkt vom erzielten De-Duplizierungsfaktor abhängig. Es gibt
Plattensystem von der Kapazität sein, wie muss die Tape
verschiedene De-Duplizierungsverfahren von unterschied
Library dahinter konfiguriert werden und wie implementiert
lichen Anbietern. Die wichtigste Anforderung an ein De-Dupli
man die Migration von Platte auf Band sinnvoll! Individuelle
zierungsverfahren ist die Sicherstellung einer 100%igen
Sizings der vorhandenen Umgebung und der benötigten
Datenintegrität neben skalierbarer Leistungsfähigkeit. Nur
Anforderungen sind für eine sinnvolle Lösung notwendig!
Verfahren mit 100%iger Datenintegrität stellen eine sichere
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Restore-Möglichkeit zur Verfügung, denn Backup macht man
Wichtig ist, dass Daten-Backup sicher und zuverlässig ist und
wegen des Restores!
die Wiederherstellung der Daten in jedem Fall gewährleistet wird. Das gilt für unvorhergesehene Feher wie z. B. Disaster
Die erzielten De-Duplizierungsfaktoren sind von vielen Gege
(Naturkatastrophen, Hochwasser, technische Fehler, Disk-
benheiten abhängig: Welche Backup SW ist im Einsatz, wie
Crash), aber auch für menschliche Fehler (versehentliches
wird die Sicherung durchgeführt (z. B. immer inkrementell
Löschen von Daten, falsches Bearbeiten von Dateien) und
oder jede Woche einen Full Backup etc.) und wie lange soll
Application Errors (Virus, Fehler in der Software). Es ist also
die Retentionperiode sein, wo die Daten im Plattenpuffer
u. a. wichtig, dass Datenkopien an verschiedenen Lokationen,
gespeichert bleiben (siehe auch unter Daten-De-Duplizie
auf unterschiedlichen Medien und mit unterschiedlichen Tools
rung).
bzw. Software und von verschiedenen Verantwortlichen erzeugt werden. Snaps in derselben Einheit bieten alleine kei
Welches Konzept bezüglich der Anforderungen Leistung,
nen Schutz, Spiegelung mit derselben Software ebenfalls
Sicherheit, Kosten, Haltbarkeit und einfache Erweiterbarkeit
nicht!
die beste Effektivität bietet, ist von der vorhandenen Infra struktur abhängig und ob die Daten klassisch über das LAN
Der Anspruch an den Sicherheitsgrad sowie die Wiederher
oder LAN-free über das SAN oder beides gesichert werden.
stellungszeit (Recovery Time Objective) spielen für die Aus
In den meisten Fällen bieten sich Kombinationslösungen von
wahl der Komponenten respektive der Backup-Strategie
Platte und Band an, um die Stärken beider Technologien ent
ebenso eine entscheidende Rolle.
sprechend für einen effektiven Backup und Restore zu nutzen.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
119
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
Virtualisierung von Bandsystemen
tiert die Virtualisierungseinheit des Systems. Dieser Aufbau erlaubt einfache zukünftige Skalierung bezüglich der Kapa
Neue Server-basierende Tape-Virtualisierung für System z
zitäten und der Leistung, indem mehrere gNodes oder auch
Am 29. August 2006 kündigte die IBM eine neue Virtualisie
nur vNodes im Cluster miteinander gekoppelt werden.
rungslösung für die z/OS-Umgebung an. Die TS7700 wird als Nachfolger der IBM 3494 B10 und B20 Virtual Tape
Die Ankündigung enthält ein ‘SOD’ (Statement of Direction),
Server Ende September 2006 verfügbar. Dies war insbeson
nachdem ein Cluster mit zwei gNodes verfügbar sein wird.
dere auch deshalb notwendig, weil die alten Einheiten B18,
Das sorgt für erhöhte Verfügbarkeit, erhöhte Performance
B10 und B20 nicht der ab 1. Juli gültigen EU-Richtlinie
sowie mehr virtuelle Devices innerhalb des Clusters und
RoHS entsprachen. Die neue TS7700 Serie für die Bandvir
ermöglicht unterbrechungsfreie Code-Updates. Bei späteren
tualisierung im Mainframe-Umfeld bildet eine neue, langfris
Erweiterungen können dann vNodes und hNodes auf unter
tige Basis durch eine modulare und skalierbare Server-
schiedlichen Systemen laufen und so horizontal innerhalb
Architektur. Man spricht von einer ‘Distributed Node
des Clusters skalieren. Zukünftig vorstellbar ist, dass die
Architecture’.
vNodes dann unterschiedliche Aufgaben wahrnehmen, z. B. Virtualisierung für Open Systems oder Datenarchivierung.
Die TS7700 besteht aus dem 3592 Gehäuse F05, der TS7740-verteilten Node-Architektur mit unterschiedlichen Nodes (siehe unten), die entsprechende Funktionen wahr nehmen, einschließlich zwei aktiv geschalteter ‘I/O-Drawer’, die entsprechende FICON-Anschlüsse zum Host, Fibre Channel-Anschlüsse zu den Platten und Ethernet-Verbin dungen zum Library Manager zur Verfügung stellen, dem TS7740 Cache Controller als RAID-Steuereinheit und ent sprechenden RAID-basierenden Platteneinschüben, die den TVC (Tape Volume Cache) als Plattenpuffer reflektieren. Für die Plattenpufferkapazitäten werden RAID-Arrays mit 146-GB-Platten eingesetzt. Der RAID Controller arbeitet mit 16 integrierten Platten, eine TS7740 Cache-Erweiterung beinhaltet ebenfalls 16 Platten. In die Gehäuseeinheit sind neben dem RAID Controller bis zu drei Plattenerweiterungs einheiten integrierbar. Damit können bis zu 64 Platten in die Grundeinheit eingebaut werden. Die Gesamtkapazität liegt bei 6 TB (native) und 18 TB (komprimiert). Nodes sind funktionale Aufgaben, die als Applikation auf einem aus zwei Dual-Core 64 bit, 1,9 GHz Prozessoren bestehenden pSeries-Server laufen. Das vNode (v steht für Virtual) stellt dem Host virtuelle Laufwerke zur Verfügung und ist für die Host-Kommunikation verantwortlich. Das hNode (h steht für Hierarchical Storage Management) ist für die Verwaltung der logischen Volumes im Plattenpuffer zuständig. Es managt auch die Migration von Platte auf Band und ist für die gesamte Verwaltung der physischen Band-Ressourcen einschließlich des Tape-Reclamation-Pro zesses zuständig. Die Kombination aus vNode und hNode wird als gNode (g steht für general) bezeichnet und reflek
120
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
IBM TS7700 Virtual Tape Server für zSeries
1999 – 2005
2006 – 2010
Software
Anhang
Zwei Cluster können heute in einem Dual Cluster Grid (oder auch Multi Cluster Grid) zusammengeschlossen wer den und dienen dazu, entsprechende Disaster-RecoveryLösungen aufzubauen. Sie sind in der Funktionsweise dem Peer to Peer VTS mit den Modellen B10 und B20 vergleich bar (synchrone und asynchrone Spiegelung). Dazu ist das neu angekündigte TS7700 Grid Communication Feature not wendig. Seit August 2007 sind Konfigurationen von drei Clustern in einem Grid möglich. Die Architektur selbst erlaubt langfristig bis zu acht Cluster in einem Grid und wird in einer späteren Ankündigung bekanntgegeben. Der Unterschied der Spiegelung liegt darin, dass bei der TS7700 dedizierte Ethernet-Verbindungen (IP) eingesetzt werden. Mit zwei 1-Gbit-Ethernet-Verbindungen wird die Spiegelung durchgeführt, sie ist wesentlich leistungsfähiger im Vergleich zu Peer to Peer VTS mit FICON. Das senkt
Die TS7740 Node emuliert zum Host viele 3490-E Lauf
die Kosten, nutzt offene Standards und vereinfacht die
werke, die für den Host wie physikalisch vorhandene Lauf
Infrastruktur.
werke sichtbar sind. Die TS7740 ist also völlig transparent zum Betriebssystem, zum Bandverwaltungssystem und zum
Die Einheit bietet neben dem 6-TB-Plattenpuffer (18 TB
Katalogeintrag. Die emulierten Laufwerke bezeichnet man
komprimiert) einen maximalen Durchsatz von 600 MB/s
als virtuelle Laufwerke. Die TS7700 unterstützt bis zu 256
(Peak) und damit knapp das Doppelte einer 3494-B20. Es
virtuelle Laufwerke sowie bis zu 100. 000 virtuelle Volumes
stehen bis zu vier 4-Gbit-FICON-Anschlüsse in dieser Basis
und dies erhöht sich später durch die Bildung von Multi
einheit zur Verfügung. Unterstützt ist die TS3500 Library
Node Clustern entsprechend. In einem Dual Cluster Grid
(3584 Library) über die Anbindung des IBM 3953 Library
(Spiegelung) stehen 512 virtuelle Laufwerke zur Verfügung.
Managers Modell L05. Die Einheit unterstützte im Backend TS1120 Laufwerke im Emulation-Mode der 3592 J1A. Seit
Geschrieben wird in den verfügbaren Plattenpuffer, den
Februar 2007 ist auch die ‚Native‘-Unterstützung verfügbar.
TS7740 Cache (ebenso wird bei Recalls aus dem Platten
Bis zu 16 physische Bandlaufwerke TS1120 können an einer
puffer gelesen). Ist ein Volume im Plattenpuffer gespeichert,
TS7700 betrieben werden.
wird dieses als virtuelles Volume bezeichnet. Durch einen Algorithmus, der als Premigration bezeichnet wird, werden,
Zum z/OS-Host werden wie bei den alten VTS-Modellen
etwas zeitversetzt, Kopien der virtuellen Volumes auf die
3490-E Laufwerke abgebildet. Funktional bietet die neue
physischen Bandlaufwerke migriert und auf physische 3592
Einheit Funktionen, die bei dem Modell 3494-B20 zur Verfü
Kassetten geschrieben. Die Kopie des virtuellen Volumes,
gung standen. Dies sind vor allem die Funktionen des APM
das jetzt auf einer physikalischen Kassette gespeichert ist,
(Advanced Policy Management) wie ‘Volume Pooling’, ‘Dual
wird als logisches Volume bezeichnet. Viele logische
Copy’, ‘Logical Volume Sizes’ und ‘Multiple Reclamation
Volumes auf einer Bandkassette nennt man ‘Stacked
Policies’ (Beschreibung der Funktionen unter 3494-B20), die
Volumes’. Ein Stacked Volume ist also eine physikalische
bei TS7700 als Outboard Policy Management bezeichnet
Kassette, die viele logische Volumes enthält.
werden. Durch den Premigration-Prozess werden die Laufwerkge schwindigkeiten der physischen Laufwerke voll genutzt. Ebenso werden die Kassetten in ihrer Kapazität maximal ausgenutzt, weil viele logische Volumes auf einer Kassette
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
121
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
gespeichert werden. Kommt ein Recall des Hosts auf ein
Grid-Spiegelungen mit TS7700 Systemen
logisches Volume, wird der Recall aus dem Plattenpuffer
Bei einer Multi-Cluster-Grid-Spiegelung ist es erforderlich zu
bedient, solange das Original des virtuellen Volumes dort
definieren, wie jede Storage Group eines jeden Clusters im
noch verfügbar ist. Ist das virtuelle Volume im Plattenpuffer
Grid zu behandeln ist. Das Setzen einer Policy auf dem LM
nicht mehr verfügbar, wird die physische Kassette, welche
definiert den Consistency Point für jede definierte Site im
die Kopie des logischen Volumes enthält, in ein Bandlauf
Subsystem. Aus den Policies wird ein Array aus Consistency-
werk geladen.
Point-Werten, wobei jedes Element des Arrays die Policy für eine bestimmte Site repräsentiert. Wenn z. B. für Site A eine
Das angeforderte logische Volume wird dann in den Platten
Kopie zum Zeitpunkt des Unloads und für Site B eine Kopie
puffer zurückgeladen und der Recall wird aus dem Platten
zu einem späteren Zeitpunkt gewünscht wird, sieht das Array
puffer bedient.
so aus: Site A hat RD und Site B hat RD.
Sollte aufgrund einer großen Schreib-Workload der Platten
Die Replication Policies können auf den LMs verschieden
pufferplatz (TS7740 Cache) knapp werden, werden im Plat
sein. Die Policy Settings auf jedem LM diktieren, welche
tenpuffer die virtuellen Volumes, die am wenigsten benutzt
Aktionen ausgeführt werden, wenn ein Volume auf einem
wurden (LRU Least Recently Used Algorithmus), zum Über
virtuellen Laufwerk, das zu diesem LM gehört, gemountet
schreiben freigegeben, nachdem deren Kopie bereits auf
wird. Consistency Policies bestimmen die Site, welche die
Band ‘pre-migriert’ wurde.
Daten als erste erhält (TVC Selektion), welche Sites eine Kopie der Daten erhalten und zu welchem Zeitpunkt.
Der Reclamation-Prozess der physischen Kassetten findet im Hintergrund von Laufwerk zu Laufwerk statt, ohne dass
Consistency Policies werden über die Management Class
der Plattenpuffer belastet wird. Es erfolgt kein Zurückladen
konfiguriert. Dabei werden Policies einem Management-
der noch validen logischen Volumes auf der Kassette in den
Class-Namen zugeordnet. Policies werden über den ETL
Plattenpuffer, sondern diese werden direkt von Laufwerk zu
Specialist auf dem Library Manager gesetzt.
Laufwerk auf eine neue Kassette geschrieben. Die alte Kas sette geht dann automatisch in den vorhandenen Scratch
Eine neue Definition ist die des ‘Copy Consistency Points’,
Pool zurück.
der bestimmt, wann ein Target Volume auf einer TS7700 mit dem Source Volume konsistent ist. Bei den Consistency
Die TS7700 bildet die neue Basis eines Mainframe-basie
Policy Optionen werden für jede Site Consistency Points
renden Virtual Tape Servers. Es sind viele neue Funktionali
gesetzt. Dabei stehen drei Definitionen zur Verfügung:
täten, Verbesserung in Leistung und Kapazität und größere Konfigurationen in den nächsten Monaten vorgesehen, die
RUN (R) – diese Site benötigt eine valide Kopie des
die TS7700 zum absoluten Tape-Virtualisierungsspezialisten
logischen Volumes, bevor Device End an den RUN-Befehl
im Mainframe-Umfeld machen, der mit keiner anderen
(Rewind Unload) vom Host geliefert wird (entspricht weitge
Lösung vergleichbar ist. Das war bereits mit den Modellen
hend dem Immediate Mode beim PtP VTS).
B10 und B20 der Fall, die als einzige Systeme über die APMFunktionalität eine Verbindung ins SMS (System Managed
Deferred (D) – diese Site benötigt eine valide Kopie zu
Storage) als Teil des z/OS-Betriebssystems hatten. Dabei
einem späteren Zeitpunkt, nachdem der Job beendet wurde
werden die SMS-Konstruktnamen, wie Data Class, Storage
(ähnlich wie Deferred Mode beim PtP VTS).
Class und Management Class, sowie die Storage-GroupNamen einschließlich der VolSer-Zuordnung automatisch in
No copy (N) – diese Site soll keine Kopie von Volumes in
die Library Manager Data Base übernommen. Das bietet
dieser Management Class erhalten.
kein anderes System auf dem Markt. Durch diese neue Möglichkeit können extrem flexible Sowohl für die 3494-B10- und -B20-Modelle als auch für die
Spiegelvarianten in Multi-Cluster-Grid-Konfigurationen
neue TS7700 ist eine noch stärkere Integration in das SMS
realisiert werden.
des z/OS-Betriebssystems längerfristig vorgesehen.
122
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
TS7700 Erweiterungen 2007
physischen Kassettenpools erzeugt werden. Die TS7700
Bei der Ankündigung der TS7700 machte IBM die Aussage,
speichert dann zum Schutz vor einem Mediendefekt ein
dass mit vier zusätzlichen Releases im Jahr 2007 in die
Duplikat eines logischen Volumes auf einer zweiten Kas
TS7700 Systeme eine Vielfalt von neuen funktionalen Erweite
sette. ‘Cross-site Replication’ wird in einer Grid-Konfiguration
rungen integriert werden, die weit über den Rahmen des Vor
verwendet, um eine Kopie in einer zweiten Site zu erzeugen.
gängersystems B20 hinausgehen. So wurde jedes Quartal ein
Je nach Einstellung erfolgt dies auf synchroner oder asyn
neuer Release verfügbar, R1.1 im 1., R1.2 im 2., R1.3 im 3.
chroner Basis. Es können aber auch ungespiegelte Volumes
und R1.4 im 4. Quartal 2007. Die verfügbaren Funktionen
in einer Grid-Konfiguration verwaltet werden. ‘Logical Virtual
werden in AF-basierende Funktionen (Advanced Functions)
Volume Sizes’ dient der Auswahl von Volumegrößen, die
und Nicht-AF-basierende Funktionen unterschieden.
die Standard-Volumegrößen von 400/800 MB übersteigen. Zur Wahl stehen 1.000, 2.000 und 4.000 MB.
Advanced Functions (AF) Die Funktionalität ‘Logical Volume Pooling’ bietet die Mög
Secure Data Erasure mit Encryption Shredding reflektiert
lichkeit, logische Volumes einzeln pro Nummernkreis in
die Wiederkehr der bereits aus dem VTS bekannten Funktion
unterschiedlichen physischen Kassetten-Pools zu verwalten.
zur vollautomatisierten ‘Zerstörung’ von Datenbeständen auf
Damit ist die TS7700 mandantenfähig.
Leerkassetten (nach Reklamation). Das ist ein genialer Trick, wenn TS1120 Tape Encryption im Einsatz ist: ‘nur’ der Schlüs
Mit ‘Tape Volume Cache Management’ können logische
sel wird auf der Kassette gelöscht, nicht die gesamte Band-
Volumes einer Cache Management Preference Group zuge
Datenstruktur! Bei einem 3-Site-Grid wird ein TS7700 Grid so
ordnet werden. Es stehen zwei Preference Groups zur Verfü
erweitert, dass bis zu 3 Cluster für noch besseren Business
gung. Die Preference Group steuert, wie die logischen Vol
Continuity Support zur Verfügung stehen (Dreifach-Remote-
umes im Plattenpuffer behandelt werden, und beeinflusst
Spiegelung). Jetzt können in einem 3-Site-Grid zwei TS7700
die Verweildauer von virtuellen Volumes im Tape Volume
z.B. lokal synchron gespiegelt werden und beide Systeme
Cache (Plattenpuffer). Mit ‘Dual Selective Copy’ können zwei
dann asynchron in großer Entfernung über WAN in eine
Kopien eines logischen Volumes in zwei unterschiedlichen
dritte TS7700.
3-Cluster-Spiegel-Grid
TS7700 Cluster 2
Host
WAN WAN R0 R1 D2 TS7700 Cluster 0
TS7700 Cluster 1
R0 R1 D2
R0 R1 D 2
Dreiseitiger TS7700 Spiegel-Grid, Cluster 0 und 1 sind synchron gespiegelt und Cluster 0 und 1 asynchron über eine WAN-Strecke auf Cluster 2
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
123
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
Copy Export (Stand-Alone-Systeme in R1.3, Grid-Systeme
Zusätzliche Funktionen (Nicht-AF)
in R1.4) erlaubt es, eine Gesamt-Kopie der Daten einer TS7700 zu exportieren, z. B. für Disaster Recovery-Zwecke,
Autonomic Ownership Takeover
während die originalen Daten weiterhin in der TS7700 ver
Ownership bedeutet, dass jedes Volume in einer Grid-Konfi
bleiben und für die Produktionssite verfügbar sind.
guration einen Owner hat (Cluster). Um ein Volume auf einem bestimmten Cluster zu ‘mounten’, muss der Cluster Owner
Copy Export ist eine neue TS7700 Funktion zur Unterstüt
sein. Ist er es nicht, requestiert die TS7740 auf dieser Clus
zung des Transfers von Daten (auf Stacked Tapes) in eine
tersite den Ownership-Transfer von der anderen Clustersite.
regionale/überregionale Sicherheitszone für Disaster-Reco
Im Falle, dass die andere Site nicht reagiert, wird über die
very-Zwecke. Dabei kann mit der Funktion Dual Selektive
TSSC (Total Storage Service Console) geprüft, was mit der
Copy eine Kopie von Volumes innerhalb einer TS7700
TS7740 auf der anderen Site los ist. Ist die TS7740 tatsäch
erzeugt werden, die in einem separaten Storage Pool und
lich nicht mehr verfügbar, wird der Autonomic Ownership
damit separaten Kassetten abgespeichert wird. Copy Export
Takeover initiiert. Der Ownership-Transfer kann auch immer
exportiert dann eine Kopie von ausgewählten Daten (log.
manuell angestoßen werden.
Volumes), die primäre Kopie verbleibt dabei allerdings in Tape TS1120 Encryption Support
der produktiven TS7700.
Mit der TS7740 wird eine Verschlüsselung auf den angeschlos Die ‘Copy Exported physical Volumes’ werden weiterhin von
senen TS1120 Bandlaufwerken unterstützt (ab Release 1.2).
der produktiven TS7700 verwaltet, d. h., die Volumes werden
Die virtuellen Laufwerke haben damit nichts zu tun. Encryp
weiterhin in der TS7700 Datenbank geführt. Die TS7700
tion wird durch die existierenden Storage Pools (bis zu 32
managt dabei auch den ‘Offsite’ Volume Reclamation-Pro
Pools) auf der TS7740 gemanagt. Der Host verwendet die
zess (Recycling der ausgelagerten Kassetten). Informati
existierenden Storage-Konstrukte der Storage Groups und
onen über die exportierten Volumes können über einen Host
der Management Class, um festzulegen, welche logischen
Console Request und einen BVIR Request initiiert werden.
Volumes auf welchen Pool physischer 3592 Kassetten kom men. Ist ein Pool definiert, wo mit Encryption gearbeitet wer
Ein ‘Copy Export Recovery’ wird durch das TS7700
den muss, wird er entsprechend behandelt. Dabei kann für
Management Interface unter dem Service- und Troubleshoo
jeden Pool definiert werden, welche ‘Public/Private’ Key-
ting-Menü oder per User-Id und Password mit ‘role-based’-
Paare verwendet werden, um verschlüsselte Schlüssel auf
Zugriff durchgeführt. Die TS7700 ist ‘offline’ zu den Hosts
der Kassette abzuspeichern, die mit Verschlüsselung bear
während der Recovery. Dabei wird die VolSer des Volumes
beitet wurden.
benötigt, von welchem die Datenbank restored werden soll. Host Console Request Es besteht auch die Kunden-Option zur Bereinigung beste
Diese Option erlaubt einem MVS Console Operator das
hender Datensätze in einer TS7700 für den Copy Export
Durchführen von Abfragen und eine einfache Problemana
Recovery-Vorgang (mfg cleanup). Während des Recovery-
lyse zum TS7700 Zustand, ohne Zugriff auf das Web Inter
Prozesses ist das einzig angezeigte Panel im Management
face (MI) zu haben.
Interface das Status Panel zum Copy Export Recovery. Wenn die Recovery abgeschlossen ist, kann die TS7700 wieder
Enhanced Automated Read Only Recovery (im Backend)
‘online’ zu den angeschlossenen Hosts genommen werden –
Hier handelt es sich um die Wiederkehr der bereits im Vor
sobald dort TCDB und TMS ebenfalls wieder restored sind.
gänger VTS bekannten Funktion zur vollautomatisierten Recovery von fehlerauffälligen 3592 Backend-Kassetten, auch unter Nutzung der 2. Kopie in einem Grid-System. Remote Read and Write Pipelining Diese Funktion bringt erhebliche Performance-Verbesse rungen beim Lesen und Schreiben in den ‘remote’ Cache einer TS7700 im Grid.
124
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
FICON
TS7700 Library Manager Integration
Die bisherigen 128 logischen Kanäle per FICON-Kanal, die
Im Herbst 2008 kündigt IBM den TS7700 Release 1.5 an.
in sehr komlexen Konfigurationen mit vielen LPARs auf der
Einer der wesentlichen Bestandteile dieser R1.5 Erweiterung
System z Site zum Engpass werden konnten, wurden auf
besteht darin, dass die Funktionen des externen Library
256 logische Kanäle erweitert. Damit dürften sich keine
Managers in die TS7700 selbst mit integriert wurde. Dieser
Engpässe mehr bezüglich der Konfigurationen ergeben.
externe Library Manager war noch ein Überbleibsel der IBM 3494 Tape Libary und hat die Aufgabe, das Logical und
Die TS7700 ist ein Tape-Virtualisierungsprodukt für das
Physical Volume Inventory für den Host zu verwalten sowie
Mainframe-Umfeld, für das aufgrund seiner neuen Architek
die zugehörige Advanced Functions zu managen. Dies war
tur in den kommenden Jahren sowohl kontinuierliche Erwei
notwendig, da die TS3500 Tape Library eine reine SCSI
terungen als auch die Integration von völlig neuen Entwick
Medium Changer Tape Library darstellt. Da die Library
lungen vorgesehen sind.
Manager Plattform noch auf OS/2 basierte, kam eine Portie rung 1:1 in die TS7700 nicht infrage. Die Entwickler konnten
Dynamic Link Load Balancing
sich allerdings eines anderen bereits existierenden IBM
Der im Frühjahr 2008 angekündigte Release 1.4a bietet
Produkts bedienen: Für die Verwaltung des Physical Inventory
neben funktionaler Erweiterungen vor allem die Möglichkeit
wurde der IBM eRMM mit in den TS7700 Microcode aufge
des Dynamic Link Load Balancing, das in einem Spiegel
nommen. Durch diese Integration kann nun ein ganzes
grid dafür sorgt, das die zur Verfügung stehenden Kanal
zusätzliches Frame eingespart werden (3953F05) und eine
verbindungen bezüglich der Workload so ausbalanciert,
TS7740 Lösung besteht im einfachsten Falle aus nur noch 2
dass eine ausgewogene Grid-Performance reflektiert wird.
Frames (TS7740 und TS3500 L-Frame).
Das betrifft im Wesentlichen die Laufzeitunterschiede im Netzwerk aufgrund unterschiedlicher Längen der Grid-Ver
TS7720 – neues Modell
bindungen. Um diese Unterschiede entsprechend auszu
Diese Vereinfachung lässt dann auch erstmals das Erschei
gleichen, wird alle 5 Minuten ein automatischer „Check“
nen eines Mainframe Virtual Tape Systems zu, welches rein
durchgeführt, die aktuelle Auslastung bewertet und neue
Disk-basierend ist; d. h., es gibt im Backend kein physika
Copy-Jobs entsprechend noch verfügbaren Leistungsre
lisches Tape bzw. keine Tape Library mehr. Dieses System
sourcen verteilt.
(die TS7720) hat den gleichen Aufbau und dieselben Kom
Dynamic Link Load Balancing für TS7700 Spiegel Grid Konfigurationen
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
125
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
ponenten wie eine TS7740 (selbst der Ucode ist der Glei
4 Cluster-Grid- und Hybrid-Grid-Konfigurationen
che) mit Ausnahme des internen Plattenpuffers. Der Fibre-
Durch den ein Jahr zuvor erschienen R1.5 sind entschei
Channel PlattenCache der TS7740 wird in der TS7720 mit
dende Grundlagen gelegt worden, um mit dem Folgere
einem SATA-Plattensystem auf Basis der IBM DS4700 aus
lease R1.6 die einmaligen Skalierungsmöglichkeiten einer
gestattet. Verwendet werden 1-TB-SATA-Laufwerke, die in
TS7700 Umgebung entfalten zu lassen. Dazu waren im
der Maschine unter RAID6 betrieben werden. Es stehen
Wesentlichen noch zwei wichtige Erweiterungen notwendig:
zwei Konfigurationen mit 40 TB oder 70 TB nativer Kapazität zur Verfügung (nutzbarer Cache von 120 TB bzw. 210 TB bei 1:3 Compression). Die TS7720 bietet 2/4 FICONAnschlüsse, bietet 256 virtuelle Laufwerke ab und verwaltet bis zu 1 Million logische Volumes. Mit dem neuen Modell
•• Erhöhung der maximalen Anzahl von TS7700 Cluster in einer Grid-Umgebung (von ehemals 3 auf 4) •• Hybrider Support von TS7740 und TS7720 innerhalb eines Grid-Verbundes
TS7720 können wie mit der TS7740 Gridkonfigurationen auf gebaut werden. Dabei erhöhen sich die Anzahl der virtu ellen Laufwerke und die Plattenpufferkapazitäten entspre chend. In einer 3-seitigen Gridkonfiguartion stehen bis zu 630 TB Plattenpuffer und bis zu 768 virtuelle Laufwerke zur Verfügung. Dieser Release ist die Grundlage von Backup- und Speicher Weitere Funktionalität des R1.5 Releases waren der Support
architekturen, die bislang nicht möglich waren. So können
von den TS1130 (Jaguar Generation 3) Bandlaufwerken an
jetzt 4-Standort-Konzepte realisiert werden oder z. B. ein
der TS7740 sowie größere Ausbaustufen des internen
2-Standort-Konzept, bei dem nun jede Lokation mit 2 Syste
TS7740 Plattenpuffers auf bis zu 14 TB.
men auch im Fehlerfall hochverfügbar ausgestattet ist. Auch ist eine sogenannte ‘Hub and Spoke’ Architektur möglich,
Neue Möglichkeiten mit TS7700 im Mainframe-Umfeld
bei der 3 Systeme als I/O-Aufnahmesysteme dienen, die
Im Oktober 2009 kündigt IBM für die TS7700 Familie den
dann ihren Inhalt gemeinsam zu einem TS7740 als Disaster
Release 1.6 an. Der neue Release beinhaltet viele Neue
Recovery System spiegeln.
rungen, die Grid-Computing von TS7700 Clustern und damit verbundene neue Hochverfügbarkeitslösungen ermöglichen.
126
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Zur Optimierung der Verwaltung und Performace in Hybriden Very Large Cache
und multiplen Cluster-Umgebungen wurden zwei wichtige Funktionen in den R1.6 integriert.
Intermediate Cache
Die ‘Cluster-Family-Funktion’ erlaubt es dem Betreiber, den TS7700 Systemen mitzuteilen, in welchen geogra fischen Positionen sie zueinander stehen. Damit können die
Tape
Replizierungswege optimiert werden. So wird z. B. in einer 4-Cluster-Grid-Umgebung in 2 Standorten zuerst eine Kopie
Noch interessanter werden diese neuen Architekturansätze
zwischen den Standorten gemacht und erst danach inner
durch das Mischen von TS7720 und TS7740 Systemen
halb der Standorte eine Kopie zu dem jeweiligen System
(hybride Konfigurationen). Dadurch können z. B. Kosten ein
innerhalb der Familie. Diese Vorgehensweise spart
gespart werden, weil ein TS7720 ohne Backend-Tape güns
Leitungskapazitäten der Replikations-Strecke zwischen
tiger in der Anschaffung ist. Der wichtigere Aspekt ist aller
den Standorten.
dings die 2-dimensionale Skalierbarkeit, die es erlaubt, in Richtung höhere I/O-Performance-Anforderung zu skalieren
Damit in einer hybriden TS7700 Umgebung die Plattenspei
oder die Anforderung an größere interne TS7700 Caches –
cher der TS7720 Cluster nicht überlaufen, wurde die neue
kostengünstig – zu befriedigen. So kann z. B. ein Kunde, der
Funktion ‘Automatic Volume Removal Policy’ eingeführt.
bereits eine TS7740 2-Cluster-Grid-Lösung betreibt und
Sie sorgt automatisch dafür, dass das älteste logische
mehr Durchsatz im Front-End benötigt, den Grid einfach
Volume einer TS7720 aus dem Cache entfernt wird (sofern
durch das Hinzufügen von 2 x TS7720 erweitern (im Sinne
eine Kopie auf einem anderweitigen TS7740 System exis
von intelligeten I/O-vNodes mit eigenem Cache). Die Daten
tiert) und somit neuer Platz bei Bedarf freigegeben wird.
können dann mit den bekannten Methoden entweder auf die
Dieses intelligente Management lässt die Plattenpuffer der
andere TS7720 repliziert werden oder gleich über Kreuz auf
TS7720 in einer hybriden Grid-Umgebung als zusätzlichen
die entfernte TS7740. Somit lässt sich bei einer 2-Kopien-
Cache erscheinen und optimal nutzen, um noch größere
Strategie der mögliche Durchsatz um ca. 75 % steigern.
Datenmengen in unmittelbarem Zugriff vorzuhalten, und ent
Ohne diese neuen Möglichkeiten müsste sonst ein komplett
lastet das Backend von Recalls vom Band.
neues, zweites TS7740-2-Cluster-Grid-System mit Backend Tape angeschafft und administriert werden.
Vorhandene 2- oder 3-way-Grids sind mit Verfügbarkeit im Dezember 2009 auf einen 4-way-Grid erweiterbar. Die
Die zweite Skalierungsmöglichkeit einer Hybrid-Lösung
Zusammenführung von zwei 2-way-Grids zu einem 4-way-
besteht darin, dass der größere interne Plattenspeicher der
Grid soll ab 2010 unterstützt werden.
TS7720 als größerer, aber kostengünstigerer Cache (SATA) TS7700 Logical WORM Support
des TS7700 Grid-Systems dienen kann.
In Bezug auf funktionale Erweiterungen wird mit Release Das hat seinen Charme! So können jetzt z. B. drei TS7720
R1.6 der logische WORM Support bereitgestellt. Diese
mit einer TS7740 inklusive Tape-Anbindung zusammenge
Funktion erlaubt es, an den ensprechenden Anwendungen
schaltet werden. Damit hat die TS7740 einen riesengroßen
auf dem Host die logischen Volumes als WORM Medien zu
vorgeschalteten Plattenpuffer. Bei drei TS7720 wären das
verwalten. Dabei sieht der Host die TS7700 als logische
bis zu 3 x 70 TB, also bis zu 210 TB native, komprimiert bis
WORM ‘compliant’ Library. Host-Software-Erweiterungen
zu 630 TB (3:1) an vorgeschalteter nutzbarer Plattenpuffer
unterstützen das Management von logischen WORM
kapazität.
Volumes über die Data-Class-Konstrukte. Der Support ist sowohl für TS7720 und TS7740 verfügbar. Bereits geschrie bene Volumes können allerdings nicht in logische WORM Volumes umgewandelt werden!
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
127
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
Neue Server-basierende Tape-Virtualisierung für Open Systems
Heutzutage werden Disk-Backup-Lösungen hauptsächlich
Bereits im Oktober 2005 stellte IBM mit der Virtualisierungs
als Plattenpuffer für hochkapazitive und schnelle Tape Drives
lösung TS7510 eine virtuelle Tape Library für den Open-
eingesetzt. Dabei werden Sicherungsdaten kurzfristig (ein
Systems-Bereich zur Verfügung, die sich allerdings von den
bis mehrere Tage) auf diesen Disk-Systemen gespeichert
anderen virtuellen Tape Libraries auf dem Markt in der Funk
und zeitnah oder später auf Band migriert oder kopiert. Disk-
tionalität nur wenig unterschied.
Backup-Systeme kommen auch zum Einsatz, um den Res tore-Vorgang zu optimieren, sinnvollerweise allerdings nur
Im April 2007 kündigte die IBM die neue Virtuelle Tape
dort, wo Platten Vorteile gegenüber Tape besitzen, also bei
Library TS7520 (VTL) als Nachfolger der bisherigen
kleinen Files und Filesystemen, aber nicht bei Datenbanken
TS7510 an. Die TS7520 bietet neben höherer Kapazität und
oder Image-Backups.
Leistung einen ganz neuen Funktionsumfang, der speziell für die Anforderungen im Open-Systems-Umfeld in die
Aufgrund der Klimaveränderung, der damit verbundenen
Maschine integriert wurde. Bevor das neue Produkt TS7520
Diskussion um die Verringerung von CO2 (Green-IT) und der
detailliert beschrieben wird, ist es wichtig, den Trend
steigenden Energiekosten sollten Disk-Backup-Systeme nur
bezüglich VTLs im Open-Systems-Umfeld näher zu
noch mit Bedacht eingesetzt werden und nur dort, wo es
beleuchten.
wirklich nötig ist bzw. Disk echte Vorteile gegenüber Tape bietet. Dies gilt gerade für kleinere und mittelständische
Nachdem Festplatten in den letzten Jahren immer günstiger
Unternehmen. Disk-Backup-Systeme locken mit vermeintlich
wurden, besonders durch die Einführung von neuen Tech
günstigen Kosten, neigen aber dazu, dass die Strom- und
nologien wie beispielsweise SATA, werden Disk-basierende
Klimakosten über einen Zeitraum von sechs Jahren deutlich
Backup-Lösungen immer mehr propagiert. Viele Marktbeob
höher sind als die Investitionskosten. Dazu kommen Kosten
achter und Kunden vergleichen oft Disk-Lösungen mit alten
für Datenmigration, die bedingt durch den kurzen Lebenszy
Tape-Technologien und finden so Vorteile bei den Disk-
klus von Disk-Einheiten entstehen.
Lösungen wie schnelleres Backup und Restore oder auch stabilerer und zuverlässigerer Betrieb als bei älteren Band
Neben der schon lang bestehenden Möglichkeit, den TSM
technologien. Aber die Zuverlässigkeit mit reinen Disk-
(Tivoli Storage Manager) so einzusetzen, dass ein LAN-
Lösungen wollte sich doch nicht so einstellen, wie von
Backup auf einen Plattenpuffer läuft und später die Migra
vielen gewünscht! Besonders beim Einsatz der günstigen
tion auf Tape erfolgt, bietet die IBM nun auch eine neue VTL
SATA-Laufwerke gibt es immer wieder Disk-Drive-Fehler bis
(Virtual Tape Library) in Form des Produkts TS7520 an. Der
hin zum Datenverlust, auch unter RAID-Schutz.
große Vorteil der TS7520 liegt vor allem im LAN-free-Bereich, weil viele LAN-free-Clients direkt auf die TS7520 sichern
Tape ist ein eigenständiges Medium und bietet die Vorteile
können, ohne dass viele physikalische Bandlaufwerke benö
von sehr schnellem Lesen und Schreiben von großen Daten
tigt werden (ein LAN-free-Client benötigt immer ein direktes
mengen, lange Aufbewahrungssicherheit und braucht
Bandlaufwerk, sei es nun physikalisch oder virtuell!). Dabei
außerdem keinen Strom (Tape ist ‘cool’). Daneben kann Tape
stellt prinzipiell die TS7520 den Plattenpuffer und eine Emu
auch als auswechselbarer Datenträger eingesetzt werden.
lationssoftware zur Verfügung, die Bandlaufwerke emuliert.
Disk ist ebenso ein eigenständiges Medium und bietet den
Geschrieben wird aber direkt in den Plattenpuffer.
Vorteil von schnellem direktem Zugriff mit kurzen Antwort zeiten und der Möglichkeit der Parallelität. Optimale maßge schneiderte Lösungen bieten sich daher in der Kombination von beiden Technologien.
128
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Die Migration vom TS7520 Plattenpuffer auf Band kann
Ein großer Vorteil von VTL-Systemen ist die Möglichkeit, die
durch die Backup-Software (z. B. TSM) erfolgen oder auch
Daten zu komprimieren und somit die Disk-Kapazität besser
direkt – allerdings mit entsprechenden Performance-Ein
auszunützen. Allerdings sinkt in den meisten Fällen die Per
schränkungen – durch die TS7520 selbst.
formance der Systeme bei Einsatz von Kompression. Ein weiterer Vorteil ist, dass die Daten direkt von der VTL auf
Zunächst sind VTLs nichts anderes als Disk-Backup-
Tape migriert oder kopiert werden können und dies transpa
Lösungen. Allerdings stellen sich VTLs als Tape Libraries mit
rent für den Backup-Server passiert.
Bandlaufwerken dar. Somit bieten VTLs Vorteile, wenn die Backup-Applikation kein natives Disk-Backup unterstützt oder
Die IBM Tape Virtualization Engine TS7520 stellt eine inte-
die Lizenzkosten für ein solches Disk-Backup zu hoch sind.
grierte Lösung aus Hardware und Software dar, die Band virtualisierung für Open-Systems-Server über physische
VTLs können auch dort sinnvoll eingesetzt werden, wo viele
FibreChannel- (FC) und iSCSI-Verbindungen bereitstellt.
langsame LAN-free-Sicherungen vorhanden sind, denn hier
Durch System x-basierende Server (1-4) werden Bandlauf
lassen sich sonst erforderliche Tape Drives einsparen. VTLs
werke emuliert. Die Emulation der TS7520 unterstützt die
sind aber meist auch integrierte Lösungen, die den Anwen
Laufwerksformate LTO2, LTO3 und LTO4 sowie die ‘High
der von jeglichen administrativen Tätigkeiten, die sonst bei
End’-Technologien 3592 und TS1120. Der Plattenpuffer
nativen Disk-Systemen notwendig wären, frei hält.
wird durch 500-GB- und/oder 750-GB-SATA-Platten reflektiert. Dabei sind die Platten in einem Einschub als RAID5-Array abgebildet. Die 16 Platten im Einschub reflektieren dabei ein 6+P und ein 7+P RAID5-Array (P= Parity Platte) sowie eine Hot-Spare-Platte, die für beide Arrays im Fehlerfall als Rebuild-Platte einspringt. Die Kapazitäten können mit 500-GB-Platten auf bis zu 884 TB und mit 750-GB-Platten auf bis zu 1,3 PB (native Kapazitäten) ausgebaut werden. Die kleinste kapazitive Einstiegsgröße beginnt bei 6,5 TB. Erweiterungen können – je nach Plattenart – in 6,5-TBSchritten oder 9,75-TB-Schritten erfolgen. Die TS7520 bietet eine einmalige Leistungsfähigkeit, indem bis zu 4. 800 MB/s Durchsatzmenge ermöglicht wer den (4 .800 MB/s beim Lesen vom Plattenpuffer und bis zu 4 .500 MB/s beim Schreiben in den Plattenpuffer). Sowohl von der Leistungsfähigkeit als auch von den kapazitiven Möglichkeiten gibt es derzeit kein anderes VTL-System auf dem Markt, das diese Möglichkeiten bietet. Die TS7520 lässt sich so konfigurieren, dass bis zu vier Server ‘geclustert’ werden können. Dabei werden bis zu 512 virtuelle Libraries, bis zu 4 .096 virtuelle Bandlaufwerke und bis zu 256 .000 virtuelle Kassetten emuliert. Zu den Hosts können bis zu 32 FC-Anschlüsse auf Basis von 4-Gbit-Fibre Channel konfiguriert werden. Für die Tape-Anbindung stehen bis zu 16 FC-Anschlüsse, auch auf Basis von 4-Gbit-Fibre, zur Verfügung.
IBM Virtual Tape Library TS7520 für Open System-Umgebungen
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
129
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
Neben der hohen Flexibilität, Leistungsfähigkeit und Kapazi
Als Einstiegsversion steht die TS7520 Limited Edition zur
tät bietet die TS7520 einen Funktionsumfang, die derzeit
Verfügung. Diese günstige Einstiegsoption steht für Ein
keine andere VTL auf dem Markt übertrifft. Auf diese Funk
stiegskonfigurationen mit einer Virtualization Engine (CV6)
tionalität wird später noch ausführlich eingegangen.
und nur einem Platten-Controller (SV6) zur Verfügung und unterstützt Plattenkapazitäten bis zu 29,25 TB (maximal).
Bei einer maximalen Konfiguration der TS7520 werden bis
Die Limited Edition enthält standardmäßig nicht den ganzen
zu 12 Gehäuseeinheiten benötigt. Wichtig dabei ist die Tat
Funktionsumfang. Tape Caching ist z. B. ein kosten
sache, dass selbst bei kleinen Konfigurationen wegen
pflichtiges Feature.
Sicherheits- und Leistungsanforderungen immer mit zwei Platten-Controllern (SV6) gearbeitet wird (Enterprise Edition).
Die Enterprise Edition unterstützt jede Art von TS7520
Sowohl die Platten-Controller als auch die Virtualization
Konfiguration bis zum Maximalausbau und bietet Tape
Engines (CV6) sind über ein integriertes SAN auf Basis von
Caching standardmäßig an.
4-Gbit-FibreChannel miteinander verbunden. Dieser hoch redundante Aufbau zeigt sich auch in der Stromzufuhr. Jede
Die IBM TS7520 wurde als komplette Appliance entwickelt
Gehäuseeinheit ist mit zwei Stromversorgungen ausgestattet.
und alle Einzel-Komponenten aufeinander abgestimmt. Das komplette System wurde mit allen Funktionen getestet und ausführlichen Performance-Messungen unterworfen.
Aufbau einer TS7520 in einer Konfiguration mit drei Gehäuseeinheiten
130
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Für IT-Betreiber stellt sich die IBM TS7520 als eine oder
Ohne einen Multipath Device Driver können die einzelnen
mehrere ‘virtuelle’ Tape Libraries dar und man muss sich
virtuellen Tape Drives zwar mühsam und manuell über die
nicht um die Anbindung sowie die Konfiguration des Disk-
Frontend FC-Ports der VTL verteilt werden, doch ein Load
Storage-Systems kümmern. Die IBM TS7520 VTL ist als eine
balancing kann dadurch nicht erreicht werden, weil die
Einheit zu betrachten und auch der Support wird dement
Backup-Applikation, wie z. B. TSM, von der Verteilung der
sprechend durchgeführt, d. h., es werden keine Einzelkom
virtuellen Tape Drives über mehrere FC-Ports keine Informa
ponenten, sondern immer die gesamte Appliance betrachtet
tionen bekommt. Alle Backup-Applikationen verteilen die
und gewartet (z. B. für Firmeware-Updates). Somit kümmert
Workload auf die verfügbaren Tape Drives nach ‘Round-
sich auch nur ein Supportteam um die IBM TS7520. Eine
Robin’- und/oder ‘last recently used’-Algorithmen. Dadurch
zentrale Stelle nimmt die Kundenanfragen entgegen. Eine
kommt es aber in Verbindung mit VTLs vor, dass einzelne
Voranalyse des Problems durch den Kunden, wie es bei
FC-Links overloaded sind und gleichzeitig manche Links
Implementierungen, die aus Einzelkomponenten zusammen
ohne Last sind.
gestellt wurden, der Fall ist, entfällt. Besonders das Load balancing ist für eine ausgewogene Mit bis zu 48 x 4-Gbit-FC-Anschlüssen bietet die IBM
und hohe Performance bei VTLs enorm wichtig. Bei Disk-
TS7520 die höchste Anzahl von ‘Connectivity’-Möglichkeiten.
Systemen ist ein Load balancing schon seit langem eine Standardfunktion. Bei VTLs, die eigentlich ein Disk-System
End-to-End-4-Gbit-Support bedeutet, dass die Maschine in
sind bzw. Disk-Backup anbieten, ist dies nicht der Fall,
ihrer gesamten Anbindung zu den Hosts wie auch zum Disk
obwohl die meisten VTLs mehrere FC-Ports im Frontend
und Tape Backend eine ausbalancierte Leistung für Front End,
anbieten. Der IBM Multipath Device Driver für Tapes ver
Disk Cache und Tape Backend realisiert. Dabei werden bis
teilt die Workload auf die verfügbaren FC-Links, so dass die
zu 256 physische Backend Tape-Laufwerke (IBM TS1120
einzelnen Links eine ausgewogene Workload-Verteilung
J1A/E05 Drives und/oder LTO2, LTO3 und LTO4 Drives)
haben. Zusätzlich ermöglicht der IBM Multipath Device Driver
sowie bis zu 32 physische Backend Tape Libraries (IBM
ein automatisches Failover, falls ein Link oder eine Fabric
TS3500 Library, IBM TS3310 Library, IBM TS3200 Library,
ausfällt oder auch nur für Wartungsarbeiten offline ist.
IBM 3582 Library, IBM 3583 Library und IBM 3494 Library) unterstützt.
Spezielle Disk Caching Algorithmen beschleunigen den Recall von Tape, wenn das logische Volume sich nicht mehr
Während manche andere VTL-Anbieter für die Anzahl an
im Plattenpuffer befindet. Werden VTLs eingesetzt, schreibt
emulierten Libraries, Drives und Volumes extra Lizenzkosten
die Backup-Software die einzelnen Files in einen Platten
berechnen, ist bei der TS7520 immer alles inklusive.
puffer. Im Falle einer Migration von Platte auf Band wird das logische Volume in einer 1:1-Kopie auf eine Kassette
Die IBM TS7520 bietet eine selbstständige Call-Home-Funk
gespeichert. Im Falle eines Restores einer einzelnen File,
tionalität zum IBM Service-Team. Vergleichbare VTLs bieten
die sich nicht mehr im Plattenpuffer befindet, müssen viele
nur eine ‘E-Mail’-Call-Home-Funktionalität an, sodass nur
VTLs das komplette logische Volume in den Plattenpuffer
intern, ohne Benachrichtigung des Herstellers, über Fehler
zurückladen, um von dort den Host-Request zu bedienen.
informiert wird.
Das kann je nach emulierter Kassette (man bedenke: eine LTO4-Kassette fasst 800 GB Kapazität) sehr lange dauern,
Als großes Alleinstellungsmerkmal bietet die IBM TS7520 als
oft bis zu zwei Stunden und länger! Der Caching-Algorith-
einziges VTL-System auf dem Markt einen Multipath Device
mus der TS7520 arbeitet in solchen Fällen wesentlich intelli
Driver für FC Failover und Load balancing. Die Maschine
genter! Anstatt des Zurückladens des gesamten logischen
kann problemlos in ein Dual-Fabric integriert werden. Einen
Volumes in den Plattenpuffer wird die zu ‘restorende’ File
Dual-Fabric-Support bieten alle auf dem Markt verfügbaren
direkt von Tape ausgelesen (ohne Zurückladen) und dem
VTLs an, doch nur die IBM TS7520 bietet zusätzlich Failover
Host zur Verfügung gestellt. Das spart wertvolle Zeit bei
und Load balancing. Dies wird durch den Multipfadtreiber
Restore-Aktivitäten.
gewährleistet.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
131
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
Es besteht die Möglichkeit, mehrere TS7520 VTLs über IP-
Duplizierungsverfahren bietet und dadurch wesentlich weni
Verbindungen asynchron zu spiegeln. Dabei wird nach dem
ger physischen Plattenplatz benötigt, um diesselbe Kapazität
‘demount’ einer Kassette, zu einem bestimmten Zeitpunkt
abzubilden (siehe unter IBM ProtecTIER VTL mit Hyperfactor).
oder intervallmäßig, eine Kopie des logischen Volumes über IP zu einer anderen TS7520 übertragen. Bevor auf erzeugte kopierte Volumes zugegriffen werden kann, müssen diese
Data De-Duplication
Volumes durch einen administrativen Eingriff freigegeben werden, damit aktiv mit ihnen gearbeitet werden kann.
Das Thema De-Duplication wurde im Jahr 2007 zu einem oft
IP Replication kann nicht gleichzeitig mit Tape Caching
diskutierten Thema. De-Duplication ist nichts Neues. Es han
durchgeführt werden.
delt sich um einen mathematischen Algorithmus, der BitBlock-Vergleiche durchführt. Das einzige Ziel ist die Vermei
TS7530 – neues Modell
dung von Duplikaten. Dabei gibt es die unterschiedlichsten
Im Mai 2008 kündigt IBM die leistungsstärkere IBM Tape
Ansätze und Verfahrensmöglichkeiten. Man kann solche
Virtualization Engine TS7530 an, die vom Funktionsumfang
Verfahren im Betriebssystem etablieren. Ein Beispiel dafür
der TS7520 entspricht, allerdings neben höherer Leistung
ist das z/OS mit der Funktion Hyper PAV. Auch über Soft
auch die Möglichkeit von RAID6 und den Einsatz von
ware-Tools sind solche Verfahren möglich, wie z. B. Analyse-
1-TB-SATA-Platten bietet und eine Ausbaustufe von bis zu
Tools, ILM, TPC oder Common Store oder über Vergleichsal
1,7 PB (Petabyte) erlaubt. Die kleinste kapazitive Einstiegs
gorithmen in SW und HW. Heutige De-Duplication-Verfahren
größe beginnt bei 6,5 TB. Erweiterungen können – je nach
werden vor allem beim Backup auf Virtuelle Tape Libraries
Plattenart – in 6,5-TB-Schritten, in 9,75-TB-Schritten und in
(VTLs) eingesetzt, weil die meisten Duplikate beim Backup
13-TB-Schritten erfolgen.
und bei der Archivierung erzeugt werden.
Die TS7520 und TS7530 unterstützen die Encryption-Mög-
Das erste professionelle De-Duplication-Verfahren führte
lichkeiten für Backend Tape Drives (TS1120 oder LTO4).
IBM bereits im Jahr 2006 für das Produkt IBM Common
Bei dieser HW-Encryption, die in diese Laufwerke integriert
Store ein. Common Store führt diese Vergleiche bei der
ist, sind keine Leistungsbeeinträchtigungen zu erwarten. Für
E-Mail-Archivierung auf Mail-Basis und/oder Attachment-
Tape-Laufwerke, die nicht mit Verschlüsselungstechnik
Basis durch und stellt sicher, dass eine E-Mail und/oder ein
arbeiten, bietet die TS7520 die Möglichkeit, die Daten auch
Attachment nur einmal archiviert wird. De-Duplication ist ein
über Software-Encryption-Methoden zu verschlüsseln, bevor
Feature von Common Store und ist nur in Verbindung mit dem
sie auf das physikalische Tape geschrieben werden.
IBM Content Manager als Backend Repository verfügbar.
Die TS7520 ermöglicht neben FC-Anbindungen auch iSCSI-
Der De-Duplication-Ansatz findet vor allem Freunde bei Vir-
Anbindungen, wenn Kunden iSCSI im Einsatz haben oder
tuellen Tape Libraries (VTLs). Der mathematische
haben wollen.
Vergleichsalgorithmus läuft dabei auf der VTL mit und führt Bit-Block-Vergleiche durch. Die Einsparungen an Platten
Über die Funktionalität des Hosted Backups besteht die
platz können dabei durchaus den Faktor 10 – 20 erreichen.
Möglichkeit, die Backup-Software auch direkt auf der TS7520
Es sind verschiedene Ansätze verfügbar: über Software,
zu installieren. Dies ist allerdings nur zu empfehlen, wenn
über Microcode mit Hardware oder eine Kombination von
keine allzu großen Leistungsanforderungen an den Backup-
Software und Hardware. Man unterscheidet grundsätzlich
Server gestellt werden.
zwei Verfahren. Beim Inline-Verfahren werden die Vergleiche durchgeführt, bevor der Bit-Block auf Platte abgespeichert
132
Im Juli 2009 zieht IBM alle Modelle der TS7500 Familie von
wird. Hier ergibt sich das Problem der Skalierbarkeit und
Marketing zurück. Einer der Hauptgründe dürfte die fehlende
Leistung. Werden zu viele TB mit De-Duplication bearbeitet,
Möglichkeit der Daten-De-Duplizierung sein. Durch die Aqui
gehen die VTLs sehr schnell in der Leistungsfähigkeit
sition der Firma Diligent im April 2008 und die schnelle
zurück, weil der Rechner nur noch den De-Dup-Algorithmus
Umsetzung dieser Technologie in der IBM Hardware setzt
durchführt. Die Empfehlung der Anbieter ist allgemein, nicht
IBM auf die ProtecTIER VTL, die ein einzigartiges Daten-De-
mehr als 15 – 20 TB mit De-Dup zu bearbeiten. Das andere
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Um De-Duplication besser zu verstehen, sehen wir uns folgendes einfaches Beispiel an:
Unsere zweite abzuspeichernde File ist in Form einer Lokomotive (1) dargestellt:
Unsere abzuspeichernde File ist das hier abgebildete Häuschen (1). Es wird in seine Bauteile zerlegt (2). Es besteht aus roten Würfeln, grünen Zylindern und blauen Dächlein. De-Duplication speichert jetzt jedes Bauteil nur einmal ab. Den drei Bausteinen wird noch eine Aufbauanleitung beigefügt, wie das Haus wieder aufzubauen ist und wie viele Bausteine dafür von jedem Element benötigt werden (3). Hier finden wir dieselben Bauteile, die bei der ersten File enthalten waren: der rote Würfel, der grüne Zylinder und das blaue Dächlein. Ein weiteres zusätzliches Element kommt hinzu, das gelbe Rad. Allen vier Bauteilen wird wieder eine Aufbauanleitung beigefügt (2). Da der rote Würfel, der grüne Zylinder und das blaue Dächlein bereits abgespeichert sind, müssen wir nur noch das gelbe Rad und die Aufbauanleitung abspeichern (3). Für beide Files, das ‘Haus’ und die ‘Lokomotive’, wurden nur vier Bauelemente und zwei Aufbauanleitungen abgespeichert. Das Kritische an diesem Verfahren ist: Wenn eine Aufbauanleitung verloren geht, gibt es keine Möglichkeit der Rekonstruktion!
Verfahren ist das Post-Processing-Verfahren, wobei der
einen leistungsfähigen und hochskalierbaren Algorithmus zu
Algorithmus nachgelagert stattfindet. Man schreibt die Blö
entwickeln, der sowohl in Hardware- als auch in Software-
cke zuerst ohne De-Dup auf Platte und führt die Vergleiche
Lösungen integrierbar ist. Im Herbst 2008 wird ein De-Dupli
anschließend durch. Dafür wird dann aber zusätzlicher
cation-Verfahren als Post-Processing-Verfahren in die
Speicherplatz benötigt.
Backup-Software TSM (Tivoli Storage Manager) integriert und steht mit dem TSM Release 6.1 zur Verfügung.
De-Duplication-Verfahren werden heute von den Firmen IBM (Diligent), EMC2 (Data Domain), Quantum, FalconStor,
Im April 2008 aquiriert IBM die israelische Firma Diligent,
Sepaton und Network Appliance angeboten. Auch für die
um mit der DILIGENT-Technologie namens ProtecTIER die
IBM Nseries steht De-Duplication in Form der Funktion A-SIS
Herausforderungen Datenwachstum und den Wunsch nach
(Advanced Single Instance Storage) zur Verfügung.
längerer plattenbasierter Datenvorhaltung innerhalb der Datensicherung zu adressieren. ProtecTIER ist eine für den
Die IBM beschäftigt sich schon seit einigen Jahren mit dem
Enterprise-Markt prämierte und seit fünf Jahren bewährte
Thema Daten-De-Duplizierung. Bereits im Januar 2004
Softwarelösung, die die Technologien Virtuelle Tape Library
wurde im IBM Labor Almaden in Kalifornien das Projekt ‘Bit
(VTL) und Daten-De-Duplizierung (DDD) vereint. Die DDD-
Block Mathematics’ ins Leben gerufen. Die Gruppe bestand
Engine innerhalb der ProtecTIER-VTL-Lösung heißt Hyper
aus Microcode-Spezialisten und Mathematikern. Ziel war es,
factor.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
133
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
IBM Daten-De-Duplizierung mit ProtecTIER und Hyperfactor
ProtecTIER Gateway TS7650G
Nach der Übernahme von Diligent etabliert IBM einen Pro
Nachdem das ProtecTier Gateway zwischen den Servern
duktplan, um die ProtecTIER-VTL-Lösung mit Hyperfactor in
und den Disksystemen, auf die der Backup gemacht wer
geeignete IBM Hardware-Produkte umzusetzen. Bereits im
den soll, installiert ist, werden die Hyperfactor-Algorithmen
August 2008 erfolgt die erste Ankündigung der Gateway-
dazu verwendet, redundante Daten herauszufiltern. Dazu ist
Lösungen, also xSeries-basierende Server, die Plattensyste
ein Index notwendig, über den festgestellt werden kann,
men, die als Backup-Repository dienen, vorgeschaltet wer
welche Datenblöcke bereits im Repository, d.h. auf den
den und mit dem ProtecTIER und Hyperfactor-Algorithmus
Disksystemen abgespeichert sind. Der Algorithmus analy
arbeiten. Im Februar 2009 kündigt IBM die entsprechenden
siert den ankommenden Datenstrom und stellt über den
Lösungen als Appliances an und im Juli 2009 erfogt die
Index Ähnlichkeiten fest (agnostisches Verfahren). Werden
Ankündigung der direkten Replikationsmöglichkeit der Gate
keine Ähnlichkeiten gefunden, wird der entsprechende
ways.
Block direkt im Repository gespeichert. Bei Ähnlichkeiten werden die entsprechenden Blöcke vom Repository eingele
HyperFactor als Data De-Duplizierung ist ein mathema
sen und mit den neuen Daten verglichen. Dabei werden die
tischer Algorithmus, der auf variable Bit-Block-Vergleiche
identischen Daten herausgefiltert und nur die verbleibende
schon gespeicherte Blöcke herausfiltert, sodass sie nicht
Differenz wird im Repository neu abgespeichert. Über diese
doppelt abgespeichert werden. Hyperfactor vermeidet also
Methode ist eine 100%ige Datenintegrität gewährleistet. Der
die Abspeicherung von Duplikaten. Die Einsparung ist dabei
Index hat eine feste Größe von 4 GB und wird permanent im
direkt vom erzielten De-Duplizierungsfaktor abhängig, der
Hauptspeicher des Gateways (xSeries) gehalten.
bis zu Faktor 25 gehen kann. Vor allem bei Backup-Verfah ren, die viele Full Backups beinhalten und eine relativ lange
Das Verhältnis der gespeicherten Daten zum Index (Ratio of
Retention-Periode haben, werden die höchsten De-Duplizie
Repository to Index) spiegelt die Effizienz des Index wider.
rungsfaktoren erreicht. Bei TSM sind die Faktoren wesentlich
Die Zahl von 250.000:1 beim Hyperfactor-Verfahren sagt
kleiner, weil TSM schon auf ‘incremental’ Basis arbeitet und
aus, dass ProtecTier mit einem festen Memory Index von 4
nur die entstandenen Änderungen im Backup wegschreibt.
GB das 250.000fache, d.h. 1 PetaByte an Daten verwalten
Metadata Metadata Metadata Metadata Metadata Metadata
User Data User Data User Data User Data User Data User Data
Speicherung auf dem ProtecTIER Repository
134
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
kann. Dabei ist der De-Duplizierungsfaktor noch nicht
Die hohe Leistungsfähigkeit von Hyperfactor kommt von der
berücksichtigt. Wäre der erzielte Faktor bei 25, könnten 25
Tatsache, dass der Algorithmus auf dynamischer Blockbasis
PetaByte an Daten verwaltet werden. Dies ist der große
arbeitet und identifizierte kleine Blöcke, die kleiner als 8 KB
Vorteil dieser Lösung, weil die verwalteten Kapazitäten ohne
sind, nicht betrachtet werden und sofort als ‘neu’ im Reposi
Leistungsverlust in diese hohe Dimension skaliert werden
tory gespeichert werden. Würde man diese kleinen Blöcke
können (im Vergleich: Hash-basierende Verfahren erzielen in
wie die großen Blöcke behandeln, wäre eine Skalierbarkeit
der Regel nur ein Ratio von etwa 400:1. Das bedeutet, dass
in diese hohe Leistungsklasse nicht möglich.
die Anforderung an die Hauptspeichergröße im Rechner wesentlich höher ist und ab einer bestimmten Datenmenge
Als Band-Laufwerksemulation verwendet ProtecTier virtuelle
der Index nicht mehr komplett im Hauptspeicher gehalten
LTO-Laufwerke (LTO-3). Neben LTO ist auch die Emulation
werden kann. Dann kommt es sofort zum Performance-Ein
von DLT (DLT7000) möglich. Unterstützt sind bis zu 256 vir
bruch! Die ProtecTier-Lösung ist daher deutlich besser für
tuelle Laufwerke per Node und 512 Laufwerke per Cluster.
sehr hohe Kapazitäten bei hoher Leistungsfähigkeit im Ver
In einer Clusterkonfiguration können bis zu 16 virtuelle
gleich zu Hash-basierenden Verfahren geeignet und bildet
Libraries abgebildet und bis zu 500.000 virtuelle Kassetten
eine echte ‘Enterprise’-Lösung ab).
emuliert werden.
Das ProtecTier Repository beinhaltet sowohl die Backup-
Das Hyperfactor-De-Duplication-Verfahren stellt derzeit auf
Daten als auch die dazugehörigen Meta-Daten. Die Meta-
dem Markt als einziges Verfahren eine 100%ige Dateninte-
Daten beinhalten 2 Kopien des Hyperfactor Index, alle virtu
grität sicher. Im Backend, also hinter dem Gateway, sind alle
ellen Volume Files, die Konfigurationsdaten der virtuellen
aktuellen IBM Plattensysteme unterstützt. Auch IBM Nicht-
Libraries und Storage Management Daten (Pointer-Tabellen,
Systeme von HDS, EMC und HP können betrieben werden.
Referenz Counter etc.). ProtecTIER neue Prozessoren für das TS7650G Gateway Dabei werden die Datenblöcke selbst im Repository RAID5
Im 1. Quartal 2009 führt IBM neue Prozessoren für die
basierend abgespeichert, während die Meta-Daten aus
TS7650G Gateways ein. Zum Einsatz kommt der x3850 M2
Sicherheitsgründen RAID10 basierend, also doppelt, abge
MT7233 Prozessor. Hierbei handelt es sich um einen 4 x 6
speichert werden.
Core Prozessor mit 2,6 GHz und 32 GB RAM mit zwei inte grierten RAID1-betriebenen 146 GB SAS Disk-Laufwerken, 2
Das Repository kann auf einem einzigen RAID-Array gehal
Emulex Dual Port FC Adapter für die Hostanbindung und
ten werden oder über viele RAID-Arrays verteilt werden.
zwei Qlogic Dual Port FC HBAs für die Anbindung des
LUNs, die für das ProtecTier Repository benutzt werden,
Backend-Platten-Repositories. Für die Replizierung stehen
dürfen nicht von einer Array-Gruppe kommen, die von ande
Dual Port Gigabit Ethernet Adapter zur Verfügung. Der neue
ren Applikationen benutzt werden. Es wird empfohlen, dass
Prozessor steigert die Gateway-Leistungsfähigkeit um ca.
für das Repository eine LUN so angelegt wird, dass sie die
30%. Dies wird durch den 4 x 6 Core Prozessor möglich,
gesamte RAID-Gruppe umfasst.
der jetzt gleichzeitig 24 Datenströme mit De-Duplizierung bearbeiten kann.
IBM Hyperfactor kann bis zu einer Datenreduzierung 25:1 führen und skaliert bis auf 1 PB native Plattenkapazität. Bei
TS7650G Disk Backend als Repository
einem erreichten De-Duplication-Faktor 25:1 können bei
Im Backend des TS7650G Gateways werden die IBM Plat
einer nativen 1-PB-Plattenkapazität 25 PB an Daten verwaltet
tensysteme DS3400, die DS4000- und DS5000-Modelle, die
werden. Das Gateway ist als Single Note Gateway oder in
DS8000, XIV Storage, SVC und Nseries unterstützt. Ebenso
einer Clusterkonfiguration mit zwei Nodes verfügbar.
können die Nicht-IBM-Plattensysteme HDS AMS1000, EMC
Die Leistung liegt bei einer Clusterkonfiguration bei bis zu
CX und HP EVA betrieben werden.
1.000 MB/s, ist aber direkt abhängig von der dahinter liegenden Platteninfrastruktur und Plattenart (FC-Platten oder SATA-, FATA-Platten).
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
135
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
ProtecTIER Replikation
Die Replikation kann Policy-basierend betrieben werden.
Für die Gateway-Lösung besteht seit September 2009 (Ver
Dabei kann die Replikation ständig und sofort durchgeführt
fügbarkeit) die Möglichkeit der IP-basierten Replikation.
werden (Immediate Mode). Man kann die Replikation aber
Damit können virtuelle Bänder in eine andere Lokation direkt
auch in einem geplanten Zeitfenster durchführen (Replica
kopiert werden, um auf diese Weise die Notwendigkeit von
tion Window). Die Policies können sowohl einzelne Kasset
physikalischen Bandtransporten zu vermeiden. Da bei der
ten als auch einen Pool von vielen Kassetten administrieren.
Replikation nur die geänderten Blöcke übertragen werden,
Dabei gibt es zwei Betriebs-Modi: Der Visibility-Control-
hält sich die benötigte Bandbreite der IP-Verbindungen in
Modus importiert bzw. exportiert die Kassetten, die über die
Grenzen. Die Anforderung für eine dritte, ‘sichere’ Kopie
Backup-Applikation gesteuert werden (Check-Out). Kasset
besteht bei vielen IT-Umgebungen schon lange, doch bisher
ten, die exportiert werden, werden in die Target-VTL repli
konnte dies technisch nicht umgesetzt werden, weil entspre
ziert. Beim Basic-DR-Modus (Disaster Recovery) läuft die
chende Leitungskapazitäten nicht vorhanden oder nicht
Replikation ständig und transparent zur Backup-Applikation
bezahlbar waren. Jetzt steht dem nichts mehr im Wege und
mit und die Kassetten stehen sowohl auf der primären Seite
solche Konzepte können ohne die Notwendigkeit riesiger
als auch auf der Remote-Seite zur Verfügung.
Übertragungsbandbreiten realisiert werden. Multipathing und Control Path Failover Pro Node stehen zwei Ethernet-IP-Ports zur Verfügung.
Das TS7650G Gateway und die TS7650 Appliances bieten
Ältere Systeme können durch eine zweite Ethernet-Karte
zusammen mit der TS7500 Familie derzeit als einzige VTL-
nachgerüstet werden. Das Besondere dieser Replikations
Systeme auf dem Markt einen Multipfad-Device-Treiber für
funktion ist der automatische Failover und Failback. Fällt die
FC Failover und Load Balancing an. Damit lassen sich die
primäre Seite aus, kann die Disaster/Recovery-Seite per
VTL-Lösungen redundant in SAN Fabric-Infrastrukturen
Knopfdruck zur ‘Primary’ gemacht werden und der Betrieb
betreiben. Fallen Adapter, Pfade oder ganze SAN-Switche
läuft weiter. Steht die primäre Seite dann wieder zur Verfü
aus, läuft der Betrieb unterbrechungsfrei weiter, weil die
gung, wird ein Failback durchgeführt und die Daten werden
‘Commands’ für die virtuelle Library und Laufwerke automa
zur primären Seite zurückrepliziert.
tisch über die verbleibenden Adapter, Pfade und SAN-Swit che übertragen werden können (Control Path Failover und Data Path Failover).
136
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Zusätzlich bietet der Data Path Failover ein Load Balancing
IBM TS1130 Bandlaufwerk der ‘Enterprise’-Klasse –
auf den redundanten Pfaden vom Server zu den virtuellen
der Durchbruch in der Tape-Technologie
Laufwerken an. Dadurch wird eine gleichmäßige Auslastung
Im Juli 2008 kündigt IBM mit Verfügbarkeit September 2008
der physikalischen FibreChannel-Links und den FC-Ports
das neue Bandlaufwerk TS1130 an und leitet damit eine
ermöglicht.
neue Technologiebasis für die Tape-Weiterentwicklung ein!
ProtecTIER TS7650 Appliances
Das technologische Highlight des TS1130 Laufwerks spie
Neben der Gateway-Lösung stehen auch Appliance-
gelt sich in den neuen Schreib-/Leseelementen wider. Erst
Lösungen im Sinne von ‘all-in-one’ zur Verfügung.
malig wird in einer Tape-Laufwerkstechnologie neben den induktiven Schreibköpfen als Lesekopf ein GMR-Lesekopf
Mit den Appliances adressiert IBM vor allem Mittelstands
(Giant Magneto Resistance) eingesetzt. GMR war im Jahr
kunden, die jetzt auch die Möglichkeit haben, eine Enter
2007 in aller Munde, als für die Entdeckung des GMR-
prise-Lösung für De-Dup-VTLs kostengünstig zu etablieren.
Effekts Peter Grünberg und Albert Fert mit dem Nobelpreis für Physik ausgezeichnet wurden. Ohne diese Entdeckung
IBM hat den Hyperfactor-De-Duplizierungsalgorithmus nach
wären die hohen Kapazitäten bei Festplatten nicht möglich
allen Regeln der Kunst darauf überprüft, ob tatsächlich eine
geworden. Die Umsetzung dieses Effekts in ein Produkt
100%ige Datenintegrität gewährleitet ist. Dafür wurden auch
wurde durch den IBM Forscher Stuart Parkin ermöglicht, der
Fremdfirmen und ‘Hacker’ beauftragt. Es konnten keine
dazu noch sieben Jahre benötigte und Ende 1997 den
Schwachstellen aufgedeckt werden. Es ist deshalb davon
ersten GMR-Lesekopf in ein Plattenlaufwerk integrierte. Nun
auszugehen, dass IBM Daten-De-Duplizierung über die Zeit
hält diese Technologie auch Einzug im Tape-Bereich!
auf das ganze IBM Speicherportfolio und alle Betriebssys templattformen adaptieren wird. ProtecTier ist für die Main
GMR-Leseköpfe sind in der Lage, kleinste Streufelder von
frame-Umgebung (System z) bereits in 2010 vorgesehen.
Bits auszulesen und das in einer Geschwindigkeit, wie es mit keiner anderen Technologie möglich ist. Dem GMR-Kopf ist es zu verdanken, dass jetzt in der TS1130 die ‘High Speed Search’-Geschwindigkeit von bisher 10 m/s (bei TS1120) auf sagenhafte 12,4 m/s gesteigert werden konnte, also von 36 km/h auf 45 km/h. Beim High Speed Search werden die Tape Marks auf dem Band beim Vorspulen aus gelesen und das geht jetzt mit dem GMR-Kopf wesentlich schneller, sodass damit die Zugriffsgeschwindigkeit auf eine auszulesende File beträchtlich gesteigert wird. Neben den Highlights, die schon die Vorgängertechnologie TS1120 integriert hatte, sind viele zusätzliche Einrichtungen verbessert worden, um eine noch höhrere Verfügbarkeit und Zuverlässigkeit zu gewährleisten. Die Vorgänger-Laufwerke TS1120 sind zudem auf die neuen TS1130 Laufwerke hochrüstbar, was jeden TS1120 Nutzer freuen wird. Die Medien, also die Kassetten, bleiben diesel ben, d. h. kein Medienwechsel.
TS1130 Bandlaufwerk der ‘Enterprise’-Klasse
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
137
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
3592 Kassetten
Bandlänge
Kassetten-Type
Gen. 1 3592
Gen. 2 TS1120
Gen. 3 TS1130
JJ
200 m
Read Write
60 GB
100 GB
128 GB
JA
609 m
Read Write
300 GB
500 GB
640 GB
JB
825 m
Read Write
700 GB
1.000 GB
JR
200 m
WORM
60 GB
100 GB
128 GB
JW
609 m
WORM
300 GB
500 GB
640 GB
JX
825 m
WORM
700 GB
1.000 GB
IBM 3592 Bandkassettenformate
Das TS1130 Laufwerk arbeitet mit der zur Zeit höchsten
Der Formatfaktor des Laufwerks und der Kassetten ermöglicht
Datenrate (160 MB/s native) und benötigt für die Sicherung
den Einsatz des Laufwerks in den Tape Libraries IBM 3494
von komprimierten Daten (2,3:1) mit bis zu 1.296 GB nur
und IBM TS3500, TS3400 oder in Stand-alone-Rack-
eine Stunde. Die maximale Kapazität pro Kassette beträgt
Lösungen. Unternehmensweite Anschlussmöglichkeiten
1 Terabyte (JB- und JX-Kassetten). Dabei werden 1.152
sind gegeben: FibreChannel 4 Gb/s über Switched Fabric
Spuren auf der Kassette aufgezeichnet (288 per Datenband
mit zwei Ports für Open-Systems-Server und FICON- oder
x 4 = 1.152 Spuren).
ESCON-Unterstützung (2 Gb) über A60 u J70 und (4 Gb) über C06 für Server mit zOS.
Bandformate und Kompatibilität Die 1. Laufwerksgeneration 3592-J1A schrieb im Gen1-Format
Die Encryption-Möglichkeit, IBM 3592 Kassetten so zu
300 GB auf die JA-Kassette und 60 GB auf die JJ-Kassette.
beschreiben, dass nur die Instanz sie wieder auslesen kann,
Die 2. Laufwerksgeneration TS1120 (3592-E05) schreibt im
die den dazugehörigen Encryption Key kennt und hat, ist
Gen2-Format 500 GB auf die JA-Kassette und 100 GB auf
wie beim Vorgänger TS1120 gegeben.
die JJ-Kassette. Das TS1120 Laufwerk kann auch im Gen1Format 300 GB auf die JA- und 60 GB auf die JJ-Kassette
Mit den Durchsatz-/Kapazitätsmerkmalen und den schnellen
schreiben. Seit Verfügbarkeit der JB-Kassette schreibt das
Spul- und Fast-Search-Zeiten, ist das IBM TS1130 Laufwerk
TS1120 Laufwerk im Gen2-Format 700 GB auf die JB-
einzigartig im Markt. Ein Backup-Fenster kann mit dem Ein
Kassette.
satz von TS1130 Laufwerken bei gleicher Laufwerksanzahl auf 80% reduziert werden (z. B. Im Vergleich zu Generation 1).
Die 3. Laufwerksgeneration TS1130 (3592-E06/EU6) schreibt im Gen3-Format 1.000 GB und im Gen2-Format 700 GB auf die JB-Kassette; 640 GB im Gen3-Format und 500 GB im Gen2-Format auf die JA-Kassette und 128 GB im Gen3-Format und 100 GB im Gen2-Format auf die JJ-Kassette.
138
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Das Laufwerk ist mit zwei Control-Prozessoren ausgestattet.
Der Pufferspeicher wurde zum Vorgänger (TS1120) auf
Das führt zu enormer Performance und Ausfallsicherheit.
1 GB verdoppelt. Dadurch wird eine wesentliche Leistungs
Um den enormen Durchsatz von 160 MB/s auch nutzen zu
steigerung bezüglich Virtual Backhitch erreicht, da das
können, sind die TS1130 Laufwerke mit zwei 4-Gbit-FC-
Laufwerk noch länger am ‘Streamen’ bleibt. Für die Optimie
Schittstellen ausgerüstet. Bereits mit den 3592-Laufwerken
rung der Verarbeitung von großen Files wurde ein
konnte IBM den Weltrekord in Sachen Spulgeschwindigkeit
SkipSync-Feature eingeführt, das eine bis zu 80 %ige
(‘High Speed Search’ von 8 m / s.) für sich beanspruchen.
Leistungsverbesserung für diese Worloads bewirkt. Trotz
Mit den neuen TS1130 Laufwerken übertrifft IBM ihren eigenen
der höheren kapazitiven Nutzung der Kassetten (bis 1 TB)
Rekord und spult mit 12,4 m/s. Das entspricht 45 km/Stunde –
ist das TS1130 Laufwerke in allen Bereichen wesentlich
atemberaubend für ein Bandlaufwerk! Ohne GMR-Technik
schneller als sein Vorgänger.
hätte das nie realisiert werden können!
IBM 3592/TS1120/TS1130 Laufwerkspezifikationen im Überblick Laufwerk Feature
IBM 3592
IBM TS1120
IBM TS1130
Max. Kassettenkapazität
300 GB
700 GB
1.000 GB
Datenrate (native)
40 MB/s
104 MB/s
160 MB/s
System z-Anschluss
2 Gb FICON/ESCON
4 Gb FICON/ESCON
4 Gb FICON/ESCON
Open-System-Anschluss
2 Gbps FibreChannel
4 Gbps FibreChannel
4 Gbps FibreChannel
Virtual Backhitch
Ja
Ja
Ja (erweitert)
Pufferspeicher
128 MB
512 MB
1 GB
Speed Matching
6 Geschwindigkeiten
6 Geschwindigkeiten
6 Geschwindigkeiten
Load-Thread-Zeiten
16 Sekunden
13 Sekunden
13 Sekunden
Durchschnittliche Zugriffszeit inkl. 60 Sekunden Laden
47 Sekunden
38 Sekunden
Verschlüsselung
nein
Ja (kein Aufpreis)
Ja (kein Aufpreis)
Stromverbrauch
42 Watt
42 Watt
46 Watt
Standby
27 Watt
27 Watt
17 Watt
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
139
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
Virtualisierung von Tape Libraries
Die Hosts, also die Backup-Applikationen, sehen völlig transparent virtuelle Laufwerke und virtuelle Kassettenslots
TS3500 (3584) Library-Virtualisierung mit ALMS
so, als ob sie physisch vorhanden wären. ALMS zieht
(Advanced Library Management System)
zwischen der Library-Hardware und den Hosts eine virtuelle
Eine einmalige Funktionalität bietet die TS3500 mit ALMS
Schicht ein, die es erlaubt, im laufenden Betrieb Hardware-
(Advanced Tape Library Management System). ALMS steht
Erweiterungen vorzunehmen, logische Partitionen umzukon
für die TS3500 schon seit April 2006 zur Verfügung, wurde
figurieren, zu verkleinern und zu vergrößern, ob es nun die
aber erst richtig im Jahr 2007 genutzt. Mit ALMS wird die
Laufwerke oder die Slots betrifft. ALMS ist eine einmalige
physische Library virtualisiert, d. h., die HW wird von den Hosts
Funktionalität, die es nur mit der TS3500 Library gibt. ALMS
abgekoppelt. Zu den Hosts werden virtuelle Laufwerke und
bietet vier wichtige Funktionalitäten für die TS3500 Library.
virtuelle Kassettenslots dargestellt. Dies ermöglicht eine noch nie dagewesene Flexibilität, weil logische Partitionen als logische Libraries im laufenden Betrieb dynamisch ver ändert, also verkleinert oder vergrößert, werden können.
Storage Slot und Drive-Virtualisierung mit ALMS
140
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
1.) Dynamisches Partitioning Mit ALMS können im laufenden Betrieb Partitionen erstellt oder verändert werden. Die physische Position in der Library ist dabei nicht mehr relevant. Dies bezieht sich auf Kassettenund Laufwerksstellplätze. 2.) Laufwerkssharing Mit ALMS können Laufwerke verschiedenen Backup-Servern zugeordnet werden und für den Backup-Server online gesetzt werden, der sie gerade benötigt. 3.) Virtual I/O ALMS bietet eine größere logische I/O-Station. Die Funktion ‘Virtual I/O’ ermöglicht es, dem Backup-Server eine virtuelle I/O-Station von bis zu 255 Slots darzustellen. Das vereinfacht das Kassettenmanagement beim Ein- und Auschecken. 4.) Overallocation/Underallocation Mit ALMS ist eine flexible Darstellung der Library-Größe möglich und somit Over- und Underallocation. Overalloca
TS3500 Library 4 I/O Station D-Frame
tion verringert den Administrationsaufwand bei einer LibraryErweiterung. Underallocation spart Lizenzkosten, z. B. im
Bei den neuen Frames können nun TS1120 Frames (L23,
Legato-Umfeld.
D23) in LTO-Frames (L53, D53) umgebaut werden. Ebenso können die neuen LTO-Frames (L53, D53) in neue TS1120-
TS3500 Library Hardware-Erweiterungen 2007
Frames (L23, D23) konvertiert werden. Damit bietet die
Neben der Virtual I/O-Option des ALMS besteht seit Juni
TS3500 eine sehr flexible Möglichkeit, bestehende Frames
2006 die Möglichkeit, D-Frames mit zusätzlichen phy-
auf neu gewünschte Ziel-Frames zu konvertieren.
sischen I/O-Stations zu versehen. Bis zu vier I/O-Stations mit jeweils bis zu 16 I/O-Slots können in eine D-Frame-Tür
Die TS3500 Library bietet mit der Funktionalität des Data
integriert werden.
Gatherings die Möglichkeit, Informationen über die unter schiedlichsten Dinge, die in der Library ablaufen, zu erhalten.
Die TS3500 unterstützt drei solchermaßen ausgestattete D-Frames innerhalb der Library. Zusammen mit der I/O Sta
Die Laufwerk-Statistik enthält Informationen über die letz
tion im L-Frame mit 32 I/O-Slots, drei D-Frames mit bis zu
ten Mounts jedes Laufwerks (nicht mit LTO1 möglich), die
64 I/O-Slots bietet die TS3500 die Möglichkeit, 224 phy-
Port Statistic enthält FibreChannel-Port-Informationen der
sische Kassetten in die Library als ‘Bulk’ einzulagern oder
letzten Mounts (nicht mit LTO1 möglich), die Mount History
als ‘Bulk’ aus der Library zu entnehmen.
zeigt die Mount-Statistik der letzten 100 Kassetten, die ‘demounted’ wurden, und die Library Statistics gibt Aufschluss
Für die TS3500 stehen flexible Modellkonvertierungen zur
über eine effektive Auslastung der logischen Libraries, d. h.,
Verfügung. So können alte Frames wie z. B. L22 und D22
es wird deutlich, ob manche logischen Libraries überdurch
mit TS1120 Laufwerken in die neuen L23- und D23-Frames
schnittlich genutzt werden. Dadurch können die Partitionen
umgebaut werden. Dasselbe gilt für die alten LTO-Frames
geändert werden, um die Library Performance zu verbessern.
L52 und D52, die in die neuen LTO-Frames L53 und D53
Dies ist nur mit den neuen Frames möglich. Zusätzlich kann
umgebaut werden können.
eine Vielzahl von Informationen wie Residency Max Time (maximale Mountzeit einer Kassette), Residency Avg Time (durchschnittliche Mountzeit einer Kassette), Mounts Total (Anzahl der gesamten Mounts), Mounts Max Time
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
141
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
(Maximalzeiten der Mounts), Mounts Avg Time (Durch schnittszeiten der Mounts), Ejects Total (Anzahl der Kasset tenausgaben), Ejects Max Time (Maximalzeiten von Kasset tenausgaben), Ejects Avg Time (Durchschnittszeiten von Kassettenausgaben) und Total Inputs (Anzahl der Kasset ten-Inserts, die über die I/O-Station der Library zugeführt werden) jeweils der letzten Stunde abgerufen werden. IBM TS3500 Library – neue Erweiterungen und HD-Technologie (High Density) Im Juli und August 2008 kündigt IBM für die High End Library TS3500 (3584) massive Erweiterungen an. Mit dem am 15.07.2008 angekündigten neuen Release 8A
IBM TS3500 – schnellstes Bandarchiv im Markt
unterstützt die TS3500 Tape Library die neuen TS1130 Lauf werke. Der Mischbetrieb mit den Vorgängerlaufwerken ist
lagern. Für die 3592-Kassetten wird das neue S24 Frame
auch gewährleistet. Voraussetzung für den Einsatz der
verwendet, für die LTO-Kassetten das neue S54 Frame.
neuen TS1130 Laufwerke ist ALMS (Advanced Library
Voraussetzung für den Betrieb der neuen Frames in der
Management System). Neben der Unterstützung der
TS3500 Library ist ALMS (Advanced Library Management
TS1130 Laufwerke bietet der neue Release 8A die Möglich
System) und ein neuer Gripper. Die Kassetten werden in
keit der SSL-Funktionalität (Secure Socket Layer). Dieser
mehreren Slot-Reihen hintereinander abgelegt. Greift der
stellt sicher, dass, wenn die Library über das Web adminis
Gripper, der diesem neuen Handling angepasst wurde, eine
tiert wird, kein anderer sich „dazwischenhacken“ kann, und
Kassette aus der ersten Reihe, rutschen die dahinterlie
gewährleistet so absolute Administrationssicherheit. Ebenso
genden Kassetten um einen Slot nach vorne und umgekehrt!
wurde bezüglich der Standardisierung die IPv6-Unterstüt
Eine geniale und IBM patentierte Konstruktion, um auf aller
zung zur Verfügung gestellt (in USA eine wichtige Anforde
kleinstem Raum viele Kassetten unterzubringen und dabei
rung) und die standardisierte SMI-S-Schnittstelle integriert.
Vollautomation sicherzustellen.
Ein neues Tool ist der TSR, der ‘Tape System Reporter’. Dieser erlaubt es mit Windows basierenden Systemen (also z. B. mit dem Laptop), aktuelle Status-Abfragen der Library zu bekommen und zu sammeln (auch über einen längeren Zeitraum). Alle Updates und Neuerungen sind über einen Microcode-Update verfügbar. Für alle Sx4-Gehäuseeinheiten stehen jetzt auch LEDs als Beleuchtung zur Verfügung (Bild rechts). So kann ein Beo bachter genauer sehen, was der Roboter und die Kassetten machen, und kann den Betriebsablauf in der Library sicht bar verfolgen. Interessant ist, dass diese Anforderung von vielen TS3500-Nutzern gestellt wurde! Mit dem am 26.08.08 angekündigten neuen Release 8B stehen der Library ganz neue, sogenannte High Density (HD) Frames, zu Verfügung, die es erlauben, über die drei
IBM TS3500 – LED-Beleuchtung
fache Menge an physischen Kassetten in einem Frame zu
142
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Im S24 Frame für 3592 Kassetten (1/2 Zoll) , die etwas größer
Darüber hinaus werden die Slots der Tierstufe 0 als Cart-
als LTO-Kassetten sind, sind 5 Tierstufen etabliert, d. h., auf
ridge Cache behandelt, d. h. alle Kassetten, die sich in
der Rückseite des Frames sind hinter jeder Slotreihe noch
Slots der Tierstufe 0 befinden, werden einem LRU-Caching-
mals 3 zusätzliche Slotreihen untergebracht. Ein S24 Frame
Algorithmus (Least Recently Used) unterzogen. Werden die
kann damit bis zu 1.000 Kassetten ablegen. Für die
Kassetten länger nicht gebraucht (im Vergleich zu anderen
kleineren LTO-Kassetten stehen sogar 6 Tierstufen zur Ver
Kassetten der Tierstufe 0), werden sie von Tierstufe 0 in
fügung, d. h., hinter jeder Slotreihe auf der Rückseite sind
Slots der Tierstufe 1 verlagert. Werden sie dort im Vergleich
nochmals 4 zusätzliche Slotreihen untergebracht. Ein S54
zu anderen Kassetten der Tierstufe 1 nicht benutzt, werden
Frame kann somit bis zu 1.320 Kassetten ablegen.
sie in Slots der Tierstufe 2 verlagert. Das geht je nach Füll grad der HD-Slots bis in die letzte Tierstufe. Das Cartridge Caching stellt also sicher, dass Kassetten, die häufig benö tigt werden, immer im direkten Zugriff des Roboters stehen, also in Tierstufe 0 und 1. Sind nun mehrere HD-Frames innerhalb einer Library in Betrieb, sorgt die Funktion Tier Load Balancing dafür, dass alle HD-Slots vom Kassettenfüllgrad über alle HD-Frames gleichmäßig benutzt werden (ausbalancierte Slotausnutzung über alle HD-Frames). So wird sichergestellt, dass sich die Kassetten möglichst in den Slots der kleineren Tierstufen befinden und alle HD-Frames bezüglich ihrer Tierbenutzung gleichmäßig optimiert werden. Über eine SCSI Command Option kann für bestimmte Kas setten der Cartridge Caching Algorithmus umgangen wer den. Die Option lässt zu, ausgewählte Kassetten immer im Cache, also immer in der Tierstufe 0 zu lagern oder auch nicht. Der Command steuert das gezielte Prestaging und Destaging von ausgewählten Kassetten in und aus dem Cache (Tierstufe 0). Für die neuen HD-Frames steht eine „Capacity on Demand“ Option (CoD) zur Verfügung. Standardmäßig werden die
IBM TS3500 – HD-Frame S54 für LTO-Kassetten
neuen S24 und S54 Frames so ausgeliefert, dass 3 vertikale Die Hardware in Form von HD-Frames ist die eine Sache,
Tierreihen aktiviert sind. Tier 0 auf der Frontseite und die
doch jetzt gilt es, diese HD-Frames effektiv zu verwalten.
ersten beiden Tiers 1 und 2 auf der Rückseite des Frames.
Dazu stehen neue Funktionen für die TS3500 Library zur
Mit dieser Aktivierung kann ein S24 Frames 600 Slots und
Verfügung.
ein S54 Frames 660 Slots nutzen.
Hier ist am Beispiel des S54 Frames (siehe Abbildung) mit
Über eine ‘On Demand’-Aktivierung können die noch nicht
bis zu 5 Tierstufen das HD Slot Management beschrieben.
genutzten Slots freigeschaltet werden, d. h., bei dem S24
Alle Tiers und damit alle HD-Slots sind völlig transparent zu
Frame werden die Tiers 3 und 4 freigeschaltet und bei dem
den Hosts. Drei Key-Elemente sind für das HD Slot Manage
S54 Frame die Tiers 3, 4 und 5. Mit dieser Freischaltung
ment zuständig. Die Funktion Floating Home Cell optimiert
können alle Slots im Frame genutzt werden und damit die
die Kassettenbelegung in den Slots der Tierstufen 0 und 1.
maximale Anzahl an Kassetten und damit die höchste Kapa zität abgebildet werden.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
143
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
Modellkonvertierungen der neuen Frames, also der Umbau
Tape Library-Virtualisierung mit dem Enterprise Removable
von S24 nach S54 oder von S54 nach S24 stehen seit dem
Media Manager (eRMM, iRMM)
20. Februar 2009 zur Verfügung.
Der Enterprise Removable Media Manager bildet einen Vir tualisierungslayer zwischen Datensicherungs-Anwendungen
Mount-Zeiten HD-Frames
und der Tape Library-Hardware. Durch die Entkoppelung
Die Roboter Mount-Zeiten wurden für die HD-Frames in
von Datensicherungsanwendungen und Tape Library-Hard
einer 6-Frame-Konfiguration der TS3500 unter Produktions
ware wird größtmögliche Flexibilität und Skalierbarkeit der
bedingungen bei einem Kunden ermittelt (siehe Grafik
Tape Library-Infrastruktur erreicht und der Funktionsumfang
‘Roboter Mount-Zeiten HD-Frames’).
von Libraries mit SCSI Media Changer wie z. B. IBM TS3500, durch erweitertes Media Management ergänzt. eRMM (seit August 2007 als Programmpaket iRMM – integrated Removable Media Manager – verfügbar) bietet die effizientere Nutzung von Drives und Libraries durch dynamisches Sharing und Pooling der Bandlaufwerke. Es erlaubt zentrales Management von Bändern und Bandlaufwerken, die von verschiedenen Anwendungen genutzt werden, und bietet so größtmögliche Flexibilität und Skalierbarkeit der Tape LibraryInfrastruktur. Das Ergebnis sind verkürzte Backup-Laufzeiten durch flexible Tape Device-Zuordnung und eine deutliche
Roboter Mount-Zeiten HD-Frames
Ressourceneinsparung bei der Tape Library-Infrastruktur. Der Zugriff auf Kassetten in der Tierstufe 0 ist am schnellsten,
In modernen Umgebungen mit Speichernetzen sind Server
da der Greifer des Roboters in seiner Grundstellung in Rich
und Tape Libraries über ein Speichernetz miteinander ver
tung Tierstufe 0 ausgerichtet ist. Der Zugriff auf die Tierstufe
bunden. Damit sind die technischen Voraussetzungen für
1 ist 760 ms langsamer, da jetzt der Greifer sich um 180
das effiziente Sharing von Tape-Ressourcen zwischen ver
Grad drehen muss, um sich in Richtung Tierstufe 1 auszu
schiedenen Backup- und Archivierungsservern nur bedingt
richten.
erfüllt. Für Tapes fehlt eine Abstraktionsschicht, die mit einem Volume Manager (SAN Volume Controller) oder einem
144
Kassetten in der Tierstufe 2 benötigen nochmals zusätzliche
Dateisystem (SAN File System) vergleichbar ist. Das führt
2 Sekunden. Diese kommen zustande, da der Roboter
dazu, dass Tape-Ressourcen nur sehr eingeschränkt von
zuerst die Kassette in der Tierstufe 1 herausnehmen muss.
mehreren Anwendungen gemeinsam genutzt werden können.
Dann rutscht die Kassette in der Tierstufe 2 nach vorne in
Die Datensicherungsanwendungen verlangen meist exklusi
die Tierstufe 1. Der Roboter greift dann diese Kassette mit
ven Zugriff auf einen Teil der Ressourcen. Es fehlte bisher
seinem zweiten Greifer (Dual Gripper Standard) ab. Die
eine zentrale Verwaltung von Tape-Ressourcen, welche die
große Zeitspanne ergibt sich zwischen Tierstufe 2 und 3.
Voraussetzung für ein anwendungsübergreifendes Sharing
Die 10,9 Sekunden kommen zustande, weil der Roboter
ermöglichen. Mit eRMM (iRMM) macht IBM eine Lösung
zuerst die Kassetten der Tierstufe 1 und 2 herausnehmen
verfügbar, die genau diese Anforderung erfüllt. Dieses
und an einen anderen Platz bringen muss. Dies wird auf
Programmprodukt wurde in der IBM Lokation in Mainz ent
grund der zwei Gripper in einem Vorgang durchgeführt.
wickelt. iRMM ist jetzt auch in modifizierter Form integraler
Inzwischen sind die Kassetten von Tierstufe 3 und 4 in die
Bestandteil der TS7700 Virtual Tape Server Systeme und
Tierstufen 1 und 2 vorgerutscht. Der Roboter kann sie dann
ersetzt den bisher benötigten Library Manager in System z-
dort in einer zweiten Aktion abholen.
Umgebungen.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
nistrier- und managebar. Die Library kann ‘Stand Alone’ oder ‘Rack Mounted’ (5U) betrieben werden. Die Speicherkapazi tät bei Verwendung der 700-GB-Kassetten geht bis 12,6 TB (bis 37,8 TB mit 3:1 Kompression) und bei Verwendung der 1.000-GB-Kassetten bis 18 TB (bis 54 TB mit 3:1 Kom pression). Die TS3400 ist eine hochredundante Library und mit redun danter Stromversorgung, ‘Hot Swappable’-Laufwerken und Netzteilen, einem doppelten Stromanschluss sowie Control Path und Data Path Failover-Möglichkeit ausgestattet. Die TS3400 Mini-Library mit TS1120 Laufwerken für Mainframe und Open Systems
Library kann an IBM Systeme i, p, x und zLinux sowie an z/OS via TS1120 Controller angeschlossen werden. Außer den
TS3400 Mini-Library für High-End-Tape-Technologie
IBM Systemen werden die Betriebssystem-Plattformen von
Im Februar 2007 kündigte IBM eine kleine Library TS3400
HP, Sun und Microsoft Windows unterstützt.
an, die wie die große TS3500 mit den TS1120 und TS1130 High-End-Laufwerken arbeitet. Die Library wurde speziell für
Damit stellt IBM die Möglichkeit zur Verfügung, große
die High-End-Tape-Laufwerke TS1120 (Jaguar-Technologie)
TS3500 Libraries mit TS1120 und TS1130 Laufwerken in
als Einstiegslösung konzipiert. Diese kleine Library kann
einem zentralen Rechenzentrum zu betreiben, während
sowohl im Open-Systems-Umfeld als auch im Mainframe-
Außenstellen mit derselben Technologie in Form einer Mini-
Umfeld (über den TS1120 FICON Controller seit August 2007)
Library arbeiten können. Dies ermöglicht den Datenträgeraus
betrieben werden. Die TS3400 bietet eine native Kapazität
tausch in Form von 3592 Kassetten zwischen Rechenzen
von 12,6 TB (TS1120) und 18 TB (TS1130) an.
trum und Außenstellen. Um hier höchste Sicherheitsaspekte zu gewährleisten, bieten die TS1120 und TS1130 Laufwerke
In die TS3400 können 1 bis 2 TS1120 und TS1130 FC-
die Möglichkeit, die Kassetten in verschlüsselter Form zu
Bandlaufwerke mit 4-GB/s-Dual-Port-Fibre-Channel-
beschreiben (siehe auch unter Tape Encryption).
Anschlüssen integriert werden. Man kann alle Kassetten, die ein TS1120 und TS1130 Laufwerk verarbeitet, verwen
Mit der Verfügbarkeit der TS3400 erweitert sich das IBM
den (100-, 500- und 700-GB-Kassetten bei TS1120 und 128-,
Library-Portfolio in der Weise, dass kleine bis ganz große
640- und 1.000-GB-Kasetten bei TS1130). Die Library unter
Lösungen sowohl mit TS1120 und TS1130 Technologie als
stützt sowohl überschreibbare als auch WORM-Kassetten
auch mit LTO-Technologie ermöglicht werden.
und bietet direkte Encryption und Encryption Key Manage ment-Unterstützung an, eine Verschlüsselungstechnik, die
TS2900 Autoloader mit HD-Technologie (High Density)
für die TS1120 Laufwerke im Herbst 2006 zur Verfügung
IBM kündigt im August 2008 (zusammen mit der HD-Frame-
gestellt wurde und ebenso in die TS1130 Laufwerke inte
Ankündigung der TS3500) eine neue Library-Einstiegslösung
griert ist. Die Library hat 2 herausnehmbare austauschbare
TS2900 an, die Kapazitäten von 3,6 TB bis 7,2 TB (native)
Kassettenmagazine. Jedes Magazin kann bis zu 9 Kasset
bietet und mit einem halbhohen LTO3-Laufwerk oder einem
ten aufnehmen. Das untere Magazin kann so konfiguriert
halbhohen LTO4-Laufwerk ausgestattet werden kann. Die
werden, dass 3 Slots im Magazin als I/O-Station dienen. Das
älteren LTO-Technologien LTO1 und LTO2 sind in dieser Ein
obere Magazin ist mit zwei Reinigungskassettenslots konfi
stiegslösung nicht unterstützt.
gurierbar. Die Ausstattung mit Barcode-Leser ist Standard. Der neue Autoloader steht seit September 2008 für den Ein Die TS3400 bietet eine Partitionierung von bis zu 2 logischen
stiegsbereich zur Verfügung. Er hat nur eine Bauhöhe von
Libraries. Jede logische Library enthält ein Laufwerk und ein
1U und sieht damit fast wie eine dünne „Pizzascheibe“ aus.
Magazin und kann im Sequential-Mode (Autoloader) oder
Wegen dieser geringen Bauhöhe sind nur LTO-Laufwerke in
Random-Mode (Library) arbeiten. Die TS3400 ist über das
halber Bauhöhe integrierbar. Die TS2900 lässt sich mit
lokale Operator Panel oder remote über ein Web GUI admi
einem Laufwerk HH LTO 4 SAS oder einem HH LTO 3 SAS
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
145
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
durch die neue patentierte HD-Technologie (High Density) von IBM möglich. Das Magazin, das herausgenommen werden kann, ist mit dieser HD-Technik ausgestattet. Es fasst eigentlich zehn Kassetten, immer zwei in fünf aneinanderliegenden Reihen von jeweils zwei Kassetten und darf nur mit neun Kassetten konfigurieren und bietet Platz für bis zu neun LTO-Kassetten,
bestückt werden – damit ist ein Stellplatz im Magazin immer
die in einem austauschbaren Magazin dem Autoloader zur
frei und wird als ‘Cartride Caching’-Slot eingesetzt.
Verfügung gestellt werden. Ein Slot des Magazins dient als I/O-Station. Trotz der kleinen Baugröße bietet der Autoloader
Links auf dem Bild ist das Greifersystem abgebildet, das auf
beträchtliche Kapazitäten. Mit LTO4 erreicht man bis zu
dem rechten Bild vorne hin- und herfährt. Muss nun ein
14,4 TB (mit 2:1 Kompression). Diese kleine Mini-Library
Zugriff auf eine Kassette erfolgen, die in einem der fünf
bietet direkten Zugriff auf jede Kassette und kann über das
Schächte hinten abgelegt ist, nimmt der Roboter die erste
Web administriert werden.
Kassette heraus und stellt sie in dem Schacht ab, wo nur eine Kassette liegt! Die dahinterliegende Kassette rutscht
Die TS2900 Mini-Library ist eine geniale Konstruktion auf
automatisch einen Stellpatz vor und wird dann in einem
kleinstem Raum, weil man in der Konstruktion von 1U Höhe
zweiten Schritt vom Roboter geholt und dann zum Laufwerk
ein halbhohes LTO3- oder LTO4-Laufwerk untergebracht
gebracht, das sich ganz rechts vom Magazin befindet.
hat, ein Greifersystem, das direkten Zugriff auf alle neun
Damit ist der Greifer immer in der Lage, jede Kassette auf
Kassetten im Magazin hat, Netzteil, die ganze Elektronik
Anforderung zum Laufwerk zu bringen. Einfach faszinierend,
einschließlich des Gebläses sowie ein herausnehmbares
wie sich mit Ideen ganz neue Dinge umsetzen lassen!
Magazin mit zehn Kassetten-Stellplätzen, von denen nur neun Stellplätze mit Kassetten belegt werden können.
Unten stehende Grafik zeigt im Überblick das komplette Library-Angebot der IBM im Jahr 2009/ 2010, von der Mini-
146
Auf dieser niedrigen Bauhöhe neun Kassetten unterzubringen
Library TS2900 bis zur High End Library TS3500. TS2900
und die im direkten Zugriff des Greifers zu haben, ist nur
und TS3400 sind IBM Eigenentwicklungen und werden von
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
der Firma NEC als OEM-Produkt für IBM produziert. Die Ein
Produkten – und das IBM General Parallel File System – kurz
stiegslösungen TS3100 und TS3200 kommen von der Firma
GPFS, das seit 1996 in High-Performance-Computing-
BDT und werden als IBM Logo-Produkte vertrieben. Als
Umgebungen sehr erfolgreich eingesetzt wird. IBM GPFS
Midrange Library für LTO-Laufwerke hat die IBM die TS3310
stellt eine stabile Grid-Plattform mit erprobten Skalierungs
im Portfolio, eine Library, die von Quantum/Adic gebaut wird
möglichkeiten und integrierten Hochverfügbarkeits
und per OEM als IBM Logo-Produkt vetrieben wird. Quan
funktionen zur Verfügung.
tum selbst vertreibt diese Library als Scalar 500i auch selbst. Der Produktunterschied liegt darin, dass die IBM
Durch Erweiterungen mit bewährten Bausteinen (Redhat
TS3310 ‘End to End’ Path Failover unterstützt. Im High-End-
Linux, Samba) verfügt SPSC über eine hochmoderne und
Bereich verwendet die IBM die TS3500, die IBM selbst pro
eine offene Systemplattform. Dieses Grid-basierte Lösungs
duziert und konstant weiterentwickelt. Die TS3500 ist derzeit
konzept stellt eine stabile Scale-Out-Plattform für zukünftige
die schnellste Library auf dem Markt und bietet viele Allein
Storage-Anforderungen zur Verfügung. Durch Fokussierung
stellungsmerkmale und Vorteile gegenüber vergleichbaren
der SPSC-Entwicklung auf eine optimierte Betriebsführung
Libraries. Das angebotene Library-Portfolio ist für einen Her
und reduzierte Komplexitätsanforderungen integriert IBM
steller/Anbieter einmalig und bietet Tape Automation für alle
bereits im SPSC-Standard viele Funktionalitäten und unter
Anforderungen.
stützt diese mit Prozessen. Diese Funktionalitäten beinhalten Trendanalysen, Datenmigrationsprozesse und Information Lifecycle Management Prozesse.
File Virtualisierung und File Area Networks (FAN) Ebenso wie die in der IBM SPSC-Lösung integrierten Global Parallel File System (GPFS) und Scale Out File Services
Management-Funktionalitäten wie Monitoring, Administration
(SOFS)
und Operation erlauben Schnittstellen eine einfache Integra
Unter Verwendung von erprobten IBM Baugruppen wie GPFS,
tion in die IT-Überwachung und garantieren geringe Adminis
BladeCenter und Storage stellte IBM im November 2007 ein
trationsaufwände. Zur Steigerung der Backup/Restore-
hochskalierbares und hochperformantes Dateisystem mit
Zeiten erfolgte eine Integration von IBM Tivoli Storage
integrierten ILM-Funktionalitäten vor. Das System ist in der
Manager – kurz TSM – in die Lösung. Unter Verwendung
Lage, linear mit den Anforderungen an Speicherplatz und
der SPSC-Mechanismen reduzieren sich die Scan-Zeiten
Durchsatz zu wachsen, und bietet neben extremer Hochver
erheblich, Gleiches gilt für den Restore.
fügbarkeit eine einfache Administrierbarkeit. Im Frühjahr 2010 kommt als Lösungsnachfolger von SOFS die IBM
IBM SPSC bietet:
SPSC-Lösung zur Anwendung. SPSC steht für Smart Private Storage Cloud.
•• einen globalen Namensbereich für alle Verzeichnisse (File-Virtualisierung)
IBM SPSC – Smart Private Storage Cloud (vormals SOFS Scale
•• einfachste Betriebsführung und Administration
Out File Services)
•• Hochverfügbarkeitsmechanismen eines Clusters mit Grid-
Lösungsüberblick
Mechanismen
Die IBM SPSC-Lösung wurde entwickelt, um einfach und performant unstrukturierte Daten in Kundenumgebungen zur Verfügung zu stellen und bekannte Engpässe (Administra
•• dynamische Erweiterung/Reduzierung ohne Betriebsunterbrechung •• integrierte Information Lifecycle Funktionalitäten mit auto-
tion, Wachstum, Durchsatz, z.B bei Web-Anwendungen) in
matisierten Regeln auf File-Ebene, in Kombination mit TSM
aktuellen Network Attached Storage-Lösungen – kurz NAS –
HSM eine Integration bis auf Band
zu beseitigen.
•• flexible Kopplung von Anwendungsservern durch CIFS,
Als Basis der IBM SPSC-Lösung dienen erprobte IBM Hard
•• sehr große Speichervolumen in einem System (>10 Peta-
NFS, GPFS Cross Cluster Mount ware-Komponenten – IBM Bladecenter mit IBM Storage-
Byte) •• integrierte Datenmigrationsmechanismen
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
147
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
Lösungskomponenten Im Bild ‘SPSC-Lösungskomponenten’ wird der schematische Aufbau der Lösung im Gesamtüberblick dargestellt. Die Bausteine HSM, TSM sind hierbei Optionen, die auf Wunsch in die Lösung integriert werden können. Die SPSC-Lösung besteht immer aus IBM Komponenten und Erweiterungen von GNU-Komponenten. IBM Lösungskomponenten: •• IBM Hardware (BladeCenter, Storage) •• IBM Software (GPFS, TSM, HSM, SPSC Lizenzmaterial) IBM Implementation Service
inklusive Subscribtion •• Zusätzliche SW – Redhat Linux, CIFS, Samba .. inklusive Subscribtion, soweit nötig
Mit dem IBM Implementation Service wird die SPSC-Lösung in bestehende IT-Umgebungen integriert:
•• IBM Implementierungsservice •• Konfigurations- und Anbindungsplanung •• Installation aller IBM HW -und SW-Komponenten •• In Vertretung die Installation der Open-Source-Produkte •• Inbetriebnahme der SPSC und Unterstützung bei Einbindung in die IT-Infrastruktur •• Überführung der SPSC-Lösung an das Operating Team •• Dokumentation der Implementierung •• Projektleitung IBM Basis Support Service Der Service beinhaltet Solution-orientierten Support mit zentraler Call Entry für alle Fragen und Probleme mit der SPSC-Lösung. Diese Support-Struktur beinhaltet die Problem IBM Server und Storage-Hardware
lösung der Open-Source-Komponenten und stellt höchste
Basierend auf IBM HW-Bausteinen wird für jede Anforde
Verfügbarkeit der Lösung sicher.
rungen ein System zusammengestellt. Die Konfiguration wird bestimmt aus der benötigten Leistung (Durchsatzanfor
•• Zentrales Customer Care Center für Fehlermeldung
derungen, Speicherbedarf, Verfügbarkeits- und Erweite
•• Bereitstellung von Informationen zu Fehlerkorrekturen,
rungsanforderungen). Durch Nutzung des IBM SAN Volume Controllers besteht die Option, vorhandene Plattensysteme anderer Hersteller zu integrieren (Investitionsschutz) und die Vorteile einer Blockvirtualisierung zu nutzen.
Programmkorrekturen für bekannte Fehler •• Updates des SPSC-Codes und der zugehörigen Dokumentation •• Bereitstellung von Unterstützung für das aktuelle und das vorhergehende Release des SPSC-Codes
IBM Software GPFS bildet und stellt die Laufzeitumgebung der Lösung
IBM Premium Service (beinhaltet Basis Support Service)
bereit. Optional kann die Lösung mit TSM und/oder um effi
Der Premium Service erweitert den Basis-Support mit der
ziente Backup- und Recovery-Mechanismen und/oder
Übernahme von Basis-Betriebsaufgaben wie Füllstands
hierarchisches Speicher-Management erweitert werden.
überwachung, Change und aktive Problembeseitigung und Pflege des Systems mit SW-Updates, Optimierungen und technischer Administation der Lösung.
148
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Der IBM SPSC Premium Service unterstützt bei den
Aufbau passt sich die SPSC-Lösung leicht den Bedürfnissen
Betriebsleistungen auf Basis 7 Tage x 24 Stunden und bein
und Anforderungen an. Veränderungen an der Konfiguration
haltet folgende Tätigkeiten der IBM:
und Systemkomponenten können in den meisten Fällen im Online-Betrieb erfolgen.
•• Zentrales Customer Care Center für alle Kundenanfragen •• Regelmäßige Überwachung der Lösung und aktives Operating
Globaler Namensbereich für alle Verzeichnisse Durch Verwendung des GPFS-Filesystems ermöglicht SPSC
•• Bereitstellung von Patches / Updates und Einspielen in die SPSC-Umgebung nach Absprache mit dem Kunden
die Repräsentation eines transparenten Filesystems inner halb der Lösung (Filesystem-Virtualisierung).
•• Lösungsunterstützung bei Problemen (Problem Ownership inklusive der Einbindung notwendiger Funktionen,
Dieser Ansatz erlaubt es, Daten in unterschiedlichen Spei
z. B. HW-Maintenance)
cherklassen zu speichern, ohne ihre Repräsentation zum
•• Regelmäßige Betreuung zur Betriebsoptimierung und Nutzung
Benutzer zu verändern. Hierbei ist es unerheblich, ob dies ein SPSC-Cluster ist oder mehrere SPSC-Cluster zusammen
•• IBM Projektverantwortliche für alle Betriebsanfragen
geschaltet werden.
•• Regelmäßiger Statusreport (Nutzungskenngrößen, Hochverfügbarkeitsmechanismen eines Grids
Auslastung, Durchsatz) •• Optimierung der SPSC-Lösung auf Basis der Betriebs erfahrungen
Ein SPSC-Cluster kann aus bis zu 26 Blades bestehen mit einem zusätzlichen Quorum Server. Der Quorum Server
•• Planung von Änderungen (neue Kundenprojekte einführen, Leistungsparameter)
erlaubt eine automatisierte Umschaltung bei Ausfall/Nicht verfügbarkeit eines Clusterteils.
•• Strategische Weiterentwicklung der Lösung für geplante Projekte
Die Basis hierfür bildet die Aufsplittung eines SPSC-Clusters in zwei BladeCenter in zwei Rechenzentren (< 20 km Entfer
SPSC-Standard-Funktionalitäten
nung). In diesem Clusteraufbau sind alle Knoten aktiv und
SPSC stellt eine skalierbare Plattform für alle Anforderungen
bedienen ankommende Anfragen. Bei Ausfall eines Rechen
von Fileservices zur Verfügung. Durch den sehr modularen
zentrums übernimmt der verbleibende Clusterteil die
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
149
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
Gesamtmenge der Anfragen und erhält den Service für den
Erweiterung von Speicherkapazität (Beispiel):
Benutzer. Diese Mechanismen finden bei der Spiegelung der Filesysteme ebenfalls Anwendung.
1. Basiskonfiguration der neuen Storage-Komponenten (LUNs)
Spiegelmechanismen auf Filesystemebene
2. Anbindung der Storage-Komponenten an das
Bei der Spiegelung von Dateien zur Erhöhung der Datensi cherheit können, basierend auf Datei-Shares, Spiegelungen mittels Policies eingerichtet werden. Der Spiegel kann hier bei jeweils (und/oder) im gleichen Share, in einem anderen Share oder einem anderen Cluster definiert werden.
BladeCenter 3. Übergabe der Resourcen an SPSC in Form zusätzlicher LUNs 4. Mit dem SPSC-Administrationsinterface werden die LUNs Shares zugeordnet. 5. SPSC übernimmt automatisch das Striping der Daten über
In SPSC erfolgt die Spiegelung der definierten Dateien
den erweiterten Share.
durch das parallele Schreiben der Dateien unter Kontrolle von GPFS. Diese erlaubt eine parallele Verarbeitung der
SPSC integrierte ILM-Funktionalitäten
Schreibvorgänge, speziell bei mehrfachen Spiegeln in meh
Mit den integrierten ILM-Funktionalitäten (Information Lifecycle
reren Clustern. Hierbei ist einen Kopplung der Plattensys
Management) bietet IBM SPSC eine Plattform zur effizienten
teme nicht notwendig.
und automatisierten Handhabung von unstrukturierten Daten. Durch die Definition-Regeln auf Fileebene können
Dynamische Erweiterung ohne Betriebsunterbrechung
automatisiert Verlagerungsprozesse auf unterschiedliche
Die SPSC-Lösung erlaubt die Erweiterung / Verkleinerung der
Speicherklassen angestoßen werden und in Kombination mit
Lösung unter vollem Online-Betrieb.
IBM TSM (Tivoli Storage Manager) und HSM (Hierarchical Storage Manager) erfolgt die Auslagerung bis auf Bänder,
Veränderungen an der SPSC-Lösung erfolgen in voneinander
wobei die Dateieinträge transparent im Filesystem für den
unabhängigen Schritten. Die Verteilung der Daten liegt aus
Benutzer dargestellt werden.
schließlich in Verantwortung von SPSC. Wie bereits beschrieben, können in SPSC mehrere unter schiedliche Speicherklassen definiert werden. Zur Optimierung der Nutzung der Speicherklassen verfügt SPSC bereits in Basisfunktionalität über ILM-Erweiterungen (Information Lifecycle). Hierbei können auf Grundlage von Policies auf Share-Ebene definiert werden, auf welchem Type von Plattenspeicher Daten vorgehalten werden sollen. Optional kann eine Migration bis auf Band erfolgen: •• Definition von Policies für Dateien auf Share-Ebene •• Automatische Migration der Dateien nach den definierten Policies •• Transparenter Zugriff für den Benutzer (inklusive der Bandnutzung) •• Optional: Bei Einsatz von TSM HSM – Tivoli Storage Manager Hierarchical Storage Manager – kann bei der Migration ein Bandlaufwerk integriert werden.
150
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Flexible Anbindung von Anwendungssystemen
ILM-Prozesse mit integrierter Auslagerung auf Bänder
Zusätzlich zu den Protokollen CIFS / NFS steht eine hoch
Da Filer meist mit sehr viel Datenvolumen von inaktiven
performante Anbindung von Linux-Anwendungsservern mit
Dateien gefüllt sind (60–70% der Daten, da nicht mehr
tels GPFS Cross Cluster Mount zur Verfügung. Die Kopp
benötigt), können diese kostengünstig auf Bänder ausgela
lung erfolgt hierbei mittels des IBM GPFS-Protokolls, das in
gert werden. Auf Basis von Policies erfolgt automatisiert die
HPC-Umgebungen sehr erfolgreich eingesetzt wird. Zur
Auslagerung über Speicherklassen bis auf Bandkassetten.
Optimierung des Datendurchsatzes unterstützt IBM SPSC die direkte Kopplung von GPFS-basierten Anwendungsser vern. Diese Kopplung erlaubt durch das im GPFS imple mentierte Protokoll einen maximalen Datendurchsatz.
•• Die Verschiebung erfolgt zunächst innerhalb des Filers auf unterschiedliche Plattentypen •• Die Policies wirken auf Fileebene •• Nach Regeln werden die Daten automatisiert an TSM-HSM
Integrierte Datenmigrationsmechanismen
übergeben und für den Windows-Benutzer als Offline-
Basierend auf den beschriebenen Verfahren für die Online-
Datei markiert.
Erweiterung vom Speicher kann sehr einfach und effizient eine Datemigration erfolgen. Die Datenmigration kann hier
•• Bei Öffnen der Datei wird diese automatisiert aus der TSM-HSM-Umgebung wiederhergestellt.
bei ohne zusätzliche Werkzeuge bei minimalen System Optionale Erweiterungen
belastungen durchgeführt werden.
Asynchroner Spiegel Die hierzu notwendigen Schritte sind:
Mit dem asynchronen Spiegel können zeitversetzt Daten online kopiert werden, um gegen ungewollte Datenlöschung
1. Bereitstellung der LUNs im SPSC
oder im Katastrophenfall einen zusätzlichen Datenbestand
2. Einrichten der Migrationsbeziehung zwischen den
zu haben. Hierbei können kurzfristig Daten zurückgeholt
abzulösenden Speicherbereichen
werden (innerhalb des Synchronisationszeitraums oder im
3. Migration der Daten auf die neuen LUNs
K-Fall als Betrieb des asynchronen Clusters als Notsystem).
4. Auflösen der Migrationsbeziehung im Speicherbereich
Der asynchrone Spiegel ist hierbei ein SPSC-Cluster, der im
5. Herausnahme der alten LUNs aus dem SPSC-Cluster
Normalbetrieb als Teil des Produktionsclusters läuft. Die Spiegelungsregeln werden wie durchgängig in SPSC per
Erweiterungspotenziale für SPSC
Policy definiert.
Mit SPSC steht eine skalierbare NAS-Plattform zur Verfü gung. Die Skalierung kann hierbei unter mehreren
Weitstreckenkopplung von SPSC-Clustern durch Grid-Prozesse
Geschichtspunkten erfolgen:
Mit SPSC stehen mehrere Varianten einer Kopplung von unternehmensweiten Lösungen zur Verfügung.
•• Durchsatz bei Zugriff auf die Dateien: zusätzliche Blades •• Volumen: zusätzlicher Speicher
•• Kopplung von zwei eigenständigen SPSC-Clustern unter
•• Fehlbedienung /Datenintegrität: asynchroner Spiegel
einem Global Namespace. Jeder der Cluster hält einen Teil
•• Höhere Verfügbarkeit: SPSC Cross Cluster Mount
der Benutzerdaten. •• Alternativ kann ein SPSC-Cluster als asynchrone Spiegel-
Alle diese Erweiterungen stehen innerhalb der Lösung zur
lokation genutzt werden, in der mit Zeitversatz die
Verfügung, egal mit welcher Variante und in welcher Umge
Betriebsdaten bereitstehen. Bei Bedarf kann diese Loka-
bung gestartet wird.
tion als Notfalllokation aktiviert werden.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
151
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
Encryption für Tape
Beispiele für bekannte symmetrische Verschlüsselungsalgo
Im August 2006 kündigte IBM die Verschlüsselungstechnik
rithmen sind der Data Encryption Standard (DES), der von IBM
und ein dazugehöriges Schlüsselmanagement für die
Anfang der 70er-Jahre entwickelt wurde und mit einer
TS1120 Bandlaufwerke (Jaguar 2) an. Damit können 3592
Schlüssellänge von 56 Bit arbeitet, sowie der International
Kassetten so beschrieben werden, dass nur die Instanz sie
Data Encryption Algorithm (IDEA), der von den Schweizern
wieder auslesen kann, die den dazugehörigen Encryption
Lai und Massey entwickelt und 1990 veröffentlicht wurde
Key kennt und hat. Missbrauch von Daten, die sich auf den
und mit einer Schlüssellänge von 128 Bit deutlich sicherer
Kassetten befinden, kann somit ausgeschlossen werden.
ist als der DES. Der generelle Nachteil dieses Algorithmus ist
Fallen Kassetten aus irgendwelchen Gründen in falsche
der direkte Austausch der geheimen Schlüssel, was seine
Hände, können sie nicht ausgelesen werden.
Anwendung in einer Kunde-Händler-Beziehung erschwert. Der Vorteil besteht in der relativ geringen benötigten
Encryption-Möglichkeiten auf Tape gab es bisher in unter
Rechenleistung.
schiedlichen Ausprägungen. Mit speziell entwickelter Encryption-Software auf einem Server, mit speziell entwickel
Asymmetrische Verschlüsselung: Ein weiteres Verschlüs
ten Encryption-Anwendungen oder externen Verschlüsse
selungsverfahren ist die sogenannte asymmetrische Ver
lungsgeräten konnte auf Tape verschlüsselt aufgezeichnet
schlüsselung. Sie basiert auf der Verwendung eines zusam
werden. Das Bandlaufwerk selbst hatte mit der eigentlichen
mengehörenden Schlüsselpaares, wobei ein Schlüssel zur
Encryption nichts zu tun. Solche Lösungen konnten bisher
Ver- und einer zur Entschlüsselung genutzt wird. Beim
immer nur in Teilbereichen zur Anwendung kommen. Eine
Public-Key-Verfahren wird nun einer der Schlüssel veröffent
Implementierung auf unternehmensweiter Basis, unabhän
licht und kann von jedem Sender dazu genutzt werden, eine
gig von den unterschiedlichen Betriebssystem-Plattformen
Nachricht an den Empfänger zu verschlüsseln. Nur der
und auch über Unternehmensgrenzen hinaus, war bisher
Empfänger, der im Besitz des zweiten, privaten Schlüssels
nicht sinnvoll gestaltbar. Hinzu kommen noch die vielen Ver
ist, kann die Nachricht dann entschlüsseln.
schlüsselungsarten wie z. B. Mars, RC5, Serpent, Twofish, DES oder AES, um nur einige zu nennen, die das Ganze
Ein Vertreter der asymmetrischen Verschlüsselungs-Algorith
entsprechend komplex gestalten. Um Verschlüsselungen
men ist der RSA-Algorithmus (RSA Data Security Inc.),
vorzunehmen, wird zum einen ein Verschlüsselungsalgo
benannt nach seinen Entwicklern Ron Rivest, Adi Shamir,
rithmus benötigt und zum anderen ein sogenannter Daten
Leonard Adleman, der in den USA 1977 entwickelt und
schlüssel (Data Key), der die verschlüsselten Daten vor
patentiert wurde und für den Export in jedoch nur begrenzter
unautorisiertem Zugriff absichert. Nur über den Daten
Verschlüsselungstiefe (40 Bit) zur Verfügung steht.
schlüssel können die verschlüsselten Daten wieder ent schlüsselt werden. Zum besseren Verständnis werden im
Die asymmetrische Verschlüsselung kann auch genutzt wer
Folgenden die verschiedenen Verschlüsselungsmethoden
den, um das Problem der Authentifizierung zu lösen. Zu die
beschrieben.
sem Zweck werden die öffentlichen Schlüssel von Sender und Empfänger gegenseitig bekannt gemacht. Der Sender
Symmetrische Verschlüsselung: Um das Ausspionieren
verschlüsselt die Nachricht zunächst mit seinem eigenen,
von versendeten Daten durch eine dritte Partei zu verhin
privaten und dann mit dem öffentlichen Schlüssel des Emp
dern, werden im Allgemeinen kryptografische Verfahren
fängers. Nach Erhalt der Nachricht entschlüsselt der Emp
angewendet. Bei der symmetrischen Verschlüsselung wer
fänger die Nachricht zunächst mit seinem privaten und
den die Daten mittels eines geheimen Schlüssels ver- bzw.
dann mit dem öffentlichen Schlüssel des Senders. Dieser
entschlüsselt. Der Schlüssel muss dabei sowohl dem Sen
letzte Schritt ist jedoch nur dann erfolgreich, wenn die
der als auch dem Empfänger bekannt sein und zu diesem
Nachricht wirklich von dem bezeichneten Sender kam, da
Zweck vorher persönlich ausgetauscht werden.
andernfalls der verwendete öffentliche Schlüssel nicht pas send ist.
152
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Hybride Verfahren: Der Nachteil der asymmetrischen Ver
EKM wurde nun auf die JAVA-Plattform portiert und steht so
schlüsselung ist der hohe Rechenaufwand. Deswegen wird
für alle Betriebssystemplattformen zur Verfügung. Der neue
oftmals eine Kombination aus symmetrischer und asymmet
EKM liefert die Keys zum TS1120 Laufwerk, kann auf unter
rischer Verschlüsselung genutzt. Dabei wird eine Nachricht
schiedlichsten Systemplattformen laufen und unterstützt
durch den Sender zunächst mit einem speziellen geheimen
dabei zentralisiertes Encryption Key Management, das
Schlüssel (Session Key) symmetrisch verschlüsselt.
unternehmensweit einsetzbar ist.
Anschließend wird dieser Schlüssel mit dem öffentlichen Schlüssel des Empfängers asymmetrisch verschlüsselt und
Der EKM steht für die Betriebssysteme z/OS 1.6 oder 1.7,
übertragen. Der Empfänger kann nun asymmetrisch mit sei
AIX 5.2 oder später, I5/OS 5.2 oder später, HP-UX 11.0, 11i,
nem privaten Schlüssel den Session Key und somit die
und 11.23Pl, Sun Solaris 8, 9 und 10, Linux – System z,
eigentliche Nachricht symmetrisch entschlüsseln. Da die
System p und Intel, Red Hat Enterprise Linux 4 (REHL 4),
asymmetrische Verschlüsselung nur für die Verschlüsselung
SuSE Linux Enterprise Server 9 (SLES 9), Windows 2000
des symmetrischen Schlüssels verwendet wird, bleibt der
und Windows 2003 zur Verfügung.
Rechenaufwand bei der asymmetrischen Verschlüsselung relativ gering.
Muss nun ein TS1120 Bandlaufwerk mit Encryption auf zeichnen, fordert das Laufwerk den Datenschlüssel vom
IBM ist die erste Firma, die für Bandlaufwerke eine direkte
EKM Encryption Key Manager an. Der EKM prüft dann, ob
Verschlüsselungstechnik anbietet. Um mit den TS1120 Lauf
das Laufwerk zugelassen ist und im ‘Drive Table’ des EKM
werken mit der Option Encryption arbeiten zu können, muss
bekannt ist. Falls nicht, muss das Laufwerk über die Konfi
auf installierten TS1120 Laufwerken ein Hardware-Upgrade
gurationsfile im Drive Table des EKM aufgenommen werden.
und ein Mikrocode-Update durchgeführt werden. TS1120
Dann erstellt der EKM den angeforderten Datenschlüssel,
Laufwerke, die seit September 2006 ausgeliefert werden,
der im Folgenden als ‘Data Key’ bezeichnet wird.
sind standardmäßig mit der Encryptionfähigkeit ausgestat tet. IBM entschied sich für die AES-Verschlüsselung (Advan
Da die Datenschlüssel aus Sicherheitsgründen nicht unver
ced Encryption Standard), die mit 128, 192 und 256 Bit
schlüsselt über ein Netzwerk zum Bandlaufwerk übertragen
Schlüssellänge zur Verfügung steht und den Rijndael-Algo
werden können, arbeitet der EKM intern mit zwei verschie
rithmus als symmetrisches Kryptografieverfahren verwendet.
denen Verschlüsselungsmethoden für den Datenschlüssel.
AES ist der Nachfolger von DES (Data Encryption Standard
Der eine Algorithmus ist der KEK Key Encryption Key, der
mit 56 Bit Schlüssellänge). AES ist anerkannt von der US-
ausschließlich im EKM läuft und mit dem nur der EKM etwas
Behörde NIST (National Institute of Standards and Techno
anzufangen weiß. Der andere Algorithmus ist der SK Ses
logy) und vom US-Handelsministerium und soll anerkannter
sion Key, der sowohl im EKM als auch im Bandlaufwerk zur
maßen nicht ‘knackbar’ für die kommenden Jahre sein. Das
Anwendung kommt. Ist zwischen EKM und Bandlaufwerk
Bandlaufwerk TS1120 arbeitet mit dem sicheren AES-256-
eine Session aufgebaut und wird der Data Key mit dem
Bit-Verschlüsselungsalgorithmus. Damit ist zum ersten Mal
Session Key SK verschlüsselt und zum Bandlaufwerk über
die Möglichkeit gegeben, dass das Laufwerk selbst die Ver
tragen, entschlüsselt das Bandlaufwerk wieder den originalen
schlüsselung durchführt.
Data Key, um dann mit der AES-256-Bit-Verschlüsselung die Daten aufzuzeichnen. Bei jeder neu aufgebauten Session
Die Verschlüsselungsmethode ist die eine Seite. Genauso
zwischen EKM und Bandlaufwerk kommt immer ein neuer
wichtig sind die Datenschlüssel, die vor unautorisiertem
SK Session Key zum Einsatz. Der mit dem SK verschlüsselte
Zugriff schützen und über die sich die verschlüsselten
Data Key wird als SEDK (Session Encryption Data Key)
Daten wieder entschlüsseln lassen. Im Mainframe-Umfeld,
bezeichnet. Neben dem SEDK überträgt der EKM aber auch
wo schon seit Jahren Encryption mit entsprechenden
den über den KEK (Key Encryption Key) verschlüsselten Data
Krypto-Prozessoren eingesetzt wird, bildet das Herzstück für
Key zum Laufwerk, der als EEDK (Externally Encryption
die Datenschlüsselverwaltung ein EKM Encryption Key
Data Key) bezeichnet wird und mit dem das Laufwerk
Manager im z/OS-Betriebssystem. Der im z/OS eingesetzte
absolut nichts anfangen kann, weil ausschließlich der EKM
EKM bietet eine absolut nicht manipulierbare und hundert
den KEK kennt und anwenden kann. Das Laufwerk hat
prozentig sichere zentrale Datenschlüsselverwaltung. Dieser
also keine Möglichkeit, den übertragenen EEDK zu
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
153
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
entschlüsseln, um an den eigentlichen Data Key zu gelan
Es besteht also keine Möglichkeit, die verschlüsselten Daten
gen. Das Laufwerk kann den Data Key ausschließlich über
ohne den originalen Data Key auszulesen. Die Raffinesse
den übertragenen SEDK entschlüsseln. Hat das Laufwerk
dieser Implementierung liegt in der Tatsache, dass das
nun die verschlüsselte Aufzeichnung abgeschlossen, wird
Laufwerk eine symmetrische Encryption über einen Data
am Bandende in die Tape Volume Control Region der EEDK
Key durchführt, während die darübergelegte Key-Verwal
hinterlegt, mit dem das Bandlaufwerk nichts anzufangen
tung asynchron implementiert ist. Dabei kann der auf dem
weiß. Zusätzlich wird der EEDK auch im Memory Chip der
Tape verschlüsselt abgespeicherte Data Key (EEDK) nicht
Kassette gespeichert. Sollte nun unautorisiert diese Kas
von TS1120 Laufwerken, sondern ausschließlich vom EKM
sette auf einem Encryption-fähigen TS1120 Laufwerk ausge
(Encryption Key Manager) für die Wiederherstellung des ori
lesen werden, ist dies nicht möglich, weil das Laufwerk mit
ginalen Data Keys verwendet werden. Das Laufwerk muss
dem mitaufgezeichneten EEDK nichts anfangen kann. Ein
den abgespeicherten verschlüsselten Data Key zum EKM
nicht autorisiertes Auslesen ist nicht möglich.
übertragen. Der EKM stellt den originalen Data Key wieder her und schickt ihn für das Laufwerk verständlich verschlüs
Zum Auslesen fordert das Laufwerk vom EKM wieder den
selt (Session Key) zurück. Das Laufwerk ist nun in der Lage,
Data Key an und überträgt den aufgezeichneten EEDK zum
den originalen Data Key herzustellen und damit die Daten
EKM. Der EKM sucht den zum EEDK zugehörigen KEK Key
entschlüsselt auszulesen. Die Kombination von synchroner
Encryption Key und entschlüsselt den EEDK. Der orginale
und asynchroner Technik machen diese Verschlüsselung
Data Key steht also wieder zur Verfügung. Der Data Key
absolut ‘wasserdicht’.
wird nun wieder über einen neuen SK Session Key ver schlüsselt und zum Laufwerk übertragen. Das Laufwerk
Werden Kassetten, die mit Verschlüsselung aufgezeichnet
erhält den neuen SEDK Session Encryption Data Key und
wurden, in eine andere Lokation transportiert, z.B. zu einem
entschlüsselt den SEDK, um den orginalen Data Key zu
Geschäftspartner, müssen dort TS1120 Laufwerke mit
erhalten. Danach können die verschlüsselt aufgezeichneten
Encryptionfähigkeit und ein EKM installiert sein. Will die
Daten auf der Kassette entschlüsselt und ausgelesen werden.
Lokation nun die Daten auslesen, schickt ein TS1120 Lauf werk den auf der Kassette gespeicherten EEDK zum örtlichen EKM, der einen Private Key hat, um den auf der Kassette abgespeicherten EEDK zu entschlüsseln.
154
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Es können auf der 3592 Kassette bis zu zwei verschlüsselte
TKLM – Tivoli Key Lifecycle Manager
EEDKs mit zwei unterschiedlichen Private Keys abgespeichert werden. Der erste Key gehört zum EKM, der den Schlüssel
Im Frühjahr 2008 steht als neue Software zur Keyverwaltung
erzeugt hat, und der zweite Key kann einem anderen EKM
der TKLM (Tivoli Key Lifecycle Manager) zur Verfügung, der
gehören, der aufgrund des dort verfügbaren Private Keys
denselben Funktionsumfang wie der EKM hat und darüber
den zweiten EEDK in den orginalen Schlüssel umwandeln
hinaus auch das Key-Handling für Encryption auf Platte
kann. Mit zwei Keys auf der Kassette zu arbeiten ist dann
(Disk) zur Verfügung stellt und eine einfach zu bedienende
sinnvoll, wenn in verschlüsselter Form Datenträgeraus
Oberfläche besitzt. Der TKLM kann als offizielles IBM
tausch zwischen zwei unterschiedlichen Lokationen durch
Programmpaket bezogen werden.
geführt wird. Das Laufwerk schickt immer den ersten EEDK zum EKM. Kann der EKM damit nichts anfangen, wird auto
IBM bietet drei Encryption-Implementierungs-Möglichkeiten
matisch der zweite EEDK zu dem vorhandenen EKM über
auf Tape an:
tragen. •• Die Anwendung selektiert die Daten, die mit Encryption auf Mit der Ankündigung der LTO4-Laufwerke im April 2007
Band geschrieben werden müssen, und stellt die Keys
wurde für LTO4 auch Encryption angekündigt. LTO4-Lauf
dem TSM zur Verfügung. Der TSM Tivoli Storage Manager
werke arbeiten wie TS1120 Laufwerke auch mit der AES
verwaltet dann als Backup-Server die Encryption-Key-
256-Bit-Verschlüsselungstechnik. Der Unterschied zu
Datenbank.
TS1120 liegt darin, dass keine verschlüsselten Schlüssel
•• Im Mainframe-Umfeld kann über System Utilities des
(EEDK) auf der LTO4-Kassette abgespeichert werden, son
DFSMS im z/OS-Betriebssystem über neue Data-Class-
dern nur der Key Identifier, also der Schlüsselanhänger. Die
Parameter selektiert werden, was mit Encryption verarbei-
Key-Verwaltung und Key-Abspeicherung erfolgt über den
tet werden soll. Ähnlich können Policies für Encryption
EKM. Soll eine verschlüsselte Kassette ausgelesen werden,
auch im ‘AIX Tape Device Driver’ eingerichtet werden. In
überträgt das LTO4-Laufwerk den Identifier zum EKM, der
beiden Fällen verwaltet der neue Enterprise Key Manager
dann in der Lage ist, den richtigen Originalschlüssel dem
(EKM) die Encryption-Key-Datenbank.
Identifier zuzuordnen.
•• Die dritte Option geht über die Library selbst. Sowohl die 3494 als auch die TS3500 Library etabliert entsprechende
Der EKM wurde im Mai 2007 mit dem EKM Release 2 so
Policy-Regeln, welche ‘VolSers’ oder welche logischen
erweitert, dass er sowohl das Key-Handling für TS1120,
Libraries mit Encryption verarbeitet werden sollen. Die
TS1130 als auch für LTO4 durchführen kann. Damit können
Verwaltung der Encryption-Key-Datenbank wird durch
beide Technologien mit demselben EKM gemanagt werden.
den neuen Enterprise Key Manager (EKM) durchgeführt.
Das neue TS1130 Bandlaufwerk, das als Nachfolger der
Alle drei Optionen lassen sehr flexible, unternehmensweite
TS1120 im September 2008 verfügbar wird, ist mit dersel
und über Unternehmensgrenzen hinausgehende Verschlüs
ben Verschlüsselungstechnik ausgestattet. Die Bandkasset
selungslösungen auf Tape mit einem zentralen Key Manage
ten bleiben gleich, d. h., das neue TS1130 Laufwerk verwen
ment zu und sind einmalig in ihrer Lösungsform.
det dieselben Kassetten. Das Abspeichern der Keys auf den Kassetten ist identisch.
Encryption auf Tape sichert die auf Bandkassetten geschriebenen Daten vor Missbrauch und bietet einen neuen Sicherheitsstandard auf Tape, der die geschrie benen Daten vor unautorisiertem Zugriff schützt.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
155
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
Archivierung
IBM Information Archive (IIA)
Die Anforderungen an Archivierung haben sich in den letz
IBM kündigt im November 2009 das neue Archivierungs
ten Jahren verändert. Neben der klassischen Aufbewahrung
system ‘IBM Information Archive’, kurz IIA, als Nachfolger
von Daten aufgrund von gesetzlichen oder firmeninternen
des bisherigen DR550-Systems an.
Vorschriften kommen weitere Anforderungsprofile wie erhöhte Zugriffsgeschwindigkeit und eine automatische Aus
Mit dem neuen System werden die veränderten bzw. erwei
lagerung von nicht mehr operational genutzten Daten auf
terten Anforderungen an Archivsysteme adressiert. IIA ist
Archivsysteme dazu. Desweiteren sind heute Archivlösungen
eine universelle Lösung zur Archivierung von strukturierten
gefragt, die ein hierarchisches Speichermanagement
und unstrukturierten Daten, die sowohl die gesetzlichen Auf
beinhalten und damit die Möglichkeit bieten, archivierte Daten
bewahrungsvorschriften erfüllt, als auch generell der vor
automatisch nach ILM-Regulatorien (Information Lifecycle
schriftsfreien Datenhaltung im Langzeitbereich Rechnung
Management) auf unterschiedlichen Speichersystemen zu
trägt. Das System zeichnet sich dadurch aus, dass es eine
verwalten. Aufgrund der immmer größer werdenden Daten
hohe Flexibilität in der Datenspeicherung bietet, weil zu
mengen im Archivierungsbereich sind heute sehr leistungs
archivierende Anwendungen durch unterschiedliche stan
fähige und skalierbare Archivsysteme gefragt, die zudem
dardisierte Zugriffsmethoden möglich werden. Die hohe
die Anforderungen nach Hochverfügbarkeit und Datensi
Leistungsfähigkeit und Skalierbarkeit sind besondere
cherheit gewährleisten müssen. Dies gilt sowohl für die
Merkmale des Systems.
Archivierung der klassischen Dokumenten- bzw. ContentManagement-Systeme als auch für Anwendungen auf
Architektur
Filesystem-Basis. Moderne Archivlösungen müssen zudem
Das System besteht aus bis zu drei Rechnerknoten (in der
die Migrationsanforderung hinsichtlich der Daten als auch
IIA-Terminologie als ‘Collection’ bezeichnet), die intern mit
des Systems selbst erfüllen, wenn neue Technologien zur
den Platten-Arrays durch ein FibreChannel-Netz miteinander
Verfügung stehen.
verbunden sind und sich gegenseitig durch das integrierte GPFS (Generell Parallel File System) Backup geben und damit eine hohe Verfügbarkeit gewährleisten. Per Knoten können Anwendungen zum einen via NAS-Interface durch
156
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
die NFS- oder HTTP-Schnittstellen oder über die klassische
Technischer Aufbau
Schnittstelle SSAM System Storage Archive Manager (TSM-
Die Rechnerknoten (GPFS-Knoten) bestehen aus einem IBM
API) angebunden werden. Zu einem späteren Zeitpunkt
System x Server mit zwei quad-core Prozessoren, 24 GB
werden auch FTP und CIFS unterstützt werden. Die Knoten
Memory und einem Linux-Betriebssystem. Bis zu drei Kno
hinsichtlich der zu adressierenden Schnittstellen zu den
ten können innerhalb eines Clusters konfiguriert werden. Für
Anwendungen sind frei wählbar. Dabei bieten beide Schnitt
das Management des Systems wird ein IBM System x mit
stellen die Möglichkeit, andere Infrastrukturen wie z. B. Tape
einem quad-core Prozessor und 4 GB Memory verwendet.
anzuschließen.
Die Platten-Arrays bestehen aus 1-TB-SATA-Platten und wer den mit RAID6 an dual-redundanten Active/Active-Platten
Die Möglichkeit, mehrere Archivierungsinstanzen gleich
steuereinheiten betrieben. Jede Steuereinheit ist mit 2 GB
zeitig innerhalb eines Systems zu betreiben, erhöht die Leis
Cache ausgestattet und bietet bis zu 2 x 4 Gbit FC-Ports für
tungsfähigkeit des Gesamtsystems beträchtlich. Im Unter
die Serveranbindung und bis zu 2 x 4 Gbit FC-Ports für die
schied zur DR550 ist die Datenbank des SSAM-Servers
Remote-Spiegelung. Rechnerknoten und Plattensteuerein
DB2-basierend (durch die Integration von TSM 6.1). Damit
heiten sind durch ein 8 Gbit FC-SAN auf Basis von 24-Port-
wird die Anzahl der zu speichernden Datenobjekte um den
Switchen miteinander verbunden, wobei der Betrieb am
Faktor 3 pro Collection erhöht. Der SSAM-Server sorgt für
Anfang auf Basis von 4 Gb läuft. Jeder Plattenkontroller hat
die Datenmigration auf angeschlossenen externen Speichern.
Zugriff auf jeden GPFS-Knoten und umgekehrt. Die Maxi
Innerhalb einer Collection zur Fileanbindung (Knoten mit
malkonfiguration besteht aus zwei Gehäuseeinheiten und
NAS-Interface) werden Daten, die auf externen Storage wie
bildet eine Bruttokapazität von 304 TB ab. Davon sind 209 TB
z. B. auf Tape ausgelagert werden sollen, durch den inter
nutzbar. Im ersten Rack beträgt die Plattenkapazität bis zu
nen TSM-Server mittels seiner HSM-Funktionalität migriert.
112 TB brutto (77 TB nutzbar). Im zweiten Rack können bis zu 2 x 96 TB brutto (2 x 66 TB nutzbar) dazukonfiguriert
Das Management und die Administration des Systems wird
werden. Der Anschluss von Tape-Laufwerken und Tape
über eine einheitliche Bedieneroberfläche durchgeführt.
Libraries ist voll unterstützt. Die neue Architektur des IBM Information Archive bietet zukünftig skalierbare Erweiterungsmöglichkeiten, indem das System mit zusätzlichen Rechner-Knoten und zusätzlicher Plattenkapazität erweitert werden kann.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
157
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
SAN und IP-Networking Brocade hatte im Januar 2007 McData übernommen und eine Roadmap für die nächsten 18 – 24 Monate angekündigt. Die Architektur der übernommenen McData SAN Direktoren IBM 2027-140/256 sowie die Architektur des Brocade 2109M48 SAN Direktors wird in einer gemeinsamen neuen Archi tektur in einem neuen Produkt, dem ‘Converged’ SAN Direk tor, mit 8 Gbps abgebildet. Die Ankündigung des IBM SAN768B erfolgte im Februar 2008. Dabei können dann die 2027-140/256 native an den neuen 8-Gbps-Direktor ange schlossen und weiterverwendet werden. Der IBM Direktor SAN768B wird von Brocade (Brocade DCX) gebaut und stellt eine Plattform bereit, die sich durch hoch leistungsfähige IT- und zukünftige FCoE-Technologien (FibreChannel over Ethernet) kommenden IT-Entwicklungs stufen anpasst. Es ist das erste ‘Direktor-artige’ Produkt, das über FibreChannel-Verbindungen Transferraten von 8 Giga bit pro Sekunde (Gbps) unterstützt, was die Geschwindig keit beim Datentransfer in Zukunft nahezu verdoppeln kann.
IBM Direktor SAN768B (Brocade DCX) mit bis zu 896 Ports
Der Direktor bietet die Unterstützung von FibreChannel, FibreChannel over Ethernet (FCoE), Data Center Ethernet
Die adaptiven Networking Services Features im SAN768B
(DCE), Gigabit Ethernet und das iSCSI-Protokoll.
(Brocade DCX) erlauben in der Fabric eine dynamische Zuweisung verteilter Ressourcen in dem Moment, in dem
Der SAN768B ist das erste Produkt der Branche, das wirk
die Anforderungen der virtuellen Server oder des vernetzten
liche Interoperabilität zwischen Direktoren des b-Typs (Bro
Speichers auftreten. Sollten Engpässe auftreten (oder vor
cade) und solchen des m-Typs (McDATA) in einer 8- oder
hersehbar sein), können die Bandbreiten in der Fabric auto
10-Gbps-FC-SAN-Infrastruktur unterstützt. Für Nutzer des
matisch und entsprechend der vordefinierten Service Levels
m-Typs und Großkunden, die ihre Mainframes über FICON-
angepasst werden. Dies hilft dabei, Operationen mit einer
Kanäle betreiben, bietet diese Interoperabilität eine Road
höheren Priorität automatisch die benötigten Ressourcen zur
map für die Erweiterung der bestehenden FICON-Struktur.
Verfügung zu stellen.
Die neue Plattform reduziert Komplexität, Ausfallrisiko und Energieverbrauch mit einer speziellen Skalierbarkeit von bis
Das Jahr 2008 ist das Jahr der Einführung von 8-Gbps-
zu 768 FibreChannel-Ports (externe User Ports) auf Basis
Technologie in Storage Area Networks, die es erlauben
von 8 Gbps über zwei Domänen.
8-Gbps-End-to-End-Lösungen zu implementieren. Im Jahr 2009 zeigen sich neue Möglichkeiten auf, SAN-Infrastruk
In einer großen Konfiguration mit zwei Domänen (Bild oben,
turen über IP-Netze miteinander zu verbinden, und das Zau
Abbildung rechts) bietet der Direktor bis zu 896 Ports.
berwort heißt FcoE, FibreChannel over Ethernet.
Davon werden 768 Ports als ‘User Ports für externen Anschluss’ verwendet. Die restlichen 128 Ports werden über
FCoE – FibreChannel over Ethernet
sogenannte ICL Inter Chassis Links an die Backplane der
Neben FibreChannel und iSCSI kommt mit FCoE ein neuer
beiden Direktoren geführt und als ICL-Ports bezeichnet. Die
Standard auf den Markt mit dem Ziel, den Datenverkehr im
Übertragungsbandbreite zwischen den beiden Domänen
Unternehmensnetz zu vereinheitlichen und FibreChannel
(SAN868B Chassis) kann auf bis zu 1 Tbit/s gesteigert werden.
SAN-Infrastrukturen via Ethernet miteinander zu verbinden. LAN nutzt Ethernet und das TCP/IP-Protokoll für den Daten transfer. SANs, kommunizieren über FibreChannel. Dabei nutzen Server für die verschiedene Netzwerk-Typen
158
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
getrennte Interface-Module, die Network Interface Cards
Brocade hat im Juli 2009 Foundry Networks aquiriert und ist
(NICs) für Ethernet und FC, ebenso separate Switch-Infra
damit eine ziemlich gute Verbindung eingegangen. Brocade
strukturen. FCoE überträgt die Daten in einem FC-SAN über
baut Hardware und Software für die Speicherlandschaft,
das lokale produktive Netz via Ethernet. Damit können
Foundry ist im klassischen Unternehmensnetz unterwegs.
bestehende SAN-Systeme weiterhin genutzt werden und per
Brocade kann sich künftig also in der FC- und in der Ether
Ethernet in andere Systeme eingebunden werden, was lang
net-Welt ausbreiten und damit die Konvergenz erfüllen, die
fristig die Betriebskosten durch eine konsolidierte Anbin
mit FCoE angestrebt wird.
dung senken wird. Statt zwei parallele Netze zu pflegen, soll der gesamte Datenverkehr über ein Netz abgewickelt und
Cisco hat im April 2009 Nuova aquiriert, eine Firma, die
administriert werden können. Dabei unterstützt FCoE ein
sich schon länger mit FCoE beschäftigt.
konsistentes Verwaltungsmodell, das in FibreChannel-SANs gebräuchlich ist. Diese neue konvergierte Technologie
Hinter FCoE stehen nun die Firmen Brocade, Cisco, Nuova,
ermöglicht es, sowohl FibreChannel-Daten wie auch IP-
EMC, Emulex, IBM, Intel, QLogic und Sun. Die Spezifikation
Daten über denselben Transportmechanismus zu übertragen.
für ‘FibreChannel over Ethernet’ sind dem T11-Komitee des US-amerikanischen National Standards Institute (ANSI) vor
Damit man nun FibreChannel-Pakete über ein Ethernet-
gelegt, um einen gemeinsamen Standard zu etablieren. Seit
Transport-Protokoll verschicken kann, haben sich verschie
Juni 2009 ist der FCoE-Standard verabschiedet. Bis FCoE
dene Hersteller von Speicherlösungen und Netzwerkkompo
professionell im IT-Umfeld eingesetzt werden kann, wird es
nenten zusammengesetzt und einen Vorschlag zum
noch etwas dauern! Bis Mitte bzw. Ende 2010 ist mit der
FCoE-Standard entwickelt. FCoE legt fest, wie man FC-
Fertigstellung aller notwendigen Protokoll-Standards zu
Daten verlustfrei über IP transportieren kann. Dieses ‘ver
rechnen.
lustfreie Ethernet’ besteht aus zwei Protokollen: Einmal das Protokoll zum Transport der Daten, FCoE genannt, und zwei
SAN & Converged Networking
tens das Protokoll zur Kontrolle der FCoE-Verbindungen, FIP
Nach der Ankündigung des IBM SAN768B im Feburar 2008
(FCoE Initialisation Protocol) genannt. FIP kümmert sich um
war die Integration der Technologie von McData, die Brocade
das Login und Logout von Geräten in einem FCoE-Netz
im Januar 2007 übernommen hatte, in einem neuen 8 Gbit/s
werk. FCoE verpackt den FC-Frame in einen Ethernet-Hea
Direktor-Produkt komplett. Seither ist viel In der Zusammen
der und versendet diesen über Ethernet, wobei nun aber
arbeit von Brocade und IBM im Bereich Storage Networking
kein ‘traditionelles Ethernet’ zum Einsatz kommt, sondern
hinzugekommen: Nach der Erweiterung der Lösungspalette
eine verbesserte Version, die als CEE (Converged Enhanced
mit 8 Gbit/s HBAs von Brocade steht erstmals eine durch
Ethernet) bzw. DCE (Date Center Ethernet) bezeichnet wird.
gängige Server-zu-Storage-Konnektivität von einem Hersteller zur Verfügung – mit großen Vorteilen beim durchgängigen
Was wird mit iSCSI? iSCSI verschickt SCSI-Befehle über
Management der Umgebung. Im Bereich der Netzwerk-Kon
Ethernet und TCP/IP und benötigt keine teuren FC-Netze.
vergenz bietet IBM nun mit dem IBM® Converged Switch
Klassisches FibreChannel verliert gegen iSCSI vor allem bei
B32 eine Top-of-Rack-Lösung für Benutzer, die FibreChannel
den Kosten. iSCSI nutzt die bestehende Infrastruktur, wäh
over Ethernet (FCoE) einsetzen und Erfahrungen mit der
rend die IT für ein FC-SAN komplett neue Komponenten
neuen Technologie sammeln möchten. Schließlich steht mit
benötigt. Nun kommt FCoE als neue Technologie und ver
dem SAN384B eine weitere Core- und Edge-Switching-Platt
fügt über alle Eigenschaften, die iSCSI hat, auch bezüglich
fom für mittlere bis große SAN-Umgebungen zur Verfügung,
der Kosten. Es stellt sich damit die Frage, wie es mit iSCSI
mit der weitere Design-Optionen im Backbone-Bereich mög
weitergehen wird, wenn sich FCoE als Technologie durchsetzt.
lich sind. ‘End-to-End’-Unterstützung Die 8 Gbps FibreChannel Host Bus Adapter ermöglichen es, ein hohes Maß an Robustheit und Zuverlässigkeit für die IBM System x Produktfamilie aufzubauen. Auf Basis der
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
159
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
hohen Leistungsfähigkeit der Brocade DCX Backbone Pro
Standards wie Converged Enhanced Ethernet (CEE) und
duktfamilie integrieren die 8 Gbit/s HBAs industrieweit erst
FibreChannel over Ethernet (FCoE). Diese Protokolle werden
mals wichtige Adapterfunktionen wie beispielsweise virtuelle
durch einfache Ergänzung mit entsprechenden Blades zu
Kanäle (Virtual Channels).
einem vom Benutzer gewünschten Zeitpunkt ermöglicht.
Mittels der ‘Adaptive Network Services’ bieten die HBAs
Die adaptiven Networking Services Features erlauben – wie
einen echten Quality of Service (QoS) im SAN von virtuellen
auch im im SAN768B – in der Fabric eine dynamische
Servern bis hin zum Storage Array und unterstützen Funkti
Zuweisung verteilter Ressourcen in dem Moment, in dem
onen zur Datenautentifizierung, die eine schnellere und
die Anforderungen der virtuellen Server oder des vernetzten
sicherere Kommunikation zwischen virtuellen Servern und
Speichers auftreten. Sollten Engpässe entstehen (oder
dem Speicher erlaubt.
vorhersehbar sein), können die Bandbreiten in der Fabric automatisch und entsprechend den vordefinierten Service
Die 8 Gbit/s HBAs wurden dafür ausgelegt, die I/O-Leistung
Levels angepasst werden. Dies hilft dabei, Operationen mit
am Server auf 500.000 Input/Output-Operationen pro
einer höheren Priorität automatisch die benötigten Ressour
Sekunde (IOPS) pro Port zu steigern. Damit leisten die 8 Gbit/s
cen zur Verfügung zu stellen.
HBAs den doppelten Durchsatz im Vergleich zu vergleich baren Produkten. Durch die enge Integration lassen sich die
FibreChannel over Ethernet (FCoE) Produkte
HBAs äußerst einfach installieren und in bestehende SAN-
Auch wenn die Entwicklung noch nicht abgeschlossen ist –
Umgebungen einbinden.
die ersten Standards für FibreChannel over Ethernet (FCoE) sind da. Mit dem IBM Converged Switch B32 sowie den
Erweiterte Fabric Backbone-Optionen mit dem SAN384B
dazugehörigen 10 Gb Converged Network Adaptern (CNA
(Brocade DCX-4S)
für IBM System x) steht eine Lösung zur Verfügung, die den
Der IBM SAN384B ist eine Einstiegsversion des bereits ver
Einsatz dieser neuen Technologie bereits erlauben. FCoE
fügbaren IBM SAN768B Backbone (Brocade DCX). Die
müsste eigentlich FCoCEE heißen, da für den verlustfreien
neue Switching-Plattform, die sowohl im Core als auch im
Transport mit Converged Enhanced Ethernet (CEE) ein
Edge eingesetzt werden kann, ist für die Konsolidierung von
neues Ethernet-Protokoll entwickelt wurde.
Servern, Storage Area Networks (SAN) und Rechenzentren ausgelegt. Da die komplette DCX-Funktionalität zur Verfü
Der IBM Converged Switch B32 ist ein multiprotokollfähiger,
gung steht, können mit dem SAN384B die Kosten für die
Layer 2, Top-of-the-Rack FCoE Switch mit 24 mal 10 Gigabit
Infrastruktur und die Administration gesenkt werden.
Ethernet (GbE) CEE Ports sowie acht FC Ports mit 8 Gbit/s. Er ermöglicht den konsolidierten Input/Output (I/O) von
Der IBM SAN384B skaliert in vier Blade-Einschüben auf bis
Speicher- und Netzwerk-Ports auf der Server-Seite. Die
zu insgesamt 198 Ports mit vollen 8 Gbit/s und ist damit für
neuen Converged Netzwerkadapter (CNAs) bieten eine
Betreiber von mittleren Netzwerken geeignet. Betreiber von
Leistung von bis zu 500.000 I/Os pro Sekunde (IOPS) und
großen Speichernetzwerken können den IBM SAN384B
stehen in zwei Varianten zur Verfügung: dem Single Port
auch als Netzwerk-Edge einsetzen. Der IBM SAN384B ist
Brocade CNA 1010 und dem Dual Port Brocade CNA 1020.
mit der neuesten Brocade Fabric OS (FOS) Version 6.2 aus
Die neuen Brocade-Adapter gehören zu den ersten CNAs
gestattet, die eine neue Virtual-Fabric-Möglichkeit bietet, mit
mit Single-ASIC, die klassisches Ethernet auf Basis des TCP/
der die logische Partitionierung eines physischen SAN in
IP Protokolls, Converged Enhanced Ethernet sowie Speicher
logische Fabrics ermöglicht wird.
netzwerk-Funktionalität über einen einzigen 10 Gb/s FCoELink von den Servern über das SAN bis hin zum LAN bieten.
Der IBM SAN384B unterstützt optional die Verschlüsselung von Daten auf Festplatten und Bandlaufwerken (Data at
In Kombination ermöglichen der IBM Converged Switch B32
Rest) in Verbindung mit unterschiedlichen Key-Manage
und die 1010/1020 CNAs eine durchgängige FCoE-Konnek
mentsystemen. Die Konvergenz im Netzwerkbereich
tivität vom Server bis hin zum Speicher. Die Lösungen kön
gewährleistet der IBM SAN384B mit seiner Multiprotokoll-
nen in existierende FC-Umgebungen integriert werden und
Architektur durch die Unterstützung neu aufkommender
lassen sich mit einer übergreifenden Management-Plattform, dem Data Center Fabric Manager (DCFM), administrieren.
160
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Green IT
Virtualisierung allgemein
Das Thema Energieeffizienz rückt immer mehr in den Mittel
Virtualisierung in jeglicher Form wird für die Epoche der Ser
punkt. Manche Rechenzentren können schon heute keine
ver-basierenden Speicherarchitekturen prägend sein. Neben
Server oder Speichereinheiten mehr aufnehmen, weil es kli
Tape-Virtualisierungen und Plattenvirtualisierungslösungen
matechnisch unmöglich ist.
im SAN wird sich die Virtualisierung auf weit mehr Bereiche ausdehnen. Die IBM vertritt hier weltweit die Strategie ‘Vir-
Laut einer IDC-Umfrage von 2007 sind Themen rund um
tualize Everything’. Nur so wird es möglich werden, hetero
Energieverbrauch und Energieversorgung von zunehmender
gene Server- und Speichereinheiten und unterschiedlichste
Bedeutung. Steigende Strompreise belasten die verfügbaren
Infrastrukturen optimal zu nutzen und ein flexibles, nach
Budgets. In vielen Rechenzentren wird das Thema Energie
Regelwerken betriebenes Datenmanagement zu ermögli
effizienz inzwischen zum Top-Thema. ‘Stromlose’ Datenträ
chen. Nur durch Virtualisierung in allen Bereichen werden
ger wie Bandkassetten oder optische Platten werden in den
Automationsprozesse in den heute unterschiedlichen Infra
nächsten Jahren eine Renaissance erleben. Nach einer Gart
strukturen möglich werden. Server-basierende Speicherar
ner-Studie aus dem Jahr 2006 und 2008 werden mehr als
chitekturen erleichtern den Virtualisierungs-Gesamtansatz
70 % aller Daten auf Band abgespeichert. Wenn alle Daten,
erheblich.
die heute im produktiven Einsatz auf Bandkassetten abge speichert sind, auf Plattensysteme (Disk) verlagert würden,
Mit effektiven Virtualisierungslösungen erzielt man eine mög
müssten ca. 40 neue Kernkraftwerke für die Stromversorgung
lichst maximale Nutzung der vorhandenen physikalischen
gebaut werden. Das Internet und die steigende Nutzung
Ressource, d. h., vorhandene Speicherkapazitäten werden
des Internets erhöhen die Energieproblematik zudem
wesentlich höher ausgenutzt. Somit liefert die Virtualisierung
immens: Vier Internet-Suchanfragen benötigen so viel Strom
einen maßgeblichen positiven Beitrag zur Bewältigung der
wie eine 40-Watt-Glühbirne mit einer Stunde Brenndauer.
Energieproblematik im IT-Umfeld.
Im Mai 2007 kündigte IBM das Projekt ‘Big Green’ an. IBM
Neue Infrastrukturen und Bandbreiten
investiert seit dieser Ankündigung 1 Milliarde Dollar pro
Die heutigen FibreChannel-Netze und IP-Infrastrukturen wer
Jahr in das Projekt zur Verbesserung der ‘green’ Technolo
den in den nächsten Jahren mit Sicherheit weiterentwickelt
gien und Services und arbeitet an einer Roadmap, um die
werden. Von heutigen 4-Gbit-SANs und 8-Gbit-SANs geht
eingetretene IT-Energie-Krise für Rechenzentren zu bewälti
es in Richtung 12-Gbit-SAN-Technologie weiter. IP-Netze
gen. Dazu hat IBM ein Team aus mehr als 850 Energie-Spe
heute mit bis zu 2-Gbit- und 10-Gbit-Ethernet könnten in den
zialisten aufgebaut. Der Mehrwert für IT-Betriebe ergibt sich
nächsten Jahren durch 100-Gbit-Ethernet-Technologie
oft aus der Tatsache, dass Energiekosten für ein typisches
abgelöst werden. Der IP-Infrastruktur, speziell dem Ethernet,
Rechenzentrum halbiert werden können. Das entspricht im
wird in den nächsten Jahren noch eine besondere Bedeu
Vergleich einer Emmissionsreduzierung, die ca. 1.300 Autos
tung zukommen. Es ist geplant, innerhalb der nächsten
erzeugen. IBM bietet dazu neben der Hardware und Soft
fünf Jahre jedem Privathaushalt in Deutschland einen
ware eine Vielzahl entsprechender Services für Rechenzen
100-Mbit-Ethernet-Anschluss zur Verfügung zu stellen.
trumsbetriebe an. Teil dieser Services beinhalten Energie-
Damit bekommen die Privathaushalte neue, riesige Übertra
Effizienz-Analysen und/oder ‘Energy-Self-Assessments’.
gungsbandbreiten. Ethernet-Infrastrukturen werden also zu einem maßgeblichen Faktor auch im privaten Umfeld.
Die beispielhaften Aktivitäten der IBM im Rahmen des Projekts ‘Big Green’ und die damit verbundenen langfristigen Ver
So wie die ersten SAN-Infrastrukturen zwei Jahre früher in
pflichtungen führten dazu, dass IBM im Februar 2008 als
den Hochleistungsrechenzentren der Universitäten ihre An-
die ‘Top Green IT Company’ des Jahres 2008 sowohl von
wendung fanden, bevor sie im kommerziellen Rechenzen
der IDG (International Data Group) als auch von der Com
trumsumfeld zum Einsatz kamen, entwickeln sich heute ähn
puterworld gewählt und ausgezeichnet wurde.
liche Tendenzen für eine neue Übertragungstechnik, die als InfiniBand bezeichnet wird. InfiniBand steht für ‘Infinite Bandwidth’. InfiniBand ist ein neues Transport-Protokoll,
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
161
2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung
das Servereinheiten, Speichereinheiten und ganze Netz
4, 8 oder 12 ‘Physical Lanes’ können auf einen InfiniBand-
werke von Rechenzentren verbinden kann. Seit 1999 wird
‘Physischen Link’ geschaltet werden, die Paketübertragung
der Standard von der InfiniBand Trade Association vorange
ist ‘byte-multiplexed’ über die Physical Lanes.
trieben, nachdem damals Compaq, Dell, HP, IBM, Intel, Microsoft und SUN angekündigt hatten, ihre zukünftigen I/O-
InfiniBand repräsentiert ein extrem hohes skalierbares Link
Entwicklungen der InfiniBand-Technologie anzupassen. Seit
Interface SLI. Es ist möglich, die Anzahl der Physical Lanes
Herbst 2005 ist der Standard verfügbar.
dynamisch – abhängig von Durchsatzanforderungen und Datenverkehr – zu verändern und dynamisch anzupassen.
InfiniBand schafft die Möglichkeit, heutige LAN-, SAN-, NASund IPC(Interprocessor Communication)-Infrastrukturen in
InfiniBand bietet eine hoch skalierbare Verbindungstechnik
einem einzigen universellen Netzwerk zu vereinigen.
mit ‘nX’ Multiple Lane Pairs mit einer Datenübertragungsrate
Ebenso könnten separate InfiniBand-Netze neben vorhan
von 2,5 Gbit/s (Single Data Rate SDR), 5 Gbit/s (Double
denen SAN- und IP-Infrastrukturen über iSCSI betrieben
Data Rate DDR) oder 10 Gbit/s (Quad Data Rate QDR) in
werden.
jede Richtung. Die unten stehende Tabelle stellt die maxi male Bandbreite für jede der Möglichkeiten dar:
Für das Transport-Protokoll können Kupferkabel (Entfer nungslimitierung bei 17 m) und Fibre-Optic-Kabel (bis 10 km) verwendet werden. Die Fibre-Optic-Kabel für InfiniBand
1X
SDR
DDR
QDR
2,5 Gb/s
5,0 Gb/s
10,0 Gb/s
werden im Vergleich zu heutigen FibreChannel-Verbin
4X
10,0 Gb/s
20,0 Gb/s
40,0 Gb/s
dungen anders hergestellt und sind lange nicht so empfind
8X
20,0 Gb/s
40,0 Gb/s
80,0 Gb/s
lich. Ein Knick im Kabel verursacht fast keine Dämpfung
12X
30,0 Gb/s
60,0 Gb/s
120,0 Gb/s
und damit keinen Verlust. Würde man das mit dem heutigen FibreChannel machen, müssten die Kabel komplett ausge tauscht werden. Durch diese Eigenschaft ist InfiniBand Fibre
InfiniBand hat einen weiteren wesentlichen Vorteil. Die Infini
Optic ideal geeignet, um für interne Verkabelungen von
Band-Upper-Level-Protokolle wie SDP, SRP und iSER benüt
Maschinen zur Anwendung zu kommen.
zen die Methode des Remote Direct Memory Access RDMA, um direkt Daten in anwendungszugeordnete Puffer
Für den externen Einsatz ist es wichtig, die Fibre-Optic-
bereiche des Rechners zu schreiben und gleichzeitig aus
Lösungen sowohl in der Unterstützung der seriellen Schnitt
zulesen.
stellen als auch in den Entfernungsmöglichkeiten voranzu Dies reduziert den Overhead-Datentransfer zu einem Drittel
treiben.
und setzt CPU-Kapazitäten frei, die anders genutzt werden können. Nachdem die ersten InfiniBand-Netze in einigen Hochleis tungsrechenzentren der Universitäten etabliert sind, kann man – analog zum FibreChannel – davon ausgehen, dass die ersten InfiniBand-Netze und -Infrastrukturen innerhalb der nächsten 2–3 Jahre in ‘kommerziellen’ Rechenzentren implementiert werden. Beschleunigend kommt noch hinzu, dass InfiniBand im Vergleich zum FibreChannel kostengünstiger ist.
162
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Neue Basis-Technologien
Durch neue Bandbreiten der Datenübertragung und neue
Die Fachwelt im Storagebereich ist sich darin einig, dass
Vernetzungstechniken ergeben sich neue Ansätze für eine
Kunststoff das Speichermedium der Zukunft werden kann.
optimale Gestaltung der Rechenzentren und deren Infrastruk
Mit organischen Polymeren und polykristallinem Chalkoge
tur. Virtualisierungslösungen in den unterschiedlichsten RZ-
nid wird schon seit einigen Jahren experimentiert. Orga
Bereichen werden zu einer wesentlichen Vereinfachung der
nische Polymere sind geeignet, durch optische Technologien
RZ-Abläufe führen und die Administration stark vereinfachen.
für die Speicherung von Daten genutzt zu werden. Mit der neuen blauen Laser-Technik lassen sich Interferenz-Felder
Durch Standards werden die IT-Anbieter gezwungen, näher
auf dem Kunstoff erzeugen, die eine Vielzahl von Bits abbil
zusammenzurücken, und der Endbenutzer bekommt endlich
den. Diese Technologie wird auch als holografische Spei
mehr Kompatibilität zwischen den unterschiedlichen Syste
cherung bezeichnet und erlaubt viel größere Kapazitäten als
men, wie es bisher nicht der Fall war. Virtualisierung trägt
mit herkömmlichen optischen Verfahren. Hierzu wird ein
hier einen ganz entscheidenden Anteil dazu bei.
blauer Laser als ‘Daten-Strahl’ eingesetzt. Ein Teil des Lasers wird über Spiegelverfahren durch einen Lichtmodula
Neue Speichertechnologien werden rechtzeitig auf den Markt
tor geschickt, damit er eine andere Lichtbeugung bekommt.
kommen, um den Anforderungen an ständig wachsende
Anschließend kommen beide Strahlen auf der Polymerober
Kapazitäten Rechnung zu tragen. Kunststoffe als Speicher
fläche wieder zusammen. Durch die unterschiedliche Licht
medium der Zukunft werden maßgeblich diese Epoche
beugung wird ein Interferenzfeld im Polymer erzeugt, das
prägen. Ebenso können stromunabhängige Flashspeicher in
man heute als Hologramm bezeichnet (siehe Technologie-
Form von SSDs (Solid State Disks), Phasenwechselspeicher
Anhang unter HVD Holographic Versatile Disk, PCM Phase
und Storage Class Memories die heutigen teuren FC-Platten
Change Memories und Nano-Technologien).
verdrängen, wenn sie in den nächsten Jahren entsprechend billiger produziert werden.
Da heute noch niemand abschätzen kann, wie sich Kunst stoffe und veränderte Kunststoffe im Laufe ihrer Alterung
Das Tempo in der Entwicklung und in den Produktzyklen
verhalten, arbeitet IBM an sinnvollen Alterungsverfahren für
wird sich noch weiter verstärken. Es wird immer schwieriger
Kunststoffe, um genauere Aussagen zu bekommen. Heute
werden, einen Gesamtüberblick über alle Möglichkeiten im
geht man davon aus, dass ein veränderter Kunststoff einen
Storage-Umfeld zu behalten, die man aktiv nutzen kann, und
Lebenszyklus von ca. 100 Jahren haben müsste. Diese Aus
Beratung wird eine größere Bedeutung als bisher haben.
sage muss aber noch durch entsprechende Alterungsver
Hardware allein spielt dabei nur noch eine geringe Rolle.
fahren belegt und bestätigt werden. Die Epoche wird sicherlich die innovativste werden und viel Kommentar zur Epoche der Server-basierenden Speicherarchitek-
leicht Dinge hervorbringen, an die wir heute noch gar nicht
turen mit neuen Infrastrukturmöglichkeiten
zu denken wagen. Hätte man in den 90er-Jahren jemandem
Server-basierende Speicherarchitekturen wie DS8000, SVC,
erzählt, was heute alles verfügbar ist, wäre man sicher zum
neue Archivierungslösungen, die neuen Tape-Virtualisie
Fantasten gestempelt worden.
rungseinheiten ProtecTIER und TS7700, TS3500 Tape Library Virtualisierung und File Virtualisierung über File Area
Was wird in zehn Jahren sein? Es wird eine spannende
Networks bieten eine noch nie dagewesene Flexibilität und
Epoche werden und der Autor fragt sich selbst, ob seine
Skalierung in Leistung, Kapazität und Funktionalität. Sie wer
Aussagen zutreffen werden.
den die vor uns liegende Epoche maßgeblich bestimmen, weil Konsolidierungen auf einer ganz neuen Basis möglich
Vielleicht liegt unsere Vorstellungskraft noch weit hinter den
werden. Diese neuen Architekturen schaffen die Möglich
Dingen, die vor uns liegen ...
keit, viele Server über Cluster zusammenzuschließen. Damit sind die ersten Anfänge von Grid Computing im kommerzi ellen Umfeld gelegt.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
163
164
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
IBM Storage Software
Software
IBM Storage Software
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
165
IBM Storage Software Der System-verwaltete Speicher im Mainframe-Umfeld – Werner Bauer
Der System-verwaltete Speicher im Mainframe-Umfeld
SMS hatte zum Ziel, das rasante Speicherwachstum der
Wie der Name impliziert, wird die externe Speicherum
damaligen Zeit rasch zu adaptieren, ohne die Anzahl der
gebung durch das System, genauer gesagt durch den
Speicheradministratoren analog mitwachsen zu lassen. SMS
angeschlossenen Server und dessen Betriebssystem,
verhält sich – fast – völlig elastisch zu dem wachsenden
verwaltet. Verwaltet heißt in diesem Zusammenhang, dass
externen Speichervolumen, skaliert ausgezeichnet und
das Betriebssystem automatisch alle Aktivitäten im Zusam
verwaltet ein 400-GB-Disk-basierendes Speicherumfeld
menhang mit externem Speicher nach einem vordefinierten
in 1990 genauso gut wie heute eine 4.000.000 GB große
Regelwerk – Policy-basierend – verwaltet. Andere oder
Disk-Konfiguration.
ähnliche Begriffe für den systemverwalteten Speicher – System Managed Storage – sind Information Lifecycle
Speicherhierarchie
Management (ILM) oder Scale-out File Services (SoFS). Sol
Neben dem Abgleich der logischen Anforderungen an eine
che Begriffe finden sich in IT-Landschaften, die vornehmlich
Datei mit der physisch vorhandenen Konfiguration wird von
mit Unix- und/oder Intel-basierenden Servern ausgestattet
einer automatischen Speichermanagement-Lösung erwartet,
sind. System Managed Storage oder kurz SMS wurde durch
dass die Dateien sinnvoll in der vorhandenen Speicherhierar
die Ansätze im Mainframe- und Host-Umfeld in den 80er-
chie abgelegt und nach Anforderung bewegt werden.
Jahren des vergangenen Jahrhunderts massiv geprägt. Dieser Ansatz wurde in den Anfängen bereits 1974 durch
Heutige Plattensysteme können mit SSDs (Solid State
das Mass Storage System IBM 3850 eingeführt, wo bereits
Disks), FibreChannel-Platten und SATA-Platten bestückt wer
eine HSM-Funktionalität zur Verfügung gestellt wurde, um
den und dadurch systemintern eine Speicherhierarchie
Daten, die nicht oft benötigt wurden, auf einem billigen
abbilden. SSDs sind zwar noch sehr teuer, bieten dafür aber
Massenspeicher systemgesteuert abzuspeichern (siehe
extrem schnellen Zugriff und extrem schnelle Antwortzeiten.
auch unter IBM 3850).
166
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Die Speicherhierarchie wird bei den Magnetplatten durch
Automatische Tape Libraries und Virtuelle Tape Server
zwei gegenläufige Trends bestimmt: Je schneller der Spei
nutzen aber – sinnvoll – weiterhin reale Bandlaufwerke und
cherzugriff und je besser und kürzer die Servicezeit ist,
Kassetten, auf denen letztlich die Dateien abgelegt werden,
desto teurer ist das gespeicherte GB. Anders ausgedrückt:
nachdem die geschriebenen Tape-Daten durch einen
das gespeicherte GB wird preiswerter, wenn die Anforde
vorgeschalteten Plattenpuffer gegangen sind. Über einen
rungen an Zugriffszeit und Schnelligkeit geringer werden.
solchen Plattenpuffer können wieder virtuelle Tape-Lauf werke emuliert werden, die viele Tape-Laufwerke pro virtuellem
Ein schnelles FibreChannel-Plattenlaufwerk dreht mit
Tape Server simulieren. Das eigentliche Backend besteht
15.000 Umdrehung pro Minute bzw. 250 Umdrehungen pro
nur aus wenigen realen Kassetten-Laufwerken, über die
Sekunde, d. h., eine Umdrehung dauert 4 ms. Die übliche
hochkapazitive Kassetten beschrieben werden. Diese realen
Kapazität einer FibreChannel-Disk liegt heute zwischen
Kassetten-Laufwerke sind in einem virtuellen Tape Server für
300 GB und 650 GB mit einem Formfaktor von 3,5 Zoll
das z/OS-Betriebssystem nicht sichtbar.
Durchmesser. Die Anzahl der möglichen Zugriffe ist durch die hohe Umdrehungszahl wesentlich schneller im Vergleich
Entstehung
zu einer preiswerten, hochkapazitiven SATA-Platte mit 7.200 Umdrehungen pro Minute bzw. 120 Umdrehungen pro
Storage Management Software
Sekunde mit 8,3 ms pro Umdrehung. Das dauert mehr als
DFSMS/MVS setzt heute den Standard der Storage Manage
doppelt so lange im Vergleich zu einer FibreChannel-Platte.
ment Software, ohne die das Speicherwachstum in den ver
Die Kapazitäten bei SATA-Platten liegen heute bei 1 TB
gangenen Jahren im Mainframe-Umfeld nicht administrier
und 2 TB.
bar gewesen wäre.
Eine übliche Größe, um die Leistungsfähigkeit einer Platte
Die Anfänge von DFSMS/MVS gehen zurück bis in die
einzuordnen, ist die Anzahl von Ein-/Ausgabe-Zugriffen
frühen 80er-Jahre des vergangenen Jahrhunderts. Damals
pro Sekunde und pro GB. Das macht deutlich, dass SATA
haben Kunden und entsprechende Benutzerorganisationen
wesentlich schwächer als eine FibreChannel-Platte ist und
einschließlich der IBM die Notwendigkeit für ein vollautoma
daher für hochaktive Dateien ungeeignet ist. Die Technologie
tisches Speichermanagement erkannt:
für 15.000 U/M ist auch anspruchsvoller – und damit teurer – als die notwendige Technologie, um mit nur 7.200 Um
•• Rapides Speicherwachstum
drehungen pro Minute zu rotieren.
•• Die TCO für Speicher eskalierten bereits in den Jahren ab Anfang 1980
Eine spezielle Rolle im Mainframe-Umfeld kommt virtuellen Tape-Konfigurationen zu. Um den Vorteil des direkten Zugriffs der Platte für Backup und ausgelagerte Dateien
•• „Storage keeps getting cheaper, but also harder to manage“, Datamation, 15.12.1985 •• GUIDE/SHARE fordert IBM in den Jahren 1983–1985 auf,
zugänglich zu machen, aber andererseits ökonomisch mit
ein „policy based storage management“ anzubieten und
dem genutzten Speicherplatz umzugehen, wird eine Techno
definiert „requirements for futures of storage manage-
logie genutzt, die vermeidet, dass gleiche Datenstrukturen
ment“, GUIDE 1983
mehrfach gespeichert werden („Deduplication“). Dabei wird
•• „Without improvements in methods, or the emergence of
auf reale Tape-Laufwerke gänzlich verzichtet und die
improved automated managers, the storage management
Backup-Dateien und die ausgelagerten Daten („migrated
forces will have to grow exponentially as the data grows“,
data sets“) werden auf Disks abgespeichert. Ein solches
GUIDE Paper, 15.11.1985
System simuliert Tape-Laufwerke gegenüber den ange schlossenen z/OS-Servern.
•• Internet, e-business, b-2-b interactions, life sciences, WEB 2.0, etc. tragen weiterhin zu einer verstärkten Explosion der Nachfrage nach Speicherkapazität bei, die verwaltet werden muss.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
167
IBM Storage Software Der System-verwaltete Speicher im Mainframe-Umfeld – Werner Bauer
Automatisches Storage und Daten-Management wurde mit
3. Jupiter Stage III war als letzte Stufe geplant. In dieser Stufe
DFSMS/MVS realisiert und wird in den folgenden Abschnitten
sollte die völlige Trennung von logischen Daten und physi-
beschrieben.
kalischer Speicherung umgesetzt werden. Dabei sollte der externe Speicher auf eine Block-Level Architektur standar-
Data Facility Storage Management Subsystem, DFSMS/MVS
disiert und die logischen Daten automatisch so plaziert
IBM hat 1989 mit MVS/DPF 3.0 die 2. Stufe einer Strategie
werden, wie es über Regeln und Service-Levels vorgege
realisiert, die unter dem internen Begriff „Jupiter Strategy“ in
ben ist. Sollte eine Regel – oder der geforderter Service-
den frühen 80er-Jahren entstanden ist. Diese 2. Stufe ist
Level – nicht mehr eingehalten werden können, sorgt das
das, was wir heute im Host-Umfeld als SMS verstehen.
System selbst dafür, dass die betroffenen Blöcke automatisch und für die Anwendung unbemerkt in der Speicher-
Die Jupiter-Strategie war damals in drei Stufen geplant:
Hierachie so umverlagert werden, dass der geforderte Service-Level wieder eingehalten werden kann.
1. Jupiter Stage I ist das, was im DFSMS/MVS bzw. z/OS als Interactive Storage Management Facility (ISMF) verstanden
Anfang der 90er-Jahre entschied IBM, diese 3. Stufe im
wird. ISMF ist ein Panel-basierendes ”Frontend“ zu dem
Rahmen der Jupiter-Strategie nicht mehr zu verwirklichen.
externen Speicher und dem dazugehörigen Repository, in
Man ging davon aus, dass eine entsprechende Investition
dem der externe Speicher in einer speziellen, sehr effektiven
eher für Unix-basierende Server gemacht werden sollte.
und effizienten Datenbank verzeichnet ist. ISMF war der erste Schritt und wurde 1987 angekündigt und im Markt eingeführt. 2. Jupiter Stage II wurde 1989 als MVS/DFP 3.0 angekündigt und allgemein verfügbar. Neben dem Data Facility Product (DFP) waren auch die Komponenten Data Set Services (DSS), der Hierarchical Storage Manager (HSM) und der Removable Media Manager (RMM) integraler Bestandteil dieser Jupiter Stufe II. Das ist der Stand von SMS, wie er heute im Mainframe-Umfeld bekannt ist. Er trägt der Realisierung des Gedankens Rechnung, den Speicher durch das Betriebssystem nach einem vordefinierten Regelwerk automatisch zu verwalten. Über die Jahre hinweg wurde diese Stufe verfeinert und ergänzt und ist heute unter z/OS integraler Bestandteil der Betriebssystemsoftware.
168
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Funktionsweise
action1>. Unter &variable_llq ist bspw. INDEX, VER*, GRUPPE1 als mögliche LLQ-Liste definiert, wobei dieser
Dateien im z/OS
LLQ auch mit den ersten 3 Zeichen VER in die Auswahl
Bevor wir SMS und seine Komponenten genauer betrachten,
fallen würde. Dabei wäre gleichgültig, wie die anderen
wollen wir das Prinzip der Datei im z/OS beschreiben bzw.
Qualifier ausgeprägt sind. Also eine Datei mit DSN=TEST.
wie eine Datei angelegt und wiedergefunden wird.
D30M09.VERZ1 würde die Auswahl als gültig akzeptieren, da in der LLQ-Liste auch VER* steht.
Jede Datei – vergleichbar mit einer „File“ in Unix oder Windows – bekommt im z/OS einen eindeutigen Namen
Mit entsprechenden UND-Verknüpfungen von weiteren
bzw. genauer einen Dateinamen, ein „Data Set Name“
Regeln kann die Auswahl selektiver ausfallen wie etwa
(DSN) zugeordnet. Ein DSN kann bis zu 44 Character lang
mit SAP*,PROD als Liste in der Variablen
sind zwischen 1 und 8 Caracter lang und bestehen aus
&variable_hlq. Dann fallen alle DSN mit SAP in den ersten
alpha-numerischen Zeichen. In der Regel gibt es keine
3 Stellen des HLQ und mit den LLQ, wie in der Variablen
Vorschriften, wie solch ein Name ausgeprägt sein muss.
&variable_llq definiert, in die Auswahl.
Ein Beispiel: “SAP.PROD.KDNR1984.INDEX“ hat den 1. Qualifier mit SAP, der auch als High Level Qualifier (HLQ)
Eine Datei muss in einem SMS Environment immer katalo
bezeichnet wird, einen 2. Qualifier PROD, den 3. Qualifier
gisiert sein. Ein Katalog ist ein Verzeichnis, in dem jede
KDNR1984 und den sogenannten Last Level Qualifier (LLQ)
einzelne Datei mit Namen verzeichnet ist und wo diese
mit INDEX. Die Qualifier sind jeweils durch einen Punkt
Datei zu finden ist. Das wird über ein Volume Label oder
getrennt.
die sog. Volume Serial Number, VOLSER, bewerkstelligt. Die VOLSER ist ebenfalls eindeutig in einem SMS-System.
Solch ein Name kann vom System genauso zerlegt und
Mit Hunderttausenden oder Millionen von Dateien in einem
geprüft werden. Beispielsweise kann eine Regel definiert
großen System wird man nicht nur einen einzigen Katalog
werden, die lautet Speiche
eingebrannt. Von der Masterplatte lassen sich dann
rung einer Dateichronologie. Beim Schreiben wird durch
beliebig viele Kopien herstellen.
hohe Laserenergie die Plattenstruktur dauerhaft verändert. Beim Lesen wird diese Veränderung mit niedriger Laser
Die Kopie wird vom Laserstrahl abgetastet, der durch die
energie abgetastet und detektiert. Man unterscheidet zwei
unterschiedliche Struktur der Speicherfläche mit einer digi
Speichertechniken:
talen Information moduliert wird. Die Spurdichte beträgt bis zu 16.000 Spuren/Zoll. Als Aufzeichnungsstandard hat sich
Bei der Blasenerzeugung wird durch den Laserstrahl eine
das Format ISO 9660 durchgesetzt (Transferrate: 1,2 MBit/s,
Polymerschicht erhitzt, die unter einem dünnen Metallfilm
Kapazität: ca. 600 MB). Die CD-ROM dient hauptsächlich
liegt. Es kommt zur Bildung einer Blase, die den Metallfilm
der Verbreitung größerer Datenmengen, als Foto-CD und
dauerhaft verformt. Bei der Abtastung mit geringer Laser
jüngst auch als Videoträger. Die erste CD-ROM-Applikation,
energie kann die geänderte Streuung ausgewertet werden.
die auf CD-ROM ausgeliefert wird, ist 1987 Microsoft Book shelf. 1990 kommt der Commodore CDTV auf den Markt, ein
Bei der Pit-Erzeugung durchbrennt der Laserstrahl eine
auf dem Amiga 500 basierender Computer mit integriertem
lichtundurchlässige Schicht, die über einer Reflexions
CD-ROM-Laufwerk. 1993 und 1994 gibt NEC den Takt mit
schicht liegt (Pit entsteht). Beim Lesen werden die so
Dreifach- (Triple Speed) bzw. Vierfach-CD-ROM-Laufwerk
entstandenen Hell-Dunkel-Zonen ausgewertet.
(Quad Speed) an. Ende der 90er-Jahre wurde die Haltbarkeit von Daten auf Bei der beschreibbaren CD-R ist der Aufbau komplexer als
WORM-Platten auf ca. 300 Jahre geschätzt.
bei der CD-ROM. Unten liegt die Trägerschicht aus Polycar bonat, darauf folgt eine lichtempfindliche organische Sub stanz, die durchscheinend ist. Dann kommt eine reflektie rende Goldschicht und schließlich eine Lack-Schutzschicht. Mit erhöhter Laserenergie kann das organische Material ver färbt bzw. verschmolzen werden und es erhält so eine andere Reflexionseigenschaft. Die Platte kann danach wie eine CD-ROM gelesen werden.
274
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
MOD (Magneto Optical Disc) Mit WORM verwandt ist die MOD, ein modernes Speicher medium für Computer auf magnetisch-optischer Basis. Sie erlaubt das digitale Aufnehmen und Löschen über Laser. Die MOD enthält in Aufzeichnungsspuren geordnet bis zu einer Milliarde Mikromagnete. Diese sind in einer bestimmten Richtung vormagnetisiert. An den mit einem Laserstrahl erwärmten Stellen lassen sich diese Mikroma gnete durch ein angelegtes Magnetfeld umpolen. Beim Abtasten wird der Laserstrahl durch die nun verschieden gepolten Magnete zirkular entweder rechts- oder linksdre hend zurückgeworfen (magneto-optischer Kerr-Effekt). Die Änderung der Polarisation kann über eine entsprechende Optik gelesen werden. Die MOD ist weniger lichtempfindlich 120 mm Optical Disk im IT-Umfeld für Langzeitarchivierung (WORM, MO und
als die CD-R, kann schneller beschrieben werden, ist
CCW)
unempfindlich gegen Nässe, hat eine hohe Lebenserwar tung und bietet hohe Datensicherheit.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
275
Technologie-Anhang
CCW (Continuous Composite WORM) basiert auf der MO-
DVD (Digital Versatile Disk)
Technik. Die Platte erhält bei der Produktion eine Kennzeich
DVD steht für „Digital Versatile Disk“ (ehemals „Digital Video
nung, damit sie nicht überschrieben werden kann. Zusätz
Disk“). Das Medium ist so groß wie eine normale CD-ROM,
lich schützt eine Software im Laufwerk die Platte vor dem
jedoch wird mit einer wesentlich höheren Speicherdichte
Überschreiben. CCW ist also eine „Schein“-WORM-Platte,
gearbeitet. Dabei unterscheidet man vier verschiedene
die auf der MOD-Technologie basiert.
Medien. Die einfache einseitige DVD kann 4,7 GB auf einer Schicht speichern. Es gibt aber auch zweischichtige DVDs.
Im IT-Umfeld wurden Anfang der 90er-Jahre die Technolo
Dabei wird die Information auf zwei übereinanderliegenden
gien auf 120-mm-Basis (5,25 Zoll) als MO-, CCW- und
Schichten gespeichert, eine davon ist durchsichtig.
WORM-Platten standardisiert. Die 120-mm-Technologie findet bis heute ihren Einsatz im IT-Umfeld für Archivierungs
Durch unterschiedliche Fokussierung des Lasers wird die
zwecke. Optische Platten auf 90-mm-Basis (3,25 Zoll)
richtige Schicht angesteuert. Damit sind 8,5 GB möglich. Und
werden vorrangig im Consumer-Umfeld eingesetzt.
dann gibt es das Ganze noch zweiseitig. Damit sind 17 GB Daten auf einer einzigen DVD möglich. Die ersten Laufwerke
UDO (Ultra Density Optical Disk)
kamen in den 90er-Jahren auf den Markt und können ein
In den Jahren 2003 und 2004 wurde die 120-mm-Technolo
schichtige, einseitige DVDs lesen. Leider gab es zu diesem
gie, die bis dahin mit einem roten Laser arbeitete, durch
Zeitpunkt noch wenig DVD-Titel mit Videos. Die Videos wur
einen neuen Standard ersetzt, die UDO-Technologie (Ultra
den in MPEG-2 kodiert, was eine sehr gute Qualität bei der
Density Optical). Die UDO-Technologie ist nicht rückwärts
Wiedergabe ergibt. Auch die ersten Brenngeräte für einsei
kompatibel zur alten 120-mm-Technologie und arbeitet mit
tige, einschichtige DVDs waren in den 90er-Jahren bereits
einem blau-violetten Laser mit 405-nm-Wellenlänge. Die
vorgestellt worden, der Brenner von Pioneer wurde im
Plattenformate WORM, MO und CCW wurden beibehalten.
Herbst 1997 für etwas über 10.000 DM angeboten. Aufge
UDO bietet ein „Phase Change“ WORM und „Phase Change“
nommen wurde mit ca. 1 – 2 MB/s und speichern konnte er
Rewritable-Medium zum Einsatz an. Die ersten Platten auf
maximal 3,9 GB.
dieser neuen Laser-Basis als neuer 1-x-Standard boten eine Kapazität von 30 GB. Die Zweitgeneration als 2-x-Standard,
Die Lesegeräte können auch normale CDs lesen, jedoch
der 2006 verfügbar wurde, bot das Doppelte an Kapazität,
meist keine CD-Rs, also die beschreibbaren CDs. Dies
also 60 GB. Die UDO-Technologie als neuer 120-mm-Stan
kommt daher, dass ein Laser mit einer kürzeren Wellenlänge
dard wird gemäß einer Roadmap weiterentwickelt, die im
verwendet wird, der die selbst gebrannten CDs nicht mehr
UDO-Standard verankert wurde.
richtig lesen kann. Sony hatte dazu ein Laufwerk mit zwei Laser-Dioden entwickelt, mit dem man dann auch die CD-Rs
UDO Roadmap
276
wieder lesen kann. Generation 1
Generation 2
Generation 3
Capacity
30 GB
60 GB
120 GB
HD DVD
Transfer Rate
8 MB/s
12 MB/s
18 MB/s
Die HD DVD (High Density Digital Versatile Disk, zuvor:
RPM
2 000
3 000
3 600
Advanced Optical Disk, kurz: AOD) ist ein Datenträgerfor
Avg Seek Time
25 ms
25 ms
25 ms
mat und wurde von 2005 bis Februar 2008 neben Blu-ray
Numerical Aperture
0.7
0.7
0.85
Disc und VMD als ein mögliches Nachfolgeformat der DVD
Media Layers
1
2
2
Encoding
1,7
1,7
ML
gehandelt.
Sector Size
8 KB
8 KB
8 KB
SCSI Transfer Rate
80 MB/s
80 MB/s
80 MB/s
Load Time
5s
5s
5s
Unload Time
3s
3s
3s
MSBF
750 000
750 000
750 000
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Die HD DVD wurde durch das Advanced Optical Disc-Kon
umfasste zunächst die 15-GB- und die 30-GB-Variante,
sortium (AOD) spezifiziert, dem u. a. NEC, Microsoft, Toshiba,
wobei für Filme fast immer die zweischichtige 30-GB-Vari
Intel, IBM und Hewlett-Packard angehörten. Danach haben
ante verwendet wurde.
sich diese Firmen zur HD DVD Promotion Group zusammen geschlossen, um die HD DVD effizienter bekannt zu machen.
Im Januar 2008 gab Time Warner bekannt, dass seine
Das DVD-Forum hatte im November 2003 die HD DVD als
Studios Warner Bros. und New Line Cinema zukünftig keine
HD-Nachfolger der DVD nach den HD-DVD-Spezifikationen
weiteren Filme für die HD DVD veröffentlichen werden, son
für Read-Only-Discs verabschiedet. Für die HD DVD wurde
dern ausschließlich auf die Blu-ray Disc setzen. Dies wurde
der Kopierschutz Advanced Access Content System (AACS)
von einigen Medien als Entscheidung des Formatkrieges
aus dem Bereich des Digital Rights Management (DRM)
bezeichnet. In den darauffolgenden nächsten Tagen folgten
vorgesehen.
weitere Anbieter, so am 10. Januar der große europäische Filmverleih Constantin Film, am 12. Januar der US-Pornoan
Im März 2006 kam mit dem HD-XA1 von Toshiba der erste
bieter Digital Playground und die deutsche Senator Film.
HD-DVD-Player in Japan auf den Markt. Im August 2006
Die US-Anbieter Universal Studios und Paramount Pictures
erschien mit Elephants Dream die erste HD DVD in deut
dementierten hingegen Gerüchte, ihre Verträge mit HD DVD
scher Sprache.
aufzugeben, sie gelten als die letzten verbliebenen großen Anbieter. Nachdem Toshiba, von denen ein Großteil der HD-
Im Februar 2008 erklärte Toshiba, dass man die Entwicklung,
DVD-Player stammt, am 15. Januar die Preise der Geräte in
Herstellung und Vermarktung der Technologie Ende März
den USA teilweise drastisch reduziert hatte, sprachen einige
2008 einstellen werde.
Medien von einem „Ausverkauf“. Auf der anderen Seite nahm der Druck auf die HD DVD weiter zu: Anfang 2008 nahmen
Die HD DVD basierte auf einem blau-violetten Laser mit
Märkte der Media-Saturn-Holding beim Kauf eines Blu-ray-
405 nm Wellenlänge. Die Dicke der Trägerschicht ist mit
Abspielgerätes den HD-DVD-Player in Zahlung. Weitere
0,6 mm identisch mit der der DVD. Die numerische Apertur
Rückschläge musste das Format im Februar 2008 hinnehmen.
(NA) beträgt dagegen 0,65 im Vergleich zu 0,6 bei der DVD
Die US-Elektronikkette Best Buy teilte am 12. Februar 2008
und 0,85 bei der Blu-ray Disc.
mit, sich zukünftig nur noch auf das Blu-ray-Format zu kon zentrieren. Einen Tag zuvor kündigte schon der größte US-
Die HD DVD hatte mit einer Schicht ausgestattet eine Spei
Online-Videoverleih Netflix an, dass er bis zum Jahresende
cherkapazität von:
die HD DVD aus dem Sortiment nehmen wird. Am 15. Februar 2008 kündigte zudem Wal-Mart, größter Einzelhändler
•• 15 GB (bei HD DVD-ROMs – gepresste Medien) bzw.
der USA, an, HD-DVD-Bestände auszuverkaufen und somit
•• 15 GB (bei HD DVD-R/RWs – einmal und wiederbeschreib-
in Zukunft nur noch auf Blu-ray setzen zu wollen. Am 19.
bare Medien) bzw.
Februar 2008 gab Toshiba eine Pressemitteilung heraus, in
•• 20 GB (bei HD DVD-RAM – wiederbeschreibbare Medien mit wahlfreiem Sektorzugriff)
der bekannt gegeben wurde, dass die Entwicklung, Herstel lung und der Vertrieb der HD DVD sowie entsprechender Geräte nicht weiter vorangetrieben wird und Ende März
und bei zwei Schichten eine Speicherkapazität von
2008 endgültig eingestellt wird. Daraufhin gaben die Univer sal Studios noch am selben Tag bekannt, von der HD DVD
•• 30 GB (bei HD DVD-ROMs – gepresste Medien).
auf das Blu-ray-Format zu wechseln.
Zusätzlich wurde im August 2007 eine dreilagige Variante durch das DVD-Forum verabschiedet, bei der pro Schicht 17 GB Platz fanden und die somit eine Gesamtkapazität von 51 GB hatte. Der endgültige Standard für Filme auf HD DVD
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
277
Technologie-Anhang
Blu-ray Disc Die Blu-ray Disc (abgekürzt BD oder seltener BRD) ist ein digi tales optisches Speichermedium. Sie wurde neben HD DVD und VMD als ein möglicher Nachfolger der DVD beworben. Nachdem Toshiba im Februar 2008 die Einstellung von Produktion und Weiterentwicklung der HD-DVD-Technik – einschließlich der Geräte – für März 2008 angekündigt hatte, gilt die Blu-ray Disc als Sieger im Formatkrieg. Der Name Blu-ray ist englischen Ursprungs. Blue ray bedeutet wörtlich soviel wie „Blauer Lichtstrahl“, was sich auf den verwende ten blauen Laser bezieht. Die bewusste Abweichung von der orthografisch korrekten Schreibweise „blue ray disc“ zielt darauf ab, eine Registrierung des Ausdrucks als Marke zu begünstigen. Die neue Phase-Change-Technik soll eine doppelt so hohe Die Spezifikationen für die Blu-ray Disc wurden am 19.
Übertragungsrate (Datentransferrate) von 9,0 MB/s (72 Mbit/s)
Februar 2002 durch die neun Unternehmen der Blu-ray
beim Beschreiben anstatt der ursprünglich maximal spezifi
Group, Panasonic, Pioneer, Philips, Sony, Thomson, LG
zierten einfachen 4,5 MB/s (36 Mbit/s) ermöglichen. Ein
Electronics, Hitachi, Sharp und Samsung, beschlossen; die
wichtiger Bestandteil der Spezifikation ist auch ein Kopier
ser Gruppierung schlossen sich Ende Januar 2004 zusätz
schutz in Form einer eindeutigen Identifikationsnummer.
lich noch Dell und Hewlett-Packard sowie Mitte März 2005
Außerdem eignen sich Blu-ray Discs besonders gut für Full-
Apple an. Hewlett-Packard trat allerdings 2005 wieder aus
HD-Videos, die dank der hohen Auflösung eine bessere
dem Blu-ray-Konsortium aus, nachdem einige Verbesse
Qualität als die gängigen Systeme wie PAL und NTSC bieten,
rungsvorschläge abgewiesen worden waren, und wechselte
aber auch dementsprechend mehr Speicherplatz benötigen.
in das HD-DVD-Lager.
BD-Spieler unterstützen in der Regel das zuerst von Pana sonic und Sony eingeführte hochauflösende AVCHD-Format.
Die Blu-ray Disc gibt es in drei Varianten: als nur lesbare BD-ROM (vergleichbar mit DVD-ROM), als einmal
Eine weitere Neuerung gegenüber der DVD ist der verkleinerte
beschreibbare Variante BD-R (vergleichbar mit DVD±R) und
Abstand des Lasers zum Datenträger sowie die geringere
als wiederbeschreibbare BD-RE (vergleichbar mit DVD±RW).
Wellenlänge (und daher andere Farbe) des Laserstrahls.
Durch den Einsatz eines blau-violetten Lasers und dessen
Weiterhin ist die Schutzschicht auf der Laser-Seite mit 0,1 mm
kurzer Wellenlänge (405 Nanometer) lassen sich höhere
im Vergleich zu 0,6 mm der DVD deutlich kleiner. Aufgrund
Datendichten erreichen als bei einer DVD. Pro Datenschicht
der daraus resultierenden größeren Anfälligkeit gegen
lassen sich 25 GB Daten auf einer BD-ROM speichern,
Kratzer und Staub war zunächst geplant, die Blu-ray Disc
sodass sich bei zweischichtigen Medien eine Kapazität von
nur in einer Cartridge anzubieten. Stattdessen wurde jedoch
bis zu 50 GB ergibt.
eine Beschichtung namens „Durabis“ entwickelt, die den Gebrauch einer Cartridge nicht mehr notwendig macht.
Eine vierlagige Version der Blu-ray Disc, die auf einer Seite um 100 GB fassen soll, wurde von TDK vorgestellt. TDK ist
Wegen des geringeren Abstands zwischen Medium und
es gelungen, auf einer sechslagigen Scheibe 200 GB unter
Laseroptik sowie der dünneren Schutzschicht kann ein
zubringen. Dabei wurde die Kapazität einer Lage auf 33,3 GB
Objektiv mit günstigerer numerischer Apertur eingesetzt
erhöht. Dies sind jedoch in erster Linie Machbarkeitsstudien.
werden, das den Strahl effizienter bündeln kann. Somit wer
Von vornherein sind auch beschreibbare Medien vorgesehen,
den Schreibfehler und stärkere Streuungen verringert und
soll die Blu-ray Disc doch vor allem in der Unterhaltungs
es ist möglich, eine Blu-ray Disc zum Beispiel aus Metall oder
elektronik ihre Heimat finden und als Speichermedium für
anderen stabilen, undurchsichtigen Materialien kombiniert
hochauflösende Filme dienen. Die wiederbeschreibbare Blu-ray Disc arbeitet mit der Phase-Change-Technik.
278
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
mit einer dünnen durchsichtigen Trägerschicht zu bauen,
36 bzw. 72 Mbit/s bei der Blu-ray-Platte. Zudem ist die HVD
die mit erheblich höheren Drehzahlen als eine Scheibe aus
dabei noch lange nicht ausgereizt und es sind neue
Polycarbonat betrieben werden können, woraus dann
Laufwerke mit noch höherer Rotationsgeschwindigkeit
höhere Übertragungsraten resultieren. Zudem erlaubt die
denkbar. Die Spezifikation für die HVD wurde im Dezember
gegenüber der DVD kleinere Wellenlänge des Laserstrahls
2004 durch das TC44 Committee der Ecma International
eine wesentlich höhere Datendichte und damit eine erhöhte
beschlossen. Bereits im Februar 2005 wurde die „HVD
Speicherkapazität.
Alliance“ gegründet, um die Entwicklung der HVD voranzu treiben. Inzwischen gehören der Alliance 19 Firmen an:
Die Firma Verbatim stellte auf der IFA 2005 eine „Blu-ray
Alps Electric Corporation, CMC Magnetics, Dainippon Ink
Disc Rewriteable“ vor. Dieses Medium soll laut Hersteller
and Chemicals, EMTEC International, Fuji Photo Film,
eine Speicherkapazität von 25 Gigabyte erlauben (also
Konica Minolta Holdings, LiteOn Technology, Mitsubishi
ca. 135 Minuten Video in MPEG2 HD-Qualität). Außerdem
Kagaku, Nippon Kayaku, Nippon Paint, Optware Corporation,
soll die BD-RE mit einer besonders stoß- und kratzfesten
Pulstec Industrial, Shibaura Mechatronics, Software Archi
Schutzschicht versehen sein. Neben der unmittelbaren
tects, Suruga Seiki, Targray Technology, Teijin Chemicals,
Verfügbarkeit von 25-GB-Rohlingen hat TDK für Oktober
Toagosei Company und die Tokiwa Optical Corporation.
2006 auch 50-GB-Discs in Aussicht gestellt. TDK ist eines der Gründungsmitglieder der Blu-ray Disc Association
Zwei überlagerte Laser mit unterschiedlicher Wellenlänge,
(BDA) und war maßgeblich an der Entwicklung beteiligt.
ein blau-grüner Schreib-/Leselaser mit 532 nm und ein roter
Holographic Versatile Disc (HVD)
schiedlichen Lagen in der Platte reflektiert und erzeugen in
Die Holographic Versatile Disc, auch HVD genannt, wird
der photopolymeren Schicht ein Interferenzfeld, ein soge
bereits heute in Fachkreisen als Nachfolger der heutigen
nanntes Hologramm. In der schematischen Zeichnung sind
HD-DVD- und Blu-ray-Technologie gehandelt. HVDs haben
die beiden Laser zur Vereinfachung nicht überlagert darge
eine Kapazität von bis zu 3,9 TB und damit um ein Viel
stellt, um das Prinzip der unterschiedlichen Reflexion besser
faches mehr als die größte heute zur Verfügung stehende
darzustellen.
Positionierungslaser mit 650 nm, werden auf zwei unter
Blu-ray-Platte mit 200 GB. Auch die Transferrate ist um ein Vielfaches höher und erreicht 1 Gbit/s im Vergleich zu
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
279
Technologie-Anhang
Beim Auslesen liest der blau-grüne Laser das Hologramm der
ist ein Hologramm auch schwer zu fälschen. Die Haltbarkeit
als Laser-Interferenz-Muster codierten Daten in der Polymer
von Informationen in holografischen Speichern wird heute
schicht im oberen Bereich des Mediums aus, während der
auf etwa 50 Jahre geschätzt.
rote Laser dazu dient, Hilfsinformationen von einer CD-ver gleichbaren Aluminiumschicht im unteren Bereich auszulesen.
Flash-Speicher – Kurzgeschichte
Die Hilfsinformationen dienen zur exakten Positionierung, wo
Die Entwicklung des heutzutage bekannten Flash-Speichers
man sich gerade auf der Platte befindet (vergleichbar mit
hat sich erst relativ spät in den 90er-Jahren zugetragen. Die
Sektor-, Kopf- und Segmentinformationen einer Festplatte).
treibende Kraft war die digitale Fotografie. Schließlich ist es
Eine dichroitische Spiegelschicht (Reflexionsschicht), die sich
praktisch unmöglich, in eine kleine Digitalkamera einen CD,
zwischen der Polymerschicht und der Aluminiumschicht
Brenner einzubauen, der die geschossenen Bilder direkt auf
(Basisschicht) befindet, lässt den blau-grünen Laser reflek
die CD brennt. Ebenso wenig war die Diskette tauglich, da
tieren, während der rote Laser hindurchgeht. Durch diesen
sie einfach zu wenig Daten zu langsam speicherte. Die
Trick wird die Interferenz durch Refraktion des blau-grünen
Ende der 90er-Jahre von IBM entwickelten Microdrives, die
Lasers von den Hilfsdaten-„Pits“ verhindert und beide Infor
ein paar Jahre zu den Flash-Speicherkarten eine Alternative
mationen (Hologramm und Hilfsdaten) können unabhängig
bildeten, verbrauchten im Einsatz viel Strom, sodass der
voneinander sauber angesteuert werden.
Akku einer Digitalkamera häufig aufgeladen werden musste. Auf Dauer waren deshalb die Microdrives keine sinnvolle
Polymere, also Kunststoffe, sind lange Kettenmoleküle, die
Alternative in der digitalen Fotografie.
aus den immer gleichen Bausteinen bestehen. Sie haben gegenüber Kristallen den Vorteil, nahezu unbegrenzt modifi
Der erste Flash-Speicher wurde von Sandisk 1994 auf
zierbar zu sein. Polymere sind extrem lichtempfindlich,
den Markt gebracht. Er umfasste damals 4-MB-Speicher.
hochtransparent und unempfindlich gegen Temperatur
Mittlerweile ist diese Form der Datensicherung viele Techno
schwankungen. Sie verändern auch nach häufigem Ausle
logieschritte weiter, da man mit 4 MB Speicherkapazität
sen ihre Leistungsfähigkeit nicht und sind ideal für die
kaum etwas anfangen konnte. Heutzutage sind USB-
Laserbearbeitung. Nach der Bestrahlung mit Laserlicht ver
Sticks, die auf dieser Technologie basieren, mit mehreren
ändern die lichtempfindlichen Moleküle im Polymer ihre
Gigabyte erhältlich.
Ausrichtung. An den belichteten Stellen lenkt das Material Licht stärker ab als an den unbelichteten Stellen. In dieser
Die Bezeichnung Flash-Speicher kam in den Laboren von
als Interferenzfeld gezielten Veränderung der molekularen
Toshiba zustande, wo der Forscher Shoji Ariizumi diesen
Ordnung steckt die „holografische“ Information. Da die
Namen vorschlug, da ihn das Löschen der Datenblöcke an
Daten nicht als einzelne Bits, sondern als ganze Bitmuster
ein Blitzlicht (in Englisch: „Flash“) erinnerte.
aufgezeichnet und gelesen werden, lassen sich mit einem einzigen Laser-„Blitz“ extrem viele Bits gleichzeitig abrufen. Je nach Polymerart und Polymerdicke können das mehrere hunderttausend Bits sein. Die Übertragungsraten werden gigantisch. Ein Spielfilm, der heute auf eine DVD passt, könnte in etwa 30 Sekunden ausgelesen werden. Die große Speicherkapazität kommt daher, dass die Hologramme nicht nur auf die Oberfläche eines Speichermaterials geschrieben werden, sondern in das gesamte Volumen. Besonders sensible Daten könnten zusätzlich durch eine spezielle Maske verschlüsselt werden, die zwischen das Speichermaterial gesetzt wird. Im Gegensatz zu Informati
Flash-Speicher einer Compact-Flash-Speicherkarte (Foto: SANDISK)
onen (z. B. auf Chips), die über eine Software verschlüsselt sind, ließe sich die Hardware-Verschlüsselung von Holo grammen prinzipiell nicht knacken. Aus denselben Gründen
280
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Beschreibung und Funktionsweise
Im Gegensatz zu Festplatten haben Flash-Speicher keine
Flash-Speicher basieren auf Halbleitertechnologie und kom
beweglichen Teile mehr integriert, das heißt mechanische
men in allen heute verbreiteten Speicherkarten vor. Sie wer
Komponenten einer Festplatte sind ausgeschlossen und
den in Hybrid-Festplatten oder Flash-Festplatten in Personal
werden durch Halbleiter, also von elektrotechnischen Bau
Computern eingesetzt, aber auch in Speicherkarten für
elementen, bezüglich der Funktionsweise übernommen.
Arbeitsrechner oder in schnellen Zwischenspeichern von
Diese müssen in der Lage sein, Daten dauerhaft und nicht
Großrechnern; darüber hinaus aber vor allem in SIMMs, PC-
flüchtig, also Stromunabhängig, zu speichern. Auch wenn
Cards und PCMCIA-Karten, in Digitalkameras und MP3-Pla
die Stromversorgung abgebrochen wird, dürfen die Infor
yern, in USB-Sticks, Camcordern und Druckern, Notebooks
mationen nicht verloren gehen.
und Handhelds. Es gibt spezielle Flash-Module für Note books, Laptops, PDAs, Drucker und andere Peripheriege
Eine Flash-Zelle besteht aus einem modifizierten MOSFET-
räte wie Digitalkameras. Die verschiedenen Ausführungen
Transistor (Metall-Oxid-Feld-Effekt-Transistor), der mit einer
haben eine geschützte Bezeichnung und Schreibweise: Bei
zusätzlichen Elekrode, dem sogenannten „Floating Gate“,
spiele sind die Compact-Flash-Karte (CF), die Smart Media
ausgestattet ist. Diese Elektrode wird zwischen der Steuer
Card, Memory Sticks, die Multi Media Card (MMC), die SD-
elektrode (Control Gate) und dem aktiven Transistorkanal
Karte und andere mit Speicherkapazitäten von mehreren
platziert und mit einer dünnen halbdurchlässigen Trenn
Gigabyte (GB). Das Lesen von Flash Memorys kann in spe
schicht umgeben. Werden nun freie Elektronen mithilfe von
ziellen Kartenlesegeräten durchgeführt werden, die über ein
höherer Spannung (Schreibspannung) durch die Barriere,
Schnittstellenkabel wie USB mit dem Personal Computer
meist eine Oxidschicht, hindurch auf das Floating Gate
(PC) verbunden sind. Darüber hinaus können die Flash
„gepresst“, ändert sich das Transistorverhalten.
Memorys auch über PC-Card-Adapter betrieben werden. Jeder Transistor kann eine elektrische Ladung in Form von Die prinzipiellen Anforderungen an eine Speicherkarte
Elektronen entweder leiten oder sperren. Dies entspricht
sind neben einer sehr kompakten Bauweise hohe Speicher
genau den binären Informationszuständen eines Bits, also
kapazitäten, die Wiederbeschreibbarkeit, der Einsatz von
„0“ und „1“. Der Transistor gibt die gespeicherte Information
Stromunabhängigen Speicherbausteinen sowie eine mög
dann preis, wenn eine Spannung angelegt wird und je
lichst geringe Störanfälligkeit im mobilen Einsatz. Diese
nachdem, ob Strom fließt oder nicht, besitzt er die logische
Anforderungen waren und sind vor allem durch die digitale
Information „0“ oder „1“.
Fotografie definiert.
Aufbau einer Flash-Speicherzelle mit Floating Gate
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
281
Technologie-Anhang
Das Floating Gate ist elektronisch vollständig von allen
Weitere Überlegungen
anderen Komponenten durch eine Oxydschicht isoliert,
Flash-Speicher sind stromunabhängig und unterscheiden
damit die gespeicherte Ladung, also die Information auf der
sich deshalb grundsätzlich von stromabhängigen (volatile)
Datenzelle darunter, auch wirklich in ihr gespeichert bleibt
RAM-Bausteinen (Random Access Memory), denn die im
und auch über längere Zeit nicht verloren gehen kann.
RAM-Hauptspeicher eines Computers gespeicherte Infor
Unter normalen Umständen wäre durch diese Isolation eine
mationen bleiben immer nur solange erhalten, wie der
Übertragung nicht möglich, da die Isolation sie blockieren
Computer läuft. Ist der Computer ohne Strom, verlieren
würde. Der Flash-Speicher bedient sich deshalb des soge
RAM-Module die Fähigkeit, Daten zu speichern.
nannten Tunneleffekts aus der Quantenmechanik, der es ermöglicht, Ladungen auch durch ein nicht-leitendes Mate
Ein klassich bipolarer Transistor benötigt Strom für mehrere
rial zu übertragen. Das Floating Gate wird je nach Menge
Funktionen. Zum einen werden Elektronen aus Siliziumflä
der aufgenommenen Elektronen zu einem elektronischen
chen des Transistors herausgelöst, um damit den Schaltzu
Drosselventil für die Transistorfunktion. Beim Auslesen einer
stand zu verändern. Informationen werden auf diese Weise
Transistor-Speicherzelle wird der resultierende Strom als
gespeichert oder gelöscht. Zum anderen wird der Strom in
Indikator für logisch „0“ (viele Elektronen im Floating Gate)
Form von „Refresh“-Impulsen benötigt, um den erreichten
und logisch „1“ (wenige oder fast keine Elektronen im Floa
Zustand zu stabilisieren.
ting Gate) ausgewertet. Ein geladenes „Floating Gate“ reflektiert also „0“ und ein ungeladenes wird als „1“ gewer
MOSFETs hingegen sind in der Lage, mittels einer dünnen
tet. Eine andere Zuordnung wäre möglich, wurde aber nie
Oxidschicht einen kleinen Kondensator aufzubauen, der
angewandt. Jedes einzelne Bit wird damit über das „Floa
über ein einmal aufgebautes elektrisches Feld Ladungsträ
ting Gate“ übertragen. Für das erneute Beschreiben einer
ger zwischen den Siliziumschichten transportiert. Dadurch
bereits mit Information bestückten Datenzelle ist das vorher
baut sich Spannung auf, bis ein Grenzwert erreicht wird. In
gehende Löschen dieser notwendig. Der Grund hierfür ist,
der Folge entsteht ein dünner leitender Kanal, der ohne
dass man die Bits in einem Flash-Speicher immer nur von 1
„Refresh“-Impulse stabil bleibt. MOSFETs benötigen also nur
nach 0 verändern kann. Nur ein Löschvorgang ermöglicht
Strom, um den Kondensator zu laden oder zu entladen,
es, diesen Zustand in die andere Richtung zu ändern.
während im anderen Fall Strom dauerhaft zugeführt werden muss, um die Leitfähigkeit in einem stabilen Zustand zu hal
Die schematische Abbildung „Aufbau einer Flash-Speicher
ten und die gespeicherte Information zu erhalten.
zelle mit Floating Gate“ zeigt, wie das Floating Gate eine Ladungsfalle bildet, in der die elektrische Ladung gespei
NAND-Architektur
chert wird. Es liegt in einer Oxidschicht unterhalb des Con
Die Bezeichnung NAND, die den NAND-Flash-Speicher
trol Gates und verhindert im Normalfall den Ladungsabfluss
beschreibt, kommt eigentlich aus der Aussagenlogik. Hier
zu den N- und P-Schichten (N = stark negativ dotierte Elek
wird ein Gatter beschrieben, das eine bestimmte UND-Ver
troden Drain und Source, P = stark positiv dotiertes Sub
knüpfung darstellt (Not AND = NAND). In die Welt der Elek
strat). Die Ladung auf dem Floating Gate bildet über ihr
tronik umgewälzt bedeutet es, dass die Speicherzellen auf
elektrisches Feld einen leitenden Kanal zwischen Drain und
einem Flash-Speicher seriell geschaltet sind, also auf ver
Source, über den die Ladung ausgelesen wird. Das
schiedenen Datenleitungen hintereinander gereiht sind.
Löschen erfolgt blockweise. Durch Anlegen einer negativen
Dabei werden die Metall-Oxid-Halbleiter-Feldtransistoren
Löschspannung werden die Ladungsträger aus dem Floa
über ein NAND-Gatter miteinander verbunden. Der große
ting Gate herausgetrieben.
Vorteil dieser Architektur ist, dass nur eine geringe Anzahl an Datenspuren benötigt werden, da eine Spur mehrere Speicherzellen enthält. Im Vergleich zur NOR-Architektur kann somit eine Platzersparnis der Speicherzellen von weit über 50 % erzielt werden.
282
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Die Zugriffszeiten der NAND-Architektur sind relativ hoch,
Generell
da man nicht auf einzelne Speicherzellen zugreifen, sondern
NAND wird in großen Datenspeichern in kommerziellen
immer nur die ganze Leitung herauslesen kann. Man muss
Systemen genutzt, weil damit kompaktere, schnellere und
die Daten also blockweise lesen. Dabei bedient man sich
preiswertere Speichersysteme gebaut werden können. Im
der page- und blockorientierten Arbeitsweise. Eine Page
NOR-Speicher sind die Speicherzellen parallel auslesbar,
besteht aus 512 bzw. 2.048 Bytes, die ihrerseits wieder zu
daher sind solche Speicher bei einem überwiegenden Lese
Blöcken zusammengefasst werden, die zwischen 16 und
betrieb besonders schnell und z. B. als Programm- oder
128 KB liegen.
Codespeicher sehr gut geeignet. NAND-Speicherzellen kön nen dichter gepackt werden. Dabei sind aber viele Spei
Wie bereits ausgeführt, kann man ein erneutes Beschreiben
cherzellen in Reihe geschaltet. Daher ist der wahlweise
eines Speicherbereichs, also einer Page, nur dann durch
Lesezugriff langsamer. Löschen und Schreiben gehen bei
führen, wenn man sie zuvor löscht. Da die Datenzellen seri
NAND-Speichern schneller, wenn blockweise gearbeitet
ell geschaltet sind, muss man gleich den ganzen Block
wird. Die Speicherdichten bei NAND- und NOR-Techniken
löschen, in dem sich die jeweilige Page befindet.
für Einbit-Zellen unterscheiden sich. Üblicherweise verwen det NAND Einbit-Zellen und NOR Mehrbit-Zellen. Allerdings
Man verwendet NAND-Flashs in jenen Bereichen, wo
gibt es beide Techniken inzwischen auch in Mehrbit-Varian
relativ viel Speicher gebraucht wird und das Flash-Module
ten mit zwei, drei oder vier Bits in einer Zelle. Generell sind
klein und sehr kompakt gebaut sein soll. Etwas nachteilig
Mehrbit-Zellen langsamer und störanfälliger als Einbit-Zel
sind die langsameren Zugriffszeiten im Vergleich zur
len. Mehrbit-Zellen (Multi Level Cell) haben dieselbe Zell
NOR-Architektur.
größe und die Bits in der Zelle werden durch unterscheid bare Spannungspegel definiert. Das erklärt die Kostenreduktion
NAND-Speicher oder auch SLC-Flash genannt (Single Level
von MLC-Speichern gegenüber dem SLC-Speicher (Single
Cell) haben sich aufgrund ihrer hohe Speicherdichte und
Level Cell). Allerdings gibt es immer wieder Schwierigkeiten,
der kostengünstigen Produktionsweise gegenüber NOR-
die geringen Spannungsunterschiede präzise auszulesen.
Speichern weitgehend durchgesetzt.
Deshalb sollte beim heutigen Stand der Technik im professio nellen IT-Betrieb aus Zuverlässigkeits- und Geschwindig
NOR-Architektur
keitsgründen SLC-Flash in NAND-Technik eingesetzt werden.
Als Gegenstück zum NAND-Speicher existiert der sogenannte NOR-Speicher. Wie der Name schon vermuten
Lebensdauer
lässt, besteht dieser Speichertyp anstatt aus NAND aus
Aufgrund ihrer Funktionsweise sind FLASH-Speicher nicht
NOR-Gattern (Not OR). Dabei ergibt sich auch der Umstand,
unbegrenzt haltbar. Jeder Schreib- und Löschvorgang ver
dass die Speicherzellen eines NOR-Flashs parallel zuein
ursacht einen gewissen Verschleiß in den Oxidschichten
ander geschaltet sind, wodurch ein paralleler und somit
der Zellen, sodass die Hersteller von Flash-Speicherkarten
wahlfreier Zugriff möglich wird. Man muss also beim Lesen
eine Art Mindesthaltbarkeit für ihre Produkte angeben, die
nicht Block für Block vorgehen.
auf der Anzahl der durchgeführten Löschzyklen basiert.
Der parallele NOR-Flash verfügt über geringere Speicher
Bei NAND (SLC) beträgt dieser Wert 100.000 Zyklen, bei
dichte und ist vergleichsweise teuer, führt aber Abrufvor
NOR (MLC) nur 10.000 Zyklen. Dabei wird immer ein
gänge wesentlich schneller aus. NOR-Speicher werden
großzügiger Sicherheitspuffer mit einkalkuliert, d. h., NAND-
auch als MLC-Speicher (Multi Level Cell) bezeichnet und
Speicherkarten können in der Regel auch nach einer Million
können aufgrund ihrer „Gitter“-Struktur flexibl angesprochen
und mehr Löschzyklen funktionsfähig sein.
werden. Durch ihren Aufbau verfügen sie verglichen mit NAND-Speichern über relativ wenig Speicherplatz, da durch die Parallelität einfach mehr Platz beansprucht wird.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
283
Technologie-Anhang
Eine Art Defektmanagement erhöht zusätzlich die Lebens
RAM – Random Access Memory
dauer von Flash-Speicherkarten. Sobald der Verschleiß
RAM ist die Abkürzung für Random Access Memory. RAM
innerhalb eines Blocks die Integrität der Daten beeinträch
wird auch als Arbeitsspeicher oder Hauptspeicher bezeich
tigt, wird dieser Block als defekt gekennzeichnet und die
net und ist ein Speichertyp, dessen Speicherzellen über ihre
dort abgelegten Daten auf einen Reserveblock umgelagert.
Speicheradressen direkt angesprochen werden können. In
Diese Blockverwaltung kümmert sich zudem von Anfang an
diesem Zusammenhang wird auch von „wahlfrei“ gespro
um eine gleichmässige Verteilung der Schreibzugriffe, damit
chen, was sich auf „random“ bezieht und nichts mit „Zufall“
die Blöcke möglichst gleichmässig und einheitlich abge
oder „zufälligem Zugriff“ zu tun hat. In diesem Zusammen
nutzt werden.
hang spricht man von „Speicher mit wahlfreiem Zugriff“ oder „Direktzugriffsspeicher“.
Steuerung Die Steuerung, die das Defektmanagement durchführt, hat
RAM erlaubt den Zugriff auf jede einzelne Speicherzelle
maßgeblichen Einfluss auf die Leistungsfähigkeit einer
sowohl lesend, wie auch schreibend. RAM Speicher benöti
Flash- Speicherkarte. Sie kümmert sich neben der Wartung
gen immer Stromzufuhr. Wird die Stromversorgung abge
der Flash-Zellen vor allem um die Kommunikation der Spei
schaltet, gehen die Daten im RAM verloren.
cherkarte mit dem Endgerät und ist damit maßgeblich für die Datentransferraten verantwortlich, die beim Lesen von
RAM wird in Computer- und Mikrocontroller-Systemen als
und beim Schreiben auf eine Flash-Zelle erreicht werden.
Arbeitsspeicher eingesetzt. In diesen Arbeitsspeichern wer
Die Zugriffszeiten liegen bei etwa 100 µs, die Lesege
den Programme und Daten von externen Speicherträgern
schwindigkeit liegt bei 25 MB/s und geht bis über 50 MB/s.
und Festplatten geladen. Zur schnellen Verarbeitung kann der Prozessor darauf zugreifen, verarbeiten und danach
Neben der Geschwindigkeit ist auch die Zuverlässigkeit
wieder in den Arbeitsspeicher schreiben.
bei der Datenkommunikation sowie das Protokoll, das für ein reibungsloses An- und Abmelden der Speicherkarte
Kurzgeschichte
beim Betriebssystem sorgt, Sache der Steuerung. Für diese
Die Entstehung des Begriffs geht in die Anfangszeit der
Steuerung werden Controller eingesetzt.
Computer zurück, bei denen alle Daten auf sequenziell zu lesenden Speicherformen wie Lochkarten, magnetischen
Bei den meisten heute verfügbaren Speicherkarten ist der
Trommelspeichern und Magnetbändern vorlagen, die zur
Controller in der Datenträgereinheit integriert, bei einigen
Verarbeitung in schnelle Rechenregister geladen wurden.
Modellen wird er aber auch extern eingesetzt, um eine noch
Um Zwischenergebnisse schneller als diese blockorien
kompaktere Bauform zu erreichen. Der Nachteil der exter
tierten Geräte bereitzuhalten, wurden zeitweise Verzöge
nen Variante liegt darin, dass außen liegende Controller oft
rungsleitungen (engl. delay line) für Zwischenwerte einge
mals mehr als ein Kartenmodell verwalten müssen und nicht
setzt, bis dann die Ferritkernspeicher eingeführt wurden.
optimal auf die Anforderung jedes einzelnen abgestimmt
Diese beschreibbaren Speicher hatten schon die gleiche
sind. Leistungsverlust und Kompatibilitätsprobleme können
Form des Matrixzugriffs wie heutige RAMs. Zu jener Zeit
dann die Folge sein.
waren die schnellen Speichertypen alle beschreibbar und die wesentliche Neuerung bestand im wahlfreien Zugriff der
Ausblick
magnetischen Kernspeicher und der dann auf Halbleiter
Man geht heute von einer Zeitspanne von vier bis fünf Quar
speichern aufsetzenden RAM-Bausteine.
talen zwischen zwei Flash-Generationen aus, bei der die
284
Kapazität mindestens um 50 % gesteigert oder in vielen
Funktionsweise
Fällen verdoppelt werden kann. Dies kann in den nächsten
RAMs sind Halbleiter-Speicher und es gibt prinzipiell zwei
Generationen ähnlich weitergehen, die Kurve könnte aber
Arten von RAM: SRAM als statisches RAM und DRAM als
stark abflachen! Deshalb wird bereits heute an neuen und
dynamisches RAM. Bei statischen RAMs wird die Informa
anderen Flash-Speichertechniken gearbeitet. IDC erwartet,
tion in rückgekoppelten Schaltkreisen (sogenannten Flip
dass der Einsatz von Flash-Speichern in mobilen PCs von
flops) gespeichert, bei dynamischen RAMs in Kondensa
heute fast 0 auf 20 % im Jahr 2011 steigen wird.
toren, deren Ladung periodisch aufgefrischt wird. Während
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
des Wiederaufladens hat der Prozessor (CPU) keinen Zugriff auf den DRAM. Deswegen arbeiten Computer mit DRAMs oft langsamer als solche mit SRAMs. Die Speicherkapazität der DRAMs liegt jedoch deutlich über den von SRAMs. SRAM ist statisch. Das bedeutet, dass der Speicherinhalt mittels Flipflops gespeichert wird und so nach dem Abruf des Speicherinhalts erhalten bleibt. Dadurch ist der Strom verbrauch sehr hoch, was aber zu einem schnellen Arbeiten innerhalb des Speichers führt. Aufgrund seines hohen Preises und des großen Stromverbrauchs wird SRAM nur als Cache- oder Pufferspeicher mit geringen Kapazitäten verwendet (z. B. L1-, L2- und L3-Cache von großen Rechner systemen). Sein Inhalt ist flüchtig (volatile), d. h., die gespeicherte Information geht bei Abschaltung der Betriebs
trischen und dann auch optischen Eigenschaften zu unter
spannung verloren. In Kombination mit einer Pufferbatterie
suchen.
kann aus dem statischen RAM eine spezielle Form von nicht flüchtigen Speicher-NVRAM realisiert werden, da
Chalkogenide sind chemische Verbindungen aus einem
SRAM-Zellen ohne Zugriffzyklen nur einen sehr geringen
oder mehreren Chalkogen-Elementen wie Sauerstoff,
Leistungsbedarf aufweisen und die Pufferbatterie über
Schwefel, Selen und Tellur, die mit anderen Bindungspart
mehrere Jahre den Dateninhalt im SRAM halten kann.
nern (wie Arsen, Germanium, Phosphor, Blei, Aluminium und andere) Feststoffe mit ionischem oder kovalentem Charakter
DRAM ist im Vergleich einfacher und langsamer. Lange Zeit
bilden. Die Feststoffe treten meist kristallin auf.
war im Computer-Bereich für den Arbeitsspeicher nur dieser eine Speichertyp mit seinen verschiedenen Varianten bekannt.
1968 wurden erstmals Phase Change Memories als mög liches Speichermedium in Betracht gezogen. Jedoch war zu
Eine DRAM-Speicherzelle besteht aus einem Transistor und
diesem Zeitpunkt die Technologie noch nicht so weit, um mit
einem Kondensator, der das eigentliche Speicherelement
anderen Speichermedien wie DRAM und SRAM mitzuhalten.
ist. Die Informationen werden in Form des Ladezustands eines Kondensators gespeichert. Dieser sehr einfache
Die Chalkogenide wurden jedoch speziell in der optischen
Aufbau macht die Speicherzelle zwar sehr klein, allerdings
Speicherung weiter erforscht und fanden mit der CD-/DVD-
entlädt sich der Kondensator bei den kleinen möglichen
RW ihren Markt. Dabei wird mit einem Laser ein Punkt auf
Kapazitäten durch die auftretenden Leckströme schnell, und
einer CD erhitzt, sodass dieser seinen Zustand ändert
der Informationsinhalt geht verloren. Daher müssen die
(amorph zu kristallin und wieder zurück).
Speicherzellen regelmäßig wieder aufgefrischt werden. Im Vergleich zum SRAM ist DRAM wesentlich preiswerter.
Erst als im Zuge dieser Entwicklungen Materialien entdeckt
Deshalb verwendet man DRAM vornehmlich für den Arbeits
wurden, die bezüglich Schreibzeiten und -strömen in inte
speicher eines PCs.
ressante Regionen kamen, bekam auch die Phase-ChangeRAM-Entwicklung wieder Fahrt.
Phase Change Memories (PCM) – Phasenwechselspeicher Schon in den 1920er-Jahren wurde beobachtet, dass sich
Beim Phase Change Memory wird das Chalkogenid im
die elektrische Leitfähigkeit durch eine Strukturänderung
Gegensatz zur optischen Anwendung mit einem Stromim
an einem Chalkogenid verändert. In den 1950er-Jahren
puls zur Phasenänderung angeregt. Durch das Wechseln
erforschte man die Halbleitereigenschaften kristalliner und
des Zustands ändert sich der elektrische Widerstand. Dabei
amorpher Chalkogenide. In den 1960er-Jahren fing man an,
kann zwischen zwei oder auch mehr Zuständen unterschie
reversible phasenwechselnde Materialien auf ihre elek
den werden und damit noch mehr in einer Zelle gespeichert werden.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
285
Technologie-Anhang
PCM – Funktionsweise
„Gemeinsam ist es uns jetzt gelungen, ein neues Material
Im Inneren eines Phase-Change-Speichers befindet sich
für Phase-Change-Speicher zu entwickeln, das auch
eine winzige Menge einer Halbleiterlegierung, die schnell
bei extremer Miniaturisierung hohe Leistung bietet“, sagt
zwischen einer geordneten kristallinen Phase mit einem
Rolf Allenspach, Leiter der Gruppe Nanophysik am IBM
niedrigeren elektrischen Widerstand und einer ungeord
Forschungslabor Rüschlikon bei Zürich.
neten amorphen Phase mit einem viel höheren elektrischen Widerstand wechseln kann. Da die Aufrechterhaltung beider
NAND-Flash ist derzeit zwar weiterhin im Kommen, jedoch
Phasenzustände keine Stromzufuhr erfordert, ist der
ist die Technologie noch teuer, die Kapazitäten für einen
Phasenwechselspeicher nicht flüchtig.
alleinigen Einsatz in Computern zu gering und sie machen bereits nach 100.000 Lese- und Schreibzyklen schlapp.
Der Phasenzustand des Materials wird durch die Amplitude
Diese relativ schnelle Materialermüdung ist zwar bei Com
und Dauer des elektrischen Stromstoßes bestimmt, der für
sumer-Anwendungen unproblematisch, sie disqualifiziert die
die Erwärmung des Materials genutzt wird. Wenn die Tem
Module jedoch für den Einsatz als Haupt- sowie Pufferspei
peratur der Legierung bis etwas über den Schmelzpunkt
cher in Network- oder Storagesystemen. Auf den Markt
erhöht wird, verteilen sich die durch Energiezufuhr ange
drängen auch vermehrt Hybrid-Lösungen, die eine her
regten Atome in einer zufälligen Anordnung. Wird die Strom
kömmliche Harddisk mit Flash-Modulen kombinieren, um
zufuhr dann abrupt unterbrochen, erstarren die Atome in
einen schnelleren Datenzugriff zu ermöglichen.
dieser willkürlich angeordneten, amorphen Phase. Wird die Stromzufuhr über einen längeren Zeitraum – ungefähr 10
Die Flash-Memory-Technik dürfte ein künftiges Opfer der
Nanosekunden – reduziert, bleibt den Atomen genug Zeit,
Miniaturisierung werden. Neue Produktionsprozesse
um in die bevorzugte, gut geordnete Struktur der kristallinen
machen in Chips zwar immer kleinere Leiterbahnen möglich,
Phase zurückzukehren.
beim Flash-Speicher ist nach aktuellen Forschungen jedoch bei 45 Nanometer Schluss. Darunter verhindern Streuver
PCM versus Flash
luste, dass sich ohne Stromzufuhr noch Daten speichern
PCM schließt technologisch dort an, wo NAND-Flash an die
lassen.
Grenzen der Machbarkeit stößt. Nach Ansicht vieler Exper ten stehen der Flash-Technologie wegen ihrer beschränkten
Die PCM-Module hingegen soll Produktionsprozesse bis
Skalierbarkeit in naher Zukunft bereits große Probleme
20 Nanometer und sogar darunter ermöglichen. Die theore
bevor.
tische Grenze der Skalierbarkeit von PCMs liegt bei unter 5 Nanometer. Dabei verwenden die Entwickler für ihre
In den Almaden-Forschungslabors von IBM wurde in
Speicher als neues Material eine Germanium-Legierung.
Kooperation mit Macronix und Qimoda an neuen Speicher techniken gearbeitet, die Flash-Memories ablösen können.
PCM – klein und universell einsetzbar
Die „Phase Change Memory“-Technologie (PCM) ermöglicht
Zusammen mit hoher Leistung und Zuverlässigkeit könnte
bei kleineren Baugrößen deutlich höhere Geschwindig
PCM daher zur Basistechnologie für Universalspeicher in
keiten. So verbessern sich die Eigenschaften von PCMs mit
mobilen Applikationen werden, denn Phasenwechelspeicher
kleiner werdender Größe. Es wird weniger Strom benötigt,
sind wie Flash nicht flüchtig. Das bedeutet, sie merken sich
da weniger Material erhitzt werden muss, und es erhöht sich
die Informationen auch dann, wenn kein Strom zugeführt
aufgrund der kleinen Wege die Geschwindigkeit. Alles
wird. Darüber hinaus weist der PCM-Prototyp von IBM sehr
Vorteile, die mit dem Kleinerwerden von PCM-Zellen erzielt
vorteilhafte technische Werte auf: Er ist 500 Mal schneller
werden können. Allerdings schrumpft auch der elektrische
beschreibbar und benötigt dabei nur die Hälfte an Energie.
Widerstand mit dem Kleinerwerden der Zellen und es wird dadurch schwieriger, die Zustände voneinander zu unterscheiden. Deshalb ist es wichtig, hier eine gute Balance zu finden.
286
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Zudem seien deutlich mehr Lese- und Schreibzyklen mög
schied: mithilfe der eingesetzten Technologie lassen sich Bits
lich und die Bauelemente sind mit einem Querschnitt von
löschen und überschreiben. Winzige Hebelchen mit einer
drei mal 20 Nanometer erheblich kleiner als die kleinsten
feinen Spitze aus Silizium schmelzen ebenso winzige Vertie
heute herstellbaren Flash-Speicher. „Sobald die Skalierbar
fungen in ein Polymer-Medium, um Bits zu schreiben.
keit von Flash endgültig an ihre Grenzen stößt, wird sich
Dieselben Spitzen kann man auch verwenden, um diese Ver
eine neue Technik wie PCM durchsetzen“, ist Allenspach,
tiefungen nachzuweisen, also die Bits wieder auszulesen.
vom IBM Labor in Zürich, überzeugt. Dies könnte schon
Dazu bringt man die Spitze in die Nähe des Polymerfilms
bald möglich werden.
und erwärmt sie. Taucht die Spitze in einen Bit-Krater, erhöht sich der Wärmeaustausch zwischen ihr und dem Speicher
Heutige PCMs sind etwa 30 Mal schneller im Vergleich zu
medium, wodurch der elektrische Widerstand des Hebel
Flash und bewegen sich im Bereich von 100 bis 200
chens, auch Kantilever genannt, abnimmt. Um ein Bit wie
Nanometer. Betrachtet man aber die schnelle Entwicklung
der zu überschreiben, erzeugt man mit der Spitze auf dem
bzgl. Schreib- und Lesegeschwindigkeit, eignet sich PCM
Kraterrand neue Vertiefungen, deren Ränder die alte Vertie
auch als Ersatz für heute übliches RAM. Mit PCM als Ersatz
fung überlappen und so das Polymer-Material in Richtung
von RAM würde das bisherige Booten von Computern
Krater drängen.
entfallen, allerdings könnten sich Sicherheitsprobleme ergeben, da die PCMs nicht flüchtig sind (man könnte die
Weil die Löcher so enorm klein sind, kann man sie sehr dicht
vertraulichen Daten im RAM wie z. B. Passwörter etc.
nebeneinandersetzen und so fantastische Datendichten er-
auslesen). Zudem hat PCM viel weniger Abnutzungser
reichen: Mit revolutionärer Nanotechnologie ist es IBM Wis
scheinungen, wie sie etwa bei Flash durch den Verschleiß
senschaftlern im Forschungslabor Rüschlikon gelungen, in
der Oxidschicht am Floating Gate auftreten. PCM bietet
den Bereich der Millionstelmillimeter vorzudringen. So konnte
also eine lange Datenhaltbarkeit sowie einen nicht allzu
bei der Speicherung von Daten eine Aufzeichnungsdichte
hohen Energieverbrauch beim Betrieb.
von 1 Terabit pro Quadratzoll überschritten werden – was etwa dem Inhalt von 25 DVDs auf der Fläche einer Briefmarke
Millipede-Nano-Technologie
entspricht. Die Terabit-Dichte wurde mit einer einzelnen Sili
Mitte der 90er-Jahre wurde im IBM Grundlagenforschungs
zium-Spitze erreicht, die Vertiefungen mit einem Durchmesser
labor in Rüschlikon das Projekt „Millipede“ gestartet. Das Projekt hatte zum Ziel, Nano-Technologie und Nanospeicher architekturen für die Datenspeicherung zu nutzen und in Speichersubsysteme zu integrieren. Projektleiter in Rüschli kon war der IBM Mitarbeiter Peter Vettinger und die techno logisch treibende Kraft war der IBMer und Nobelpreisträger Gerd Binnig. Die Entwicklung von Millipede brachte IBM viele neue Patente im Bereich der Nano-Technologie und Nano-Mechanik ein und ergab viele neue Erkenntnisse über Polymerstrukturen und die Möglichkeit, Kunststoffe als Datenträger einzusetzen. Die Millipede-Entwicklung ist des halb für zukünftige Technologien von maßgeblicher Bedeu tung. Deshalb wurde das Projekt Millipede mit großem finanziellem Aufwand bis ins Jahr 2007 aktiv weitergetrieben. Grundprinzip Das Grundprinzip ist simpel und ist mit dem der früheren Lochkarte vergleichbar, nun aber mit Strukturgrößen im Bereich von Nanometern. Ein weiterer entscheidender Unter
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
287
Technologie-Anhang
von ca. 10 Nanometern erzeugt. Um die Datenrate, also die
jeder „Zunge“ befinden sich ein Sensor zum Lesen und ein
Schreib- und Lesegeschwindigkeit, zu erhöhen, wird nicht
Widerstand oberhalb der Spitze zum Schreiben. Die Spitze ist
nur eine Spitze verwendet, sondern eine ganze Matrix von
knapp 1 Mikrometer lang und der Radius beträgt nur wenige
Hebelchen, die parallel arbeiten. Die neue Version verfügt
Nanometer. Die Zellen mit den Kantilevern sind auf einem
über mehr als 4.000 solcher Spitzen, die in einem kleinen
Kantilever-Array-Chip angeordnet. Der Chip ist 7 x 14 mm
Quadrat von 6,4 Millimetern Seitenlänge angeordnet sind.
groß. Im Zentrum sitzt das Array, das momentan aus insge
Diese Dimensionen ermöglichen es, ein komplettes Speicher
samt 4.096 (64 x 64) Kantilevern besteht, die aus dem Sili
system hoher Kapazität in das kleinste standardisierte Format
zium herausgeätzt sind. Der eigentliche Datenträger besteht
für Flash-Speicher zu packen.
aus einem nur wenige Nanometer dünnen Polymerfilm auf einem Silizium-Substrat. Über Multiplexer einzeln angesteuert
Ein Kantilever im Millipede schreibt und liest aus einer ihm
lesen, schreiben oder löschen die Köpfe das gewünschte
zugeordneten rund 100 mal 100 Mikrometer kleinen Zelle.
Bit. Bis zu 100.000 Schreib- und Überschreib-Zyklen sind
Während sich beispielsweise bei Festplatten der Schreib- und
bisher erfolgreich getestet worden. Obwohl in der Konstruktion
Lesekopf und auch das Speichermedium bewegen, wird beim
Mechanik eingesetzt wird, kann die Übertragungsgeschwin
Millipede-Speicher nur das Medium bewegt. Zwei winzige
digkeit von bis zu 20 bis 30 Megabit pro Sekunde erreicht
Spulen, die zwischen Magneten platziert sind, treiben die
werden (beim Chip der 2. Generation mit 64 x 64 Tips).
Bewegung des Plättchens an: Der Mikroscanner kann mit einer Genauigkeit von bis zu 2 Nanometern positioniert
Mikroscanner
werden. Aus der überlappenden Fläche von streifenförmigen
Die Bewegung des Speichermediums relativ zu dem
Sensoren kann man die Position jederzeit präzise bestimmen.
Kantilever-Array wird mithilfe des siliziumbasierten x/yMikroscanners realisiert. Der Scanner besteht aus ca.
288
Kantilever-Array
6,8 x 6,8 mm² Scan Table, der das Polymer-Medium und
Kern der Millipede-Technologie ist eine zweidimensionale
zwei elektromagnetische Auslöser trägt. Der Scanner-Chip
Anordnung von v-förmigen Silizium-Federzungen (Kantilever),
wird auf der Siliziumplatte montiert, die als mechanischer
die 70 Mikrometer (Tausendstelmillimeter) lang sind. Am Ende
Grund des Systems dient. Der Abstand zwischen seiner
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Oberfläche und der Oberfläche von beweglichen Teilen des
„Fällt“ nun die Spitze in eine Vertiefung, kühlt sich der Lese-
Scanners beträgt ca. 20 µm. Die Scan Table kann durch
Sensor wegen des geringeren Abstands zum Substrat ge-
Auslöser in x-und y-Richtungen um 120 µm bewegt werden.
ringfügig ab, was aber zu einer messbaren Veränderung
Jeder Auslöser besteht aus zwei Permanentmagneten, die
des Widerstands führt. Um Daten zu überschreiben, setzt
in die Siliziumplatte eingebaut sind, und einer kleinen Spule,
die Spitze Vertiefungen in die Oberfläche. Deren äußere
die sich zwischen den Magneten befindet. Um die Vibratio
Ränder überlappen die alten Vertiefungen und löschen so
nen von außen zu löschen, wird ein sogenanntes Pivot ver
die alten Daten. Mehr als 100.000 Schreib- und Überschreib-
wendet, das mit den Auslösern gekoppelt ist.
Zyklen haben den Nachweis erbracht, dass sich das Kon zept für einen wiederbeschreibbaren Speichertyp eignet.
Positionsbestimmung Die Informationen über die Positionierung werden durch vier
Um die Daten schneller in den Speicher und wieder hinaus
thermische Sensoren zur Verfügung gestellt. Diese Sensoren
zu bekommen, bearbeitet eine komplette Matrix-Anordnung
befinden sich direkt über der Scan Table, auf dem Kantilever-
an Hebelchen das Medium gleichzeitig. Es stellte sich aller
Array. Die Sensoren haben thermisch isolierte Erhitzer. Jeder
dings heraus, dass es enorm schwierig ist, Mechanik und
Sensor wird über einen Rand der Scan-Tabelle in Position
Elektronik in einem Stück auf einem Chip zu fertigen. Die
gebracht und wird durch Strom erhitzt. Ein Teil dieser Wärme
Wissenschaftler entschlossen sich also, den Aufbau in zwei
wird durch die Luft auf die Scan Table geleitet, die nun
Stücken zu realisieren:
als Kühler dient. Eine Versetzung der Scan Table verursacht eine Änderung der Effizienz dieses Kühlsystems, was
1. Die Matrix der Mikrospitzen wird mit winzigen Kontaktstif-
zur Änderung der Temperatur des elektrischen Widerstands
ten versehen, die unter dem Elektronenmikroskop ausse-
vom Erhitzer führt.
hen wie die Noppen von Lego-Steinchen. 2. Diese Studs werden dann mit den Gegenstücken auf der
Ein raffiniertes Design gewährleistet die exakte Nivellierung
elektronischen Platine kontaktiert.
der Spitzen über dem Speichermedium und dämpft Vibra tionen und Stöße von außen. Zeitmultiplexing-Elektronik, wie
Mit den gezeigten Prototypen wurde unlängst die technische
sie in ähnlicher Art in Speicherchips (DRAM) verwendet wird,
Machbarkeit eines Produktes etwa hinsichtlich Speicher
ermöglicht die Adressierung jeder einzelnen Spitze im Parallel
dichte, Leistung und Verlässlichkeit demonstriert. Während
betrieb. Elektromagnetische Aktuation bewegt das Substrat
die heute eingesetzten Speichertechnologien allmählich an
mit dem Speichermedium auf dessen Oberfläche sehr präzise
fundamentale Grenzen stoßen, hat der nanomechanische
in x- und y-Richtung, sodass jede Spitze in ihrem Speicher
Ansatz ein enormes Entwicklungspotenzial für eine tausend
feld von 100 Mikrometern Seitenlänge lesen und schreiben
fach höhere Speicherdichte. Dieser nanomechanische Daten
kann. Die kurzen Distanzen tragen wesentlich zu einem
träger entwickelt nahezu keine Wärme, nimmt nur wenig
geringen Energieverbrauch bei.
Strom auf und ist völlig schockresistent.
Für die Funktionen des Gerätes, d. h. Lesen, Schreiben,
Millipede-Projektphasen
Löschen und Überschreiben, werden die Spitzen mit dem
Während der gesamte Projektlaufzeit wurden Chips in drei
Polymerfilm auf dem Siliziumsubstrat in Kontakt gebracht.
Generationen entwickelt. Der letzte fertiggestellte Chip im Jahr 2007 arbeitet mit 128 x 128 Tips, hat eine kapazitive
Schreibtechnologie
Speichermöglichkeit von 160 Gbytes und eine Datenrate
Das Schreiben von Bits erfolgt durch Aufheizen des in den
von 120 Mbit/s. IBM überlegt derzeit, wie und auf welche
Kantilever integrierten Widerstands auf typischerweise 400
Weise Millipede-Chips sinnvoll zum Einsatz kommen können.
Grad Celsius. Die dadurch ebenfalls aufgeheizte Spitze weicht
Es bleibt also spannend, auf welche Weise Nano-Techno
das Polymer auf, sinkt ein und hinterlässt eine Vertiefung
logien und Nano-Mechanik in die Welt der Datenspeicherung
von wenigen Nanometern. Zum Lesen wird der Lese-Sensor
Einzug halten werden.
des Kantilevers erhitzt, ohne den Polymerfilm aufzuweichen.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
289
Technologie-Anhang
Revolutionäre Speichertechnologie aus der IBM Forschung rückt
Stuart Parkin war es zu verdanken, dass der GMR-Effekt
näher an die Realisierung
(Plattentechnologie, siehe unter GMR) zu einem Produkt in Form eines GMR-Lesekopfes umgesetzt wurde, und er
„Racetrack Memory“ eröffnet neue Dimensionen in
benötigte sieben Jahre dazu. Ihm und seinem Team ist es
Speicherdichte, Geschwindigkeit und Zuverlässigkeit
zu verdanken, dass die hohen Festplattenkapazitäten heute
11. April 2008: IBM Forscher berichten im renommierten
möglich wurden. Der Autor findet es nicht richtig, dass
Wissenschaftsjournal Science über einen Durchbruch in der
Stuart Parkin bei der Vergabe des Nobelpreies für Physik im
Erforschung einer neuen Speichertechnologie, die unter
Jahr 2007 unberücksichtigt blieb, zumal der Nobelpreis an
dem Namen „Racetrack“ (deutsch: Rennstrecke) bekannt
drei Personen hätte verliehen werden können. Mit Racetrack
geworden ist. Die Technologie könnte eine neue Klasse von
Memories wird er wirkliche Geschichte im Speicherbereich
Speichern hervorbringen, die die hohe Leistungsfähigkeit
schreiben! Davon ist der Autor überzeugt!
von Flash-Speichern mit der großen Kapazität und den nied rigen Kosten von Festplattenspeichern auf sich vereint.
Universalspeicher der Zukunft Das revolutionäre Konzept beruht auf der Speicherung von
In der aktuellen Ausgabe von Science beschreiben IBM
Informationen in Form von winzigen, gegensätzlich magneti
Fellow Stuart Parkin und seine Kollegen vom IBM Almaden
sierten Regionen (Domänen) in einem Nanodraht. Bei der
Research Center, USA, einen bedeutenden Schritt in der
herkömmlichen als Speichermedium verwendeten Festplatte
Entwicklung von Speicherbausteinen auf Basis des „Race
werden das Medium und ein Schreib-/Lesekopf bewegt, um
track-Verfahrens“. Innerhalb der nächsten zehn Jahre
Daten zu lesen, zu schreiben oder zu löschen. Anders beim
könnte die Technologie zum Einsatz kommen und neue
„Racetrack-Verfahren“: Hier werden die magnetischen Domä
Größenordnungen von Speicherkapazitäten eröffnen, ein
nen zu den zentralen Lese- und Schreibeinheiten, die in der
extrem schnelles Einschalten von elektronischen Geräten
Mitte des Nanodrahtes angebracht sind, hin verschoben –
ermöglichen und dabei wesentlich kostengünstiger,
und dies mit extrem hoher Geschwindigkeit. Die gespeicherten
energieeffizienter und robuster als heutige Systeme sein.
Datenbits scheinen durch den Datenleiter zu „rasen“, daher der Name „Racetrack“.
Stuart Parkin, IBM Fellow und einer der größten Speicher-Forscher und Entwickler bei IBM
290
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Da ein einzelner ‘Racetrack’ nur wenige Nanometer groß ist und zwischen 10 und 100 Bits speichern kann, erlaubt die Technologie extrem hohe Speicherdichten. Im Vergleich zu Flash-Speichern könnte ein ‘Racetrack-Speicher’ eine 100mal größere Datenmenge auf derselben Fläche aufzeichnen. Das entspräche rund 500 000 Musiktiteln oder 3 500 Filmen. Durch den minimalen Stromverbrauch eines ‘RacetrackSpeichers’ könnte ein MP3-Gerät zudem wochenlang mit einer einzigen Batterie betrieben werden. Darüber hinaus benötigt das Verfahren keine beweglichen Teile, wodurch nahezu keine Abnutzungs- oder Verschleiß erscheinungen auftreten. Das macht den ‘Racetrack-Speicher’ widerstandsfähiger als alle existierenden Speichertechnolo gien und verleiht ihm eine quasi unbegrenzte Lebensdauer. „Die Verbindung zwischen der Erforschung von neuen physikalischen Phänomenen, die auf der molekularen und ato maren Ebene auftreten, und dem Nano-Engineering – der Fähigkeit, gezielt Materialstrukturen aus einzelnen Atomen
Schematische Darstellung der Racetrack-Memory-Speicherung
Da ein einzelner „Racetrack“ nur wenige Nanometer groß ist und zwischen 10 und 100 Bits speichern kann, erlaubt die
Bereits mehrmals in der Geschichte der IBM wurden
Technologie extrem hohe Speicherdichten. Im Vergleich zu
durch radikale technische Innovationen, die in der Grund
Flash-Speichern könnte ein „Racetrack-Speicher“ eine 100-
lagenforschung ihren Anfang nahmen, neue Märkte und
mal größere Datenmenge auf derselben Fläche aufzeichnen.
Anwendungsfelder erschlossen. Hierzu zählen etwa der
Das entspräche rund 500.000 Musiktiteln oder 3.500 Filmen.
Memory Chip, die relationale Datenbank oder die Festplatte.
Durch den minimalen Stromverbrauch eines „RacetrackSpeichers“ könnte ein MP3-Gerät zudem wochenlang mit
Die „Racetrack-Methode“
einer einzigen Batterie betrieben werden. Seit rund 50 Jahren versuchen Wissenschaftler, digitale Darüber hinaus benötigt das Verfahren keine beweglichen
Informationen durch sogenannte magnetische Domänen
Teile, wodurch nahezu keine Abnutzungs- oder Verschleiß
wände – die Grenzflächen zwischen zwei gegensätzlich
erscheinungen auftreten. Das macht den „Racetrack-Speicher“
magnetisierten Regionen in einem magnetischen Material –
widerstandsfähiger als alle existierenden Speichertechnolo
zu speichern. Bis jetzt war die Manipulation von Domänen
gien und verleiht ihm eine quasi unbegrenzte Lebensdauer.
wänden nur durch kostspielige, komplexe und energie intensive Verfahren möglich.
„Die Verbindung zwischen der Erforschung von neuen physikalischen Phänomenen, die auf der molekularen und
In ihrer nun veröffentlichten Arbeit „Current-Controlled
atomaren Ebene auftreten, und dem Nano-Engineering –
Magnetic Domain-Wall Nanowire Shift Register“ demonstrie
der Fähigkeit, gezielt Materialstrukturen aus einzelnen
ren Parkin und seine Teamkollegen eine neue, sehr effiziente
Atomen und Molekülen zu erschaffen – birgt immer neue,
Methode. Hierbei werden die Domänenwände durch einen
spannende Herausforderungen“, erklärt Stuart Parkin.
spinpolarisierten Strom bewegt, der die Magnetisierung in
Er führt weiter aus:
der Wand drehen kann. Ursache hierfür ist der SpintransferEffekt, der die Speichertechnologie erheblich vereinfacht,
„Ein Ausschöpfen des Potenzials, das in unserer
weil der Strom direkt durch die Domänenwände fließt und
„Racetrack-Technologie“ liegt, könnte zu faszinierenden
keine zusätzlichen Magnetfelder generiert werden müssen.
neuen Anwendungen führen – Anwendungen, die heute noch unvorstellbar sind.“ 1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
291
Technologie-Anhang
In der zweiten Arbeit „Magnetic Domain-Wall Racetrack Memory“ fassen die Forscher die Grundprinzipien der „Racetrack-Technologie“ zusammen. Diese beruht auf der Speicherung von Daten in winzigen magnetischen Regionen innerhalb eines Datenleiters. Als Datenleiter verwenden die Forscher kleine Nanodrähte, die magnetisch mit Informati onen beschrieben werden. Diese werden der Länge nach waagerecht oder in Form einer Schlaufe senkrecht auf einer Siliziumfläche angebracht. Wenn eine Spannung angelegt wird, bewegen sich dabei weder die Drähte noch das Silizium, sondern nur die magnetischen Domänenwände, in denen die Information gespeichert wird. Jede magnetische Domäne, die ein Bit repräsentiert, verfügt über einen „Head“, einen magnetischen Nordpol, und einen „Tail“, einen magnetischen Südpol. Die Domänenwände, die sich an den Grenzflächen formen, wechseln sich so im Datenleiter zwischen „Head-to-Head“- und „Tail-to-Tail“Konfigurationen ab. Die Abstände zwischen zwei hinterei nander folgenden Domänenwänden gleichen der Bit-Länge und werden durch Markierungen entlang des Nanodrahtes, so genannte Pinningzentren, bestimmt. In ihrem Experiment verwendeten die Forscher Nanodrähte aus Permalloy (einer FeNi-Legierung) und zeigten, wie sie Domänenwände gezielt kreieren, verschieben und aus lesen, indem sie Stromimpulse von präzise kontrollierter Dauer im Nanosekundenbereich verwenden. Der Schreibund Verschiebezyklus benötigt gerade einmal einige 10 Nanosekunden.
Stuart Parkin darf sich zu Recht freuen, er hat es geschafft und Racetrack kann die Welt verändern
Ziel ist es, viele Tausende dieser Nanodraht-Speicher, die zwischen 10 und 100 Bits speichern können, dicht auf einer Fläche anzuordnen. Die senkrechte Anordnung von Nano drähten eröffnet zudem neuartige dreidimensionale Archi tekturen – ein Paradigmenwechsel im Vergleich zu derzei tigen zweidimensionalen Chip- und Speichertechnologien. Die Ausnutzung der dritten Dimension schafft neue Spiel räume für Leistungssteigerungen und Kostenreduktionen, die nicht mehr nur – wie bis jetzt – durch Miniaturisierung erzielt werden.
292
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
IUPAP Magnetism Award und Louis Neel Medaille
wurde. Das RTM wird generell als das Instrument angese
Am 27 Juli 2009 erhält IBM Fellow Dr. Stuart Parkin eine der
hen, das das Tor zum Nanokosmos öffnete. Das Rasterkraft
höchsten Auszeichnungen, die auf dem Gebiet der Erfor
mikroskop (RKM), das eng mit dem RTM verwandt ist,
schung des Magnetismus vergeben werden. Er wird in
wurde 1986 von Gerd Binnig erfunden.
Karlsruhe auf der „International Conference on Magnetism“ mit dem „International Union of Pure and Applied Physics
Das Rastertunnelmikroskop (RTM) wird im Englischen
Magnetism Award (IUPAP) und der Louis Neel Medaille für
als STM (Scanning Tunnelling Microscope) bezeichnet,
seine fundamentalen Erforschungs- und Entwicklungsergeb
das Rasterkraftmikroskop (RKM) als AFM (Atomic Force
nisse im Bereich des Nano-Magnetismus ausgezeichnet.
Microscope).
Diese Auszeichnung wird durch das IUPAP Magnetism Committee nur alle drei Jahre vergeben. Vor allem wurde
IBM und ETH Zürich gründen neues gemeinsames
er für seine letzten Forschungsergebnisse bezüglich der
Nanotech-Forschungszentrum
Racetrack Memories geehrt. Die Louis Neel Medaille geht
Rund 6.000 Quadratmeter umfasst das neue Nanotech-
zurück auf den Wissenschaftler Louis Eugene Felix Neel,
Forschungszentrum von IBM und ETH Zürich. Die beiden
der 1970 den Nobel-Preis für Physik für die Entdeckung des
Institutionen verbindet eine langjährige Tradition wissen
Antiferromagnetismus erhielt.
schaftlicher Zusammenarbeit. An einer gemeinsamen Medi enkonferenz in Zürich kündigten Ralph Eichler, Präsident der
Nanotechnologie – Schlüsseltechnologie des 21. Jahrhunderts
ETH Zürich, und John E. Kelly, Senior Vice-President und
Nanotechnologie stellt eine neue Technologie dar, die Funk
Direktor für Forschung bei IBM, die geplante Zusammenarbeit
tionen in einem außerordentlich kleinen Maßstab anwendet.
an. Zentrales Element dieser Zusammenarbeit ist ein neues
Sie konzentriert sich auf Strukturen und Prozesse in Dimen
Gebäude, das auf dem Gelände des ZRL in Rüschlikon
sionen unter 100 Nanometer – ungefähr 400-mal dünner als
gebaut wird. Die Grundsteinlegung erfolgt im Frühjahr 2009.
ein menschliches Haar. Im Größenbereich der Nanometer spielen sich viele grundlegende Prozesse der Biologie, Che
Nanoforschung auf dem allerhöchsten Niveau wird das
mie und Physik ab, die in bislang ungekanntem Maß kontrol
neue Forschungszentrum auf dem Campus der IBM in
liert werden können und neue Perspektiven in vielen
Rüschlikon ermöglichen. Das „Nanoscale Exploratory Tech
Bereichen eröffnen. Dazu gehören hochentwickelte funktio
nology Laboratory“ ist Teil einer wichtigen strategischen
nale Materialien, Nanoelektronik, Informations- und Kommu
Partnerschaft in Nanotechnologie mit der Eidgenössischen
nikationstechnologie, Sensorik, Life Sciences sowie Energie
Technischen Hochschule Zürich (ETHZ). Die Forschungsak
technologie. Nanotech-Anwendungen könnten zur
tivitäten werden 2011 aufgenommen.
effizienteren Nutzung von Solarenergie beitragen oder zu neuen Arten der Wasseraufbereitung. Durch die Forschung an der ETH Zürich (Eidgenössische Technische Hochschule) und am IBM Forschungslabor in Rüschlikon ZRL (Zürich Research Laboratory) sind von Zürich immer wieder entscheidende Impulse in der Quan tenmechanik und Nanoforschung ausgegangen. Dies sind zum Beispiel die bahnbrechenden Konzepte der Quanten mechanik durch den ETH-Physiker und Nobelpreisträger Wolfgang Pauli oder die Entwicklung des Rastertunnelmikro skops (RTM) durch Gerd Binnig und Heinrich Rohrer am IBM Forschungslabor in Rüschlikon. Dafür erhielten die Forscher 1986 den Nobelpreis für Physik. Dieses Gerät ermöglichte den ersten Blick in die Welt der Atome. Kurz darauf wurde es möglich, einzelne Atome zu manipulieren,
IBM Forschungsstandort Rüschlikon: neues Labor für Nano-Technologie
wodurch die Tür zur Nanotechnologie weit aufgestoßen
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
293
Technologie-Anhang
Forschungsschwerpunkte der beiden Institutionen reichen
die RKM-Spitze nun sehr nah über der Probe, etwa über
von der Grundlagenforschung bis hin zu angewandter
einem einzelnen Atom, platziert, verändert sich die Reso
Forschung. Gemeinsam wird in verschiedenen Bereichen
nanzfrequenz der Stimmgabel aufgrund der Kräfte, die zwi
geforscht, wie zum Beispiel kohlenstoffbasierte Materialien,
schen Probe und Spitze auftreten.
Nano-Photonics, Spintronics, Nanodrähte und Tribologie. Mit dieser Methode und unter extrem stabilen Bedingungen Neuer Durchbruch in der Nanotechnologie –
konnten die IBM Forscher nun die minimalen Unterschiede
IBM Forscher messen den Ladungszustand von einzelnen
in der Kraft messen, die zwischen Spitze und einzelnen,
Atomen mit dem Rasterkraftmikroskop
unterschiedlich geladenen Atomen herrscht. Die Kraftdiffe
In Zusammenarbeit mit Wissenschaftlern der Universitäten
renz zwischen einem neutralen Goldatom und einem Gold
Regensburg und Utrecht erzielten im Juni 2009 IBM For
atom mit einem zusätzlichen Elektron, beträgt nur etwa
scher einen Durchbruch auf dem Gebiet der Nanotechnolo
11 Piko-Newton, gemessen bei einer minimalen Distanz
gie. Sie konnten zum ersten Mal den Ladungszustand von
zwischen Spitze und Probe von ungefähr einem halben
einzelnen Atomen direkt mittels Rasterkraftmikroskopie
Nanometer. Die Messgenauigkeit dieser Experimente liegt
(RKM) messen. Die Präzision, mit der sie dabei zwischen
im Bereich von 1 Piko-Newton, was der Gravitationskraft
ungeladenen bzw. positiv oder negativ geladenen Atomen
entspricht, die zwei Menschen in einem Abstand von mehr
unterscheiden konnten, betrug eine einzelne Elektronenla
als einem halben Kilometer aufeinander ausüben. Die
dung bei einer nanometergenauen räumlichen Auflösung.
Forscher bestimmten zudem, wie sich die Kraft mit der
Dies eröffnet neue Möglichkeiten für die Erforschung von
zwischen Spitze und Probe angelegten Spannung ver
Nanostrukturen und Bausteinen auf atomarer und moleku
änderte. Dies erlaubte die Unterscheidung, ob das ent
larer Skala in Anwendungsbereichen wie etwa der moleku
sprechende Atom negativ oder positiv geladen war.
laren Elektronik, der Katalyse oder der Photovoltaik. Dieser Durchbruch ist ein weiterer, wichtiger Fortschritt auf Für ihre Experimente verwendeten die Forscher eine Kombi
dem Gebiet der Nanoforschung. Im Gegensatz zum RTM,
nation aus Rastertunnel- (RTM) und Rasterkraftmikroskop
das auf elektrisch leitfähige Proben angewiesen ist, kann
(RKM), betrieben im Ultrahochvakuum und bei tiefen Tem
das RKM auch für nicht leitende Proben verwendet werden.
peraturen (5 Kelvin), um die für die Messungen notwendige
In der molekularen Elektronik, in der die Verwendung von
Stabilität zu erreichen.
Molekülen als funktionale Bausteine in zukünftigen Schalt kreisen und Prozessoren erforscht wird, werden nicht
Ein RKM misst mittels einer atomar feinen Spitze, die auf
leitende Trägersubstanzen (Substrate) benötigt. Deshalb
einem schwingenden Federbalken angebracht ist, die
würde bei solchen Experimenten bevorzugt die Raster
Kräfte, die zwischen dieser Spitze und den Atomen auf dem
kraftmikroskopie zum Einsatz kommen.
Substrat auftreten. In der vorliegenden Arbeit verwendeten die Forscher einen sogenannten qPlus-Kraftsensor, bei dem
„Das Rasterkraftmikroskop mit einer Messgenauigkeit von
die Spitze auf einem Zinken einer Stimmgabel, wie man sie
einer Elektronenladung ist hervorragend dazu geeignet,
in mechanischen Uhrwerken von Armbanduhren findet,
den Ladungstransfer in Molekülkomplexen zu untersuchen,
angebracht ist, während der andere Zinken fixiert ist. Die
was uns wertvolle, neue Erkenntnisse und physikalische
Stimmgabel wird mechanisch angeregt und schwingt mit
Grundlagen liefern könnte und zudem eines Tages zu neuen
einer Amplitude von 0,02 Nanometer. Dies entspricht nur
Bauelementen in der Informationstechnologie führen könnte“,
etwa einem Zehntel des Durchmessers eines Atoms. Wird
erklärt Gerhard Meyer, der die Forschung im Bereich Raster tunnel- und Rasterkraftmikroskopie am IBM Forschungslabor Zürich leitet. Computerbausteine auf der molekularen Skala haben das Potenzial, um Größenordnungen kleiner, schneller und auch energieeffizienter zu sein als heutige Transistoren und Speicherbausteine.
294
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Für zukünftige Experimente können sich die Forscher
In den letzten Jahren wurden in der Charakterisierung von
vorstellen, Verbindungen aus einzelnen metallischen Atomen
Nanostrukturen auf der atomaren Skala mittels Rasterkraft
und Molekülen herzustellen, diese mit Elektronen zu laden
mikroskopie erstaunliche Fortschritte erzielt. Der Blick auf
und deren Verteilung direkt mit dem RKM zu messen.
die innere Struktur eines Moleküls mit atomarer Auflösung
IBM Forscher Leo Gross weist auch auf die Bedeutung ihrer
blieb der Wissenschaft jedoch bis jetzt verwehrt.
Arbeit für andere Bereiche hin: „Ladungszustand und Ladungsverteilung sind kritische Größen in der Katalyse
In der Ausgabe des Wissenschaftsjournals Science vom
und bei der Umwandlung von Licht in elektrische Energie.
28. August 2009 berichten die IBM Forscher Leo Gross,
Das Abbilden der Ladungsverteilung auf atomarer Skala
Fabian Mohn, Nikolaj Moll und Gerhard Meyer sowie Peter
könnte zu einem besseren Verständnis der grundlegenden
Liljeroth von der Universität in Utrecht, wie sie mithilfe eines
Abläufe auf diesen Gebieten führen.“
RKMs die vollständige, chemische Struktur von PentazenMolekülen (C22H14) mit atomarer Auflösung abbilden konn
Die jüngsten Ergebnisse schließen sich einer Reihe grund
ten. Die Experimente wurden im Ultrahochvakuum und bei
legender wissenschaftlicher Durchbrüche an, die IBM
sehr tiefen Temperaturen (5 Kelvin oder –268°C) durchge
Forschern in den letzten Jahren gelungen sind: 2008 gelang
führt. Die erzielten Abbildungen haben in gewisser Weise
es Wissenschaftlern am IBM Almaden Research Center in
Ähnlichkeit mit Röntgenaufnahmen, die einen Blick ins
Kalifornien, mit einem qPlus-RKM erstmals die Kraft zu
Innere des menschlichen Körpers erlauben. Das „RKM mit
messen, die benötigt wird, um ein Atom auf einer Oberfläche
Röntgenblick“ der IBM Forscher kann durch die Elektronen
zu verschieben. Dies bahnte den Weg für die aktuellen
wolke schauen, die das Molekül umhüllt, und das atomare
Experimente. 2007 demonstrierte das Team um Gerhard
Rückgrat eines Pentazens abbilden.
Meyer am IBM Forschungslabor Zürich ein Molekül, das kontrolliert zwischen zwei Zuständen geschaltet werden
Diese Publikation folgt nur gerade zwei Monate nach einer
konnte, ohne Veränderung seiner äußeren Form. Schon
weiteren Arbeit der gleichen Gruppe, die am 12. Juni 2009
2004 war der gleichen Gruppe ein Experiment gelungen,
in Science veröffentlicht wurde. In dieser wurde die
in dem sie gezielt den Ladungszustand eines einzelnen
Ladungsmessung einzelner Atome mittels RKM beschrie
Goldatoms mit einem RTM manipulieren konnte. Indem sie
ben. „Rastersondentechnologien bieten ein unvergleich
Spannungspulse an die RTM-Spitze anlegten, konnten die
liches Potenzial, um auf der atomaren Skala Prototypen
Forscher ein zusätzliches Elektron auf ein einzelnes Atom,
komplexer funktionaler Strukturen zu bauen und damit deren
das sich auf einem isolierenden Substrat befand, aufbringen.
elektronischen und chemischen Eigenschaften gezielt maß
Dieses negativ geladene Atom blieb stabil, bis mittels
zuschneidern und zu untersuchen“, erklärt Gerhard Meyer,
der RTM-Spitze ein entsprechender Spannungspuls mit
der die Forschung im Bereich Rastertunnelmikroskopie und
umgekehrtem Vorzeichen erfolgte. Diese Methode verwen
Rasterkraftmikroskopie bei IBM in Rüschlikon leitet.
deten die Forscher auch in ihren aktuellen Experimenten, um die einzelnen Atome zu laden.
Die Ergebnisse der beiden Forschungsarbeiten eröffnen neue Möglichkeiten, um die Ladungsverteilung in spezi
IBM Forscher zeigen erstmals die innere Struktur von
fischen Molekülen oder Molekülnetzwerken zu untersuchen.
Molekülen mit atomarer Auflösung
Das Wissen um diese Vorgänge ist generell sehr wichtig
IBM Forscher im IBM ZRL Rüschlikon gelang es im August
für die Entwicklung von elektronischen Bauelementen auf
2009, erstmals die vollständige chemische Struktur eines
der atomaren und molekularen Skala. Solche Bauelemente
Moleküls mit einem Rasterkraftmikroskop atomar aufzulösen.
könnten in der Zukunft schnellere, leistungsfähigere
Den Wissenschaftlern gelang damit ein Durchbruch auf dem
und energieeffizientere Prozessoren und Speicherchips
Gebiet der Nanowissenschaften, der auch der Erforschung
ermöglichen, wenn die Grenzen heutiger Chiptechnologien
neuartiger elektronischer Bauelemente auf der atomaren
ausgereizt sind.
und molekularen Skala neue Möglichkeiten eröffnen könnte.
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
295
Technologie-Anhang
Das RKM verwendet eine winzige, sehr scharfe Metallspitze,
Den Wissenschaftern gelang es außerdem, eine
um die minimalen Kräfte zu messen, die auftreten, wenn
vollständige dreidimensionale, topografische Abbildung der
diese Spitze sehr nah an eine Probe, wie etwa ein Molekül,
Kräfte über dem Molekül zu erstellen. „Die Datenerhebung
herangeführt wird. Mit einer Punkt-für-Punkt-Messung dieser
beanspruchte mehr als 20 Stunden. Dies stellte höchste
Kräfte kann daraus ein Abbild der Oberfläche erstellt
Ansprüche an die thermische und mechanische Stabilität
werden. Die Pentazen-Moleküle, die die IBM Forscher in der
unseres Systems, um zu gewährleisten, dass die Spitze
vorliegenden Arbeit verwendeten, bestehen aus 22 Kohlen
und das Molekül während der gesamten Zeit unverändert
stoffatomen und 14 Wasserstoffatomen und haben eine
blieben“, beschreibt Fabian Mohn, Doktorand bei IBM
Länge von nur 1,4 Nanometern (Millionstelmillimeter).
Research in Rüschlikon.
Die Abstände der in Sechsecken angeordneten Kohlenstoff atome sind dabei noch rund zehnmal kleiner. Auf den
Theoretische Rechnungen, durchgeführt von IBM Forscher
RKM-Aufnahmen sind diese hexagonalen Kohlenstoffringe
Nikolaj Moll, bestätigten die experimentellen Ergebnisse
bestechend klar aufgelöst und selbst die Positionen der
und gaben Aufschluss über die genaue Natur des Abbil
Wasserstoffatome können eindeutig identifiziert werden.
dungsmechanismus. Nikolaj Moll erklärt hierzu: „Die Berech nungen zeigen, dass die sogenannte Pauli-Abstoßung
IBM Forscher Leo Gross betont: „Ausschlaggebend für
zwischen dem CO-Molekül an der Spitze und dem Pentazen
die Auflösung waren eine atomar scharfe Spitze mit einem
für den atomaren Kontrast verantwortlich ist.“ Diese absto
definierten Aufbau sowie eine sehr hohe Stabilität des
ßende Kraft geht auf einen quantenmechanischen Effekt
Gesamtsystems.“ Damit die chemische Struktur eines
zurück, der verhindert, dass sich zwei identische Elektronen
Moleküls sichtbar wird, ist es notwendig, die Spitze äußerst
zu stark aneinander annähern.
nah – weniger als einen Nanometer – an das Molekül heranzuführen. Nur in diesem Bereich treten Kräfte auf, die
Für die Leser, die noch mehr über die beiden Experimente
maßgeblich durch chemische Wechselwirkung bestimmt
und Forschungsarbeiten wissen möchten, ist die wissen
werden. Um dies zu erreichen, mussten die Forscher die
schaftliche Arbeit von L. Gross, F. Mohn, N. Moll, P. Liljeroth
Empfindlichkeit der Spitze verbessern und eine große Hürde
und G. Meyer mit dem Titel „The Chemical Structure of a
überwinden: Ähnlich wie zwei nebeneinander liegende
Molecule Resolved by Atomic Force Microscopy”, erschie
Magnete, die sich anziehen oder abstoßen, verschiebt sich
nen in Science, Vol. 325, Nr. 5944, S. 1110 – 1114
das Molekül oder heftet sich an die Spitze, wenn diese
(28. August 2009) zu empfehlen.
zu nahe kommt. Geschieht dies, können keine weiteren Messungen durchgeführt werden.
Nanotechnologien werden in großem Maße in den nächsten Jahren in der Speichertechnologie ihren Einzug halten und
Beide Probleme konnten durch die Wahl eines geeigneten
Speicherchips ermöglichen, die die Grenzen heutiger Chip
Atoms oder Moleküls an der RKM-Spitze gelöst werden.
technologien sprengen – davon ist der Autor überzeugt!
„Um unsere Spitze zu schärfen, haben wir gezielt Atome und Moleküle durch Manipulationstechniken an die Spitze angefügt. Unsere Messungen mit unterschiedlich präpa rierten Spitzen zeigen deutlich, dass das vorderste Atom oder Molekül der Spitze die Auflösung entscheidend beein flusst“, konstatiert Leo Gross. Ein KohlenstoffmonoxidMolekül (CO) an der Spitze brachte den Durchbruch und sorgte, bei einem Abstand von etwa einem halben Nano meter zum Pentazen, für optimale Auflösung der einzelnen Atompositionen und deren chemische Verbindungen.
296
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
297
Ein ganz herzlicher Dank gilt auch den Sponsoren dieses IBM System Storage Kompendiums, welche die Druckauflage unterstützt haben:
298
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
299
Ein ganz herzlicher Dank gilt auch den Sponsoren dieses IBM System Storage Kompendiums, welche die Druckauflage unterstützt haben:
300
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
301
Ein ganz herzlicher Dank gilt auch den Sponsoren dieses IBM System Storage Kompendiums, welche die Druckauflage unterstützt haben:
302
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
303
Ein ganz herzlicher Dank gilt auch den Sponsoren dieses IBM System Storage Kompendiums, welche die Druckauflage unterstützt haben:
304
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
Bechtle – Ihr starker It-Partner. heute und morgen.
INteLLIgeNte uNd INtegRAtIve LöSuNgeN füR IhR RecheNzeNtRuM Storage- und Servervirtualisierung
skalierbares Storage Networking
Backup- und Recovery-Lösungen
gesetzeskonforme Archivierung
Information Lifecycle Management
hierarchische Storagekonzepte
die Bechtle Ag ist mit einem umsatz von rund 1,43 Mrd. € und rund 4.400 Mitarbeitern führendes deutsches Systemhaus. An über 50 Standorten in deutschland, österreich und der Schweiz bieten wir unseren Kunden herstellerübergreifend ein lückenloses Angebot rund um It-Infrastruktur und It-Betrieb aus einer hand.
Kontakt: Bechtle Ag Bechtle Platz 1, 74172 Neckarsulm www.bechtle.com
1952 – 1961
1962 – 1974
1975 – 1993
Martin Schneider telefon: +49 7132 981-3676 e-Mail: [email protected]
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
305
Ein ganz herzlicher Dank gilt auch den Sponsoren dieses IBM System Storage Kompendiums, welche die Druckauflage unterstützt haben:
306
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
307
Ein ganz herzlicher Dank gilt auch den Sponsoren dieses IBM System Storage Kompendiums, welche die Druckauflage unterstützt haben:
308
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
309
Ein ganz herzlicher Dank gilt auch den Sponsoren dieses IBM System Storage Kompendiums, welche die Druckauflage unterstützt haben:
310
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
311
Ein ganz herzlicher Dank gilt auch den Sponsoren dieses IBM System Storage Kompendiums, welche die Druckauflage unterstützt haben:
312
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
313
Ein ganz herzlicher Dank gilt auch den Sponsoren dieses IBM System Storage Kompendiums, welche die Druckauflage unterstützt haben:
314
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
315
Ein ganz herzlicher Dank gilt auch den Sponsoren dieses IBM System Storage Kompendiums, welche die Druckauflage unterstützt haben:
316
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
317
Ein ganz herzlicher Dank gilt auch den Sponsoren dieses IBM System Storage Kompendiums, welche die Druckauflage unterstützt haben:
318
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
1952 – 1961
1962 – 1974
1975 – 1993
1994 – 1998
1999 – 2005
2006 – 2010
Software
Anhang
319
IBM Systems and Technology Group
IBM Österreich Obere Donaustraße 95 1020 Wien ibm.com/at IBM Schweiz Vulkanstrasse 106 8010 Zürich ibm.com/ch Die IBM Homepage finden Sie unter: ibm.com IBM, das IBM Logo und ibm.com sind eingetragene Marken der IBM Corporation. Weitere Unternehmens-, Produkt- oder Servicenamen können Marken anderer Hersteller sein. Java und alle Java-basierenden Marken und Logos sind Marken von Sun Microsystems, Inc. in den USA und/oder anderen Ländern. Microsoft, Windows, Windows NT und das Windows-Logo sind Marken der Microsoft Corporation in den USA und/oder anderen Ländern. Intel, Intel logo, Intel Inside, Intel Inside logo, Intel Centrino, Intel Centrino logo, Celeron, Intel Xeon, Intel SpeedStep, Itanium, and Pentium sind Marken der Intel Corporation in den USA und/oder anderen Ländern. UNIX ist eine eingetragene Marke von The Open Group in den USA und anderen Ländern. Linux ist eine Marke von Linus Torvalds in den USA und/oder anderen Ländern. Gedruckt in Deutschland. © Copyright IBM Corporation 2010 Alle Rechte vorbehalten.
IBM System Storage-Kompendium 2010
IBM Deutschland GmbH IBM-Allee 1 71139 Ehningen ibm.com/de
100 Jahre IBM Deutschland
IBM System Storage-Kompendium Die IBM Speichergeschichte von 1952 bis 2010
ibm.com/systems/de/storage € 49,90 – unverbindliche Preisempfehlung