IBM System Storage-Kompendium

Die IBM Speichergeschichte von 1952 bis 2010

429 95 35MB

German Pages [320] Year 2010

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

IBM System Storage-Kompendium

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

IBM Systems and Technology Group

IBM Österreich Obere Donaustraße 95 1020 Wien ibm.com/at IBM Schweiz Vulkanstrasse 106 8010 Zürich ibm.com/ch Die IBM Homepage finden Sie unter: ibm.com IBM, das IBM Logo und ibm.com sind eingetragene Marken der IBM Corporation. Weitere Unternehmens-, Produkt- oder Servicenamen können Marken anderer Hersteller sein. Java und alle Java-basierenden Marken und Logos sind Marken von Sun Microsystems, Inc. in den USA und/oder anderen Ländern. Microsoft, Windows, Windows NT und das Windows-Logo sind Marken der Microsoft Corporation in den USA und/oder anderen Ländern. Intel, Intel logo, Intel Inside, Intel Inside logo, Intel Centrino, Intel Centrino logo, Celeron, Intel Xeon, Intel SpeedStep, Itanium, and Pentium sind Marken der Intel Corporation in den USA und/oder anderen Ländern. UNIX ist eine eingetragene Marke von The Open Group in den USA und anderen Ländern. Linux ist eine Marke von Linus Torvalds in den USA und/oder anderen Ländern. Gedruckt in Deutschland. © Copyright IBM Corporation 2010 Alle Rechte vorbehalten.

IBM System Storage-Kompendium 2010

IBM Deutschland GmbH IBM-Allee 1 71139 Ehningen ibm.com/de

IBM System Storage-Kompendium Die IBM Speichergeschichte von 1952 bis 2010

ibm.com/systems/de/storage € 49,90 – unverbindliche Preisempfehlung

ibm-7747_Storage_Kompendium_Hardcover_final.indd 1

29.01.2010 11:43:33 Uhr

Cover Photo: IBM TS3500 Tape Library David Hobby, USA, a.k.a. Strobist, www.strobist.com

2

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Vorwort des Autors Kurt Gerecke

Sehr geehrte Kunden, sehr geehrte Geschäftspartner, liebe Leser, begeben Sie sich auf eine spannende Zeitreise durch die IBM Speichergeschichte. Vor bereits 58 Jahren erfand die IBM die erste externe Speichereinheit in Form des Rollenbandes der IBM 726 mit einer Speicherkapazität von 1,4 MB. Lassen Sie sich faszinieren, was in diesem halben Jahrhundert an Erfindungen und Produkten von IBM im Speicherumfeld ent­ wickelt und auf den Markt gebracht wurde. Vielleicht möchten Sie sich durch dieses Buch auch an Ihre Anfangszeiten in der IT zurückerinnern und gedanklich Ihren beruflichen Werde­ gang Revue passieren lassen. Aber auch für alle jungen Menschen, die diese Zeitspanne nicht direkt erlebt haben, ist es ein faszinierendes Nachschlagewerk. Die beschriebenen Zeitepochen reflektieren sehr klar die ganzheitliche IBM Entwicklungsstrategie: Rechner und Speichersys­ teme gehören als Einheit zusammen! Speichertechnologien und Speicherlösungen wurden bis heute immer im Einklang mit den Servertechnologien vorangetrieben, um ausgewogene, performante und aufeinander abgestimmte Gesamtlösungen zur Verfügung zu stellen. Diese Strategie brachte viele neue Erfindungen hervor und machte IBM zum weltweiten Patentführer – und das seit 17 Jahren in Folge. Vor drei Jahren wurde der Nobelpreis für Physik an Peter Grünberg von der KFA in Jülich und Albert Fert von der Universität in Paris vergeben, die 1988 den GMR-Effekt (Giant Magnetoresistance) bei extrem niederen Temperaturen entdeckt hatten. Wir alle wissen, dass ohne diese Entdeckung die heutigen Festplattenkapazitäten nie möglich geworden wären. Was viele nicht wissen, ist, dass es IBM zu verdanken ist, dass aus der Entdeckung ein Produkt wurde. Bereits 1989 begann der IBM Forscher Stuart Parkin im IBM Labor Almaden in Kalifornien mit der Umsetzung und dem Ziel, den Effekt auch bei normalen Temperaturen zu realisieren. Er erforschte mehr als 30.000 Materialkombinationen, um 1997 den ersten einsetzbaren GMRLesekopf für Plattenlaufwerke zur Verfügung zu stellen. Alle drei Forscher wurde 1997 gemeinsam für die GMR-Entwicklung mit dem Euro-Physik-Preis ausgezeichnet. Vielleicht nicht alles, aber alles fundamental Wichtige wurde von IBM im Storage-Bereich entdeckt und entwickelt. Ich möchte Ihnen neben GMR ein paar weitere Eckdaten nennen: 1991 führte IBM drei zukunftsweisende Technologien ein, Dünnfilmbe­ schichtungen auf den Platten, die ersten MR-Köpfe (Magnetoresistive Köpfe) und RAID-5-basierende Subsystemarchitekturen. 1999 entdeckte IBM den paramagnetischen Effekt und im selben Jahr brachte IBM den ersten Microdrive auf den Markt, ein Laufwerk in der Größe einer Zwei-Euro-Münze. Im Jahr 2000 erhielt IBM als erste Firma die „National Medal of Technology for Innovations in Storage“ von der amerikanischen Regierung, eine der höchsten technologischen Ehrungen, die bis dahin aus­ schließlich an Einzelpersonen vergeben wurde. Alle diese faszinierenden Erfindungen und viele mehr finden Sie im Techno­

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

3

Vorwort des Autors

logie-Anhang dieses Storage Kompendiums. Die IBM leistete auf dem Gebiet der Speicherentwicklungen Einmaliges und ich bin überzeugt, dass dies auch in der Zukunft der Fall sein wird. Widmen Sie Ihre Aufmerksamkeit besonders auch der jetzigen Zeitepoche, die vor allem durch Virtualisierung in allen Bereichen der Datenspeicherung geprägt ist. Alle aktuellen IBM Produkte sind dort ausführlich beschrieben. Das Kompendium ist also nicht nur ein historisches Nachschlagewerk, sondern informiert Sie vor allem über alle aktuellen IBM Speicherentwicklungen. Die Überarbeitung des IBM System Storage Kompendiums als Update 2010 erforderte doch wieder viel freie Zeit und viele Wochenenden. Deshalb möchte ich mich zuallererst wieder bei meiner Ehefrau Gabriele für das auf­ gebrachte Verständnis bedanken. Ihre Geduld war wieder einmal bewundernswert. Ein großer Dank gilt auch dem IBM Storage Produktexpertenteam für seine wertvollen Informationen. Herrn Dr. Stefan Radtke möchte ich für seine technischen Ausführungen des XIV Storage Systems danken, Herrn Jens Gerlach von der Firma LSI für seinen DS5000-Input, Herrn Stefan Neff für seinen TS7700-Beitrag, Herrn Hartmut Grund für seine Hilfe beim IBM Information Archive, Jürgen Loeb für seinen SOFS- bzw. SPSC-Input und Axel Melber für die Fotobearbeitung der Exponaten-Sammlung. Ganz besonders möchte ich mich bei den Herren Hans W. Spengler und Heinz Graichen vom IBM Museum in Sindelfingen für ihre tabellarischen Zusammenstellungen, Grafiken und Bilder von der jetzt im Museum fertiggestellten Plattenrotunde und dem Interview mit mir bedanken, bei dem beide den RAMAC 350-Zugriff detailliert darlegen. Ebenso möchte ich mich bei beiden dafür bedanken, dass ich die Plattenprofile, die vor allem Hans W. Spengler in einer zehnjährigen Arbeit zusammengestellt hat, in dieses neue Kompendium integrieren konnte. Allen anderen Kollegen, die mir dabei geholfen haben und jetzt nicht namentlich erwähnt sind, gilt ein ebenso großes Danke.

4

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Mein Dank gilt auch Herrn Ivano Rodella von IBM System Storage Marketing, der die Agenturarbeit ermöglichte, sowie den Sponsoren, die den Druck dieses Kompendiums finanziell unterstützt haben. Am meisten freut mich, dass ich die Herren Werner Bauer und Klemens Poschke, alle langjährige Kollegen und Freunde, dafür gewinnen konnte, an diesem Kompendium mitzuarbeiten. Werner hat das Thema des Systemverwalteten Speichers (System Managed Storage) im Mainframe-Umfeld aufgearbeitet. Klemens hat die Geschichte des Tivoli Storage Managers (TSM) dokumentiert, der dieses Jahr sein 20-jähriges Bestehen feiert. Ebenso ganz herzlich bedanken möchte ich mich bei Edelgard Schittko, die sich einfach ganz kurzfristig dazu bereiterklärte, das Thema BRMS im System i Umfeld aufzuarbeiten. Damit reflektiert das Kompendium jetzt eine ganzheitliche Dokumentation der wichtigsten Storage-Hardware- und -Softwareprodukte. Ein bisschen Reklame möchte ich auch noch machen! Sollten Sie sich im Raum Stuttgart aufhalten, vergessen Sie nicht, das IBM Museum, das Haus der Geschichte der IBM Datenverarbeitung, Bahnhofstraße 43 in 71063 Sindelfingen zu besuchen. Dort können Sie „live“ die Geschichte der Informationstechnologie von 1890 bis ins Jahr 2000 erleben. Auch das erste Plattenprodukt der IBM, die RAMAC 350 als Teil des damaligen Rechnersy­ stems IBM RAMAC 305, können Sie dort in Betrieb sehen. Ein besonderer Höhepunkt ist die neu aufgebaute Plattenrotunde. Begleitet von einer Diashow können Sie sich auf eine Zeitreise begeben und die faszinierenden Produkte und Erfindungen im Plattenbereich von 1956 bis ins Jahr 2000 kennenlernen. Melden Sie sich rechtzeitig wegen einer Terminabsprache über mich, Tel. 0170-2207066, oder Herrn Hans W. Spengler vom IBM Museum, Tel. 07031-271378 an. Ich wünsche Ihnen viel Freude und viel Spaß beim Lesen und Studieren des IBM System Storage Kompendiums und hoffe, dass Sie viele Gelegenheiten haben, diese Informationen für Ihre Zwecke erfolgreich einzusetzen. Mit den besten Grüßen

Ihr Kurt Gerecke

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

5

Vorwort des Co-Autors Klemens Poschke

Ein paar Worte persönlicher Bezug… Die Idee zu einer historischen Dokumentation der Tivoli Storage Manager Soft­ ware entstand im Gespräch mit meinem Freund und Kollegen Kurt Gerecke auf der CeBIT 2009, als er eine erweiterte Neuauflage dieses Buches zum 100-jährigen Bestehen der IBM Deutschland 2010 plante. Ich freue mich, mit einem TSMKapitel zum Erfolg des Buches beitragen zu können, weil die Geschichte von Tivoli Storage Manager und seinen Namensvorgängen eng mit der Geschichte der Speichertechnologie der IBM verknüpft ist. Insofern komplettiert dieses Kapitel einerseits den von Kurt Gerecke und Kollegen verfassten Hardware-Teil, dokumentiert aber auch die Tradition der erfolgreichen gemein­ samen Arbeit zwischen den Menschen aus unterschiedlichen Bereichen der IBM. Diese Zusammenstellung über die Geschichte des IBM Tivoli Storage Manager ist gleichzeitig auch ein Reflek­ tieren der letzten 20 Jahre meiner eigenen beruflichen Geschichte bei der IBM, da ich mich seit 1990 mit diesem Thema als Architekturberater beschäftige. Bei der Stoffsammlung und inhaltlichen Aufbereitung habe ich mich immer wieder gerne an viele sympathische Menschen erinnert, die ich über dieses Thema bei Kunden, Geschäftspartnern und als Kollegen kennengelernt habe. Das Kapitel beschränkt sich bewusst auf die Themenbereiche, in denen TSM und seine Namensvorgänger Teil von IBM Datensicherungs-/Archiv-Lösungen sind. Ich habe dabei absichtlich auch Informationen zu Firmenüber­ nahmen und Begleitprodukten des Backup-Marktes mit aufgenommen, um die historische Entwicklung und Marktbedeutung ganzheitlich zu beschreiben. 20 Jahre Beschäftigung mit diesem Thema ermöglichen mir, auf eine große Menge an Ressourcen zurückzugreifen, die bei der Bereitstellung der nachfolgenden Informationen, Dokumente und historischen Bilder geholfen haben. Ich möchte mich stellvertretend für alle Beiträge bei folgenden Kollegen besonders bedanken für die Übersen­ dung von Hintergrundinformationen, Dokumenten, Geschichten und Bildschirmfotos:

6

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Jim Smith (San José), Frank Albert Müller (Mainz), Chris Zaremba (Endicott), Edward Gretz (West Chester), Norm Pass (Almaden), Barry Fruchtman (Tucson), Dr. Hans-Joachim Renger (Böblingen), Claire Rankin (San José), Mike Welkley (San José), Paul Bradshaw (Almaden). Besonderer Dank gilt meinen Kollegen Wolfgang Hitzler (Ehningen) und Dr. Hans-Joachim Renger (Böblingen), die ihre Zeit geopfert haben, um den Text inhaltlich zu validieren, und meiner Frau Doris, die sich des Fach­ chinesisch auf grammatikalisch/stilistischer Ebene angenommen hat. Ich bedanke mich auch bei den Redaktionen der Zeitschrift „Computerwoche“ (Sandra Holleber) und dem Online Magazin „Monitor“ (Dipl.-Ing. Rüdiger Maier) für die Genehmigung, Artikelauszüge ihrer Publikationen aus dem Internet benutzen zu dürfen. Sollten sich trotz intensiver Recherche inhaltliche Fehler eingeschlichen haben, bitte ich dies zu entschuldigen und mich darüber zu informieren ([email protected]). Ich wünsche Ihnen viel Spaß und Freude beim Lesen und Studieren der 20-jährigen TSM-Erfolgsgeschichte und verbleibe mit den herzlichsten Grüßen

Ihr Klemens Poschke

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

7

Speicherentwicklung und Gesamtüberblick von 1952 bis 2010

Allgemeines:

Entwicklung der Speichersysteme von 1952 bis 2010

Die Geschichte der IBM Speichertechnologie und der IBM

1952 – 1961

die Anfangsepoche der elektro­magnetischen Speicherung

Seite 13

1962 – 1974

die Epoche der Wechselplatten und die ‘Winchester’-Zeit

Seite 19

1975 – 1993

die Epoche der fest eingebauten Platten Seite 27 mit externen Kontrollein­heiten

sein kann, wenn es darum geht, technologische Grenzen zu

1994 – 1998

die Epoche der RAID-Systeme

Seite 37

überschreiten, um neue Möglichkeiten für die Speicherung

1999 – 2005

die Epoche der Multiplattform-Systeme und des FibreChannel SAN/NAS

Seite 51

2006 – 2010

die Epoche der Server-basierenden Speichersysteme und der Speicher­ virtualisierung

Seite 87

Speichersysteme ist mit ziemlicher Sicherheit eines der fas­ zinierendsten Ereignisse unserer Zeitgeschichte der letzten 58 Jahre. Spannend vom Anfang bis in die heutige Zeit soll diese Broschüre einen Überblick geben und vor allem auch das Verständnis entwickeln, wie erfinderisch die Menschheit

von Daten zu eröffnen. Die Vielzahl von Produkten und Erfin­ dungen in diesem Bereich macht es notwendig, die Zeitge­ schichte ein bisschen zu ordnen und in zeitgeschichtliche Epochen zu unterteilen. Da dieses Unterfangen bisher nie gemacht wurde, erlaubt sich der Autor, das Speicherzeitge­

Die einzelnen Epochen beschreiben immer eine Zeitphase,

schehen von 1952 bis in die heutige Zeit in technologische

die durch besondere Produkte geprägt war, die in dieser

Epochen zu unterteilen, um dann im Detail die einzelnen

Zeitphase auf den Markt kamen. In vielen Fällen wurden die

Epochen von der Produkt- und Produktentwicklungsseite zu

Produkte über die definierte Epoche hinaus aktiv vertrieben

beleuchten. Nach den Produktepochen schließt das Kapitel

und wurden meistens erst in der Folgeepoche oder später

„IBM Storage Software“ an, das die wichtigsten SW-Entwick­

vom Marketing zurückgezogen. Die einzelnen Produkte sind

lungen im Speicherumfeld darstellt. Am Ende dieses

in der Epoche, in der die Markteinführung erfolgte, so be-

Buches im Kapitel „Technologie-Anhang“ befindet sich ein

schrieben, dass sie den gesamten Lebenszyklus darstellen.

Technologie-Teil, der die Entwicklung der Speicherbasis­ technologien und Aufzeichnungsverfahren einschließlich

Das Storage Kompendium erhebt keinen Anspruch auf Voll­

anstehender Technologien näher beschreibt.

ständigkeit, beschreibt aber die wichtigsten Produkte in der jeweiligen Epoche.

8

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Preisentwicklung Magnetplattenspeicher

Kapazitätsentwicklung Magnetplattenspeicher

Die Schnelligkeit der technologischen Entwicklung bei

Während der Preisverfall für das gespeicherte Megabyte

Magnetplattenspeichern von 1956 bis ins Jahr 2010 lässt

kontinuierlich anhielt, war in den letzten 10 Jahren ein über­

sich im besonderen Maße aus dem Preisverfall für ein

dimensional hoher Preisverfall zu verzeichnen, der speziell

gespeichertes Megabyte ablesen. Der Verlauf war in etwa

in den letzten Jahren eine Spanne von 40 bis 70 % pro Jahr

folgendermaßen:

erreichte. Parallel dazu wurde die Aufzeichnungsdichte durch technologische Innovationen in einem Maße gesteigert,

Jahr Euro/MB Jahr Euro/MB

1956

1964

1975

1987

1991

12 000

8 000

70

12

9

1997

2000

2006

1

0.25

0.015

dass sie dem Preisverfall für das gespeicherte Megabyte standhalten und Rechnung tragen konnte.

2009 0.0054 (FC-Disk) 0.0025 (SATA)

Rechnet man den verminderten Platz- und Energiebedarf so-

Die Steigerung der Aufzeichnungsdichte war in etwa folgen­ dermaßen: Jahr

Produkt

Aufzeichnungsdichte (Millionen Bits/qcm)

1956

RAMAC 350



0.00031

1961

1311



0.008

1964

2311



0.017

1965

2314



0.034

1970

3330



0.12

1973

3340



0.26

1975

3350



0.48

1979

3370



1.2

1980

3375



1.51

1980

3380



1.9

1985

3380-E



2.99

1987

3380-K



5.47

1991

3390-3



13.95

1994

3390-9



41.6

1996

RAMAC 3

129.2

1999

ESS

427.5

2004

ESS



2.9 Milliarden Bits/qcm

2006

DS8000



5.8 Milliarden Bits/qcm

2009

DS8000-FC-Platten DS8000-SATA-Platten



8.7 Milliarden Bits/qcm 19.3 Milliarden Bits/qcm

wie den geringeren Wartungsaufwand pro Megabyte hinzu, so ist der Trend bei der Kostenentwicklung eher noch günstiger.

Im Jahr 2003, mit Verfügbarkeit der 146-GB-Laufwerke für ESS, wurde die magische Grenze von 1 Milliarde Bits auf dem Qua­dratzentimeter überschritten. Mit der heutigen Verfügbarkeit von 1 TB SATA-Laufwerken erreicht man eine Aufzeichnungsdichte von über 19 Milliarden Bits/qcm. Die großen Sprünge ergaben sich speziell in den letzten 10 Jahren (siehe auch Technologie-Anhang).

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

9

Produktübersicht der IBM Speichersysteme

Vorwort des Autors Kurt Gerecke......................... Seite.......3

Die Epoche der RAID-Systeme..........................Seite.....37

Vorwort der Co-Autors Klemens Poschke............. Seite.......6

RAID-Definitionen.................................................. Seite.....38

Speicherentwicklung, Gesamtüberblick............... Seite.......8

RAMAC 1/2/3 RAID-Plattensystem........................ Seite.....39

Preis- und Kapazitätsentwicklung

RVA RAMAC Virtual Array..................................... Seite.....40

Plattenspeicher...................................................... Seite.......9

RSA RAMAC Scalable Array................................. Seite.....40

Produktübersicht................................................... Seite.....10

7133 SSA-Plattensystem....................................... Seite.....41

Die Anfangsepoche der elektromagnetischen

3570 Magstar-MP-Magnetbandeinheit.................. Seite.....44

3590 Magstar-Magnetbandeinheit........................ Seite.....42

Speicherung.........................................................Seite.....13 726/727 Magnetbandsystem ............................... Seite.....14 RAMAC 305/350 Plattensystem ........................... Seite.....14 729 Magnetbandsystem....................................... Seite.....16

3494 B16, B18, B10, B20 Virtual Tape Server................................................ Seite.....44 LTO Linear-Tape-Open-Bandeinheiten.................. Seite.....46 LTO Libraries......................................................... Seite.....47

1405 Platteneinheit/1414 Steuereinheit................. Seite.....16 1301 Plattensystem............................................... Seite.....16

Die Epoche der Multiplattform-Systeme und

7340 Hyper Tapes................................................. Seite.....17

des FC SAN und NAS.........................................Seite.....51

2321 Magnetstreifenspeicher............................... Seite.....17

SAN Storage Area Network................................... Seite.....52 NAS Network Attached Storage............................ Seite.....53 iSCSI...................................................................... Seite.....54

Die Epoche der Wechselplatten und die ‘Winchester’-Zeit...........................................Seite.....19 1311 Wechselplattensystem................................. Seite.....20 1302 Plattensystem............................................... Seite.....21 2401 Magnetbandsystem..................................... Seite.....21 2314 Wechselplattensystem................................. Seite.....21 2305 Plattenspeicher ‘Zeus’.................................. Seite.....21 3330 Wechselplattensystem/3830 Steuereinheit.......................................................... Seite.....22 3340 Wechselplattensystem ‘Winchester’-Platte................................................. Seite.....23 3420 Magnetbandsystem..................................... Seite.....24 3410 Magnetbandsystem..................................... Seite.....24 3850 MSS-Massenspeicher.................................. Seite.....25

3350 Festplattensystem........................................ Seite.....28 3310 Magnetbandsystem..................................... Seite.....28 3370/3375 Plattensystem...................................... Seite.....28 3380 Plattensystem/3880 Steuereinheit................ Seite.....29 3430 Magnetbandsystem..................................... Seite.....30 3480 Magnetbandkassettensystem...................... Seite.....30 3390 Plattensystem/3990 Steuereinheit................ Seite.....31 9340/9345 Plattensystem...................................... Seite.....32 3490 Magnetbandeinheit...................................... Seite.....33 3495 Magnetbandarchiv....................................... Seite.....34 3494 Magnetbandarchiv....................................... Seite.....35

1962 – 1974

1975 – 1993

7133 + 7140 Hammer Shark SSA Plattenlösung für SAN........................................... Seite.....56 MSS Modular Storage Server Plattensystem........ Seite.....57 7135 RAIDiant-Array-Plattensystem...................... Seite.....57 FAStT-Plattensysteme............................................ Seite.....57 DS4000-Plattensysteme........................................ Seite.....60 SVC SAN Volume Controller.................................. Seite.....63 LTO2/LTO3 Linear-Tape-OpenBandlaufwerke....................................................... Seite.....63 LTO4 Linear-Tape-Open-Bandlaufwerke............... Seite.....65 3592/TS1120 Bandlaufwerk (Jaguar).................... Seite.....66 3584/TS3500 Bandarchiv...................................... Seite.....69 3582 Bandarchiv................................................... Seite.....71

mit externen Kontrolleinheiten...........................Seite.....27

1952 – 1961

Plattensystem........................................................ Seite.....54

3581 Band Autoloader.......................................... Seite.....71

Die Epoche der fest eingebauten Platten

10

ESS Enterprise Storage Server (Shark)

1994 – 1998

3583 Bandarchiv................................................... Seite.....71 TS3310 Bandarchiv............................................... Seite.....71 TS3100 Band Autoloader...................................... Seite.....72 TS3200 Bandarchiv............................................... Seite.....72 TS7510 Tape-Virtualisierung für Open Systems... Seite.....72 3995 Optisches Archivsystem.............................. Seite.....75 DR 450 Data Retention 450 Archivlösung............ Seite.....76 DR 550 Data Retention 550 Archivlösung............ Seite.....76 3996 Optisches Archivsystem.............................. Seite.....80 Nseries N3000/N5000/N6000/N7000.................... Seite.....81 Nseries Funktionen................................................ Seite.....84

1999 – 2005

2006 – 2010

Software

Anhang

Die Epoche der Server-basierenden

ADSM Version 3.1 (1997)...................................... Seite...191

Speichersysteme und der

Synergien IBM Speicherhardware und ADSM...... Seite...192

Speichervirtualisierung .....................................Seite.....87

Tivoli ADSM/Tivoli Storage Manager.................... Seite...195

DS8000 und DS6000 Plattensysteme................... Seite.....88

TSM Version 3.7 und 4.2....................................... Seite...196

XIV Storage Systeme............................................. Seite.....97

TSM Version 5.X.................................................... Seite...200

DS3000 Entry Plattensysteme............................... Seite...105

TSM für Data Retention (DR450/DR550)............... Seite...202

DS5000 Plattensysteme........................................ Seite...106

TSM – kleine Lösungen für den Einstieg.............. Seite...204

SVC San Volume Controller neue HW und SW..... Seite...111

TSM Version 6.1 (2009)......................................... Seite...204

Backup-Konzepte.................................................. Seite...117

Zusammenfassung und Schlusswort.................... Seite...206

TS7700 Tape Virtualisierung für z/OS................... Seite...120 TS7520 und TS7530 Tape –

BRMS für System i..............................................Seite...208

Virtualisierung für Open Systems.......................... Seite...128

Überblick............................................................... Seite...208

Daten-De-Duplizierung.......................................... Seite...132

Aktuelle Features................................................... Seite...208

IBM Daten-De-Duplizierung

Geschichte............................................................ Seite...215

mit ProtecTIER VTL und Hyperfactor.................... Seite...134

Zusammenfassung und Ausblick.......................... Seite...215

TS1130 Bandlaufwerk der Enterprise Klasse....... Seite...137 TS3500 ALMS Library Virtualisierung................... Seite...140

Technologie-Anhang...........................................Seite...217

TS3500 Hardware Erweiterungen 2007 – 2010.... Seite...142

Lochkarte und Lochstreifen.................................. Seite...218

TS3500 High Density (HD) Frames....................... Seite...142

Trommelspeicher................................................... Seite...218

iRMM Library Virtualisierung mit dem integrated

Magnetbandentwicklung....................................... Seite...219

Enterprise Removable Media Manager................ Seite...144

Magnetplatte......................................................... Seite...220

TS3400 Mini-Library für TS1120 Laufwerke.......... Seite...145

Entwicklung des IBM Systems 305

TS2900 Autoloader................................................ Seite...145

und des ersten Plattenspeichers IBM 350............ Seite...221

IBM Tape Library Überblick 2010......................... Seite...146

Funktionsweise IBM 350 und IBM 355................. Seite...222

GPFS/SOFS File Virtualisierung............................. Seite...147

Disketten................................................................ Seite...225

SPSC Smart Private Storage Cloud...................... Seite...147

Festplattenentwicklung.......................................... Seite...226

Tape Encryption mit TS1120/30 und LTO4........... Seite...152

Festplatten für PC’s............................................... Seite...229

IIA IBM Information Archive.................................. Seite...156

Induktive Aufzeichnung......................................... Seite...230

SAN und IP-Networking Update 2007 – 2010...... Seite...158

Magneto Resistive Aufzeichnung (MR)................. Seite...230

Green IT................................................................ Seite...161

PRML Encoding.................................................... Seite...232

Infini-Band............................................................. Seite...162

GMR Effekt – Giant Magneto-Resistance............. Seite...232

Neue Basis-Technologien..................................... Seite...163

Micro-Drives.......................................................... Seite...233 AFC Aufzeichnung................................................ Seite...234

Der System-verwaltete Speicher

Perpendicular Recording...................................... Seite...236

im Mainframe-Umfeld..........................................Seite...166

HAMR – Heat Assisted Magnetic Recording........ Seite...236

Speicherhierarchie................................................ Seite...166

IBM Museum......................................................... Seite...238

Entstehung............................................................ Seite...167

Magnetplatten Exponatensammlung.................... Seite...240

Funktionsweise...................................................... Seite...169

IBM Magnetplattenprofile...................................... Seite...246

SMS für Tape......................................................... Seite...172

Interview mit den RAMAC 350/355 Experten....... Seite...270

Komponenten und Funktionen.............................. Seite...172

Optische Speichertechnologien............................ Seite...274

Zusammenfassung................................................ Seite...176

Flashspeicher........................................................ Seite...280 RAM – Random Access Memory.......................... Seite...284

TSM – Tivoli Storage Manager...........................Seite...178

PCM – Phase Change Memory............................. Seite...285

Wie alles begann ... 1983-1993............................ Seite...178

Millipede-Nanotechnologie................................... Seite...287

ADSM V1.1 und V1.2............................................ Seite...183

Racetrack Memories............................................. Seite...290

Internet Forum und Benutzergruppen.................. Seite...187

Nanotechnologien................................................. Seite...293

ADSM Version 2.1 (1995)...................................... Seite...188 SAP R/3 Integration............................................... Seite...190

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

Sponsorenseiten.................................................Seite...299

1999 – 2005

2006 – 2010

Software

Anhang

11 11

12

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

1952 bis 1961

Die Anfangsepoche der elektromagnetischen Speicherung

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

13

1952 bis 1961 Die Anfangsepoche der elektromagnetischen Speicherung

Aufnahme des ersten Prototypen des Magnetbandsystems IBM 726 im Jahr 1951 mit zwei Bandlaufwerken pro Einheit

Zum ersten Mal in der Speichergeschichte wurden externe Speicher mit magnetischer Aufzeichnung von IBM 1952 angeboten: die IBM Magnetbandeinheit IBM 726 mit einer Speicherkapazität von 1,4 MB auf einem 12-Zoll-Rollenband

IBM Magnetbandeinheit Modell 726, Markteinführung 1952

(Durchmesser der Bandspule) mit 720 Metern Länge. Die

1956 kam das System IBM RAMAC 305 auf den Markt.

Einheit hatte zwei integrierte Bandlaufwerke. Dies erwies

Dieses System hatte erstmals eine Plattenspeichereinheit

sich allerdings als äußerst unpraktisch, weil keines der beiden

Type IBM 350. Das IBM 305 System wurde unter dem ein­

Laufwerke im Fehlerfall oder bei Wartungsarbeiten weiterhin

getragenen Warenzeichen ‘RAMAC’ angekündigt (Random

zur Verfügung stand. Bereits ein Jahr später, 1953, folgte

Access Method of Accounting and Control). Der Rechner

die IBM 727 mit einem Laufwerk pro Einheit, die auf einem

des Gesamtsystems steuerte sowohl das Positionieren des

standardisierten Rollenband von ca. 740 Metern Bandlänge

Schreib-/Lesekopfes auf die gewünschte Plattenoberfläche

eine Kapazität von 4 MB bot. Bis 1956 war ein Teil der Steue­

und Plattenspur als auch das Übertragen der Daten in beide

rung in der damaligen Rechnereinheit IBM 701 untergebracht.

Richtungen (Schreiben und Lesen).

Erste dedizierte Bandsteuereinheiten gab es dann ab 1956. Die Aufzeichnungsdichte der RAMAC 350 Platte lag bei 100 Bits pro Inch (40 Bits pro cm) und der Plattenstapel rotierte mit 1.200 Umdrehungen in der Minute (1200 RPM). Die durch­ schnittliche Suchzeit lag bei 600 ms. Der Plattenstapel bestand aus 51 Platten mit einem Durchmesser von 24 Zoll und bot eine maximale Kapazität von 5 MB (5 Millionen Characters). In Betrieb kann die RAMAC 350 im IBM Museum in Sindel­ fingen besichtigt werden.

Medium-Rollenband für IBM 726

14

1952 – 1961

1962 – 1974

IBM 350 RAMAC Platte, 51 Platten im Stapel mit 24 Zoll Durchmesser. 1956: Modell mit 5 MB (5 Millionen ‘Characters’), 1958: Modell mit 10 MB (10 Millionen ‘Characters’), Zurückziehung vom Vertrieb im Jahr 1960

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Verkaufstechnisch wurde bereits damals mit der RAMAC derselbe Marketing-Ansatz gewählt, den man auch heute noch, nur in anderen Größenordnungen, vorfindet. Wie macht man dem Käufer und Benutzer klar, was 5 MB sind? 5 MB lagen damals über jeder normalen Vorstellungskraft. Deshalb wurden in den meisten Spezifikationsunterlagen 5 MB so defi­ niert, dass das 60.000 – 80.000 Lochkarten entspreche, oder 2.000 Feet Bandlänge (die Bänder gab es ja bereits 4 Jahre früher) oder 940 Seiten mit bedrucktem Papier. Neben dem RAMAC-Plattenstapel und der dazugehörigen Zugriffsstation enthielt die Einheit 350 eine elektronische IBM RAMAC 350-Plattenstapel

und pneumatische Kontrolle für die Zugriffsstation und einen Luftkompressor. Die Schmierung der Plattenlager wurde durch

Damals gab es noch keine Zugriffskämme, sondern nur einen

eine Öl-Dunst-Schmierung durchgeführt.

Zugriffsarm, der in die Zwischenräume des Plattenstapels mit einer Seilzugmechanik hineingesteuert wurde. Die exakte

Die Einheit 350 hatte eine Länge von 152,4 cm (60 Inches),

Positionierung erfolgte mit Zahnstange und Klinke und wurde

eine Höhe von 172,72 cm (68 Inches) und eine Tiefe von

per Pressluft elektronisch gesteuert. Die Köpfe schwebten

73,66 cm (29 Inches) und wog etwa eine Tonne.

über der Platte in einem Abstand von 800 Micro-Inches. 1958 wurde mit der Ankündigung des Modells 2 die Möglichkeit

Das Gesamtsystem, bestehend aus Rechner, Platteneinheit,

geschaffen, die doppelte Kapazität abzubilden (10 MB). Bei

Kartenleser, Kartenstanzer, Drucker und Konsoleneinheit,

diesem Modell wurden zwei Zugriffsstationen eingesetzt, so-

kostete 185.000 Dollar und wurde auch unter Leasing zu

dass eine Station schreiben oder lesen und die zweite gleich­

einer monatlichen Rate von 3.200 Dollar angeboten. In dem

zeitig suchen konnte, um für die Verarbeitung des nächsten

Zeitraum von 1956 bis 1960 wurden weltweit 1.500 Systeme

Satzes die Positionierung des Schreib-/Lesekopfes vorzube­

installiert. 1960 erfolgte dann die Zurückziehung aller Modelle

reiten.

vom Vertrieb und 1961 die Einstellung der Produktion.

IBM RAMAC 350 Platte mit zwei Zugriffsstationen

IBM RAMAC 350 Einheit

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

15

1952 bis 1961 Die Anfangsepoche der elektromagnetischen Speicherung

‘Inch’ als auch die Anzahl der Bits in einer Spur wurden ver­ doppelt, sodass eine vierfache Kapazität des Plattenstapels erreicht wurde. Die Plattenstapel waren in zwei Ausführungen verfügbar, in einer Einheit mit 25 Platten im Stapel und einer mit 50 Platten. Die kleinere Einheit hatte eine Kapazität von 10 MB und die größere von 20 MB. Die Aufzeichnungsdichte betrug 220 Bits pro Inch, was 40 Spuren pro Inch entspricht. Die Schwebehöhe zwischen Kopf und Platte betrug 650 MicroInches und die Platten drehten sich mit 1.800 Umdrehungen pro Minute. Die Datenrate lag bei 17,5 Kilobytes pro Sekunde. Der IBM 1405 Plattenspeicher kam vor allem beim IBM 1401-Rechner zum Einsatz. Erstauslieferung IBM RAMAC 305 in Brasilien 1956

Ein Jahr später, im Juni 1961, wurde die IBM 1301 Platten1957 wurde der ‘Data Synchronizer’ am IBM System 709

einheit angekündigt. Sie wurde ein Jahr später, im 3. Quartal

eingeführt, der Vorläufer der heutigen Übertragungskanäle.

1962, an Kunden ausgeliefert. Die Entwicklung dieser Platten­ einheit trug in größtem Maße zur Weiterentwicklung zukünftiger

1959 führte IBM ein neues Programmpaket, das Eingabe-/

Plattensysteme bei und ist als Meilenstein in der gesamten

Ausgabesteuerungssystem IOCS für Magnetbänder und

Plattengeschichte zu betrachten. Das Platten­system 1301 war

Magnetplatten (Input/Output Control System) ein. Es han­

der Wegbereiter zukünftiger zur Anwendung kommender

delte sich um Makroinstruktionen zum Erstellen, Wiederauf­

Technologien in zwei Bereichen: die ‘Air Bearing Slider’-

finden und Verarbeiten von Dateien sowie zur Fehlerkorrektur.

Technologie und separate Schreib-/Leseköpfe für jede

Außerdem steuerte IOCS die Datenblockbildung und die Ent­

Plattenoberfläche mit der Möglichkeit, alle auf einen Daten­

blockung. IOCS blieb für spätere Systeme von maßgeblicher

zylinder physisch eingestellten Köpfe elektronisch für die

Bedeutung.

zutreffende Plattenoberfläche zu selektieren und nacheinan­

1958 verwendete IBM erstmals mit den Systemen IBM 7070 und 7090 die Technik der automatischen Programmunter­ brechung (Program Interrupt). Der Prozessor verzweigte bei bestimmten, von Eingabe-/Ausgabeeinheiten angezeigten Bedingungen automatisch zu Routinen, die den ‘Interrupt’ behandelten. 1958 wurde die Bandeinheit IBM 729 als Nachfolger des Vorgängers IBM 727 auf den Markt gebracht. Die IBM 729-Bandfamilie bot neben höheren Datenraten und höherer Speicherdichte die erste Schreibkontrolle. Mit der Einführung der IBM 729 wurde beim Schreiben auf Magnetband automa­ tisch geprüft, ob die eben geschriebene Information gültig war. Dazu wurde Stelle für Stelle in ein Prüfregister eingelesen und geprüft. Im Oktober 1960 wurde der Plattenspeicher IBM 1405 ange­ kündigt, der an den Systemen IBM 1401, 1410 und 1460 (nicht an System 7000) betrieben wurde. Dieser Plattenspeicher vervierfachte die Kapazität eines Plattenstapels im Vergleich zur RAMAC von 1956. Sowohl die Anzahl der Spuren pro

16

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

IBM 1405 Plattenspeicher, Ankündigung am 10. Oktober 1960, Zurückziehung 30. Juni 1970

1999 – 2005

2006 – 2010

Software

Anhang

IBM 1301 Plattenspeichereinheit, Ankündigung im Juni 1961, Zurückziehung aller Modelle im Oktober 1970

IBM 7340 Hyper Tape Drives in der Bildmitte, links die IBM 7640 Kontrolleinheit, rechts die IBM 729 Bandeinheiten

der zu bearbeiten. Damit war der Grundstein des Zylinder­

Die Hyper Tape Drives IBM 7340 reflektierten die neuste

prinzips bei Plattenspeichern gelegt und der ‘Plattenzylinder’

Bandtechnologie, als sie 1961 auf dem Markt eingeführt

geboren!

wurden. Zusammen mit der Kontrolleinheit IBM 7640 bedienten sie die IBM Rechner 7074, 7080 und 7090. Die Hyper Tapes

Neben höherer Kapazität und Leistung bot die Maschine eine

erzielten wesentlich schnellere Lese- und Schreib-Geschwin­

wesentlich flexiblere und höhere Übertragungsbandbreite

digkeiten im Vergleich zu den bisherigen Bandeinheiten.

durch das Prinzip, pro Plattenoberfläche einen Schreib-/Lese­

Angeschlossen am IBM 7090 Rechner lieferten sie die dop­

kopf zur Verfügung zu haben, und war auf die neue IBM 7000

pelten Übertragungsraten im Vergleich zum IBM 729 Band­

Serie von Rechnern abgestimmt (7070, 7094, 7080 und 7090).

system, der Weiterentwicklung der IBM 727.

Die Kapazitätssteigerung zur ersten RAMAC lag bei Faktor 13. Die Platten rotierten mit 1.800 Umdrehungen in der Minute.

Am 7. April 1964 wurde mit dem System/360 der Magnet-

Durch die Verkleinerung des Flugabstandes zwischen Kopf

streifenspeicher IBM 2321 angekündigt. Mit seiner Gesamt­

und Platte auf 250 Micro-Inches konnten 50 Spuren pro Inch

speicherkapazität von 400 MB auf 1.000 mit magnetisierbarer

und bis zu 520 Bits pro Inch aufgezeichnet werden. Das

Oberfläche versehenen Plastikstreifen galt er zu dieser Zeit

Modell 1 der IBM 1301 hatte ein Plattenmodul mit einer Kapa­

als Massenspeicher. Jeder Streifen enthielt 100 Datenspuren,

zität von 28 MB, das Modell 2 arbeitete mit zwei Modulen und

hatte eine Kapazität von 0,2 MB und wurde in sogenannten

einer Kapazität von 56 MB. Angeschlossen an die IBM 7631

‘IBM 2321 Data Cell Drives’ aufbewahrt. 200 solcher Streifen

Steuereinheit konnten bis zu 10 Module (oder bis zu fünf 1301

konnten in einer Datenzelle untergebracht werden. Die sich

Einheiten) zum Einsatz kommen, sie boten für die 7000-Serie

auf einem drehbaren Karussell befindlichen Datenzellen

eine maximale Kapazität von bis zu 280 MB. Interessant waren

wurden durch Rotation so positioniert, dass der gesuchte

auch die damaligen Preise: Das Modell 1 konnte monatlich

Speicherstreifen durch einen Greifer erfasst und um die

für 2.100 Dollar geleast werden oder für eine Summe von

Schreib-/Lesetrommel geführt werden konnte. Damit konnte

115.500 Dollar gekauft werden. Das Modell 2 mit zwei

die adressierte Datenspur gelesen oder beschrieben werden.

Modulen lag bei 3.500 Dollar monatliche Leasingrate und

Die aufwendige Konstruktion und der damit verbundene hohe

einem Kaufpreis von 185.500 Dollar.

Wartungsaufwand standen einer weiten Verbreitung entgegen.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

17

1952 bis 1961 Die Anfangsepoche der elektromagnetischen Speicherung

Kommentar zur Anfangsepoche der elektromagnetischen Speicherung Neben der Erfindung der ersten externen Speichereinheiten mit dem Rollenband IBM 726 und der Platteneinheit IBM RAMAC 350 war der Topmeilenstein die Einführung der Plat­ teneinheit IBM 1301. Die IBM 1301 war das erste Plattensystem, das mit ‘Air Bea­ ring Slidern’ arbeitete und für den Zugriff einen Zugriffskamm Prinzip und Arbeitsweise des IBM 2321 Magnetstreifenspeichers

verwendete, der jede Plattenoberfläche im Plattenstapel mit dedizierten Schreib-/Leseköpfen ansteuerte. Mit der IBM 1301 wurde die Zylinderarchitektur im Plattenstapel eingeführt, die bis heute ihren Stellenwert behalten hat. Bemerkenswert ist auch die Tatsache, dass bereits damals nach Möglichkeiten gesucht wurde, kleine Files, die nicht so häufig gebraucht wurden, auf einem billigeren Massenspeicher abzulegen. Für diesen Zweck wurde der Magnetstreifenspei­ cher IBM 2321 eingeführt. Geprägt wurde die Epoche auch dadurch, dass bei neuen Systemankündigungen immer die dazugehörigen neuen Plat­ teneinheiten, die dem neuen System leistungsmäßig ange­ passt waren, Teil der Systemankündigung waren. Die Anfangsepoche legte viele Grundlagen für die Folge­

IBM 2321, Gesamtkapazität von 400 MB, Ausbaustufen von 40 bzw. 80 MB, Zugriffszeiten von 95 bis 600 ms

18

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

epochen.

1999 – 2005

2006 – 2010

Software

Anhang

1962 bis 1974

Die Epoche der Wechselplatten und die ‘Winchester’-Zeit

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

19

1962 bis 1974 Die Epoche der Wechselplatten und die ‘Winchester’-Zeit

IBM 1311: Ankündigung am 11. Oktober 1962, Zurückziehung aller Modelle 1971

Die zwischen 1962 und 1964 eingeführten Magnetplatten-

Das erste Modell des Magnetplattenspeichers IBM 1311 mit

speicher IBM 1311, IBM 2311 und IBM 2314 zum Anschluss

Wechselplatten wurde im Oktober 1962 mit dem System

an die 360er-Systeme arbeiteten mit auswechselbaren

IBM 1440 angekündigt. Der Wechselplattenstapel war aus

Magnetplattenstapeln. Die neue Plattensteuereinheit IBM

sechs 14-Zoll-Platten aufgebaut, wog 10 Pfund und bildete

2841 war erstmals Mikroprogramm-gesteuert. Dies war

eine Speicherkapazität von 2 MB ab. Im Vergleich zur IBM

erforder­lich, weil mehrere Speichertypen gesteuert werden

1301 verdoppelte sich die lineare Speicherdichte auf 1.025

mussten, einschließlich des neu verwendeten CKD-Formats.

Bits pro Inch. Dies wurde dadurch erreicht, dass der Abstand

IBM entwickelte das Aufzeichnungsformat CKD (Count,

zwischen den Köpfen zu den Plattenoberflächen im Vergleich

Key, Data, frei übersetzt: Sektorkennzeichnung, Schlüssel,

zur IBM 1301 um Faktor 2 auf 125 Micro-Inches reduziert

Daten), das als optimierte Version ECKD über das Jahr 2000

wurde. Die Platten drehten mit 1.500 RPMs und boten eine

hinaus gültig blieb und bis heute im Mainframe(z/OS)-Umfeld

durchschnittliche Zugriffszeit von 150 ms.

eingesetzt wird. Das ‘E’ steht für ‘Extended’, also zu deutsch ‘erweitert’. Wie ein Zugriff auf Daten nach dem CKD-Verfahren abläuft, ist mit dem Produkt der IBM 3330 beschrieben.

Das IBM 1302 Festplattensystem wurde am 23. September 1963 angekündigt und am 9. Februar 1965 wieder vom Vertrieb zurückgezogen

20

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

IBM 2401 Magnetbandeinheit

1999 – 2005

2006 – 2010

Software

Anhang

1963 wurde noch ein Nachfolger der IBM 1301 mit fest ein­ gebauten Platten angekündigt. Die IBM 1302 sah optisch genauso aus wie die IBM 1301, bot aber auf der Platten­ober­ fläche 500 Datenspuren (1301 hatte 250 Spuren pro Platten­ oberfläche). Wie bei der 1301 wurden 20 Platten im Stapel verwendet und die Kapazität von 28 MB auf 58,5 MB gestei­ gert. Damit bot das Modell 1 der 1302 eine Kapazität von 117 MB und das Modell 2 von 234 MB. Die Datentransferrate wurde von 90 KB/s auf 180 KB/s gesteigert. 1964 kam speziell für die Rechnerfamilie System/360 das neue Magnetbandsystem IBM 2401 auf den Markt, das mit 9 Spuren gleichzeitig auf dem Rollenband aufzeichnen konnte und eine wesentlich höhere Zuverlässigkeit im Vergleich zu

IBM 2305 Fixed Head Storage, bekannt als ‘Zeus-Speicher’, Markteinführung 1971, Zurückziehung vom Vertrieb im Januar 1980

den Vorgängern IBM 726, 727 und 729 bot. Dies wurde durch

eine um 20 % schnellere Zugriffszeit boten, die im Bereich

die Einführung eines sogenannten CRC (Cyclic Redundancy

von 60 bis 75 ms lag. Die Kapazität blieb dieselbe. Im

Check) erreicht, das die erste automatische Fehlerkorrektur

Dezember 1970 wurde die Plattenfamilie 2314 noch durch

ermöglichte (Automatic Error Capture & Correction) und Basis

ein Modell B1 ergänzt, das 50 % höhere Kapazität anbot.

für die späteren ECCs (Error Correction Codes) bei Band­ systemen lieferte.

Im Januar 1970 wurde das Plattensystem ‘IBM 2305 Fixed Head Storage’ angekündigt, das unter dem Entwicklungs­

Im April 1965 – ein Jahr nach der Ankündigung des Prozes­

namen ‘Zeus’ entwickelt wurde und als IBM Zeus bekannter

sors System/360 – wurde das Plattensystem IBM 2314 als

wurde als unter dem offiziellen Typennamen. 1971 erfolgten

‘IBM Direct Access Storage Facility’ angekündigt. Dies war

die ersten Auslieferungen. Die IBM 2305 war für große Daten­

das erste Plattensystem, bei dem Controller und der Strang

bankanwendungen und für das Batch Processing bestens

mit Plattenstapeln in einer Konfiguration bestellt und aufge­

geeignet und wurde bei großen System/360 Rechnern der

baut werden konnten. Mit der 2314 wurde ein neuer Platten­

Modelle 85 und 195 und später dann bei den System/370

stapel mit der doppelten Anzahl an Plattenoberflächen ein­

Modellen 155 und 165 für diese Applikationsformen einge­

geführt, der eine Speicherkapazität von 29,2 MB abbildete.

setzt. Mit zwar kleinen Speicherkapazitäten von 5,4 MB und

Das Gesamtsystem bot eine maximale Kapazität von 233,4

10,8 MB, jedoch mit einer durchschnittlichen Zugriffszeit von

MB. Im Vergleich zur 1311 war die 2314 um den Faktor 4

2,5 ms bzw. 5 ms war das System das schnellste seiner

billiger, was das gespeicherte MB betraf. Die Datenrate lag bei

Zeit. Die Datenrate lag bei 3 MB/s und damit 10-fach höher

310 KB pro Sekunde. Im Januar 1969 kamen zwei neue Versi­

als bisherige Plattensysteme.

onen der 2314 auf den Markt, die Modelle A1 und A2, die

IBM 2314 Produktionslinie in Mainz 1969

1952 – 1961

1962 – 1974

IBM 2314 Plattensystemfamilie, Ankündigung Modell 1 am 22. April 1965, Modelle A1 und A2 am 10. Januar 1969, Modell B1 am 14. Dezember 1970, Zurückziehung vom Vertrieb im Jahr 1978

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

21

1962 bis 1974 Die Epoche der Wechselplatten und die ‘Winchester’-Zeit

1970 bis 1972: Der virtuelle Speicher, der auf Magnetplatten

Bei der Empfindlichkeit magnetischer Aufzeichnung gegen

abgebildet wurde, schaffte eine neue Qualität in der Bezie­

elektrische und mechanische Störungen musste man von

hung zwischen Prozessoren und Magnetplattenspeichern.

Anfang an mit Bitfehlern rechnen. Über Zusatzbits zur Paritäts­

Online-Anwendungen gewannen rasch an Bedeutung. Wie

prüfung entwickelte IBM immer ausgefeiltere Methoden, um

die neuen Prozessoren IBM/370 trugen Subsysteme aus

Redundanzbits zu generieren, die den gespeicherten Daten

den Steuereinheiten IBM 3830 und Magnetplatteneinheiten

angehängt wurden. Bei den Aufzeichnungsformaten CKD

IBM 3330 den steigenden Leistungs- und Zuverlässigkeits­

und ECKD findet diese ‘Redundanz’-Aufzeichnung in den

anforderungen Rechnung. Neue Blockmultiplexkanäle sorgten

Zwischenräumen (Gaps) zwischen den Datensätzen statt.

für wesentlich höhere Datenübertragungsraten und trugen zu

Mit ihrer Hilfe ließen sich durch entsprechende Programme

einer wesentlich höheren Gesamtleistung bei. Dazu einige

in Rechnern und Steuereinheiten die meisten Bitfehler beim

Einzelheiten:

Übertragen ohne nennenswerte Zeitverzögerung korrigieren und durch technische Einflüsse verfälschte Daten praktisch

Die Plattensteuereinheit IBM 3830 war Mikroprogramm-gesteu­

ausschließen. Die Verfahren setzten für jede Datei die Defini­

ert, jedoch erstmals mit einem ladbaren Mikroprogramm­

tion sogenannter ‘physischer Sätze’, einer einheitlichen Länge

speicher, der über eine Diskette geladen wurde. Mit dem

in Bytes, voraus. Solche Sätze wurden als Blöcke bezeichnet.

Mikroprogramm war es möglich, mehr Funktionen als in den

Bei Eingabe-/Ausgabe-Operationen wurden immer komplette

Vorgängermodellen zu realisieren. Dazu zählten das Erkennen

Blöcke übertragen und geprüft. Meistens war es zweckmäßig,

und Beseitigen von Bitfehlern, gegebenenfalls mehrfaches

in einem Block mehrere ‘logische Sätze’ zusammenzufassen.

Wiederholen von Kanalbefehlen vor Übergabe einer Fehler­

Sie bestanden aus einem Ordnungsbegriff, dem in ‘Feldern’,

behandlung an den Rechner und das Sammeln von Infor­

die nach Lage und Länge definiert waren, die zugehörigen

mationen über aufgetretene Fehler für das Systemprotokoll

Angaben und Informationen folgten. Bei administrativen

(LogRec). Diese Aufzeichnungen lieferten den Bedienern

Anwendungen wären z. B. Artikel-, Kunden- oder Personal­

Informationen über den technischen Zustand von Datenträ­

nummern die Ordnungsbegriffe. In den Feldern standen dann

gern und boten dem technischen Außendienst Hinweise für

alphabetische und numerische Informationen. Die Anzahl der

vorbeugende Wartung.

logischen Sätze im physischen Satz bezeichnete man als Blockungsfaktor.

IBM 3330, Kapazität 800 MB, 2-8 Laufwerke, Zugriffszeit 30 ms, Datenrate 806 KB/s, Ankündigung Modell 1 am 30. Juni 1970, Modell 2 am 4. Oktober 1972, Modell 11 am 17. Juli 1973, Zurückziehung vom Vertrieb am 20. Dezember 1983

22

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Nach bisherigen hydraulischen Zugriffsmechanismen benutzten die Magnetplatteneinheiten IBM 3330 erstmals für das ‘Suchen’, die horizontale Einstellung des Zugriffskammes mit den Schreib-/Leseköpfen, einen Linearmotor. Wie bei Lautsprechern wirkt ein durch variablen Stromfluss in einer Spule erzeugtes Magnetfeld dem statischen Feld eines Permanentmagneten entgegen. Deshalb die eng­ lische Bezeich­nung ‘Voice Coil Motor’ (Lautsprecherspulen­ motor). Die Lage der Schreib-/Leseköpfe zu bestimmten Zeit­ punkten ergab sich aus der Stärke des von der Spule erzeugten Magnetfelds. Diese Technik setzte voraus, dass jeweils eine Oberfläche eines Plattenstapels mit vom Benut­ zer unveränderbaren Servo­spuren versehen war. Der darüber

IBM 3340, Maximalkapazität bis 4.800 MB, Winchester-Wechselplatten Modell 35: 35 MB, Modell 70: 70 MB, bis zu 64 Laufwerke (Modelle 158, 168), Datenrate 885 KB/Sekunde, Zugriffszeit 25 ms

angeordnete (Nur-)Lesekopf versorgte die elektronische Steu­ erung mit den für gezieltes Positionieren im Rahmen eines Regelungskreislaufs notwen­digen Informationen. Diese

Kanal des Rechners, sobald der Anfang des im Kanalbefehl

Technik reduzierte damals die durchschnittliche Dauer einer

vorgegebenen Sektors erreicht war. Der Kanal war nur wäh­

Suchoperation auf Anhieb um die Hälfte: statt 60 dann nur

rend der Datenübertragung belegt. Mehrere Platteneinheiten

noch 30 ms.

konnten Suchbefehle überlappt ausführen. Auch die Umdre­ hungswartezeit (damals bei ca. 17 bis 20 ms) belastete den

Für einen verbesserten Ablauf des direkten Zugriffs auf Daten

Kanal nicht. Diese Methode erlaubte höhere systemeffektive

war Folgendes von Bedeutung: Die Steuereinheit IBM 3830

Daten­raten des Magnetplattensystems, die bei günstigen

konnte mithilfe entsprechender Informationen von der Servo­

Konfigurations- und Anwendungsprofilen nicht sehr weit

platte als erste die Dreh- oder Winkelposition der an sie

unter der Übertragungsleistung der Einheiten lag.

angeschlossenen Magnetplatteneinheiten erkennen (RPS – Rotational Position Sensing). Mit dem Plattensystem IBM

1973: Das an mittlere Rechnersysteme IBM/370, Modelle 115,

3830/3330 lief ein Routinezugriff wie folgt ab: Nach Angaben

125 und 135, direkt anschließbare neue Magnetplattensystem

aus den Datenträgerinhaltsverzeichnissen, den sogenannten

IBM 3340 benutzte als auswechselbaren Datenträger das

VTOCs (Volume Table Of Contents), und den Indizes zu den

Datenmodul IBM 3348. Die auswechselbaren Datenmodule

Dateien generierte der Rechner mithilfe der Programme der

3348 boten 35 oder 70 MB Kapazität. Ein Modul enthielt in

Zugriffsmethodensteuerung einen Kanalbefehl. Dieser enthielt

einem geschlossenen, staubgeschützten Gehäuse den Plat­

die Plattenadresse, von der zu lesen oder auf die zu schreiben

tenstapel und einen horizontal beweglichen Zugriffskamm mit

war, nach Einheit, Zylinder, Spur und Sektor. Die konzent­

zwei Schreib-/Leseköpfen je Datenoberfläche. Das Modul war

rischen Spuren auf den Plattenoberflächen waren in Sek­

auf die Welle des Antriebsmotors im Laufwerk aufgesetzt.

toren eingeteilt. Als Zylinder bezeichnete man die Summe

Nach dem automatischen Öffnen einer seitlichen Jalousie

der übereinanderliegenden Spuren auf einem Plattenstapel,

verbanden elektrische Steckverbindungen den Zugriffskamm

von denen bei einer gegebenen horizontalen Einstellung

mit dem Laufwerk und eine mechanische Verbindung den

eines Zugriffskammes mit ebenfalls übereinander angeord­

Zugriffskamm mit dem Linearmotor. Der Grund für diese Kon­

neten Schreib-/Leseköpfen gelesen oder auf die geschrie­

struktion: Wenn auswechselbare Plattenstapel als Datenträger

ben werden konnte. Die Steuereinheit wandelte den Kanal­

dienten, bedeu­tete das insbesondere für Zugriffskämme

befehl in spezifische Befehle für die Einheiten um. Den

extreme Ansprüche an die Fertigungstoleranzen, weil jeder

Suchbefehl zum Einstellen des Zugriffskammes auf den kor­

Stapel zu jedem beliebigen Laufwerk passen musste und

rekten Zylinder führten die Einheiten selbstständig aus und

schon minimale horizontale Abweichungen der Köpfe über

meldeten der Steuereinheit den Abschluss der Suchopera­

den Spuren zu Lesefehlern führte. Dieser Umstand setzte der

tion. Dann aktivierte die Steuereinheit den richtigen Schreib-/

horizontalen Spurdichte Grenzen und minderte die Sicherheit

Lesekopf, analysierte seine Position bezogen auf die Sek­

und Zuverlässigkeit der Systeme. Maximal vier Module mit

toren und begann mit dem Übertragen der Daten über den

einer maximalen Kapazität von 280 MB konnten über einen Direkt­anschluss am IBM/370 Rechner betrieben werden.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

23

1962 bis 1974 Die Epoche der Wechselplatten und die ‘Winchester’-Zeit

Die neuen Magnetbandeinheiten IBM 3420, Modelle 4, 6 und 8, die 1973 auf dem Markt eingeführt wurden, steiger­ ten mit dem Verfahren der ‘gruppencodierten Aufzeichnung’ (Group Coded Recording) die Aufzeichnungsdichte von 1.600 auf 6.250 Bytes per Zoll und die maximale Übertra­ gungsrate wurde – je nach Modell – auf 470, 780 und 1.250 Kilobytes pro Sekunde gesteigert. Gleichzeitig erhöhte sich die Zuverlässigkeit um den Faktor 7 (im Vergleich zu den Modellen 3, 5, und 7). Um die Bedienung zu erleichtern, kündigte IBM 1971 parallel Aufbau IBM 3340 Winchester-Wechselplattenstapel

zum 3420 Magnetbandsystem das IBM 3410 Magnetband-

Die IBM 3340 mit den Modellen A2, B1, B2 und C2 wurden

system an, das von der Bauhöhe her Pultform hatte und

am 13. März 1973 angekündigt. Die Modelle B1 und C2

erstmals erlaubte, die Rollenbänder horizontal von oben ein­

wurden am 20. Dezember 1983 und die Modelle A2 und B2

zulegen. Die Kapazitäten und die Technologie waren mit der

am 1. Mai 1984 vom Vertrieb zurückgezogen.

3420 vergleichbar, allerdings war die Schreib-/Lesegeschwin­ digkeit wesentlich niedriger. Die 3410 wurde deshalb – neben

Die Tatsache, dass beim Datenmodul der Magnetplatten­

dem 3420 Magnetbandhochleistungssystem – als kosten­

speicher IBM 3340 immer der gleiche Zugriffskamm schrieb

günstige Alternative für Benutzer der IBM System/370 und

und las, ermöglichte höhere Spurdichten bei gleichzeitig ge-

IBM System/360 angeboten.

steigerter Zuverlässigkeit. Die Konstruktion insgesamt führte zu kürzeren Suchzeiten und etwas höherer Übertragungs­

1974: Im Zuge des verstärkten Übergangs der mit dem Sys­

leistung gegenüber der IBM 3330.

tem/370 begonnenen Direktverarbeitung mit preisgünstigen Terminals zur Programmentwicklung und Problemlösung

24

Mit den neuen Magnetbandeinheiten IBM 3420, Modelle 3,

(VM/370, APL) wuchs die Zahl der Dateien bei Benutzern

5 und 7, die in 9-Spur-Technik mit einer Aufzeichnungsdichte

großer Systeme dramatisch. Anders als bei den mit wenigen

von 1.600 Bytes pro Zoll arbeiteten, konnte eine Datenrate –

großen Dateien und ausgefeilten Sicherungsverfahren arbei­

je nach Modell – von 120, 200 und 320 Kilobytes pro Sekunde

tenden Datenbankanwendungen (IMS, CICS) wurde es

erzielt werden. Diese Modelle wurden 1970 eingeführt.

immer schwieriger, speziell die vielen kleinen, unregelmäßig

IBM 3420 Magnetbandeinheit, 1970 Modelle 3, 5 und 7, 1973 Modelle 4, 6 und 8

IBM 3410 Magnetbandsystem mit horizontaler Bandeinlegemöglichkeit

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

benutzten Bestände unter manueller Verwaltung zuverlässig zu sichern und zu archivieren. Um diese Aufgabe zu lösen und um kostengünstigeres Speichern von Daten unter Sys­ temkontrolle zu ermöglichen, führte IBM neue Hardware und Software ein. Der Massenspeicher MSS (Mass Storage System) IBM 3850 bildete auf zwei speziellen zylinderförmigen Magnetband­patronen den Inhalt eines Datenträgers des Magnetplattenspeichers IBM 3330 ab. Man kann ihn als ersten virtuellen ‘Plattenspeicher’ bezeichnen, der gleich­ zeitig ein automa­tisches Bandarchiv darstellte. Alle aktiven Patronen lagerten in einem Schrank mit einander gegenü­ berliegenden Regalen in wabenförmigen Zellen. Bei Anfor­

IBM MSS 3850 im Rechenzentrum im Hintergrund rechts

derung durch die Programme bewegte eine sinnreiche Kon­

ILM, Information Lifecycle Management, das heute in

struktion einen sogenannten Picker automatisch zur richtigen

aller Munde ist, wurde bereits intensiv im Jahr 1974 gelebt!

Patrone. Der Picker hielt den Datenträger im Gegensatz zu

Der HSM (Hierarchical Storage Manager) als Verwalter der

späteren mechanischen Greifern elektromagnetisch fest und

Speicherhierarchie war damals ein Programm, das zunächst

brachte ihn zu einer Schreib-/Lesestation, von der die

in Verbindung mit dem Massenspeicher die ihm unterstellten

gewünschten Daten zum Verarbeiten auf bestimmte

Dateien gemäß vorgegebener Steuerungskriterien automatisch

Magnetplattenlaufwerke (Staging Devices) übertragen wur­

sicherte und im Bedarfsfall wiederherstellte. Eine weitere

den oder umgekehrt. Nach Ablauf der Operation brachte

damals bereits verfügbare Funktion war das Verlagern von

die gleiche Vorrichtung die Patronen an ihren Lagerort

Dateien vom teuren Plattenspeicherplatz auf billigere Speicher

zurück. Der Bediener war nur noch mit den Patronen befasst,

(ursprünglich auf den MSS) während der Zeiten, in denen

die der Massenspeicher nach Programmvorgaben über

sie nicht benötigt wurden. Um den Speicherplatz optimal zu

entsprechende Stationen aussteuerte oder die er von außen

nutzen, konnte der HSM zu archivierende Dateien kompri­

anforderte. Der Massenspeicher konnte bis zu 236 GB im

mieren, indem er leere Bereiche auf den Datenträgern aus­

Zugriff der Prozessoren halten. Die technische Entwicklung

ließ, und er konnte darüber hinaus Daten mithilfe binärarith­

der Magnetspeicher – Platte, Band – ließ keinen sinnvollen

metischer Verfahren verdichten (Compression, Compaction).

Nachfolger zu, während die zugehörige Software bis heute,

Zum Verarbeiten stellte er den ursprünglichen Zustand der

im Jahr 2006, hochaktuell blieb.

betreffenden Datei wieder her. An unterschiedlichste Konfigurationen mit unterschiedlichen externen Speichern angepasst, blieb der HSM fester Bestand­ teil späterer Pakete von Dienstleistungsprogrammen für den Bereich externer Speicher, z. B. der IBM DF-Produkte (Data Facility), die den systemverwalteten Speicher zum Ziel hatten. So wurden die DF-Produkte als Programmprodukte im Main­ frame-Umfeld, beginnend mit DFP, 1989 eingeführt. Kurz darauf folgte der DFDSS und der DFHSM, die dann alle unter dem Programmpaket DFSMS (Data Facility System Managed Storage) 1992 zusammengefasst wurden und ein Jahr später komplett ins MVS-Betriebssystem integriert wurden. HSM spielt unter unterschiedlichen Bezeichnungen bis heute eine ganz maßgebliche Rolle.

IBM Mass Storage System 3850 mit ‘Honeycomb Racks’ 1974

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

25

1962 bis 1974 Die Epoche der Wechselplatten und die ‘Winchester’-Zeit

IBM 3850 Roboter mit Doppelgreifer (Standard) in Aktion

IBM 3850 Bandpatronen mit 19,5 Metern Bandlänge und einer Kapazität von jeweils 50 MB im Größenvergleich zum 3330 Plattenstapel mit 100 MB Kapazität

Das MSS 3850 gab es in acht Modellvarianten. Das kleinste

Die Epoche war wie die Anfangsepoche durch neue System­

Modell speicherte bis zu 706 Bandpatronen, bot eine Kapazi­

ankündigungen geprägt, in denen immer das dafür passende

tät von 35,3 GB und konnte bis zur größten Variante mit

Platten- und Bandsystem Teil der Ankündigung war. Davon

bis zu 4.720 Patronen und einer Kapazität von 236 GB aus­

losgelöste Speicherankündigungen fanden nicht statt.

gebaut werden. Der Einsatz der damals verwendeten Wechselplatten war bei Kommentar zur Epoche der Wechselplatten und

den Endbenutzern sehr beliebt, weil man diese tragbaren

der ‘Winchester‘-Zeit

Plattenmodule auch für den Datenträgeraustausch zwischen

Das starke Ansteigen der Rechnerleistungen durch neue

unterschiedlichen Lokationen einsetzen konnte. Die 1970 und

Systeme machte es notwendig, viele neue Dinge auf der

1973 neu angekündigten Modelle der 3420 wurden auschließ­

Speicherseite einzuführen, um den neuen Leistungsanforde­

lich für Backup-Zwecke eingesetzt. Erst in der Folgeepoche,

rungen dieser Rechner gerecht zu werden.

in der man wieder fest eingebaute Platten einsetzte und vom Prinzip der Wechselplatten wegging, erlebte die 3420

So wurden mit der IBM 2841 und IBM 3830 die ersten Mikro­

eine wahre Blütezeit. Das Rollenband war dann das einzige

programm-gesteuerten Steuereinheiten und das bis heute

Medium, das als auswechselbarer Datenträger eingesetzt

gültige CKD-Format (heute ECKD bei zSeries) eingeführt. Für

werden konnte.

höhere Übertragungsbandbreiten sorgten die neu eingeführ­ ten Blockmultiplexing-Kanäle, die maßgeblich zu einer Ver­

Da die kapazitiven Anforderungen immer größer wurden und

besserung der Gesamtleistung von Rechner und Speicher­

neben Online-Speichern neue Massenspeicher mit höheren

peripherie beitrugen.

Kapazitäten verlangt wurden, war eines der Meilensteine die­ ser Epoche sicherlich das IBM 3850 Mass Storage System,

26

Bei den Platten selbst wurden kleinere Formfaktoren und

das erste Nearline-Roboter-System der Welt mit Bandpatronen,

kleinere Flughöhen zwischen Kopf und Plattenoberfläche

die wie die damaligen Wechselplatten als Online-Speicher

eingeführt, um die Leistung durch schnellere Drehgeschwin­

adressiert wurden. Die Tatsache, dass bei dem MSS erstmals

digkeiten und Datenraten sowie die kapazitiven Möglichkeiten

ILM über eine HSM-Funktionalität eingeführt wurde, muss

zu verbessern. Fast parallel dazu wurde die Leistung der

besonders hervorgehoben werden. Diese HSM-Funktionalität

Bandsysteme angepasst und durch neue Möglichkeiten der

legte den Grundstein für die späteren DF-Produkte (Data

Mehrspurtechnik wurden die Datenraten erhöht.

Facility) im Mainframe-Umfeld.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

1975 bis 1993

Die Epoche der fest eingebauten Platten mit externen Kontrolleinheiten

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

27

1975 bis 1993 Die Epoche der fest eingebauten Platten mit externen Kontrolleinheiten

IBM 3350, Kapazität bis 2.536 MB, 317 MB per LW, 8 Laufwerke pro 3350 Strang, Zugriffszeit 25 ms, Datenrate 1.198 KB/s, links hinten: Display-Einheit für Microfiches, rechts hinten: Steuerkonsole des Systems/370 Modell 168

IBM 3310 Direct Access Storage, Plattensystem für IBM 4331 Rechner

1975: Mit dem Magnetplattenspeicher IBM 3350 ging die

Archivierung und Datenträgeraustausch blieb, löste die IBM

IBM wieder zu fest eingebauten Platten über. Das bedeutete

3350 einen deutlichen Verkaufsanstieg bei Magnetbandein­

einen entscheidenden Schritt zu höherer Zuverlässigkeit

heiten aus, insbesondere bei den schnellen Modellen 6 und 8

und Verfügbarkeit sowie höherer Aufzeichnungsdichte. Bei

des Magnetbandsystems 3420. Fortan waren Magnetbänder

dieser Konstruktion waren gegenüber der mit Datenmodulen

unverzichtbarer Bestandteil größerer und auch mittlerer Daten­

arbeitenden Type IBM 3340 potenzielle Störstellen nicht mehr

verarbeitungssysteme.

vorhanden, auf die 70 % der notwendigen Technikereingriffe zurückzuführen waren. Tatsächlich registrierte der IBM Tech­

1979 führte IBM ein weiteres Plattensystem ein, das IBM 3310

nische Außendienst bei IBM 3350 im Durchschnitt weniger

Direct Access Storage, das in einer kompakten Bauweise

als einen Eingriff pro Einheit und Jahr. IBM 3350 und die Nach­

hohe Leistung bei einem sehr günstigen Preis bot und seinen

folgeprodukte setzten das mit IBM 3330 begonnene Strang­

Einsatz im Anschluss an IBM 4331, 4341, 4321, 4361 und

konzept fort. An eine Kopfeinheit (Master Unit) mit zwei Lauf­

kleine 4381 Rechner fand. Jeder Plattenstapel bot eine

werken konnte man bis zu drei Nebeneinheiten anschließen.

Gesamtkapazität von 64,5 MB und der gesamte Plattenstrang

Ein Strang bestand also aus acht Laufwerken. Die Kopfeinheit

258 MB. Bis zu vier Plattenstränge konnten an obigen Rech­

besaß grundsätzlich zwei Ein-/Ausgänge zur Steuereinheit

nermodellen betrieben werden und boten eine Gesamtkapa­

IBM 3830. Die beiden Verbindungen konnten zu verschiede­

zität von 1.032 MB.

nen Einheiten 3830 führen. Fielen ein Kanal, eine Steuerung oder Steuerelemente in der Kopfeinheit aus, lief der Betrieb

1979 bis 1983: IBM 3370 und 3375 waren neu entwickelte

auf der zweiten Verbindung zu jedem Laufwerk weiter, wenn

Magnetplatteneinheiten an der neuen Steuereinheit IBM 3880

auch mit geringerer Leistung. Man kann in diesem neuen

für damals mittlere Systeme. Sie arbeiteten aus Gründen der

Konzept den ersten Einstieg in Konzepte der Fehlertoleranz

Vereinfachung und Beschleunigung von Programm­abläufen

erkennen.

mit festen Blöcken von 512 Bytes. Der Benutzer definierte größere Blocklängen mit einem Vielfachen von 512. Damit

Weil mit dem Magnetplattensystem IBM 3350 mit fest einge­

war die erste FBA(Fixed Block Architecture)-Platte geboren.

bauten Platten nun die Magnetbandrolle das einzige aus­ wechselbare Speichermedium für Datensicherung, Offline-

28

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

IBM 3380 Platten und 3880 Steuereinheiten füllten damals ganze Rechenzentrumshallen

Die neue IBM 3880 Steuereinheit leitete ein neues Steue­

werke kamen gerade rechtzeitig, denn zu diesem Zeitpunkt

rungsprinzip ein, das in der Weiterentwicklung 1985 die erste

war deutlich geworden, wie notwendig es bei der engen

Integration von Pufferspeichern, anfangs von 8 bis 16 MB,

Beziehung zwischen Prozessoren und Plattenspeichern war,

zur Folge hatte. Diese kleinen Pufferspeicher waren für das

die Leistung beider aufeinander abzustimmen.

Ein- und Auslagern von Seiten (Paging, Swapping) gedacht und wirkten sich zunächst auf die Leistung älterer Konfigura­

1981 wurden die Standardmodelle AA4 und B04 der IBM 3380

tionen ohne Erweiterungsspeicher aus. Die Verwendung von

angekündigt. 1985 folgten die erweiterten Modelle AD4, BD4,

größeren Pufferspeichern führte dann zur Einführung neuer

AE4 und BE4. 1987 wurden die schnellen AJ4 und BJ4 und

Caching-Algorithmen. Die zu schreibenden Daten wurden in

die schnellen, großkapazitiven Modelle AK4 und BK4 ange­

der Steuereinheit auf Halbleiterspeicherkarten zwischenge­

kündigt. Ebenso erfolgte 1987 die Ankündigung der 3380 CJ2,

speichert und auf einem stromunabhängigen Schreibspeicher

eines Modells, bei dem die Steuereinheit im Plattengehäuse

dupliziert. Danach meldete die Steuereinheit dem Rechner

integriert war.

den Abschluss der Operation, obwohl die Daten noch nicht auf die Platten geschrieben waren. Diese Operation wurde damals als ‘DASD Fast Write’ bezeichnet, weil durch dieses Prinzip die Antwortzeiten zwischen den Plattensystemen und dem Rechner um ein Vielfaches verbessert wurde. Dieses damals eingeführte ‘Caching’-Prinzip für Plattensubsysteme wurde dann rasch weiterentwickelt und hat bis heute Gültigkeit. 1981: IBM 3380 waren Magnetplatteneinheiten, die als Neuentwicklung für die 3880 Steuereinheiten optimiert waren und das CKD-Format fortsetzten. Die IBM 3380 übertrug mit 3 MB pro Sekunde und nutzte dabei spezielle Fähigkeiten der Blockmultiplexkanäle (Data Streaming). Die neuen Lauf­

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

IBM 3370, 1 Plattenstapel pro Einheit mit 2 Zugriffsarmen und 2 Adressen, Modell 1: 571 MB, Modell 2: 730 MB, jeweils per Einheit, bis zu 4 Einheiten mit 2.285 – 2.920 MB Kapazität, Zugriff 20 ms, Datenrate 1,86 MB/s

1999 – 2005

2006 – 2010

Software

Anhang

29

1975 bis 1993 Die Epoche der fest eingebauten Platten mit externen Kontrolleinheiten

Die Zeit der 3380-Platte brachte im Antwortzeitverhalten, im Durchsatz und in den hohen Kapazitäten für die damals betrie­ benen IBM Rechner 3031, 3032, 3033, 3042 und /370 große Fortschritte. Die durchschnittlichen Suchzeiten bewegten sich – je nach Modell – zwischen 12 und 16 ms. Immer zwei Laufwerke waren in einer Gehäuseeinheit untergebracht. Pro Laufwerk wurden Kapazitäten von 1,26 GB (J-Modelle) und 3,78 GB (K-Modelle) abgebildet. Dies bedeutete für einen voll ausgebauten 4-pfadigen Strang von J-Modellen eine IBM 3430 Magnetbandsubsystem, letztes Rollenband der IBM, Markteinführung 1983

Gesamt­kapazität von 20,16 GB und bei den K-Modellen wurden bis zu 60,5 GB Gesamtkapazität erreicht. Die Platten wurden im 14-Zoll-Format gebaut. Um die gewich­

1984:

tigen Plattenstapel aus den Gehäuseeinheiten zu heben, wur­

Die erreichte Dynamik in der Leistung von 3880/3380 Plat­

den vom technischen Außendienst speziell dafür gebaute

tensubsystemen und /370 Rechnern erforderte auch eine

Hubwagen eingesetzt.

Leistungsanpassung auf der Backup-Seite, den Magnetband­ systemen. Mit der IBM 3480 wurde der Wechsel von den bis

Im 3880/3380 Subsystem wurde aus Pfadredundanzgründen

dahin verwendeten Rollenbandsystemen auf die Kassetten­

die Funktion ‘Dynamic Path Reconnect’ eingeführt, die im

technik eingeleitet. Das neue Magnetbandsystem IBM 3480

Falle eines Pfadfehlers dafür sorgte, dass die Datenübertra­

übertrug, gleich schnell wie die Plattenspeicher IBM 3380, mit

gung zu jedem HDA des Subsystems auf einem alternativen

3 MB pro Sekunde und schloss damit die Lücke im Gesamt­

Pfad erfolgen konnte. Diese Multipfadarchitektur in Verbindung

systemverhalten. Die bis dahin verwendeten 10,5-Zoll-Rollen­

mit dem neuen Kanalsubsystem des Mainframes sorgte für

bänder der 3420 Technologie wurden durch handtellergroße,

einen um 30 % höheren Durchsatz im Speichersubsystem.

rechteckige Kassetten abgelöst. Bei einer Aufzeichnungs­ dichte von 38.000 Bytes pro Zoll nahmen die neuen Kassetten doppelt so viel Daten auf wie herkömmliche Bandrollen,

Physikalische Spezifikation der 3380 Plattensubsysteme: Modelle

A/B

D

E

CJ2

J

K

4

4

4

2

4

4

885

885

1770

885

885

2655

Tracks per Device

13275

13275

26550

13275

13275

39825

GB per Unit (Box)

2.520

2.520

5.041

1.260

2.520

7.562

Actuators per Unit Zylinder per Device

also bis zu 200 MB. Mit einem Zusatz, einem Vorratsschacht (Stacker), konnten mehrere Kassetten hintereinander automa­ tisch vorgeladen werden. Das erleichterte maßgeblich das Sichern großer Datenbestände.

Auf der Magnetbandsubsystemseite führte IBM 1983 das letzte Rollenbandsystem mit der IBM 3430 ein, das vor allem bei IBM 43xx- und IBM 303x Series-Prozessoren, aber auch bei dem damaligen Midrange System/38 seinen Einsatz fand. Die kompakte Bauweise erlaubte den Benutzern die Aufstel­ lung auf wesentlich kleinerer Fläche im Vergleich zur IBM 3420. Die Rollenbänder wurden von oben horizontal eingelegt wie bei IBM 3410 (1971). Aufgrund der ein Jahr später angekündigten neuen IBM 3480 Kassettentechnik als Ablösung der Rollenbänder fanden 3430 Einheiten nicht in großen Stückzahlen ihren Absatz, hiel­ten sich aber dennoch ziemlich lange auf dem Markt, um der Daten­ trägeraustauschanforderung gerecht zu werden, die in den Folgejahren immer noch auf Rollenbändern gemacht wurde. IBM 3480 Magnetbandsystem

30

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

einen Kompromiss für Lesen und Schreiben finden, um beide Vorgänge zu ermöglichen. Jetzt konnten sie ausschließlich für den Schreibvorgang optimiert werden, denn das Lesen erfolgt bei der 3390 Technologie über eine zweite Kompo­ nente, einen Lesefilm. Der Film war sehr klein und bestand aus dünnen Schichten verschiedener Metalle wie Eisen, Chrom und Kobalt. Kurze Zeit später wurde der Film auf Nickel und Eisen umgestellt. Wenn sich innerhalb der Spur auf der Platte die Magnetisierungsrichtung umkehrte, änderte sich der 1984: Wechsel vom klassischen Rollenband auf die 3480 Kassettentechnologie

elektrische Widerstand vor allem in der mittleren Schicht des darüber befindlichen Kopfes sprunghaft. Dies bezeichnet man als magnetoresistiven Effekt, den man als Signal entsprechend

1989:

verstärkt und auswertet. Diese neue Technik gewährleistete

Mit der IBM 3390 Plattentechnologie wurde der bei IBM 3380

sicheres Lesen bei höchster Aufzeichnungsdichte, weil selbst

verwendete Formfaktor von 14 Zoll auf 10,8 Zoll reduziert.

kleinste Streufelder von Informationseinheiten differenziert

Anfangs wurde die 3390 Technologie noch mit der herkömm­

werden konnten. Man führte – einfach gesagt – zwei Spezia­

lichen ‘braunen Beschichtung’ produziert, wo Eisenoxyd-

listen ein, einen für das Schreiben optimierten induktiven Kopf

Partikel (Rostpartikel), die möglichst homogen in einer Kunst­

und einen Spezialisten für den Lesevorgang (ausführliche

harzmasse zur gleichmäßigen Magnetisierung verteilt waren,

Beschreibung im Technologie-Anhang). Beide Spezialisten

als Magnetisierungsträger eingesetzt wurden. Die Einführung

zusammen bildeten das Schreib-/Leseelement, das vom

einer neuen Beschichtung, deren Entwicklung 1989 einge­

Zugriffsmechanismus positioniert wurde.

leitet wurde und die 1991 zur Anwendung kam, ließ den Ein­ satz einer neuen Schreib-/Lesetechnik zu. Die neuen Köpfe

Die neue Schreib-/Lesekopf-Technik der IBM 3390 benötigte

schrieben – wie ihre Vorgänger – induktiv, erzeugten also

eine neue Beschichtung in sogenannter Dünnfilmtechnik.

Magnetfelder in der Beschichtung der Platten mithilfe eines

Dabei beschichtete man die Oberflächen von Glasplatten aus

winzigen Spalts im Metallkern miniaturisierter Elektromagnete.

einem speziell gehärteten Glas mit einer Legierung und unter­

Bis zu diesem Zeitpunkt dienten die Elektromagnete auch

zog sie anschließend einem Einbrennprozess. Die magnet­o­

zum Lesen. Für die Zahl der Spulenwindungen musste man

resistive Schreib-/Lesetechnik in Verbindung mit Dünnfilm­ beschichtungen auf den Platten kam innerhalb der 3390 Baureihe mit den Modellen 3 und 9 erstmals zum Einsatz. Die seit der Einführung von Magnetplatten verwendet Aluminium­ platte, die mit feinst gemahlenem, weichmagnetischem Material in einem Kunstharz als Bindemittel beschichtet war, hatte damit ausgedient. Im Vergleich zur IBM 3380 Baureihe lieferte die 3390 Bau­ reihe eine Verbesserung in der Zugriffszeit von 28 % und die Datentransferrate wurde um 40 % gesteigert, weil anstelle von 3 MB/s mit 4,5 MB/s übertragen werden konnte. So konnten die Kanalgeschwindigkeiten des damals neuen 3090 Rech­ ners genutzt werden. Ebenso konnte vom Rechner auf die Subsysteme über vier gleichzeitige Pfade übertragen werden (Four Path Data Transfer). Die 3390 Platten und auch noch die 3380 Platten wurden an der neuen IBM 3990 Steuerein­ heit angeschlossen, die mit höheren Plattenpuffergrößen (Cache) von 16 bis 64 MB (3990 Modelle 3) ausgestattet war.

Größenvergleich Magnetbandsysteme IBM 3420 gegenüber IBM 3480

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

31

1975 bis 1993 Die Epoche der fest eingebauten Platten mit externen Kontrolleinheiten

1989: IBM 3390-1/2, 1991: IBM 3390-3, 1994: IBM 3390-9, hinten IBM 3380-K Strang mit 60 GB Kapazität, vorne 3390-3 Strang mit 90 GB Kapazität, rechts IBM 3990 Steuereinheiten

Ein voll ausgebauter 3390 Modell 3 Strang mit 1 x A38 und

1991:

2 x B3C hatte also eine Gesamtkapazität von 90 GB. Das

In diesem Jahr wurde von IBM der erste Schritt in Rich­

Großkapazitätsmodell 9, das 1994 auf den Markt kam, ver­

tung kleinerer Formfaktoren von Magnetplattenlaufwerken in

dreifachte nochmals die Kapazität. Allerdings kamen die

Subsystemen eingeleitet. Die angebotenen Plattensysteme

Modelle 9 nur begrenzt zum Einsatz, weil die Platten aufgrund

IBM 9340 und IBM 0662, erstmals auf der Basis von Platten­

ihrer hohen Kapazität langsamer waren, und wurden für

durchmessern mit 5,25 bzw. 3,5 Zoll, bestanden aus einem

Anwendungen eingesetzt, wo die Zugriffszeiten und Daten­

Rahmen, in den die Steuereinheit zusammen mit mehreren

raten ausreichten.

Plattenlaufwerken eingebaut wurden. Ein Standardrahmen Typ 9309 nahm bis zu acht Platteneinschübe vom Typ IBM 9345 auf. Ein Platteneinschub enthielt zwei Laufwerke mit

Physikalische Spezifikation der 3390 Plattensubsysteme

jeweils 1 oder 1,5 GB Speicherkapazität. Es waren 5¼-ZollLaufwerke neuster Technologie mit einer Datenrate von

Modelle

Kapazität/ Actuator

Kapazität/ HDA

Anzahl HDAs

Kapazität/ Unit

A14

0.946

1.89

2

3.78

und in bewährter Count-Key-Data(CKD)-Speicherungsform.

A18

0.946

1.89

4

7.56

Für Anforderungen bis 24 GB gab es den Steuereinschub

B14

0.946

1.89

2

3.78

IBM 9341, der als 2-Pfad-Subsystem ohne Cache an die

B18

0.946

1.89

4

7.56

Prozessoren-Reihe 9221 oder 9370 angeschlossen war.

B1C

0.946

1.89

6

11.35

A24

1.89

3.78

2

7.56

Größerer Speicherbedarf und noch höhere Anforderungen

A28

1.89

3.78

4

15.1

wurden mit dem Standardrahmen IBM 9343 mit eingebauter

B24

1.89

3.78

2

7.56

Steuereinheit mit 4-pfadigem Funktionsumfang und mit 9345

B28

1.89

3.78

4

15.1

Einschüben abgedeckt. Die Kapazität konnte stufenweise auf

B2C

1.89

3.78

6

22.7

48 GB ausgebaut werden. Die IBM 9341/9343 erlaubten das

A34

2.838

5.67

2

11.34

A38

2.838

5.67

4

22.68

B34

2.838

5.67

2

11.34

B38

2.838

5.67

4

22.68

B3C

2.838

5.67

6

34.02

4,4 MB/s, mittlerer Umdrehungswartezeit von nur 5,6 ms

unterbrechungsfreie Hinzufügen von Platteneinschüben. Hohe Leistung ohne Cache wurde im Speziellen bei Datenbank­ anwendungen mit hohem Randomzugriff erzielt. Erhebliche Steigerungen bei entsprechenden Anwendungen wurden später durch einen modellabhängigen 32-MB- bis 64-MBCache möglich.

32

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software Anhang

Software Anhang

1989/1991:

primierungsverfahren gearbeitet, dem IDRC (Improved Data

Parallel zur 3390 Plattenentwicklungsreihe wurde 1989 auf

Recording Capability), das Komprimierungsfaktoren von bis

der Tape-Seite der Nachfolger des 3480 Bandsystems,

zu 3 :1 zuließ. Die neuen 3490 Systeme konnten mit ESCON-

die IBM 3490, verfügbar und 2 Jahre später die erweiterte

Kanälen angesteuert werden, wie es bei den 3390 Platten

Version in Form der IBM 3490E. Bei der 3490 Laufwerktech­

der Fall war. Damit war der Grundstein für ESCON gelegt,

nologie wurde mit 18 Spuren, bei der 3490E Technologie mit

das im Laufe der nächsten Jahre die bis dahin verwendete

36 Spuren gearbeitet.

BMPX(Block Multiplex)-Verkabelung ablösen sollte.

Die 3490 Technologie verwendete zur Steuerung des Band­

Die erreichte Aufzeichnungsdichte lag bei IBM 3490 bei

subsystems erstmals sehr leistungsstarke Kontrolleinheiten

38.000 BPI mit Kassettenkapazitäten von 600 bzw. 1.200 MB,

mit einem dynamischen Pufferspeicher von 2 bzw. 8 MB.

bei 3490E wurden durch die doppelte Spurzahl 78.000 BPI

Ebenso wurde bei der Aufzeichnung mit einem neuen Kom­

erreicht mit Kassettenkapazitäten von 1.200 und 2.400 MB.

IBM 3490 Magnetbandsystem

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software Anhang

Software Anhang

33

1975 bis 1993 Die Epoche der fest eingebauten Platten mit externen Kontrolleinheiten

IBM 3495 Bandarchiv mit 5.660 bis 18.920 Kassetten (13,5 bis 45,5 TB), Höhe 2,38 Meter, Tiefe 2,46 Meter, Länge modellabhängig 13,4, 18,3, 23,2 oder 28,0 Meter, 4 bis maximal 64 Laufwerke IBM 3490

1992: IBM kündigte nach einigen Jahren der Kooperation im

Zum Vergleich: Der Massenspeicher von 1974 erlaubte

Bandarchivbereich mit den Firmen Grau und Haushahn ein

maximal etwa 0,24 TB.

eigenes automatisches Magnetbandarchiv IBM 3495 für große Prozessoren an, die unter dem Betriebssystem MVS

Das damals verwendete Robotersystem der 3495 war ton­

unterstützt waren. Bei einer Kassettenkapazität IBM 3490 von

nenschwer und wurde vom Markt bis auf wenige Kunden

2,4 GB konnten die Benutzer die Library-Kapazitäten von

nicht sonderlich akzeptiert. Oft wurde an die IBM die Frage

13,5 TB auf 45,5 TB ausbauen.

gerichtet, warum ein tonnenschwerer Roboter notwendig sei, um eine kleine 3490 Kassette zu transportieren.

34

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

1993: Etwa eineinhalb Jahre später kam dann das automa­

entwickelt und den Virtual-Tape-Server-Systemen VTS mit

tische Magnetbandarchiv IBM 3494 in wesentlich kom­

ihren weiterentwickelten Funktionalitäten, die mit der Library

pakterer Bauweise und mit einem adäquaten Robotersys­

bis heute betrieben werden können, angepasst. Mit der Ver­

tem, das neben der MVS-Plattform auch AS/400- und

fügbarkeit der ersten Jaguar-3592-Laufwerke im September

RISC-6000-Systeme unterstützte.

2003 (siehe Epoche Multiplattformsysteme und SAN) entwi­ ckelte IBM eine intelligente Integration dieser kleinen Lauf­

Das 3494 Librarysystem wurde in den Folgejahren funktional

werke in die 3494 Library. In der exakten Größe eines

erweitert und ist bis heute noch ein aktives Librarysystem, das

Magstar-3590-Laufwerks wurden Gehäuseeinheiten, soge­

vor allem im Mainframe-Umfeld eingesetzt wird. Es war auch

nannte ‘Cradles’ gebaut, wo zwei Jaguar-Laufwerke im vor­

die erste IBM Tape-Library, die den Mischbetrieb von 3490

deren Teil untergebracht werden können. Nach hinten sind

und 3490E Laufwerken und Kassetten ermöglichte und auch

die Cradles offen. Dort sind zwei Netzteile untergebracht.

den Nachfolger der 3490, die IBM 3590 Laufwerktechnologie,

Die beiden Jaguar-Laufwerke sind an beide Netzteile ange­

unterstützte. Mit 3590 Laufwerken, die als Nachfolger der

schlossen, um die Stromversorgung über zwei unabhängige

3490E im Jahr 1995 verfügbar wurden, konnten mit dem

Quellen sicher­zustellen. Die IBM 3494 wird im Jahr 2010

ersten Modell B Kanaldatenraten von 9 MB/s realisiert wer­

noch in einigen Rechenzentren aktiv betrieben. IBM publi­

den. Die 3494 war zudem eine Library, die gleichzeitig den

zierte im Jahr 2005 das ‘SOD’ (Statement of Direction),

Mainframe und Open Systems bedienen konnte und kann.

zukünftige Jaguar-Laufwerkstechnologien weiterhin zu unter­

Später wurden die Modelle E und H der 3590 unterstützt.

stützen. So kann auch noch das neue Highend-Laufwerk

Der Library Manager der 3494 wurde kontinuierlich weiter­

TS1130 in die Library eingebaut werden. Im Herbst 2009 erfolgt die Zurückziehung von Marketing. IBM plant, die Library 3494 bis Ende 2015 in der IBM Wartung zu halten.

1993 IBM 3494

1952 – 1961

IBM 3494 Gehäuseeinheit D22 mit ‘Cradles’ und TS1120(Jaguar)-Laufwerken

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

35

1975 bis 1993 Die Epoche der fest eingebauten Platten mit externen Kontrolleinheiten

Kommentar zur Epoche der fest eingebauten Platten

Anfang der 90er-Jahre wurde die ‘Braune’-Platten-Produktion

mit externen Kontrolleinheiten

umgestellt und Dünnfilm-Beschichtungen wurden eingeführt.

Die Anforderungen bezüglich Hochverfügbarkeit wurden

Dies führte zu wesentlich höherer Zuverlässigkeit, weil mit

immer höher. Deshalb ging man von den Wechselplatten auf

Grain-Strukturen gearbeitet werden konnte und Eisenoxyd­

fest eingebaute Platten über. Fest eingebaute Platten waren

partikel (Rost) als Datenträger wegfielen. Die neu entwickelte

um ein Vielfaches zuverlässiger. Neben der Verfügbarkeit

Magnetoresistive Kopftechnik (MR-Kopftechnik) kam zum

wurden auch die Ansprüche an Investitionsschutz immer

Einsatz (siehe auch Technologie-Anhang).

höher. Um dem Rechnung zu tragen, etablierte die IBM über die gesamte Epoche das Prinzip des Wechsels für Steuer­

Im Tape-Bereich kam 1984 der große technologische Wechsel.

einheiten und Plattenspeicher. Dies sah so aus, dass neue

Das Rollenband wurde durch eine kleine Kassette mit der

Platteneinheiten an die vorhandenen Steuereinheiten ange­

3480 Bandtechnik ersetzt. Dies war vor allem notwendig,

schlossen werden konnten, dann kam eine neue, leistungs­

um den Bandbereich in der Leistung den Platten und dem

stärkere Steuereinheit, an der die alten Platten betrieben

Gesamtsystem anzugleichen.

wurden. Dann wurden wieder neue Platten verfügbar, die an die vorhandene Steuereinheit angeschlossen werden konnten,

Anfang der 90er-Jahre kamen dann die ersten automatisierten

danach kam wieder eine neue Steuereinheit. Dieses Wechsel­

Bandarchive mit den Produkten IBM 3495 und IBM 3494 mit

prinzip wurde vom Markt so positiv angenommen, dass es

Roboter und Greifersystemen, die die Bandkassetten trans­

bis in die Folgeepoche der RAID-Systeme gepflegt wurde.

portieren konnten.

Auf der Steuereinheiten-Seite wurden mit der IBM 3880 erst­

Insgesamt war die sehr lange anhaltende Epoche der fest

mals Cache und entsprechende Caching-Algorithmen einge­

eingebauten Platten mit externen Steuereinheiten eine Epoche,

führt, um mit der Leistungsentwicklung der Rechnersysteme

die durch konstante Weiterentwicklungen im Hinblick auf

Schritt zu halten. Die wichtigste Funktion war hier das ‘DASD

Datensicherheit und Investitionsschutz geprägt war und sicher­

Fast Write’. Dies wurde auch mit der neuen 3990 Steuerein­

stellte, dass die Speicher mit den neu entwickelten Rechner­

heit weitergepflegt und ausgebaut. Eine Funktion nach der

systemen Schritt hielten. Oberstes Gebot war neben Daten­

anderen kam hinzu. Die funktionalen Erweiterungen setzten

sicherheit die Gesamtleistung des Verbundes von Rechnern

sich kontinuierlich bis zum letzten Modell der externen Steuer­

und Speichersystemen.

einheiten, der 3990 Modell 6, bis Mitte der 90er-Jahre fort.

36

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

1994 bis 1998

Die Epoche der RAID-Systeme

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

37

1994 bis 1998 Die Epoche der RAID-Systeme

Plattensysteme mit RAID-Architekturen

3. Bereits 1987 schilderte die Universität Berkeley in Kalifornien

IBM bot 1994 ein völlig neues Konzept externer Magnetplat­

(die Studie erfolgte im Auftrag der IBM) in einem Dokument

tensysteme unter dem erstmals seit 1956 wieder benutzten,

mit dem Titel „Eine Studie über redundante Anforderungen

eingetragenen Warenzeichen ‘RAMAC’ an. Dieses Mal stand

kostengünstiger Plattenspeicher“ (A Case for Redundant

die Buchstaben-Reihenfolge RAMAC für ‘RAID Architecture

Arrays of Inexpensive Disks), wie man die betreffenden

with Multilevel Adaptive Cache’.

Plattenlaufwerke zu einem aus Sicht der Betriebssysteme einzigen adressierbaren Datenträger zusammenschalten

Was war der Hintergrund und was bedeutete dies konkret?

konnte, um sie für größere Systeme zu nutzen und dabei entweder höhere Übertragungsraten oder höhere Daten-

1. Die Verarbeitungsgeschwindigkeit vergleichbarer Prozes-

verfügbarkeit oder beides zu erreichen. In diesem Papier

soren war zwischen 1964 und 1994 ungefähr 400-mal

wurden 5 RAID-Stufen (RAID-Levels) definiert, die sich in

schneller gewachsen als die Übertragungsrate der Zugriffs-

der Abwägung zwischen Übertragungsleistung und dem

mechanismen der Plattenspeicher und etwa 30-mal schnel­ler

Grad der Fehlertoleranz unterschieden.

als die Übertragungsgeschwindigkeit der gängigen Kanäle. Am schnellsten wuchs die Kapazität pro Zugriffsmechanis-

RAID1 beschreibt die doppelte Speicherung von Daten auf

mus – ungefähr um den Faktor 6.000 – und damit doppelt

zwei Platten mit völlig identischem Inhalt (Spiegelung, Mirro­

so schnell wie die Verarbeitungsgeschwindigkeit der Pro-

ring). Fällt ein Laufwerk aus, greift das System auf das

zessoren. Die Ansprüche an die Datenverfügbarkeit in

andere zu.

internationalen und firmeninternen Netzen nahmen ständig zu und weil technisches Versagen von Komponenten nie

Bei RAID2 werden die Daten byteweise auf mehrere Platten

ganz ausgeschlossen werden konnte, wuchs die Forderung

kopiert (Mehrfachspiegelung). Auf einer weiteren Platte wird

nach fehlertoleranten Systemen.

ein Fehlercode gespeichert, mit dessen Hilfe verlorene Daten

2. Parallel zur Entwicklung immer leistungsfähigerer Magnet-

rekonstruiert werden.

plattenspeicher für große und mittlere Systeme hatte die Industrie – IBM eingeschlossen – für den schnell wachsen-

Bei RAID3 werden die einzelnen Bytes ebenfalls auf mehre­

den Markt der Einzelplatzrechner (PC, Laptop, Notebook)

ren Platten – allerdings abwechselnd – gespeichert und auf

in den Abmessungen kleine, aber auf hohem technischem

einer separaten Platte sogenannte Paritätsbits. Fällt eine

Niveau stehende, leistungsfähige und zuverlässige

Platte aus, lässt sich deren Inhalt über den der intakt geblie­

Platten­laufwerke auf den Markt gebracht. Damals war

benen Platten und die Paritätsbits wiederherstellen.

abzusehen, dass die Kapazitäten dieser Laufwerke rasant steigen würden. Es kam noch hinzu, dass diese kleinen

RAID4 unterscheidet sich von RAID3 dadurch, dass die

Plattenlaufwerke aufgrund hoher Maßenproduktion

Daten statt in einzelne Bytes in ganze Blöcke von mehreren

wesentlich kosten­günstiger gefertigt werden konnten als

Kilobytes unterteilt werden.

die großen Plattenfiles, die zu diesem Zeitpunkt bereits als SLEDs (Single Large Expensive Disks) bezeichnet wurden.

Bei RAID5 erzeugt das System Paritätsbits für Blöcke von mehreren Kilobytes, die auf alle Platten so verteilt sind, dass sie immer auf einer anderen Platte stehen als die Daten, aus denen sie erzeugt wurden. Das Verfahren bietet hohe Sicher­ heit bei relativ schnellem Zugriff, weil durch die Verteilung parallele Schreib-Updates möglich sind. Deswegen erfuhr dieser RAID-Level die stärkste Verbreitung.

38

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Der Vollständigkeit halber seien noch später hinzugefügte

IBM fast ausschließlich für den eigenen Bedarf zum Vertrieb

RAID-Stufen erwähnt:

über die eigene Organisation an Endbenutzer produziert und war nur vereinzelt als Unterlieferant anderer Hersteller

RAID6 bietet gegenüber RAID5 zusätzliche Paritätsbits

aufge­treten (Branchen-Fachausdruck für solche Geschäfte ist

(zwei Parity-Schemen) und damit noch mehr Sicherheit (bis

OEM, Original Equipment Manufacturer). Ein Beispiel waren

zu zwei Platten können innerhalb eines Arrays ausfallen),

in den 80er- und 90er-Jahren geschlossene Verträge über

allerdings auf Kosten der Leistungsfähigkeit eines Arrays.

Lieferungen von leicht modifizierten IBM Plattenspeichern an Siemens. IBM ließ immer Fremdprodukte aller Art innerhalb

RAID7 protokolliert dazu noch sämtliche Schreibzugriffe.

ihrer Konfigurationen und Softwareplattformen zu, ohne in den Umgebungen anderer Hersteller als Anbieter aufzutreten.

RAID0 verteilt die Daten in kleinen Paketen auf mehrere Plat­

Auf die bei den DV-Benutzern um sich greifende Vernetzung

ten und ermöglicht schnellen Zugriff, mangels Redundanz

von Datenverarbeitungsprodukten und DV-Plattformen ver­

jedoch keine erhöhte Sicherheit. Schließlich gibt es noch

schiedener Hersteller – heterogene Client-/Serverumgebungen

RAID10, auch als Stufe 1 + 0 bezeichnet. Sie arbeitet wie

– reagierte IBM mit Angeboten, bei denen alle für die jewei­

RAID0, jedoch mit zwei gleich großen Sätzen von Platten,

ligen Produkte relevanten eigenen und fremden Schnittstellen

wobei die zweite Gruppe das exakte Spiegelbild des Inhalts

unterstützt wurden. Das Storage-Geschäft wurde durch das

der ersten Gruppe enthält. Diese Lösung erfordert viele

Anwerben von entsprechenden Geschäftspartnern neben

Laufwerke.

dem eigentlich blauen Vertrieb zusätzlich vorangetrieben. Man arbeitete mit immer mehr Geschäftspartnern, die sich

Inzwischen haben sich (bis heute, im Jahr 2010) aus diesen

in ihrer Vertriebsorganisation erfolgreich um den Absatz von

Basis-RAID-Stufen gänzlich neue RAID-Levels entwickelt, die

IBM Hardeware- und Softwareprodukten bemühten. Dieser

jenseits der Standard-Levels liegen, teilweise unsinnig sind,

Trend hat sich bis heute noch maßgeblich verstärkt.

aber in manchen Fällen auch eine Optimierung der BasisLevels darstellen (wie z. B. RAID 1E, 1E0, 1.5, Matrix RAID,

Wie bereits eingangs dieses Kapitels beschrieben, machte

RAID15, 51, 53, 45, RAID5E, 5EE und RAID5DG/RAID ADG).

IBM 1994 als erste Firma das auf RAID5 basierende Magnet­ plattensystem verfügbar, der damaligen RAMAC 1 (IBM

4. Bereits 1992 konstituierte sich ein RAID-Beratergremium

9391). RAMAC 1 wurde im Juni 1994 angekündigt und war

(RAID Advisory Board) aus 40 Anwender- und Herstellerfir-

ab September 1994 verfügbar. Als Basis für eine RAMAC-

men, zu denen auch IBM zählte. Damit wurde RAID in den

Speichereinheit diente ein Einschub IBM 9392 (Drawer),

90er -Jahren zu einer Art Industriestandard. Die Original-

der mit mehreren anderen Einschüben in einen Rahmen

bezeichnung RAID wurde in der Bedeutung geringfügig

integriert wurde. Jeder dieser Einschübe beinhaltete vier

korrigiert: Aus ‘kostengünstigen Einheiten’ (Redundant

Plattenlaufwerke auf 3,5-Zoll-Basis mit jeweils 2 GB Kapazität

Array of Inexpensive Disks) wurden ‘unabhängige Ein-

(Allicat-Laufwerke), zwei Netzteile, zwei Kühlgebläse, einen

heiten’ (Redundant Array of Independent Disks).

RISC-Mikroprozessor als Controller, einen batteriegestützten Pufferspeicher (Non Volatile) und einen Akku. Jeder Einschub

Bereits seit 1978 besitzt IBM ein Patent über die Wiederher­

stellte ein für sich geschlossenes RAID5-System dar. Bis zu

stellung von Daten, die auf einer ausgefallenen Einheit aus

16 dieser RAID5-Einschübe konnten in den Rahmen integriert

einer Gruppe von Laufwerken gespeichert wurden. Wie die

werden. RAMAC kam in zwei Ausführungen. Das RAMAC

gesamte Industrie bemühte sich IBM, den Herausforderungen,

Array beinhaltete nur die RAID5-Einschübe und wurde an

die sich aus den oben dargestellten Punkten ergab, wirksam

die damalige, leistungsstarke Steuereinheit 3990 angeschlos­

zu begegnen. Die zunehmenden Veränderungen im Markt

sen. Das RAMAC Subsystem beinhaltete die übergeordnete

mit seiner ständig wachsenden Zahl von Anbietern, immer

Controllerfunktion in demselben Gehäuse, in dem auch die

mehr etablierten Hardware- und Softwareplattformen, dyna­

Einschübe integriert waren, und war seitlich im Rahmen

mischen Innovationen und den damit immer kürzer werdenden

eingebaut. In der vollen Ausbaustufe lieferten beide

Produktzyklen machten es notwendig, die IBM Geschäftspo­

Systeme eine nutzbare Plattenkapazität, RAID5-gesichert,

litik maßgeblich zu verändern und anzupassen. Bisher hatte

von 90 GB aus.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

39

1994 bis 1998 Die Epoche der RAID-Systeme

RAMAC 2 und RAMAC 3 folgten wegen der raschen Fort­

Dies war einer der Hauptgründe, warum 1996 eine Koope-

schritte in den kapazitiven Möglichkeiten der 3,5-Zoll-Lauf­

ration mit der Firma StorageTek bezüglich des Vertriebs

werke im Abstand von nur einem Jahr. Bei RAMAC 2 kamen

und der Weiterentwicklung des verfügbaren ‘Iceberg’-Plat­

die Ultrastar-XP-Laufwerke und bei RAMAC 3 die Ultrastar-

tensystems geschlossen wurde und die IBM zwei Platten­

2XP-Laufwerke zum Einsatz. Die rechnerische Kapazität ver­

subsysteme der Firma STK in den Vertrieb nahm. Der ‘Ice­

doppelte sich jeweils per Subsystem.

berg’ wurde von IBM unter dem Namen IBM RVA (RAMAC Virtual Array) vermarktet, das Großkapazitätssystem von

RAMAC 2 bot mit 16 Einschüben eine nutzbare Kapazität

STK als IBM RSA (RAMAC Scalable Array). Das RAMAC

von 180 GB und RAMAC 3 von 360 GB.

Virtual Array wurde im Juli 1996 mit sofortiger Verfügbarkeit angekündigt. Das leistungsstärkere RVA in der Turboversion

Mit RAMAC 3 in der Version des RAMAC Arrays zum An-

wurde knapp ein Jahr später, im April 1997, verfügbar.

schluss an 3990 Steuereinheiten wurde zeitgleich ein neues Modell der Steuereinheit eingeführt, der 3990 Modell 6. Diese

Das RAMAC Virtual Array IBM RVA IBM 9393 erfüllte die Be-

Steuereinheit war eine Doppelsteuereinheit, die in ein Gehäuse

dingungen von RAID6 und bot eine sehr intelligente Lösung

integriert war und an der zwei RAMAC 3 Arrays betrieben

für das Anlegen und das Wachstum von Dateien. Normaler­

werden konnten. Damit lieferten zwei RAMAC 3 Arrays an der

weise mussten Benutzer bisher für wachsende Dateien ge-

3990-6 als ‘Doppelsubsystem’ eine Gesamtkapazität von bis

nügend Platz reservieren. Das bedeutete, einen ständigen

zu nutzbaren 720 GB aus.

Vorrat von leeren Spuren (Allocated Tracks) bzw. nicht genutzte Kapazität vorzuhalten. Wenn das System beim Ausführen

40

Die RAID5-RAMAC-Baureihe war auf dem Markt sehr erfolg­

eines Programms für eine wachsende Datei keine Kapazität

reich, konnte aber über die Jahre nicht fortgesetzt werden,

mehr vorfand, führte das zum anomalen Abbruch der Opera­

weil der Kostenfaktor in der Produktion dem Preisverfall der

tion. Beim RVA suchte das System automatisch freien Platz.

Gigabytes in den angebotenen Subsystemen nicht standhal­

Reservierung (Allocation) war nicht mehr erforderlich und

ten konnte. Jeder Einschub als eigenständiges System und

Abbrüche wegen fehlenden Speicherplatzes ausgeschlos­

bis zu 16 Einschübe unter einer eigenen Steuereinheit, dadurch

sen. Dieser spezielle Algorithmus wurde als logisch struktu­

zwei Cache-Ebenen: das war sehr aufwendig zu produzieren.

rierter File-Algorithmus (Log Structured File) bezeichnet.

links: IBM RAMAC Subsystem mit integrierter Steuereinheit rechts: IBM RAMAC Array zum Anschluss an 3990 Steuereinheiten

1996 –1998 IBM RAMAC Virtual Array RVA, IBM RAMAC Virtual Array 1996, IBM RAMAC Virtual Array Turbo 1997, IBM RAMAC Virtual Array Turbo 2 1998, Kapazitäten von 840 GB bis 1.680 GB Arrays 13+2+1 RAID6 oder 2 x (5+2+1), Array Kapazität bis 420 GB, Minimalkonfiguration: 2 Arrays, Maximalkonfigura­ tion: 4 Arrays

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Waren Spuren auf den Platten wegzuschreiben, suchte sich die Kontrolleinheit den Platz auf beliebigen Platten in den verfügbaren Arrays. Die veralteten Spuren wurden in einem Space-Reclamation-Prozess wieder einfach zum Überschrei­ ben freigegeben. Das Ganze wurde über Pointertabellen ver­ waltet und die Pointer einer aktuellen geänderten Datei wurden einfach entsprechend angepasst. Diese neue Log-StructuredFile-Architektur als wirklich erste virtuelle Plattenarchitektur auf dem Markt erlaubte auch das sekundenschnelle Kopieren von einzelnen Dateien oder Volumes, ohne dass für die Kopie zusätzlicher Platz vorgehalten werden musste. Nur die Ver­ änderungen in Form von neuen Spuren oder Spur-Updates benötigten wieder neuen Platz. Dabei legte das System ent­ sprechende Kopier-Pointers an, die auf einzelner Spurbasis mit den originalen Pointers übereinstimmten. Diese Funktion wurde als ‘SnapShot’ bezeichnet. Durch dieses Prinzip konnte die RVA von der Plattenbelegung im Vergleich zu herkömm­ lichen Plattensystemen wesentlich höher genutzt werden. Beim RAMAC Virtual Array wurden im Backend IBM SSA-Platten eingesetzt und das System konnte mit 4,5-GB-, 9-GB- und später mit 18-GB-SSA-Platten konfiguriert werden. Das zweite Produkt aus der StorageTek-Reihe, die IBM RSA (RAMAC Skalierbares Array) entsprach den herkömmlichen Subsystemarchitekturen, konnte aber bereits 1996 in relativ kleinen skalierbaren Schritten auf 1,4 TB ausgebaut werden. Das System wurde aber relativ kurzfristig kapazitiv von der

IBM 7133 Plattensubsystem, SSA-Architektur mit SCSI-Host-Anschlüssen, Modell T40 ‘Deskside’ Entry, Modell D40 ‘Rackmountable Disk System’ Plattenart Kapazitäten von/bis 18,2 GB 72,8 – 291,2 GB 36,4 GB 145,6 – 582,4 GB 72,8 GB 291,2 GB – 1,16 TB 146,8 GB 587,2 GB – 2,34 TB

RVA in der Turbo- und Turbo-2-Version überholt und zeigte nur eine sehr geringe Marktdurchdringung. Plattensysteme für Open Systems

systeme (Small Computer Systems Interface) eliminierte. Bei

Während sich IBM in den 90er-Jahren bei der Magnetplatten-

SSA wurde für die Anbindung von Plattenlaufwerken mit einer

Subsystementwicklung im Mainframebereich vornehmlich auf

Loop-Technik gearbeitet, die es zuließ, dass man in die Loop

die RAMAC-Reihe konzentrierte, liefen parallel neue Architek­

über neu entwickelte Adapter gleichzeitig zwei Schreib- und

turentwicklungen für Plattensubsysteme im Open-Systems-

zwei Lese-I/Os absetzen konnte und alle Laufwerke in der

Bereich. Bis Ende der 90er-Jahre gab es kein Plattensystem,

Loop gleichberechtigt bedient wurden. Die bekannte Arbi­

das Server aus dem Open-Systems-Bereich (AIX und andere

trierung, wie es bei SCSI-basierenden Laufwerksträngen der

UNIX-Derivate und die Intel-Plattformen) und den Mainframe

Fall war, fiel weg. Bei einem SCSI-Laufwerkstrang musste

mit seinem MVS-Betriebssystem gleichzeitig bedienen konnte.

immer ein I/O fertig abgehandelt werden, bevor der nächste

Auf der Open-Systems-Seite ging IBM andere Wege. Begin­

starten konnte. Zudem wurden Laufwerke, die ganz am Ende

nend in den 90er-Jahren wurde im IBM Labor in Hursley in

des SCSI-Strangs angeschlossen waren, in der Bedienung

England eine neue, Open-Systems-gerechte Plattenarchitek­

benachteiligt. Ein SCSI-Strang hatte die Limitierung, dass

tur entwickelt, die unter dem Namen SSA für viele Jahre zur

maximal 15 Laufwerke angeschlossen werden konnten. Diese

Anwendung kommen sollte. SSA stand für Serial Storage

Limitierungen überwand die neue SSA-Architektur, die 1992

Architecture, eine Architektur, die die Limitierungen der bis­

erstmals in Subsystemen zum Einsatz kam.

her an Open-Systems-Server angeschlossene SCSI-Platten­

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

41

1994 bis 1998 Die Epoche der RAID-Systeme

Das bekannteste System war das IBM 7133 Serial Storage Architecture Disk Subsystem, das an RISC Systeme/6000, Power Servers und Power Stations angeschlossen werden konnte und immer mit den neusten 3 ½-Zoll-Laufwerken aus­ gestattet war. Das IBM 7133 Subsystem wurde im Juli 1995 mit sofortiger Verfügbarkeit angekündigt. Es war eines der erfolgreichsten Plattensysteme im AIX-Umfeld und wurde direkt über den AIX-Verkaufskanal vertrieben. Während des Lebenszyklus der 7133 wurden über 42.000 Plattensysteme weltweit in Produktion genommen, ein einzigartiger Verkaufs­ erfolg. Die letzten Systeme in SSA-Architektur (IBM 7133 Modelle T40 und D40) blieben bis 2003 im aktiven IBM Vertrieb und konn­ ten damals über Gateways an bestehende FibreChannelInfrastrukturen (SANs, Storage Area Networks) angeschlos­sen werden. 1999 kündigte die IBM für den Mainframe wieder ein eigenes, selbst entwickeltes Plattensubsystem unter dem Namen IBM ESS (Enterprise Storage Server) an, das allerdings mehr unter dem Entwicklungsnamen ‘Shark’ bekannt wurde und letztendlich die RVA und RSA im IBM Vertrieb ablöste. Sto­ rageTek vertrieb danach wieder selbst die RVA unter dem Namen STK Shared Virtual Array. Die ESS war nicht nur ein

Blick in die IBM 3590 Magstar Laufwerke

Plattensystem für den Mainframe, sondern konnte auch an alle gängigen Open-Systems-Plattformen angeschlossen

Mal in der Bandtechnologie magnetoresistive Schreib-/Lese­

werden. Damit war die Voraussetzung geschaffen, mit einem

köpfe mit dem ‘Track Following Servo’-Prinzip eingesetzt, wo

Plattensubsystem sowohl den Mainframe als auch Open-

die Leseelemente konstant kontrollieren, wie gut die Bits vom

Systems-Server zu bedienen, wie es auf der Bandarchivseite

Schreibkopf geschrieben wurden. Die Kassetten wurden mit

bereits seit Jahren möglich war. Über die Folgejahre löste

128 Spuren vollgeschrieben und die Datenrate des Modells

die ESS dann auch im Open-Systems-Bereich teilweise

B der 3590 betrug damals faszinierende 9 MB pro Sekunde

das IBM 7133 Serial Disk System ab. Parallel dazu wurden

(native).

FibreChannel-basierende Plattensysteme für die OpenSystems-Plattformen eingeführt.

Die Laufwerke waren als Stand-alone-Version, also fest ein­ gebaut in einem Gehäuse mit entsprechenden Autoloadern,

Bandsysteme

zu bekommen, sie wurden aber genauso in der aktuellen Tape

Neben der Plattensubsystementwicklung in den 90er-Jahren

Library IBM 3494 eingesetzt. Voll ausgebaut konnte die IBM

führte IBM eine neue Bandlaufwerktechnologie als Ablö­

3494 mit 3590-B Laufwerken eine Kapazität von 180 TB

sung der bis dahin verwendeten 3490 Technologie ein, die

(native) abbilden. Die Laufwerke selbst hatten zwei SCSI-

IBM 3590, die unter dem Namen Magstar bekannt wurde.

Schnittstellen und konnten entweder direkt an Open-Systems-

Das erste Laufwerk der Magstar 3590 war das Modell B, das

Server angeschlossen werden oder über eine Kontrolleinheit

auf einer ½-Zoll-Kassette eine native Kapazität von 10 GB

an ESCON-basierende Mainframe-Server.

aufzeichnete. Das 3590-B Laufwerk wurde im April 1995 angekündigt und war im September des gleichen Jahres ver­

Die Magstar-Entwicklungsreihe wurde dann 1999 mit dem

fügbar. Bei dieser neuen Aufzeichnung wurden zum ersten

neuen E-Modell erweitert, das mit 256 Spuren die doppelte Spurzahl aufwies und eine Kapazität von 20 GB auf den Kas­

42

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

16. Spur ein Parity-Block mitgeschrieben und über das logische Spurset von acht Spuren ‘gestriped’ – RAID5 auf Band.) Was Magstar in Sachen Recovery zu leisten vermag, zeigt ein Versuch mit dem Magstar E-Modell, der im Juni 1999 und im Juli 2000 im IBM Labor in Tucson, Arizona, durch­ geführt wurde. Zu dem Versuch wurden alle maßgeblichen Consultants wie Gartner Group und IDC eingeladen. Man hat mit dem E-Modell eine Kassette mit 256 Spuren voll beschrieben und ein sauberes Read Verify erhalten. Dann wurde die Kassette aus dem Laufwerk entladen. In die Mitte des Bandes wurde dann ein 1,25 mm großes Loch gestanzt. Dieses Loch spiegelte ca.100.000 Bits wieder, die dann fehl­ ten. Die Kassette mit dem Loch wurde wieder ins Laufwerk geladen und die Leseoperation wurde erfolgreich ohne Feh­ ler durchgeführt. Alle fehlenden Datenbits konnten durch den ECC (Error Correction Code) über die Bitblock-Verteilung und die Parity-Bit-Blöcke ‘recovered’ werden. Das war zu dieser Zeit mit Sicherheit mit keiner anderen Bandlaufwerks­ technologie durchführbar! Das Laufwerk hatte zwei SCSI-Schnittstellen. Ab Mai 2000 waren die Magstar-Laufwerke auch mit zwei FibreChannelIBM 3590 Magstar Tape Subsystem 1995: IBM 3590-B mit 9 MB/S Datenrate 1999: IBM 3590-E mit 14 MB/S Datenrate 2002: IBM 3590-H mit 14 MB/S Datenrate Kassettenkapazitäten (native): Modell normale Kassette lange Kassette 3590-B 10 GB 20 GB 3590-E 20 GB 40 GB 3590-H 30 GB 60 GB

Schnittstellen verfügbar. Damit konnten die Laufwerke direkt an ein FibreChannel-basierendes SAN-Netzwerk angeschlos­ sen werden. Etwas zeitversetzt kamen auch die entspre­ chenden Controller auf den Markt, welche den Anschluss der Laufwerke auch an FICON-basierende Mainframe-Rechner ermöglichten.

setten speicherte (native ohne Komprimierung). Die Daten­ rate wurde von 9 MB/s auf 14 MB/s gesteigert. Parallel dazu brachte IBM eine neue Kassette, die 3590 ‘Extended Length Cartridge’, die mit der doppelten Bandlänge (beschrieben mit 3590E) auch die doppelte Kapazität, nämlich 40 GB, abbildete. Damit erhöhten sich die 3494 Library-Kapazitäten auf 374 TB bei Verwendung der normalen Kassette und bis 748 TB bei der langen Kassette. Die Magstar-Entwicklungs­ reihe war ab Mai 1999 verfügbar. Das Modell E der Magstar-Baureihe besaß einen leistungs­ fähigen Controller, der neben der Aufzeichnung von Daten­ blöcken auch Parity-Blöcke aufzeichnete, um ein wesentlich höheres Error Recovery zu ermöglichen. (Bei der Aufzeich­ nung von 16 Spuren gleichzeitig wurde nach 7 Datenblöcken in der achten und nach weiteren 7 Datenblöcken in der

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

Lochstanzversuch mit Magstar 3590 Bändern 1999 und 2000 im IBM Labor in Tucson

1999 – 2005

2006 – 2010

Software

Anhang

43

1994 bis 1998 Die Epoche der RAID-Systeme

Das letzte Modell der 3590 Magstar-Reihe kam im Jahr 2002

dieses Problem zu beheben, fing IBM an, Tape-Virtualisie-

mit dem 3590 Modell H, das auf denselben Kassetten 384

rungslösungen für den Mainframe-Bereich zu entwickeln, um

Spuren aufzeichnete und so die Kassettenkapazitäten um

die dahinter angeschlossene physikalische Ressource sowohl

50 % steigerte. Das Modell H wurde am 25. Juni 2002 ange­

in der Kapazität der Kassetten als auch in der Datenrate von

kündigt und war bereits am 28. Juni 2002 verfügbar. Die

Laufwerken maximal nutzen zu können. Aus einer anfänglichen

Datenrate der 3590-H blieb auf dem Stand des Vorgängers

Software-basierenden Volume-Stacking-Lösung entstand der

3590-E, bei 14 MB pro Sekunde. Die 3494 Library-Kassetten­

3494 Virtual Tape Server VTS, der im Juni 1997 mit dem

kapazitäten erreichten jetzt 1 Petabyte native Kapazität in

ersten Modell B16 auf den Markt kam. Dabei wurden die

der vollen Ausbaustufe (ohne Kompression).

Tape Volumes, die es zu sichern galt, auf einem Plattenpuffer zwischengespeichert und dabei indexiert. Sobald so viele

Im September 1996 wurde von IBM ein neues Kassetten-

Volumes in den Plattenpuffer geschrieben waren, dass sie

bandsystem vorgestellt, das neben hoher Streamingge­

eine 3590 Kassette füllen konnten, wurde eine Kopie der

schwindigkeit extrem schnelle Zugriffszeiten realisierte. Die

gesamten Ansammlung von Platten auf die schnellen Lauf­

IBM Magstar MP 3570 bot eine Datentransferrate von 15 MB

werke geschrieben (Premigration) und dabei die Kassetten

pro Sekunde und Zugriffszeiten von nur wenigen Sekunden.

maximal aufgefüllt (Stacked Volume Prinzip). Das Original

Dies wurde mit einem besonderen Kassettendesign ermög­

verblieb im Plattenpuffer. Dadurch konnte der Nutzgrad der

licht, wo die Grundstellung des Bandes in einem Zwei-Spulen-

Kassettenkapazitäten und der Laufwerkgeschwindigkeiten

Design in der Mittenstellung lag. So konnte beim Laden des

maximiert werden. Recalls von Volumes, die noch im Platten­

Bandes sowohl nach links als auch nach rechts gespult wer­

puffer standen, wurden in Plattengeschwindigkeit durchge­

den, um schnell an eine File zu gelangen. Diese neue Kon­

führt und beim Backup konnten viele Jobs parallel angestoßen

zeption allerdings ermöglichte nur kleine Kassettenkapazitäten

werden, da viele virtuelle Laufwerke zur Verfügung standen.

von 5 MB und später 10 MB, die vom Markt nicht in der breiten

IBM implementierte eine sogenannte ‘Outboard’-Lösung, die

Akzeptanz angenommen wurde, wie man es ursprünglich ge-

völlig transparent zum Host und dem MVS-Betriebssystem

dacht hatte. Deshalb war der Lebenszyklus der Magstar MP

war und dieselbe Transparenz gegenüber dem Bandverwal­

auch nur von kurzer Dauer und auf etwa 3 Jahre beschränkt.

tungssystem und dem Katalogeintrag zeigte. Emuliert wurden 3490E Laufwerke mit Kassettenkapazitäten von 400 bzw.

Mit der Verfügbarkeit der ersten Magstar-Modelle 3590-B 1995

800 MB und der Host registrierte gar nicht, dass er keine

ergab sich im Mainframe-Umfeld eine neue Problemstellung,

physischen Laufwerke im Zugriff hatte.

denn die jetzt hohen Kassettenkapazitäten von 10 GB native und die hohen Datenraten von 9 MB/s native wurden nur zu

Der erste Virtual Tape Server IBM 3494 B16 war damals direkt

einem kleinen Teil genutzt. Eine weltweite Studie ergab, dass

als Gehäuseeinheit in das 3494 Bandarchiv integriert. Das

der Nutzgrad im Mainframe-Umfeld bei etwa 200-300 MB pro

B16-Gehäuse beherbergte den RS/6000 Server, einen RAID-

Kassette lag und die Datenraten bei durchschnittlich 2-3 MB/s

5-abgesicherten Plattencache mit SSA-Platten, der bis auf

lagen und bei vielen Backup-Jobs sogar unter 1 MB/s. Um

72 GB ausgebaut werden konnte, sowie die für den Host not­ wendigen ESCON-Anschlüsse und 400 Kassettenstellplätze. Später arbeitete man mit externen Einheiten, wie die Weiter­ entwicklung dieses Konzepts zeigt. Virtuelle Tape-Lösungen sind in unserer heutigen Zeit nicht mehr wegzudenken, weil es die einzige Möglichkeit ist, über diesen Weg Tape- und Tape-Library-Ressourcen maximal zu nutzen.

IBM Magstar MP 3570 Bandsubsystem

44

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Das Prinzip, den VTS (Virtual Tape Server) direkt in das 3494

auch noch für das alte Modell B18 in eingeschränkter Form

Bandarchiv zu integrieren, erwies sich als äußerst ungünstig.

zur Verfügung stand.

Zudem war die Durchsatzstärke der damaligen B16 sehr klein und erreichte nur 6-8 MB/s, weil ohne Kompression

Diese neuen Erweiterungen, als ‘Advanced Function’ bezeich­

gearbeitet wurde. Deshalb kündigte die IBM bereits ein Jahr

net, erlaubten über ein APM (Advanced Policy Manage-

später, im Juni 1998, mit einer Verfügbarkeit im August 1998,

ment) neue Funktionalitäten am IBM VTS. Sie sind bis heute

ein neues externes Modell B18 an, das als separate Einheit

aktiv im Einsatz und bilden die Verzahnung mit SMS

neben der 3494 Library betrieben werden konnte. Diese neue

(System Managed Storage) als integralem Bestandteil des

Einheit bot Kompression an, die direkt in den Host-Adaptern,

z/OS-Betriebssystems.

damals auf ESCON-Basis, durchgeführt wurde. Das hatte den Vorteil, dass alle Daten im Plattenpuffer bereits komprimiert

Die Funktionalität ‘Logical Volume Pool Assignment’ bietet

waren und der Nutzgrad im Plattenpuffer durchschnittlich

die Möglichkeit, logische Volumes einzeln pro Nummernkreis

um Faktor 3 vergrößert wurde. Durch den Einsatz von SSA-

in unterschiedlichen physischen Kassetten-Pools zu verwalten.

Laufwerken mit 9 und 18 GB Kapazität wurde die Plattenpuf­

Damit wurde der IBM VTS mandantenfähig. Mit ‘Selective

fergröße auf 288 GB und 576 GB gesteigert. Später wurden

Dual Copy’ können zwei Kopien eines logischen Volumes in

mit 36-GB-SSA-Files Plattenpuffer von bis zu 5,2 TB (nutz­

zwei unterschiedlichen physischen Kassettenpools erzeugt

bar) möglich. Dadurch wurde die Verweilzeit der Volumes im

werden. Die Funktion ‘Peer to Peer Copy Control’ adressiert

Plattenpuffer um ein Vielfaches vergrößert und Recalls direkt

einen PtP-VTS-Komplex und erlaubt die Steuerung, welche

vom Plattenpuffer als virtuelle Mounts in Plattengeschwindig­

logischen Volumes in einem PtP-Komplex im Immediate Copy

keit durchgeführt. Die damaligen B18-Einheiten erreichten, je

Mode und welche logischen Volumes im Deferred Copy Mode

nach Ausbaustufe, Durchsatzmöglichkeiten von 30 bis 40 MB/s.

gespiegelt werden.

Viele andere Firmen sprangen sehr schnell auf diesen Ge-

Mit ‘Tape Volume Cache Management’ (diese Funktion war

schäftszug auf und es wurde eine ganze Reihe von Band­

bereits vorher verfügbar, allerdings Host-gesteuert) können

virtualisierungslösungen, HW-basierend, aber auch reine

logische Volumes einer Cache Management Preference Group

SW-Stacking-Lösungen auf dem Markt verfügbar. Viele ver­

zugeordnet werden. Es stehen zwei Preference Groups zur

schwanden aber wieder sehr schnell vom Markt.

Verfügung. Die Preference Group steuert, wie die logischen Volumes im Plattenpuffer behandelt werden.

Das Modell B18 wurde in den Folgejahren funktional erweitert. Import-/Export-Möglichkeiten von logischen Volumes waren

Die wohl wichtigste Einführung im August 2000 war aber das

möglich. Mit der Einführung von Folgemodellen im August

Prinzip der Spiegelung von ganzen VTS-Systemen, die

2001, der Modelle B10 und B20, wurden neben den ESCON-

auch heute noch als Peer to Peer VTS bezeichnet wird und

Anschlüssen auch FICON-Anschlüsse verfügbar und eine

sich im Markt, vor allem bei Banken und Versicherungskunden,

große Palette von neuen Funktionen kam zum Einsatz, die

schnell durchsetzte. Dabei bietet ein Peer-to-Peer-VTS-Kom­ plex synchrone Spiegelmöglichkeit und eine asynchrone Spiegelung an. Über eine weitere Funktion, die 2004 einge­ führt wurde (Selective Peer to Peer Copy), können auch einzelne Volumes oder ganze Storage-Gruppen sowohl gespiegelt als auch ungespiegelt in einem VTS-Peer-toPeer-Spiegelkomplex verwaltet werden. Die VTS-Geschichte, die 1997 begann, war für die IBM vor allem im Mainframe-Umfeld eine einzigartige Erfolgsgeschichte und IBM entschloss sich, diese Erfolgsgeschichte mit neuen Systemen und neuen Funktionalitäten über die folgenden Jahre fortzusetzen.

IBM Virtual Tape Server VTS, 1997: Modell B16, 1998: Modell B18, 2001: Modell B10 und B20

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

45

1994 bis 1998 Die Epoche der RAID-Systeme

Linear Tape Open LTO Ultrium

Wenn man heute, 2010, die Marktanteile betrachtet, ging

In der ersten Hälfte der 90er-Jahre hatte sich im

diese Rechnung auf. DLT ist heute nahezu vom Markt ver­

Open-Systems-Umfeld vor allem im Mittelstandsbereich und

schwunden.

bei kleineren Betrieben eine Tape-Technologie durchgesetzt, die diesen Markt beherrschte: DLT (Digital Linear Tape), eine

Als die LTO Group 1997 anfing, die Spezifikationen für die

günstige Alternative zur High-End-½-Zoll-Technologie, die für

Standardisierung zu entwickeln, hatte sie zuerst alle vorhan­

kleine Unternehmen bezahlbar war und bis Mitte 1995 eine

denen Bandtechnologien auf ihre Plus- und Minus-Punkte

Marktdurchdringung von 90 % hatte. DLT-Hersteller und -An-

bewertet, um das Gute in LTO miteinzuarbeiten und das

bieter war Quantum. Der kleinere Teil des Marktes ging an

Negative auszulassen. Schluss mit dem Wildwuchs, Kompa­

Helical-Scan-basierende Technologien und die QIC(Quarter

tibilität war gefragt! Ob Sony AIT oder 4 mm, 8 mm Helical

Inch Cartridge)- und Mini-QIC-Technologien.

Scan Technologie von Exabyte, Quantums DLT bis hin zum Super DLT, Philipps NCTP, Quarter Inch Cartridge oder Mini

Mit dem Zusammenschluss der Firmen IBM, HP und Sea-

Quarter Inch Cartridge: alles Technologien, die keine Kom­

gate in einem neuen Tape-Entwicklungsgremium, dem

patibilität vorwiesen und daher Schwierigkeiten hatten, sich

sogenannten LTO(Linear Tape Open)-Gremium, wurde eine

weiter dauerhaft auf dem Markt zu behaupten!

Initiative gestartet, dem dominierenden umd marktbeherr­ schenden DLT von Quantum eine Alternative entgegenzu­

Bei der Aufzeichnungstechnik entschied man sich aufgrund

setzen. Das LTO-Entwicklungsgremium fing 1996 mit seiner

der hohen Zuverlässigkeit für die IBM Magstar-Lineare-Ser­

Arbeit an.

pentinen-Aufzeichnung, mit der das Band bei einer Daten­ rate von 15 MB/s mit 384 Spuren (LTO1) und 35 MB/s mit

Die Spezifikationen von LTO wurden von 1997 bis 1999 ent­

512 Spuren (LTO2) beschrieben wird. Dabei wurden immer

wickelt, um als erster Bandtechnologie-Standard auf den

acht Spuren gleichzeitig geschrieben. Die Kassetten erreichten

Markt zu kommen und den damals herrschenden Wildwuchs

bei diesen Spurdichten native Kapazitäten von 100 GB (LTO1)

an unterschiedlichen Technologien und Medien zu stoppen.

und 200 GB (LTO2). Bei dieser hohen Spudichte war es not­

LTO ist sowohl von der Technologie als auch vom Medium

wendig, eine möglichst exakte Führung der Schreib-/Lese-

ein offizieller ISO-Standard, der es erlaubt, LTO-Medien, un-

Elemente sicherzustellen.

abhängig von welchem Hersteller, auf jedem LTO-Laufwerk,

46

auch unabhängig von welchem Hersteller, zu verarbeiten.

Zu diesem Zweck wurde ein neues, zeitbasierendes Spur-

Heute haben über 30 Firmen die Fertigungslizenzen von LTO

nachführungssystem verwendet, das mit fünf vorgeschrie­

erworben. Hinzu kommen zusätzlich die OEM-Abkommen, die

benen Servobändern mit jeweils acht Servobereichen arbei­

die Entwicklungsfirmen IBM, HP und Seagate eingegangen

tete. Von der AIT(Advanced Intelligent Tape)-Technik von

waren. LTO hatte also eine große Chance, sich langfristig

Sony wurde das in der Kassette integrierte Memory Chip

gegenüber DLT auf dem Markt durchzusetzen.

übernommen, allerdings mit größerer Speicherkapazität (4 KB).

LTO1 Laufwerk mit LTO1 Ultrium Kassette

Kassettenladevorgang beim IBM LTO1 Laufwerk

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

IBM Autoloader und Library-Angebot mit LTO-Laufwerken, Ende 2000, links IBM 3584 Library, rechts unten IBM 3583 Library, darüber der Autolaoder IBM 3581 und das LTO Stand Alone Laufwerk IBM 3580

Dort wird das festgehalten, was z. B. bei Magstar in der Tape-

Passend zur LTO-Laufwerkentwicklung entwickelte IBM ein

Volume-Control-Region auf Band gespeichert wird: Hersteller­

neues Library-Konzept, das mit einem Greifersystem arbei­

angaben als Read-Only-Information, das Inhaltsverzeichnis

tet (bis heute), das die Features der standardisierten LTO-

des Bandes und Angaben wie viele Schreib-/Lesefehler auf

Kassetten optimal handhaben konnte. Das Robotersystem

dem Band vorkommen, um aus Sicherheitsgründen bei einem

mit diesem Spezialgreifer wurde Ende 2000 mit der neuen

bestimmten Schwellwert die Kassette auf ‘Read Only’-Status

IBM 3584 Library realisiert. Die IBM 3584, zum damaligen

zu setzen. Ebenso war Platz für anwenderspezifische Infor­

Zeitpunkt auschließlich an Open Systems betreibbar, stellte

mationen vorgesehen. Neben der Speicherung auf dem Chip

das passende Gegenstück zur IBM 3494 Library dar, aller­

wurden aus Sicherheitsgründen alle Informationen auch in

dings mit wesentlich moderneren Möglichkeiten und einer

der Tape-Volume-Control-Region des Bandes abgespeichert.

Robotergeschwindigkeit, die bis heute unerreicht ist.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

47

1994 bis 1998 Die Epoche der RAID-Systeme

Mit der Einführung der LTO-Bandtechnologie auf dem Markt änderte die IBM ihr bisher verfolgtes Konzept, alles selbst herzustellen. In dem damals bereits hart umkämpften OpenSystems-Markt als Einzelhersteller zu bestehen, der alle Arten von Lösungsformen abbildet und fertigungstechnisch baut, war unmöglich. Deshalb schloss IBM bereits 1999 mit der Firma ADIC ein OEM-Abkommen, das so aussah, dass ADIC LTO-Laufwerke von IBM bekam und im Gegenzug IBM die kleinen Libraries von ADIC, die dann unter IBM Logo mit IBM LTO-Laufwerken vermarktet wurden. So stellte ADIC die damaligen ‘Midrange Libraries’, die IBM 3583 und später die IBM 3582 (bei ADIC Skalar 100 und Skalar 24), zur Verfügung. Der einzige Unterschied zu den ADIC-Produkten war, dass IBM in beide Libraries eine eigene FibreChannel-basierende Steuereinheit integrierte, um den Libraries über die dadurch geschaffene Multipfad­architektur die Möglichkeit zu geben, logische Partitionen als Sub-Lib­ raries anzulegen und um direkt FibreChannel-LTO-Lauf­ werke einzubauen. ADIC verwendete SCSI-Laufwerke, die dann über ein Gateway an SANs anschließbar waren. FCLaufwerke wurden bei ADIC erst Anfang 2005 verwendet und eingebaut. IBM 3583 Ultrium Scalable Tape Library mit geöffneter Tür

Die heute aktuellen Autoloader, Midrange Libraries und die Besonderheiten des 3584 Bandarchivs sind in der Folge­ epoche näher beschrieben.

IBM 3582 Display – Mini-Library mit bis zu 23 LTO-Kassetten

48

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Kommentar zur Epoche der RAID-Systeme

Ebenso hektisch waren die Entwicklungsjahre im Tape-

Im Vergleich zur Vorgängerepoche, wo über Jahre dieselben

Umfeld geprägt. Neben Magstar 3590, Magstar MP und der

Steuereinheiten und Platten aktuell blieben, war die Epoche

Entwicklung des Virtual Tape Servers (VTS) wurde die

der RAID-Systeme mit sehr schnellen Entwicklungszyklen

LTO(Linear Tape Open)-Bandtechnologie zusammen mit

sehr hektisch. RAMAC 1, 2 und 3 kamen hintereinander im

Hewlett-Packard und Seagate entwickelt und spezifiziert. Im

Abstand von nur einem Jahr.

Herbst 1999 war der Standard der LTO1-Technologie fertig. Danach begann ein Prestige-Wettrennen zwischen IBM, HP

In dieser Epoche herrschte ein enormer Preisdruck, der durch

und Seagate. Jeder wollte der Erste sein, der mit LTO1-

neue Mitbewerber und Player im Plattenumfeld hervorgerufen

Laufwerken auf den Markt kommt.

wurde. Seagate kündigte als erste Firma, bereits im Frühjahr 2000, RAMAC 3 war der letzte ‘Rolls Royce’, den die IBM baute,

ihre LTO1-Laufwerke an. Die Seagate-Laufwerke wurden aber

dann liefen die Kosten davon und die Produkte waren viel zu

dann doch als letzte verfügbar. IBM kündigte im September

teuer im Vergleich zum Mitbewerb. Das führte zum Zusam­

2000 mit sofortiger Verfügbarkeit an. HP folgte mit Ankündi­

menschluss von StorageTek und IBM und zum IBM Vertrieb

gung und Verfügbarkeit einen Monat später.

des RAMAC Virtual Arrays (ehemals STK Iceberg). Plötzlich musste der IBM Vertrieb ein Produkt verkaufen, von dem man

Die Epoche war geprägt durch Vertriebskämpfe vieler Mitbe­

sich bisher immer distanziert hatte. Ein massives Umdenken

werber im Platten- und Tape-Umfeld und war deshalb so

war im Speichervertrieb angesagt. Log Structured File, die

hektisch, weil enorme Preis- und Prestigekämpfe stattfanden.

bisher von IBM negativ kommentierte ‘Garbage Collection – das kann doch nichts sein’ musste nun positiv dargestellt werden. Die Verbrüderung mit STK im Plattenumfeld musste erst einmal verdaut werden. Im Open-Systems-Bereich glichen die erfolgreiche Einführung der SSA-Architektur und der erfolgreiche Verkauf des Plat­ tensystems IBM 7133 den Einbruch im Mainframe-Umfeld entsprechend aus.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

49

50

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

1999 bis 2005

Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

51

1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS

1999 – 2006: IBM SAN, Switches und Direktoren der Hersteller Brocade, McData (CNT) und Cisco

SAN, NAS, iSCSI

Die Anfänge der ersten SAN-Infrastrukturen fanden aller­

Die Epoche der RAID-Systeme war bis 1999 so gestaltet, dass

dings schon 2 Jahre früher statt. Sie kamen bereits 1996

Plattensysteme für den Mainframe-Bereich zur Verfügung

in Hochleistungsrechenzentren der Universitäten zum Ein­

standen, während der Open-Systems-Bereich eigene, damals

satz und wurden von der Firma Ancor zur Verfügung gestellt.

direkt angeschlossene Plattensysteme verwendete. Nur Tape

1998 wurde der erste 8-Port-Switch von der Firma Brocade

Libraries waren in der Lage, beide Welten zu unterstützen.

im kommerziellen Rechenzentrumsumfeld bei der IT Austria

Das Datenwachstum in dieser Zeit war dramatisch, oft über

in Wien eingesetzt und in den Folgejahren gingen viele Firmen

60 % pro Jahr für Rechenzentrumsbetriebe. Die IP-Netze und

dazu über, in den unterschiedlichsten Unternehmensbereichen

die damit verbundene Infrastruktur, damals Ethernet auf

SAN-Infrastrukturen zu implementieren. Nicht nur im Open-

10-Mbit-Basis, erlaubten kaum, riesige Datenmengen über

Systems-Bereich erlebte die Glasfaser eine neue Blütezeit,

IP-Infrastrukturen hin und her zu bewegen. Der Ruf nach

auch die Mainframe-Umgebungen wechselten, beginnend

separaten Speichernetzwerk-Infrastrukturen wurde immer

mit dem Jahr 2001, von der bisherigen ESCON-Umgebung

lauter, um der Datenflut entgegenzuwirken. 1998 kamen

(Enterprise Storage CONnection) mit den bis dahin verwen­

von der Firma Brocade die ersten FibreChannel-Switches

deten ESCON-Direktoren auf Glasfasernetze, um zusammen­

auf 8-Port-Basis mit 1-Gbit-Ports auf den Markt. Eine neue

gefasste ESCON-Pakete über die Glasfaser zu übertragen.

Infrastruktur, das SAN (Storage Area Network) auf

Das Ganze wird heute als FICON bezeichnet (Fibre CON­

FibreChannel-Basis, sollte in den kommenden Jahren eine

nection). Dadurch konnten die hohen Übertragungsraten

wahre Blütezeit erleben.

der Monomode-Glasfaser mit entsprechenden Multiplexing­ verfahren auch im Mainframe-Bereich genutzt werden.

52

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Bereits im Jahr 2003 waren Direktoren auf dem Markt, die

Heute sind SANs selbst für sehr kleine Betriebe bezahlbar.

sowohl FibreChannel- als auch FICON-Ports abbilden konn­

Der Preisverfall von 2003 bis 2006 liegt in einem Bereich von

ten. Leider kann bis heute noch kein FC-Port als FICON-Port

nahezu 96 %. Dieser Preisverfall wurde maßgeblich durch die

oder umgekehrt genutzt werden und es wird sicherlich noch

neuen Bandbreitenmöglichkeiten der IP-Netze auf Ethernet-

einige Zeit dauern, bis SAN-basierende Infrastrukturen

Basis erzielt und stellt durchaus, vor allem heute (10-Gbit-

sowohl von der Open-Systems-Umgebung als auch von den

Ethernet), die Notwendigkeit von SANs infrage, wenn es um

Mainframes gleichzeitig genutzt werden können. Die Fibre­

Engpässe in der Datenübertragungsmöglichkeit geht. Trotz­

Channel SANs entwickelten sich rasch weiter. 2002 kamen

dem, vor allem aufgrund der Managementmöglichkeiten, ist

die ersten Switches mit 2-Gbit-Ports auf den Markt. Im

davon auszugehen, dass SAN-Netze von 4 Gbit in Richtung

Jahr 2006 waren alle Hersteller im Begriff, von 2-Gbit- auf

8 Gbit (oder 12 Gbit) weiterentwickelt werden, die zu den

4-Gbit-Technologie umzustellen, und bis Ende 2006 war die

bestehenden Netzen (Autosensing) kompatibel bleiben.

Umstellung soweit, dass ‘End to End’-SAN-Implementie­ rungen auf 4-Gbit-Basis realisiert werden konnten. Sowohl

Neben den Möglichkeiten und Vorteilen von SANs bot IBM

die Host-Adapter aller Server-Hersteller als auch die Host-

in den Jahren 2000 bis 2004 auch Lösungen und Produkte

Ports aller Storage-Anbieter waren auf 4-Gbit-Technologie

auf dem Sektor Networking Attached Storage (NAS) an.

umgestellt. Heute, im Jahr 2008, wiederholt sich dieses

NAS-Systeme sind vorkonfigurierte Fileserver. Sie bestehen

Spiel nur auf 8-Gbit-Technologie-Basis. Seit Anfang 2008

bis heute aus einem oder mehreren internen Servern mit vor­

sind die ersten 8-Gbit-fähigen Direktoren auf den Markt

konfigurierter Plattenkapazität und werden über Ethernet an

gekommen.

das LAN angeschlossen, wo sie ihren Plattenspeicher als Fileserver oder als HTTP-Server zur Verfügung stellen. NAS-

In der Anfangszeit dieser Epoche waren SAN-Implementie-

Server sind speziell für das File Sharing entwickelt. Der Vor­

rungen sehr kostenintensiv. Nicht jede Firma, vor allem im

teil von NAS im Vergleich zu klassischen Fileservern bestand

Mittelstandsbereich, konnte sich SANs finanziell leisten, um

im geringen Installations- und Wartungsaufwand.

der neuen Bandbreitenmöglichkeit Rechnung zu tragen. Hinzu kam die Hochpreispolitik der Glasfaserhersteller, die vor allem

Die IBM NAS-Modelle 200 und 300 waren Lösungen speziell

die für das Multiplexing erforderliche Monomode-Faser über

für Kunden, die in einem Windows-Umfeld Speicher konsoli­

die Anfangsjahre sehr teuer gestaltete. Die Server-Adapter-

dieren wollten. Alle IBM NAS Appliances wurden mit einem

Hersteller schlossen sich dieser Hochpreispolitik an. Das

vorkonfigurierten Microsoft-Windows-Betriebssystem ausge­

führte dazu, dass die Entwickler von Multiplexing-Verfahren

liefert. Dieses Windows wurde speziell für Fileserving ange­

auf der Glasfaser kein großes Umsatzpotenzial mehr erken­

passt. Routinen, die überflüssig waren, wurden aus dem

nen konnten und sich deshalb neuen Multiplexing-Verfahren

Betriebssystem entfernt, um die Leistung und Zuverlässig­

auf Ethernet-Basis zuwandten. So kommt es, dass heute IP-

keit zu erhöhen. Dadurch boten die IBM NAS-Modelle sehr

Infrastrukturen auf Ethernet-Basis wesentlich größere Über­

gute Performance in einer Windows-Umgebung (CIFS). Auch

tragungsbandbreiten bieten (2-Gbit- und 10-Gbit-Ethernet)

in einem gemischten Windows- und UNIX(NFS)-Umfeld zeigten

im Vergleich zu FibreChannel-Netzen.

die IBM NAS-Modelle eine gute Leistung.

Die Hochpreispolitik führte auch dazu, dass neben dem

Für klassische Block-I/O-Anwendungen wie Datenbanken

SAN eine neue Technologie, das NAS (Networking Attached

waren solche Fileserver nicht vorgesehen, weil diese Anwen­

Storage), Einzug hielt. NAS-Technologie in Form von File-

dungen direkt auf einen formatierten Plattenplatz ohne ein

Server-Geräten mit eingebauten Platten kam ebenso zum

darüberliegendes Filesystem zugreifen. Dafür waren Lösungen

Einsatz wie Gateways, die prinzipiell nichts anderes als einen

wie Direct Attached Storage (DAS), Storage Area Networks

File-Server darstellten, aber die Möglichkeiten hatten, Platten­

(SAN) und iSCSI-Produkte besser geeignet.

kapazitäten innerhalb eines SANs für File-Serving-Zwecke zu nutzen.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

53

1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS

Die iSCSI-Lösungen setzten sich allerdings auf dem Markt nicht wirklich durch, zumal kurze Zeit später der enorme Preisverfall der Monomode-Glasfaser einsetzte, der die Imple­ mentierung von SANs auch im Mittelstand und für Kleinbe­ triebe bezahlbar machte. Plattensysteme Im Juli 1999 wurde das erste IBM multiplattformfähige Plat­ tensystem, der Enterprise Storage Server ESS, angekündigt. Unter dessen Entwicklungsname ‘Shark’ fand das System IBM NAS Gateway 500, verfügbar Februar 2004, pSeries-basierend, bis 224 TB Kapazität im SAN

allerdings weit mehr Verbreitung als unter dem Begriff ESS.

Um die Speicherressourcen im SAN für Fileserving zu nutzen,

ten Modelle waren die E10 und E20 mit einer Kapazität von

bot die IBM, damals am Anfang als einziger Vendor, die Mög-

420 GB bis 11,2 TB. Dabei wurden Plattenlaufwerke von 9 GB,

lichkeit, vorhandene IP-Netzwerkstrukturen über ein NAS

18 GB und 36 GB als SSA-Platten verwendet, die über vier

Gateway mit dem SAN zu verbinden. Das NAS Gateway war

sogenannte Device Adapter Pairs in SSA-Loop-Technik an

ein dedizierter Fileserver. Dieser war mit dem SAN über Fibre­

den Rechner angebunden waren. Am Anfang konnten die

Channel verbunden und so in der Lage, Kapazitäten z. B.

Plattentypen nicht gemischt werden, später allerdings war es

eines Enterprise Storage Servers ESS im SAN optimal für

möglich, unterschiedliche Platten in die Arrays einzubauen.

Fileserving einzusetzen. Durch die Nutzbarmachung eines

Cache-Größen von bis zu 6 GB waren konfigurierbar und

SAN-Speicherpools über Gateways konnten Fileserver in ein

ein Strom unabhängiger Schreibspeicher (NVS Non Volatile

SAN konsolidiert werden. Ebenso wurde durch die Nutzung

Storage) von 384 MB stand zur Verfügung. Die Arrays waren

des Speichers im SAN eine Server-unabhängige Skalierung

am Anfang ausschließlich unter RAID5 betreibbar. Für den

bezüglich der Kapazitäten möglich. Das NAS Gateway 300G

Mainframe standen die 3380- und 3390-Spurformate zur Ver­

wurde später, im Jahr 2004, durch das wesentlich leistungs­

fügung, an Open Systems (UNIX, Windows NT und AS/400)

stärkere Gateway 500 ersetzt.

wurden entsprechende LUNs emuliert (Logical Unit Number).

iSCSI ist eine gemeinsame Entwicklung der Firmen IBM und

Vom Vorgänger der ESS, dem Versatile Storage Server, einem

Cisco. Dabei wird das SCSI-Protokoll über TCP/IP übertragen.

Kurzläufer von wenigen Monaten, wurde der IBM Data Path

iSCSI verfolgt damit einen ähnlichen Ansatz wie SAN, mit

Optimizer für AIX und Windows NT als integraler Bestandteil

dem Unterschied, dass bei iSCSI eine TCP/IP-Verbindung

für die Multipfadfähigkeit der Maschine übernommen.

Die Typenbezeichnung war 2105 und die 1999 angekündig­

das SCSI-Kabel ersetzt, und stellte damals in Bereichen mit niedrigen oder mittleren Leistungsanforderungen eine kosten­

Funktional war die Maschine am Anfang noch schwach auf

günstigere Alternative zu SANs dar. Der Vorteil bestand darin,

der Brust und es standen nur begrenzt Copy Services als

dass bereits vorhandene IP-Netzwerke direkt genutzt werden

Funktionen zur Verfügung, was die Markteinführung nicht

konnten und nicht ein separates Glasfasernetz in Form eines

gerade vereinfachte. Später kamen dann die Mainframe-Funk­

SANs aufgebaut werden musste. Die Implementierung von

tionen ‘Concurrent Copy’ und XRC, ‘eXtended Remote Copy’

iSCSI-Lösungen im Vergleich zu SANs war wesentlich ein­

als asynchrone Spiegelmöglichkeit ganzer Systeme für S/390-

facher und erforderte nicht den hohen IT-Skill, der bei einem

Server (mit konsistentem Datenbestand auf der Sekundär­

Aufbau eines Storage Area Network (SAN) notwendig war.

seite) und wiederum zeitversetzt die Funktion PPRC ‘Peer to

Die IBM Modelle IP Storage 200i (Modelle 200 und 225)

Peer Remote Copy’ als synchrone Spiegelung sowohl für

verwendeten im Gegensatz zu den NAS und NAS Gateways

den Mainframe als auch den Open-Systems-Bereich. Auch

Linux als Betriebssystem (Kernel) und boten eine Kapazität

FlashCopy (Instant- oder Point-in-Time-Copy) wurde auf

von 108 GB bis 1,74 TB an.

der Maschine implementiert, um in Sekundenschnelle Kopien erzeugen zu können, mit denen man sofort arbeiten konnte.

54

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Knapp 2 Jahre nach der Markteinführung bot die Maschine dann allerdings im Mainframe-Umfeld eine wesentlich höhere Funktionsvielfalt im Vergleich zu den auf dem Markt befind­ lichen Mitbewerbersystemen. Die Funktion PAV (Parallel Access Volume) erlaubt im Mainframe-Umfeld multiple I/OOperationen auf denselben logischen Volume. Multiple Allegiance lässt den parallelen Schreib- und Lesezugriff auf dasselbe logische Volume von verschiedenen S/390-Servern zu. I/O Priority Queuing verwendet die Priorisierungsinfor­ mationen des OS/390-Workloadmanagers im Goal Mode, um die Sequenz der einzelnen I/Os optimal zu steuern und Workloads mit unterschiedlicher Wichtigkeit entsprechend ihrer Priorisierung optimal zu behandeln. Das System kam mit neuen Management-Tools, der soge­ nannten ‘StorWatch’-Familie, auf den Markt, die es erlaubte, die Maschinen über das Web zu administrieren. Standard­ mäßig wurde die Maschine mit dem ESS Specialist ausge­ liefert, der vor allem für das Konfigurieren und für spätere Modifizierungen notwendig war. Als separates, zusätzlich käufliches Produkt wurde der ESS Expert zur Verfügung gestellt, der ausführliche Informationen über genutzte Kapa­

Enterprise Storage Server ESS (Shark), 1999: Modelle E10/E20 bis 11 TB, 2001: Modelle F10/F20 bis 35 TB, 2002: Modelle 800 und 800 Turbo II bis 56 TB, April 2004: Entry-Modell 750 bis 5 TB (Brutto-Kapazitäten)

zitäten, Performance, Antwortzeiten, Cache Hit Ratios und mehr lieferte, um ein optimales Tuning auf der Maschine für

Der Wechsel von ESCON- auf FICON-Infrastrukturen brachte

die unterschiedlichen Workloads durchführen zu können.

damals enorme Infrastrukurverbesserungen und Infrastruktur­ einsparungen mit sich, weil in der Regel vier ESCON-Kanäle

Im Mai 2001 kamen die Folgemodelle F10 und F20, die

mit 18 MB/s durch einen FICON-Kanal mit 100 MB/s ersetzt

erstmals native FICON-Anschlüsse boten, um mit FibreChannel

werden konnten. Allerdings dauert die Penetration noch bis

im Mainframe-Umfeld zu arbeiten. Auch die bisher verwen­

in die heutige Zeit an.

deten ESCON- und FC-Adapter waren verbessert worden und boten 100 MB/s Durchsatz pro Port in FICON und Fibre­

Im August 2002 kam die letzte Modellreihe der ESS mit den

Channel Speed. Sie lieferten Entfernungsmöglichkeiten von

Modellen 800 und 800 Turbo II auf den Markt, die dann noch

bis zu 10 km (native) und bis zu 100 km über entsprechende

durch ein Einstiegsmodell 750 im Frühjahr 2004 ergänzt

SAN-Fabric-Komponenten aus. Die neuen Modelle konnten

wurde. Die neuen Modelle waren leistungsstärker und

mit bis zu 16 FICON-Anschlüssen und einer zusätzlichen

verwen­deten zwei 2-, 4- oder 6-Way-SMP-Rechner mit bis

Cache-Option von 24 GB, also maximal 32 GB, ausgestattet

zu 64 GB Cache.

sein. Damit verbesserte sich die Leistung zu den Vorgänger­ modellen um ca. 40 %.

Dadurch waren ca. 42 % mehr Transaktionen bei Cache Standard Workloads möglich. Die neuen Modelle konnten im

Funktional stellten die neuen Modelle die Funktion PPRC und

Mischbetrieb Laufwerke mit 18 GB, 36 GB, 73 GB und 146 GB

FlashCopy auch der Systemplattform AS/400 und iSeries zur

ausgestattet werden und boten als Brutto-Kapazität von

Verfügung. Im März 2002 wurde auch die FICON-Unterstüt-

582 GB bis 56 TB. Die Laufwerke mit 18 GB, 36 GB und 73

zung für die bei Airline-Buchungssystemen verwendete

GB gab es mit Umdrehungsgeschwindigkeiten von wahlweise

TPF-Anwendung (Transaction Processing Facility) verfügbar.

10.000 Umdrehungen/Minute und 15.000 Umdrehungen/ Minute, während das großkapazitive 146-GB-Laufwerk nur mit 10.000 Umdrehungen/Minute zur Verfügung stand.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

55

1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS

Wahlweise konnten die Arrays mit RAID0, 1, 5 und 10 konfi­

Ebenso wurden für die neuen Modelle die Management-

guriert werden und alle Platten in einem Array wurden mit

Möglichkeiten erweitert. So wurden erstmals offene APIs als

einem Striping-Verfahren (alle Laufwerke arbeiten gleichzeitig,

Industrie Standard Interface (SNIA-SMI-S) zur Verfügung ge-

wenn eine Spur in kleinen Stücken parallel auf alle Laufwerke

stellt. Die Maschinen konnten mit Scripting Tools über das

des Arrays geschrieben oder gelesen wird) angesteuert, um

CLI (Command Line Interface) automatisiert werden. Ebenso

eine optimale Schreib- und Lese-Performance sicherzustellen.

stand eine Web-basierende grafische Benutzerober­fläche

Für die Array-Anbindung wurden SSA-160-Adapter verwendet,

(GUI) für einfache Administration zur Verfügung.

die in einer Doppelloop einen Gesamtdurchsatz von 320 MB/s bei acht gleichzeitigen I/Os erreichen konnten. Der Gesamt­

Für alle ESS-Modelle wurden RS/6000 basierende POWER5-

durchsatz (interne Bandbreite) lag beim Turbo-II-Modell bei

Prozessoren eingesetzt. Die E-Modelle verwendeten eine

3,2 GB/s. Die maximale Cache-Größe lag bei bis zu 64 GB.

H50 als 4-Way-SMP-Version mit einer Taktrate von 340 MHz. Die F-Modelle benutzten eine H70 als 4-Way-SMP mit

Das RAID-Management war komplett in die Adapterkarten

540 MHz. Die letzten Modelle der 800er -Reihe verwendeten

verlagert und bei sequenziellen Schreib-Workloads war die

einen H80-Rechner. Das Einstiegsmodell 750 benutzte eine

Maschine in der Lage, vom RAID5- in den RAID3-Modus um-

H80 als 2x2-Way mit 600 MHz, die Modelle 800 eine H80

zuschalten, bei der bis zu 64 gleichzeitige physische I/Os

als 2x4-Way mit 600 MHz und die leistungsstärkste ESS 800

auf die Platten möglich waren.

Turbo 2 eine H80 als 2x6-Way mit 750 MHz. Für die interne Übertragung in den Maschinen wurde mit PCI-Bussen

Alle Maschinen waren von Beginn an auf 2-Gbit-Hostan­

gearbeitet.

bindungungstechnologie, also 2 Gbit FICON und 2 Gbit Fibre­Channel, ausgelegt. Daneben konnte die Maschine

Im Januar 2006 zog IBM alle ESS-Modelle mit Wirkung vom

immer auch noch mit ESCON- und Ultra-SCSI-Adaptern

April 2006 vom Vertrieb zurück.

konfiguriert werden. Parallel zur ESS wurde bei IBM bereits 1999 der Startschuss Die Modelle 800 und 800 Turbo II waren die Basis, um ein

gegeben, an Server-basierenden Speicherarchitekturen zu

komplett neues Remote-Copy-Verfahren zu entwickeln, das

arbeiten, die die Basis für die heutige, erste Server-basie­

in seiner Leistungsfähigkeit bis heute einmalig im Markt ist

rende Speicherarchitektur legten und heute mit dem Produkt

und bei den Folgeprodukten der DS6000 und DS8000 maß­

der DS8000 zur Verfügung stehen. Diese neue Architektur­

geblich seinen Einsatz findet. Dieses neue Remote-Copy-

entwicklung fand parallel zur Weiterentwicklung der ESS statt

Verfahren wurde den neuen ESS-Modellen im April 2004 zur

und wurde unter größter Geheimhaltung vorangetrieben.

Verfügung gestellt und ermöglichte durch eine bidirektionale Implementierung über eine FibreChannel-Verbindung eine

Das erfolgreiche, SSA-basierende Plattensystem IBM 7133,

synchrone Spiegellast (PPRC) von bis zu 16.000 I/Os in der

das vor allem in RS/6000- und pSeries-Umgebungen einge­

Sekunde (ESS), die sich später bei den neuen DS8000 auf

setzt wurde, bekam 2002 auch die Möglichkeit, in Fibre­

bis zu 23.000 I/Os pro Sekunde steigerte – und das über

Channel SANs zum Einsatz zu kommen. Mit dem Adapter

einen einzigen FibreChannel-Link. Bei dieser neuen Imple­

7140 konnte das Plattensystem an SANs angeschlossen

mentierung können extrem kurze Antwortzeiten, auch bei

werden und stellte eine neue Funktion über diesen Adapter,

synchroner Spiegelung über lange Entfernungen, erzielt

‘InstantCopy’, zur Verfügung. Damit konnte neben einem

wer­den. Bei den Modellen 800 der ESS wurden Antwort­

RAID1-Spiegel eine weitere Kopie erzeugt werden, die dann

zeiten von 2 ms bei einer synchronen Spiegelung von über

für asynchrone Backup- oder Testzwecke verwendet werden

75 km erzielt.

konnte. Da die hier eingesetzte SSA-Technologie auch im Enterprise Storage Server ESS (Shark) eingesetzt wurde, bezeichnete man die Kombination von 7133 und dem Adapter 7140 auch als ‘Hammershark’. Die Nähe zur ESS (Shark) wurde auch durch eine Aufrüstoption unterstrichen, bei der 7133 Kapazität zur Erweiterung einer Shark genutzt werden konnte.

56

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Nach der Markteinführung der ESS als multiplattformfähiges

Im Jahr 2001 wurde diese Allianz zwischen IBM und LSI auf

Enterprise-Plattensystem erkannte IBM sehr schnell, dass

den gesamten Storage-Vertrieb erweitert, eine Allianz, die sehr

selbst Einstiegskonfigurationen einer Shark für den Mittel­

erfolgreich werden sollte und bis in die heutige Zeit hochak­

standsbereich zu teuer waren. Deshalb wurde bereits im

tuell ist. Das erste Produkt, das IBM über diese Allianz ver­

Jahr 2000 mit der Firma Compaq ein OEM-Vetrtriebsver-

trieb, war ein Entry-Plattenprodukt, die FAStT200, damals

trag unterzeichnet, der IBM erlaubte, das aktuelle Compaq-

auch als IBM 3542 bekannt, das mit bis zu zwei FibreChan­

Plattensystem mit FibreChannel-Anschlüssen zu vertreiben.

nel-Ports mit der Grundeinheit (10 eingebaute Festplatten)

Das Produkt MSS Modular Storage Server unterstützte

und zwei Erweiterungseinheiten EXP500 (pro EXP500

heterogene Serverplattformen im Windows-NT- und UNIX-

zusätz­liche 15 Platten) eine maximale Kapazität von bis zu

Umfeld und wurde über Hubs und/oder Switches an FC-

2,1 TB anbot. Das System stellte eine preisgünstige, perfor­

Server angeschlossen.

mante Plattenlösung für dezentrale Abteilungen und Arbeits­ gruppen mit bis zu vier Servern dar. Das System bot als

Die Zeit des MSS Modular Storage Servers war aber nur von

Entrysystem damals bereits eine ganze Reihe von Sicher­

sehr kurzer Dauer und es wurden nur vereinzelte Systeme

heitsoptionen wie Dual Active RAID Controller, RAID 0, 1, 10,

installiert. Mit der Übernahme von Compaq durch Hewlett-

3 und 5, redundante Netzteile und Batterie sowie die Mög­

Packard HP war die Allianz mit Compaq beendet.

lichkeit, alle Kom­ponenten als ‘Hot Swaps’ zu tauschen. Im System konnten im Mischbetrieb Platten mit 18 GB, 36 GB

Daraufhin griff IBM auf eine seit Anfang der 90er-Jahre be-

und 73 GB eingesetzt werden.

stehende OEM-Allianz mit der Firma LSI zurück, die es erlaubte, dass IBM unter IBM Logo Plattenprodukte von LSI

Die Abkürzung ‘FAStT’ steht für ‘Fibre Array Storage Tech-

speziell im Intel-Umfeld (NetFinity) über den IBM xSeries-

nology’. Der ursprüngliche Name sollte FAST – für Fibre Array

Kanal vertrieb. Bereits 1993 wurden die LSI-Produkte IBM

Storage Server – lauten, war aber bei der Ankündigung der

7135-110 RAIDiant Array in den Vertrieb aufgenommen, 1995

LSI-Produkte bereits vergeben und konnte nicht verwendet

das IBM 7135-210 RAIDiant Array, 1998 der IBM 3526 FC

werden. Deshalb entschloss man sich für FAStT mit der

RAID Controller, 2000 die IBM 3552 FAStT500 und die IBM

Intention, dass das kleine ‘t’ nicht ausgesprochen wird. Trotz

3542 FAStT200 und im Jahr 2001 die IBM 1742 FAStT700.

allem setzte sich die Aussprache als ‘fast_T’ in ganzer Breite durch.

FAStT900

FAStT700

FAStT600 Turbo

FAStT600

FAStT200

FAStT200

2 Gbps FC

2 Gbps FC

2 Gbps FC

1 Gbps FC

2 Gbps FC

2 Gbps FC

SAN attachments (max)

4 FC-SW

4 FC-SW

4 FC-SW

4 FC-SW

4 FC-SW

4 FC-SW

Direct attachments (max)

8 FC-AL

8 FC-AL

4 FC-AL

4 FC-AL

2 FC-AL

4 FC-AL

Redundant drive channels

Four 2 Gb FC

Four 2 Gb FC

Four 2 Gb FC

Four 2 Gb FC

Four 1 Gb FC

Four 2 Gb FC

Drive types supported

FC, SATA

FC

FC, SATA

FC, SATA

FC

FC, SATA

224

224

112

56

66

56

Max physical capacity with FC

32 TB

32 TB

16.4 TB

8.2 TB

9.6 TB



Max physical capacity with SATA

56 TB



28 TB

28 TB



14 TB

XOR technology

ASIC

ASIC

Integrated

Integrated

Integrated

Integrated

Subsystem Cache

2 GB

2 GB

2 GB

512 MB

256 MB

512 MB

Host Interface

Max drives

IBM FAStT-Plattensubsystemfamilie, Spezifikationsübersicht

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

57

1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS

Die Reihe der FAStT-Plattensysteme wurde im Oktober 2001

mehr Kapazität benötigt oder eine höhere Performance er-

um die leistungsfähigeren Produkte FAStT500 und FAStT700

forderlich wird, gibt es die Möglichkeit, dieser Group eine

erweitert, die mit bis zu vier FibreChannel-Anschlüssen höhere

oder mehrere physische Laufwerke hinzuzufügen (DCE). Die

Kapazitäten boten. Im Hochleistungsbereich kam im Februar

in dieser Group befindlichen Volumes nutzen diese neue

2003 die FAStT900 dazu, um die Baureihe auch im oberen

Kapazität, die Disk wird automatisch in die Volume-Verteilung

Leistungsbereich abzurunden. Im April 2003 wurde die

aufgenommen.

FAStT500 duch die FAStT600 und FAStT600 Turbo ersetzt. Neben den Plattenerweiterungseinheiten EXP500 und EXP700

Sollte innerhalb eines zugewiesenen Volumes mehr Kapazität

(EXP steht für Expansion), die mit FibreChannel-Platten

benötigt werden, so ist im laufenden Betrieb auch hier eine

bestückt waren, kündigte IBM im Oktober 2003 die Erweite­

Kapazitätserweiterung möglich (DVE). Voraussetzung hierfür

rungseinheit EXP100 an, die mit preislich günstigeren SATA-

ist, dass entsprechende Kapazitäten innerhalb der Array-

Platten bestückt war. Der dazu passende Controller wurde

Group zur Verfügung stehen (in diesem Fall kann über DCE

im Mai 2004 mit der FAStT100 angekündigt. SATA-Platten

eine beliebige, undefinierte Platte ergänzt werden). Diese

(Serial Advanced Technology Attached) sind günstige IDE-

Funktionalitäten ermöglichen es dem Anwender, flexibel auf

Platten mit seriellem Interface, die bisher auschließlich im

Kapazitätsanforderungen einzugehen und diese auf ein­

Heim-PC-Bereich ihre Anwendung fanden. Mit Ausnahme

fachste Weise umzusetzen. Alle Funktionen arbeiten im lau­

der schon länger verfügbaren FAStT200 waren alle Systeme

fenden Betrieb mit Data in Place und werden über den

jetzt mit 2 Gbit FibreChannel ausgestattet, und das sowohl

FAStT Storage Manager initialisiert.

Host-seitig als auch in der Anbindung der Plattenloops an den jeweiligen FAStT Controller. Über 90 % des Vertriebs

DRM: Dynamic RAID Migration. Genauso wie zugewiesene

dieser LSI-Plattensubsystem-Serie lief über IBM oder IBM

Kapazitäten sind ebenfalls zugewiesene RAID-Level nicht

Geschäftspartner und war im FibreChannel-Umfeld ein rie­

statisch, sondern auch im laufenden Betrieb veränderbar.

siger Erfolg, der bis heute anhält.

Sollten sich durch Änderungen im Lastprofil, der Kapazitätsoder Sicherheitsanforderung Änderungswünsche am einge­

Je nach Controllerstärke wurde bei den FAStT-Plattensystemen

setzten RAID-Level ergeben, so kann dieser im laufenden

eine Vielzahl von neuen Funktionalitäten eingeführt, die dann

Betrieb je RAID-Array angepasst werden. Es stehen die

vor allem in den oberen Modellen zum standardmäßigen Ein­

RAID-Level 0, 1, 1+0, 3 und 5 zur Verfügung. Es kann von

satz kamen und bis heute in den Systemen verwendet wer­

jedem RAID-Level zu jedem anderen RAID-Level gewechselt

den. Zum besseren Verständnis werden diese Funktionen im

werden. Voraussetzung ist, dass entsprechende Plattenkapa­

Folgenden beschrieben.

zitäten (z. B. bei einem Wechsel von RAID5 zu RAID1) verfüg­ bar sind (DCE). Auch dies ist im laufenden Betrieb mit Data

DCE und DVE: Dynamic Capacity Expansion und Dynamic

in Place möglich. Die RAID-Berechnung wird im Controller

Volume Expansion ermöglichen, zugewiesene Speicherbe­

über HW-Funktionalität durchgeführt.

reiche im laufenden Betrieb zu vergrößern. Innerhalb des

58

FAStT-Systems werden physische Laufwerke zu einzelnen

DAE: Dynamic Array Expansion. Sollte innerhalb einer FAStT

Array-Groups gebunden. Die Laufwerke können sich dabei

weitere physische Kapazität benötigt werden, so gibt es die

über verschiedene EXP-Erweiterungseinheiten verteilen. Die

Möglichkeit, im laufenden Betrieb die angeschlossenen Er-

Selektion der Laufwerke kann dem System überlassen werden

weiterungseinheiten mit weiteren FC-Laufwerken in verschie­

(dann wird stets die performanteste Konfiguration gewählt)

denen Kapazitätsgrößen und mit unterschiedlichen RPMs zu

oder vom Administrator manuell definiert werden. Für die er-

bestücken (bis zu 14 Laufwerke je EXP700). Sollten in den

stellte Array-Group wird ein RAID-Level definiert, der für die

angeschlossenen EXPs keine freien Slots zur Verfügung ste­

gesamte Array-Group Gültigkeit hat. Innerhalb dieser Array-

hen, so besteht die Möglichkeit, im laufenden Betrieb eine

Group können verschiedene Volumes definiert werden. Diese

weitere EXP700 an den FAStT-Controller anzuschließen. So

Volumes werden den einzelnen Servern zugewiesen. Für den

lassen sich einzelne Laufwerke oder ganze Erweiterungsein­

Fall, dass der gewählte Plattenzusammenschluss (Array-Group)

heiten im laufenden Betrieb hinzufügen.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Neben diesen Standard-Funktionalitäten sind weitere,

•• VolumeCopy: Ergänzend zur Funktion FlashCopy ist für

optionale Funktionen verfügbar:

FAStT-Systeme mit FSM 8.4 auch die Funktion VolumeCopy verfügbar. VolumeCopy erstellt im Gegensatz zu FlashCopy

•• FlashCopy: Die Funktion FlashCopy (Point-in-Time-Copy)

eine physische Kopie. Es muss also für die Erstellung einer

ermöglicht bis zu 4 virtuelle Kopien eines bestehenden

VolumeCopy die gleiche physische Kapazität wie die der

Volumes. Diese Funktion kommt vor allem für die Erstellung

Source zur Verfügung stehen. Es besteht die Möglichkeit,

von Testumgebungen und die Erhöhung von Onlinezeiten

diese Kopie nach Wunsch zu priorisieren. Dies bedeutet,

bei Backups zum Einsatz. Wie funktioniert nun FlashCopy

dass I/O-Tätigkeiten zum Host bevorzugt, die Erstellung

bei den FAStT-Systemen?

der Kopie nur zweitrangig behandelt wird. VolumeCopy ist

Über dem FAStT Storage Manager (FSM) wird der Flash-

eine Funktion, die besonders für Testumgebungen (z. B. zur

Copy-Befehl über die GUI-Oberfläche abgesetzt. Über das

Durchführung von Releasewechseln etc.) oder für Online-

GUI wird in diesem Schritt ebenfalls ein Repository angelegt,

Backups geeignet ist.

ein physischer Datenbereich für die Änderungen zwischen

•• Remote Mirroring: Während die Kopierfunktionen FlashCopy

der Kopie und T0, dem Zeitpunkt des Spiegelungsbeginns.

und VolumeCopy Datenkopien innerhalb eines FAStT-

Die Größe des Repositorys ist abhängig von der Anzahl der

Systems zur Verfügung stellen, erstellt Remote Mirroring

Änderungen am Originalvolume. Die Erfahrung zeigt, dass

eine Kopie von Daten über eine SAN-Infrastruktur von einer

eine Repositorygröße von 20 % des Originalvolumes sinn-

FAStT auf eine weitere. Diese Funktion ist für die FAStT-

voll ist. Sollte bei längerer Kopievorhaltung oder über-

Systeme 700 und 900 verfügbar. Remote Mirroring ist eine

durchschnittlich vielen Änderungen der Source mehr Re-

bidirek­tionale, synchrone Kopie. Über dedizierte

pository-Kapazität benötigt werden, so kann dieser Bereich

FibreChannel-Ports können bis zu 32 Volumes auf eine

flexibel vergrößert werden (DVE). Die Erstellung einer Flash-

zweite FAStT gespiegelt werden. Remote Mirroring wird

Copy ist innerhalb von wenigen Sekunden abgeschlossen.

für Katastrophen­vorsorge und High-Performance Copys

Zur weiteren Benutzung einer FlashCopy ist es wichtig, zu T0 auf einen konsistenten Datenbestand zurückzugreifen,

eingesetzt. •• Partitioning: Um unterschiedliche Speicherbereiche auf

da ansonsten eine inkonsistente Kopie entsteht. Die erstellte

der FAStT voneinander abzugrenzen, steht die Funktion

virtuelle Kopie (nach wenigen Sekunden) kann z. B. dem

Partitioning zur Verfügung. Die Abgrenzung bewirkt, dass

Backup-Server zur Datensicherung zugewiesen werden.

definierte Server nur auf den ihnen zugewiesenen Speicher­

Wird während der Nutzung einer FlashCopy (Target) eine

bereich zugreifen können. Auf Speicherbereiche von

Änderung an der Source (Block A) vorgenommen, so wird

‘fremden’ Servern kann somit kein Zugriff erfolgen. Dies

das Original vor der Änderung in das Repository übernom-

erhöht die Sicherheit der einzelnen Speicherbereiche. Be-

men. Wird das Target geändert, so wird diese Änderung

sonders in Microsoft-Umgebungen ist diese Funktion sehr

ebenfalls im Repository gespeichert. Wurden an der

wertvoll, da die Betriebssysteme keine derartige

Source keine Änderungen vorgenommen, so greift man

Funktiona­lität bieten.

bei der Nutzung der Copy (Target) automatisch auf die Source zurück.

FAStT900

FAStT700 FAStT600 Single/Dual/Turbo

FAStT200 FAStT100 FAStT RAID Controller Familie

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

59

1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS

Laufwerkerweiterungseinheiten, Management SW und das Einbau-Rack

EXP100 Serial-ATA-Technologie

EXP700 2-Gb-FC-AL-Technologie

Laufwerkeinheiten

FAStT Storage Manager (FSM)

Das Rack

Mit der Ankündigung der ersten Server-basierenden Spei-

Für die FAStT-Plattenfamilien wurden im Einzelnen folgende

cherarchitekturen mit den Plattenprodukten DS6000 und

Rebrandings durchgeführt:

DS8000 unternahm IBM im September 2004 ein generelles, einheitliches Re-Branding der Plattenprodukte. DS steht für Disk System. Die Zahl dahinter soll die Leistungsfähigkeit des jeweiligen Systems reflektieren: je höher die Zahl, desto

Naming Prior to Sept 7, 2004

New naming as of Sept 7, 2004

IBM TotalStorage FAStT Storage Server IBM TotalStorage DS4000 FAStT

DS4000

FAStT Family

DS4000 series

Neben der Vereinheitlichung der Plattenproduktnamen wurden

FAStT Storage Manager vX.Y (example FSM v9.10)

DS4000 Storage Manager vX.y (example 9.10)

auch die Namen der jeweiligen Funktionalitäten entsprechend

FAStT100

DS4100

angepasst. Vergleichbare Funktionen der DS6000 und DS8000

FAStT600

DS4300

wurden bei den FAStT-Systemen mit denselben Begriffen

FAStT600 with Turbo Feature

DS4300 Turbo

bezeichnet. Dies betraf vor allem die Remote-Copy-Spiegel­

FAStT700

DS4400

verfahren.

FAStT900

DS4500

höher die Leistung.

EXP700

DS4000EXP700

Das synchrone Spiegeln von Plattensystemen wird bei der

EXP100

DS4000EXP100

DS6000 und DS8000 als Metro Mirroring bezeichnet, das

FAStT FlashCopy

FlashCopy for DS4000

asynchrone Spiegelverfahren als Global Mirroring. Die neu

FAStT VolumeCopy

VolumeCopy for DS4000

eingeführten Begriffe sollen dem neu entwickelten Spiegel­ verfahren, das auf der ESS Modell 800 als Plattform entwickelt

FAStT Remote Volume Mirror (RVM)

Enhanced Remote Mirroring for DS4000

wurde und heute das leistungsfähigste Spiegeln im Markt

FAStT Synchronous Mirroring

Metro Mirroring for DS4000

darstellt, gebührend Rechnung tragen.

FAStT Asynchronous Mirroring (New Feature) w/o Consistency Group

Global Copy for DS4000

FAStT Asynchronous Mirroring (New Feature) with Consistency Group

Global Mirroring for DS4000

Die jetzt neu bezeichnete DS4000-Plattensubsystemfamilie wurde im Mai 2005 durch ein neues Hochleistungsmodell DS4800 ergänzt, das eine doppelt so hohe Leistungsfähig­ keit im Vergleich zur DS4500 auslieferte. Die DS4800 war vom Aufbau her bereits beim Verfügbarwerden eine 4-GbitMaschine und somit das erste 4-Gbit-Plattensystem auf dem Markt. Die Cachegrößen am Anfang konnten je nach Modell mit 4 GB, 8 GB und später 16 GB konfiguriert werden. Die DS4800 hatte zudem noch eine andere positive Eigenschaft

60

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

in der Bauweise: Die Maschine war RoHS-konform und ent­

Legierungen, Barium-Derivate etc. in Neuprodukten einge­

sprach bereits 2005 der neuen EU-Richtlinie, die seit 1. Juli

setzt werden dürfen. Diese neue Richtlinie gilt EU-weit und

2006 in Kraft ist.

betrifft alle Neuprodukte in der Elektro- und IT-Industrie, die ab dem 1. Juli 2006 vertrieben werden.

Im Jahr 2003 bildete sich in den USA ein Gremium, das es sich zur Aufgabe machte, Plattensubsysteme unterschiedli­

Die DS4100 als SATA Controller wurde durch den neuen

cher Hersteller nach realen und produktiven Workloads aus­

DS4200 SATA Controller ersetzt, die EXP100 mit 250-GB-

zutesten und diese Ergebnisse zu publizieren. Dieses heute

und 400-GB-SATA-Platten durch die EXP420 mit 500-GB-

fest etablierte Gremium nennt sich ‘Storage Performance

SATA-Platten.

Council’ bzw. SPC. Die DS4300 Dual Controller wurden durch die DS4700 Modell 70 Die neue DS4800 übertraf als Midrange-Plattensystem in der

und die DS4300 Turbo durch die DS4700 Modell 72 ersetzt.

Leistung alle anderen Hersteller mit großem Abstand und er-

Ebenso wurde die EXP710 mit FibreChannel-Platten durch

reichte eine Spitzenpunktzahl von 42.254. Damit ist die DS4800

die EXP810 mit FC-Platten auf 4-Gbit-Basis ersetzt.

heute das schnellste Plattensystem im Midrange-Markt. Die DS4500, ehemals FAStT900, wurde durch ein neues EinDa die älteren DS4000-Produkte mit Ausnahme der neu ver­

stiegsmodell, das Modell 80 der leistungsstarken DS4800,

fügbar gewordenen DS4800 nicht der RoHS-Richtline ent­

ersetzt. Bei diesem Einstiegsmodell 80 wurde die interne

sprachen, wurden im Mai 2006 alle nicht RoHS-konformen

Übertragungsbandbreite leicht verringert und die Prozessoren

Produkte durch entsprechend neue ersetzt.

der Controller wurden mit einer 100-MHz-Taktung (im Ver­ gleich zu einer 133-MHz-Taktung) versehen. Damit schließt

RoHS steht für ‘Restriction of Hazardous Substances’

das Modell 80 der DS4800 die Leistungslücke zwischen den

und stellt ab dem 1. Juli 2006 eine gesetzlich kontrollierte

Hochleistungsmodellen der DS4800 und dem Midrange-

EU-Richtlinie dar, die genau vorschreibt, welche Materialien,

Modell 72 der DS4700.

DS4000 Series aktuell im Jahr 2006

DS4800 4 Gbit 4/8/16 GB Cache RoHS compiliant

DS4700 Modell 72 4 Gbit 4 GB Cache RoHS compiliant DS4700 Modell 70 4 Gbit 2 GB Cache RoHS compiliant DS4200 4 Gbit 2 GB Cache RoHS compiliant SATA Controller

DS4800 Modell 80 4 Gbit 4 GB Cache RoHS compiliant

EXP810 4 Gbit RoHS compiliant EXP420 4 Gbit RoHS compiliant SATA-Platten 500 GB

Aktuelle Modelle der IBM DS4000-Plattenfamilie im Jahr 2006

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

61

1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS

DS4000 Erweiterungen 2007 und 2008 Im Jahr 2007 stellte IBM für die DS4000 Plattenfamilie eine ganze Reihe von Erweiterungen vor. Im Mai 2007 wurden für die DS4000 750 GB SATA-Platten und 300 GB Fibre­ Channel-Platten mit 15.000 Umdrehungen in der Minute eingeführt. Damit skaliert eine DS4800 auf bis zu 68 TB bzw. 168 TB Speicherkapazität (je nach Verwendung des Plattentyps). Im Oktober 2007 kamen viele funktionale Erweiterungen für alle Systeme DS4000 dazu. Für die Systeme DS4200 und DS4700 steht als neue RAID-Option RAID6 zur Verfügung. RAID6 sichert den Ausfall von zwei Platten im RAID-Array ab, da mit zwei Parity-Schemen gear­ beitet wird (siehe auch unter RAID). Die Anzahl der Mirror

Ansicht und Aufbau des Hochleistungsmodells DS4800

Relations wurde verdoppelt, ebenso die Anzahl der Flash

Die DS4800 hat alle Festplatten in der Expansion Unit

Copies. Mit Verfügbarkeit im Februar 2008 können für alle

EXP810 konfiguriert. Weitere Expansion Units sowie auch

Systeme LUNs konfiguriert werden, die größer als 2 TB sind.

einzelne Festplatten können im laufenden Betrieb hinzuge­ fügt und in Betrieb genommen werden.

Die leistungsstarke DS4800 bekam die Erweiterung, dass bis zu 512 Server an das Plattensystem angeschlossen

Alle Komponenten der DS4800 sind redundant ausgelegt,

werden können. Es stehen jetzt vier aktuelle Modelle der

z. B. Controller, Stromzufuhr und Kühlung. Ebenfalls wird der

DS4800 zur Verfügung, die sich hauptsächlich in der Cache-

Cache gespiegelt und ist über eine Batterie bis zu 72 Stun­

Größe unterscheiden. So sind, je nach Modell, die Cache-

den vor Verlust geschützt. Zusätzlich ist bei der DS4800 die

Größen 4 GB, 8 GB und 16 GB verfügbar.

Midplane, die als Interconnect Module bezeichnet wird, im laufenden Betrieb tauschbar. Dies ist bislang einmalig bei

Bedient werden die RAID-Level 0, 1, 3, 5 und 10 (der neue

Plattensystemen im Midrange-Umfeld.

RAID6-Level steht ausschließlich der DS4200 und DS4700 zur Verfügung). Die Berechnung der RAID-Level bzw. die

Ebenfalls einmalig ist die Performance der DS4800. Die

XOR-Kalkulation in der DS4800 erfolgt in einem eigens

Maschine hält bis heute die Führungsposition im Benchmark

entwickelten ASIC. Dies ist ein spezieller Prozessor, der

des Storage Performance Councils. Dies ist ein Random

speziell für diese Workload konzipiert wurde. Dies macht

I/O-orientierter Benchmark, bei dem reale Workloads hinter­

die DS4800 frei von Latenzen, weil weder der Cache noch

legt werden. Die genauen Testdaten sowie die Beschreibung

andere durchsatzrelevanten Teile der Maschine damit belas­

findet man unter www.storageperformance.org.

tet werden. Der DS4000 Storage Manager wird für alle Systeme kosten­ frei mit jedem System mitgeliefert. Ebenso ist die Multi­ pathing Software sowie die Call-Home-Funktionalität ohne zusätzliche Kosten einsetzbar. Als Premium-Features stehen die Funktionen FlashCopy, VolumeCopy und eRVM zur Ver­ fügung. Diese sind nicht kostenfrei, jedoch wird immer nur eine Lizenz pro System und Funktion herangezogen. Sowohl bei Kapazität und Leistung als auch beim Preis bie­ tet die aktuelle Modellreihe der DS4000 für jeden Endbenut­ zer eine maßgeschneiderte Plattenlösung im FibreChannelUmfeld an.

62

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

SAN-Virtualisierung

Onlineverfügbarkeit sowie die Produktivität und Effizienz von

Die Epoche der Multiplattform-Systeme war stark durch die

Administratoren. Darüber hinaus bietet er zur weiteren Ver­

Einführung von FibreChannel-Netzen und den Aufbau von

einfachung des Betriebs die Möglichkeit, erweiterte Kopier­

SANs geprägt. Damit wurde das Thema Speichervirtualisie­

services systemübergreifend für Speichersysteme vieler ver­

rung im SAN zu einem der aktuellsten Themen im Storage-

schiedener Anbieter einzusetzen. In seinem vierten Release

Umfeld – wobei das Konzept von Virtualisierung nicht neu

wurde der SAN Volume Controller auf die Verwaltung noch

ist. Speichervirtualisierungskonzepte sind im Mainframe (z. B.

größerer und verschiedenartiger Speicherumgebungen aus­

DFSMS) oder im UNIX-Bereich in Form von ‘Logischen

gelegt. Mit der jetzt erweiterten Unterstützung für zahlreiche

Volume-Managern’ schon lange im Einsatz. Der Einsatz von

Speichersysteme anderer Anbieter, wie z. B. EMC, HP und

Storage Area Networks (SAN) hat die Entwicklung hin zur

HDS, erlaubt der SAN Volume Controller die Einrichtung

Speichervirtualisierung beschleunigt. Ebenso die Komplexität

einer mehrstufigen Speicherumgebung, sodass jede Datei

heutiger heterogener Infrastrukturen hinsichtlich der Server,

aufgrund ihres Stellenwerts auf dem entsprechenden Sub­

Speichernetze und Speichersubsysteme.

system abgespeichert werden kann. Die neueste Version des SAN Volume Controller, die im Juli 2006 verfügbar wurde,

Der primäre Ansatz von Speichervirtualisierung war die

beruht auf 4-Gbit-Technologie und ist RoHS-konform.

Entkoppelung der physischen Speicherressourcen von der direkten Zuordnung zu Serversystemen. Diese SAN-basierte

Bandsysteme

Lösung legt eine Virtualisierungsebene zwischen Server- und

Neben der Plattensubsystem-Weiterentwicklung und den

Speichersysteme. Vorrangiges Ziel ist die gemeinsame Nut­

Fortschritten auf dem Gebiet von SAN-Glasfasernetzen blieb

zung von Speicher quer über die gesamte Speicherhardware

auch die Weiterentwicklung der Tape-Technologien spannend.

sowie alle Serverplattformen und Betriebssysteme. Virtualisie­

Nach Einführung der LTO-Bandtechnologie 2000 (Ultrium 1)

rung im Speichernetzwerk ermöglicht es, Speicherressourcen

mit 100 GB nativer Kapazität auf der Kassette wurde bereits

plattformunabhängig zu integrieren, aufzurüsten, zu migrieren,

im Februar 2003 die Generation 2 (Ultrium 2) der LTO-Lauf­

zu replizieren und zu verteilen.

werke mit einer Kassettenkapazität von 200 GB native einge­ führt. Im Februar 2005 kam die Drittgeneration (Ultrium 3),

Um diese enorme Flexibilität innerhalb eines SANs zu

wieder mit einer Kapazitätsverdoppelung auf 400 GB native

bekommen, entwickelte die IBM in Hursley, UK, das Pro-

pro Kassette. Auch die Geschwindigkeit der Laufwerke wurde

dukt SAN Volume Controller, auch SVC genannt, das im

massiv verbessert. LTO2-Laufwerke arbeiteten bereits mit

Juni 2003 angekündigt und im September 2003 verfügbar

35 MB/s mit 8-Spur-Technik. Bei LTO3 wurde auf 16-Spur-

wurde.

Technik und eine Datenrate von 80 MB/s umgestellt.

Der IBM SAN Volume Controller wurde für einen Einsatz ent­

Wie vorgesehen wurde die Schreib-/Lese-Rückwärtskompa­

wickelt, bei dem Kapazitäten mehrerer heterogener Speicher­

tibilität eingehalten. So können LTO3-Laufwerke immer noch

systeme zu einem einzigen Speicherreservoir, das von einem

Kassetten der Generation 1 lesemäßig verarbeiten und Kas­

zentralen Punkt aus verwaltet werden kann, zusammengefasst

setten der Generation 2 sowohl schreiben als auch lesen.

werden. Er ermöglicht Änderungen an physischen Speicher­ systemen mit minimalen oder keinen Beeinträchtigungen für

Mit der Einführung der LTO3-Laufwerkgeneration im Februar

Anwendungen, die auf den Hosts ausgeführt werden, und

2005 wurden neben den bisher verwendeten überschreib­

er minimiert Ausfallzeiten durch geplante oder ungeplante

baren Kassetten auch sogenannte WORM-Kassetten

Ereignisse, Wartungsmaßnahmen und Sicherungen. Zudem

(Write Once Read Many) eingeführt, die durch eine Mehr­

erhöht der SVC die Auslastung der Speicherkapazitäten, die

fachkennzeichnung als Überschreibschutz keine Möglichkeit mehr bieten, abgespeicherte Daten zu verändern oder zu löschen. Die WORM-Kennzeichnung ist auf der linken Seite der Kassette in einem eingebauten Transponder-Chip hinter­ legt, das mit Radiofrequenz ausgelesen wird. Die Kenn­ zeichnung steht zudem im eingebauten Memory-Chip der

IBM SAN Volume Controller SVC

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

63

1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS

Ultrium LTO Six-Generation Roadmap

WORM

WORM

WORM

WORM

Generation 5 1.6 TB

Generation 6 3.2 TB

Native Capacity

Generation 1 100 GB

Generation 2 200 GB

Generation 3 400 GB

Generation 4 800 GB

Native Transfer Rate

up to 20 MB/s

up to 40 MB/s

up to 80 MB/s

up to 120 MB/s up to 180 MB/s up to 270 MB/s

Standardisierte LTO-Roadmap bis Generation 6

Kassette und in der Tape Volume Control Region am Band­

Die etwas eigenwillige Farbwahl der standardisierten LTO-

anfang. Um absolut manipuliersicher zu sein, wird bei der

Kassetten kommt aufgrund einer wichtigen Anforderung zu-

Herstellung dieser WORM-Kassetten die Kennzeichnung

stande. Farbenblinde müssen in der Lage sein, die Kassetten

noch auf die vorgeschriebenen Servobänder gebracht: eine

optisch zu unterscheiden.

Vierfach-Kennzeichnung, die sicherstellt, dass LTO3-WORMKassetten nicht mehr überschrieben werden können. LTO-

Lag der Marktanteil 1999 mit 90 % noch DLT-Technologie

WORM-Kassetten sind zweifarbig gekennzeichnet. Die eine

von Quantum, hat sich das Bild seither um 180 Grad gedreht

Hälfte ist schwarz und die andere in weißer Farbe.

und die LTO-Technologie dominiert heute mit über 80 %.

Mit der Verfügbarkeit von LTO3 wurde die offizielle Roadmap

Der LTO-Massenmarkt mit billigen LTO-Laufwerken in halb­

um zwei weitere Generationen mit LTO5 und LTO6 erweitert.

hoher (Half High) Bauweise wurde bisher ausschließlich von

Es ist davon auszugehen, dass alle 2 bis 2 ½ Jahre eine neue

Hewlett-Packard HP abgedeckt. Mit einer Ankündigung im

LTO-Generation gemäß dieser Roadmap auf dem Markt ver­

Oktober 2006 steigt auch IBM in dieses Segment ein und

fügbar wird.

bietet halbhohe LTO3-Laufwerke im Niedrigpreisbereich an. Die Laufwerke sind mit einer Ultra 160 SCSI Schnittstelle ausgestattet und arbeiten mit einer Daten-Transfer-Rate von 60 MB/Sekunde (native).

LTO1-Kassette, 100 GB Kapazität (native)

64

1952 – 1961

1962 – 1974

LTO2-Kassette, 200 GB Kapazität (native)

1975 – 1993

1994 – 1998

LTO3-Kassette, 400 GB Kapazität (native)

1999 – 2005

2006 – 2010

LTO4-Kassette, 800 GB Kapazität (native)

Software

Anhang

Im April 2007 kündigte IBM mit sofortiger Verfügbarkeit als

Die Unterschiede der Verschlüsselungstechnik liegen im

erster Hersteller LTO4-Laufwerke und -Kassetten an.

‘Key-Handling’ und sind ausführlich im Kapitel ‘Encryption’ beschrieben.

Das IBM TS1040 Laufwerk ist ein LTO4-Laufwerk in voller Bauhöhe (Full High) und für den Einbau in IBM Libraries

Die IBM TS1040 Laufwerke sind in den Autoloader TS3100

vorgesehen. Das Laufwerk arbeitet mit einer Datenrate

und in die IBM Libraries TS3200, TS3310 und TS3500 ein­

von bis zu 120 MB/s (native) und die Kassettenkapazität

baubar. Neben den TS1040 Laufwerken für die Libraries

der neuen LTO4-Kassetten beträgt 800 GB (native).

kündigte IBM im April 2007 auch Stand Alone LTO4-Laufwerke an, die auch in ein 19-Zoll-Rack eingebaut werden

Das Laufwerksinterface bietet einen Anschluss über einen

können. Die ‘Stand Alone’ Laufwerke werden unter dem

4 Gbit FibreChannel, SCSI oder 3 Gbps Dual Port SAS. Von

Begriff TS2340 vermarktet und weisen dieselben Spezifikati­

der TS1120 (3592) Technologie wurde der Surface Control

onen wie TS1040 auf. Auch hier handelt es sich um Lauf­

Guiding-Mechanismus zur optimierten Bandführung über­

werke mit voller Bauhöhe (Full High). Die TS2340 haben

nommen. Ebenso bietet das Laufwerk vorausschauende

wahlweise einen Anschluss über 3 Gbps Dual Port SAS

Fehlerbehandlung SARS (Statistical Analysis and Reporting

oder SCSI und ein LED-Display zur Administration.

System), einen verbesserten ECC (Error Correction Code) und Digital Speed Matching. Ein interner Pufferspeicher von

LTO4-Laufwerke können LTO1-Kassetten nicht mehr verar­

256 MB (LTO3 hatte nur 128 MB) sorgt dafür, dass der

beiten. Sie können LTO2-Kassetten auslesen und LTO3-Kas­

Datenstrom nicht abreißt. Insgesamt passt sich das Lauf­

setten im LTO3-Mode beschreiben und lesen. Mit den LTO4-

werk an 6 Geschwindigkeiten des Servers an (30, 48, 66, 84

Kassetten bietet ein LTO4-Laufwerk das Maximum an

103 und 120 MB/s) und reduziert so die Start/Stop-Aktivi­

Kapazität (800 GB auf der Kassette) und die hohe Datenrate

täten. Adaptive Kompression von Daten dient zur optimalen

von bis zu 120 MB/Sekunde.

Nutzung der Bandkapazitäten. WORM-Kassetten sind neben den Standard-Kassetten verwendbar und die Lauf­

Im November 2006 kündigte IBM in der LTO4-Reihe die

werke sind als erste LTO-Generation Encryption-fähig. LTO4

IBM TS2240 als externes LTO4-Laufwerk mit halber Bauhöhe

von IBM zeichnet sich durch sehr geringen Energiebedarf

(Half High) als weitere Option zu Full-High-Laufwerken an.

mit Powermanagement-Funktion, u. a. Sleeping-Modus bei

Das halbhohe LTO4-Laufwerk ist als ‘Stand Alone’-Laufwerk

Nichtgebrauch, aus (maximaler Strombedarf 27 Watt). IBM

oder ‘Rackmounted’ erhältlich. Im Gegensatz zu LTO3 erzie­

setzt auf hohe Qualität, z. B. den Einsatz von Metall, und ver­

len die halbhohen LTO4-Laufwerke dieselben Datenraten

meidet Plastik (weniger Störungen). Diese Merkmale führen

(120 MB/s) wie die Laufwerke mit voller Bauhöhe. Für die

zu einem stabileren Betrieb im Vergleich zu den alten LTO-

Produktion der halbhohen LTO4-Laufwerke nahm IBM Mitte

Generationen. Es können Laufwerks-/Zugriffsstatistiken

2006 ein neues Fertigungswerk in Singapur in Betrieb.

geführt und ggfs. Fehler vorhergesagt werden, um so Lauf­

Viele Elemente aus der Produktion der Laufwerke mit voller

werke präventiv auszutauschen, bevor ein Fehler auftritt.

Bauhöhe wurden dort übernommen, sodass sicher­gestellt

Viele Innovationen, die im Enterprise-Bandlaufwerk IBM Sys­

ist, dass die halbhohen Laufwerke in Qualität und Sicherheit

tem Storage TS1120 stecken, wurden in die IBM LTO4-Lauf­

einem extrem hohen Maßstab gerecht werden.

werke integriert. Unter Nutzung der Verschlüsselungstechnik der TS1120 Technologie können die LTO4-Bandlaufwerke

Im Februar 2008 gab IBM bekannt, dass die halbhohen

Daten komprimieren und danach verschlüsseln mit fast kei­

LTO4-Laufwerke im TS3100 Autoloader und in der TS3200

ner Auswirkung auf die Leistung des Laufwerks (ca. 1 %).

Library integriert werden können. Anstelle von einem ganz hohen Laufwerk können zwei halbhohe Laufwerke eingebaut werden. Damit fasst der Autoloader TS3100 bis zu zwei halbhohe LTO4-Laufwerke und die Library TS3200 bis zu vier. In der TS3200 ist auch der Mischbetrieb von ganz hohen und halbhohen Laufwerken unterstützt (ein ganz hohes und zwei halbhohe Laufwerke).

IBM TS1040 LTO4-Laufwerk ohne Gehäuse

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

65

1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS

Die Magstar-3590-Bandentwicklung als 1/2-Zoll-Format lief

Das PRML Encoding hatte auf der Platte bereits 1995 Einzug

parallel zur LTO-Entwicklung, allerdings wurde dabei das

gehalten, aber es war bisher nicht möglich, dieses Verfahren

ausgereifte Aufzeichnungsverfahren mit Parity-Informationen

auf Band einzusetzen. Grundvoraussetzung für den Einsatz

beibehalten. Die Magstar-Entwicklungsreihe fand im Juni 2002

von PRML ist die Erzeugung von extrem gut durchmagneti­

mit der Generation 3, den Modellen 3590-H, ihren Abschluss.

sierten Bits auf dem Datenträger. Die Beschichtung der

Dabei wurde die Lese-Rückwärtskompatibilität der vorange­

3592-Kassette im Zusammenhang mit den Flat-Lap-Köpfen

gangenen Generation, also für Kassetten, die mit dem B- oder

mit 10-fach höherer Induktionsstärke macht es möglich, solch

E-Modell beschrieben wurden, sichergestellt.

hochqualitative Bits zu erzeugen. Die 3592-Kassette ist auch das erste Medium, bei dem mit starker Induktion gearbeitet

Mit dem neuen H-Modell schrieb man 384 Spuren in noch

werden kann, ohne negative Erscheinungen wie z. B. weniger

verdichteterer Form auf die Kassette. Für die Extended Length

Kapazität zu bekommen. Damit kann man ca. 50 % mehr in

Cartridge bedeutete das eine Kapazität von 60 GB unkom­

der Datenspur unterbringen und so 50 % mehr an Kapazität

primiert und 180 GB komprimiert (3 : 1). Die Datenrate von

auf Kassetten mit der gleichen Bandlänge und der gleichen

14 MB/s wurde beibehalten. Damit erreichte Magstar im Jahr

Spurzahl realisieren.

2002 dieselbe Spurdichte wie die LTO-Generation 1 im Jahr 2000.

Die Flat-Lap-Kopf-Technik verbessert das Schreib-/Lese­ signal zwischen Kopf und Band, weil eine wesentlich höhere

Mit dem von IBM im September 2003 neu angekündigten

Induktion ermöglicht wird. Vor und hinter der Kopfreihe wird

Kompaktlaufwerk 3592 wurde ein neues ‘Tape-Zeitalter’

zusätzlich ein Unterdruck erzeugt, der Staubpartikel, die

eingeleitet, dessen Dimension nur wenigen bis heute bewusst

sich – aus welchen Gründen auch immer – ansammeln, ent­

ist! Schaut man aber genauer auf die integrierte Technologie

sprechend absaugt (‘Self Cleaning Machines’). Diese Kopf­-

und auf die neue Beschichtungsart der 3592-Kassetten, kann

Technologie kam erstmals in vollem Umfang bei LTO2 zur

man diesen Entwicklungsschritt mit 1984 vergleichen. 1984

Anwendung und wurde in weitergehender Form im neuen

leitete die IBM den Wechsel vom Rollenband auf die Kasset­

Laufwerk 3592 implementiert. Dadurch ist die Qualität der

tentechnologie ein. Mit der 3592-Technologie, die unter dem

erzeugten Bits wesentlich höher und die Möglichkeit, die Daten

Entwicklungsnamen ‘Jaguar’ entwickelt wurde, ergaben sich

wieder zu lesen, ist ziemlich unübertroffen in der Industrie.

technologische Möglichkeiten für Bandkassetten und den

Ebenso wird dadurch sichergestellt, dass selbst bei Lang­

Einsatz von Bandlaufwerken, von denen bis dahin nur geträumt

zeitlagerung von Bändern nahezu kein Impulsverlust auftritt.

werden konnte. Das ‘Surface Control Guiding System’ ermöglicht eine ganz Das Laufwerk selbst hat neben der neuen Flat-Lap-Kopf-

exakte Führung der Schreib-/Leseelemente über Servobänder.

Technik, dem neuen, angepassten Guiding System mit Roller

Die Repositionierung der Elemente auf den Servospuren

Bearing und dem zeitgesteuerten Spurnachführungssystem

erfolgt über eine Zeitsteuerung, die über vorgeschriebene

mit Servobändern (alle drei Elemente sind auch im LTO2-

Analogsignale (Analogspuren) in den Servobändern und eine

und LTO3-Laufwerk integriert) erstmals PRML Encoding

Zeitmessung durchgeführt wird. Dadurch wird die Oberfläche

(Partial Response Maximum Likehood – siehe auch Techno­

des Bandes für die Feinführung genutzt und nicht der Rand­

logie-Anhang) implementiert, das eine Bit-Abbildung von 1:1

bereich des Bandes, wo bei klassischen Aufzeichnungen

auf Band erlaubt.

Servospuren aufgebracht waren. Damit lassen sich die Feh­ lerquellen vermeiden, die aufgrund der Bandspannung im Außenbereich auftreten können. Flat-Lap-Technik und das neue Guiding System wurden erstmals in den Produkten LTO2 und 3592 implementiert. PRML Encoding ist nur in der 3592 realisiert, weil die neue Beschichtung der 3592-Kas­ sette Voraussetzung für dieses neue Encoding-Verfahren ist.

66

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Mit 40-MB/s-Datenrate und unglaublich schnellen Spul- und

Flush. Die RABF-Marke verweist einfach in ein Spurset, das

Fast-Search-Zeiten entpuppte sich das IBM 3592-Laufwerk

vor einem liegt und eigentlich zum Schreiben noch gar nicht

in dieser Zeit als das schnellste und zuverlässigste Laufwerk

vorgesehen ist. In diesem neuen Spurset streamt das Lauf­

auf dem Weltmarkt. Eine weitere Besonderheit der Jaguar-

werk einfach weiter, d. h., tröpfelt etwas in den Pufferspeicher

Technologie sind neue, funktionale Möglichkeiten, die sich

rein, wird zeitgleich eine Kopie auf Band in dem Spurset

aufgrund der 3592-Beschichtung implementieren ließen, weil

erzeugt, das noch nicht zum Schreiben vorgesehen ist. Da

ein 3592-Medium keine Limitierungen in der Benutzerhäufig­

einfach weitergestreamt wird, unabhängig davon, ob Daten

keit hat. Mit der Funktion ‘Virtual Back Hitch’ können viele

kommen oder nicht, können natürlich regelrechte ‘Löcher’

Rücksetz-Zeiten beim File Retrieval und alle Start-/Stopp-

zwischen den tatsächlich weggeschriebenen Daten entstehen.

Positionierungszeiten bei einzelnen File-Transfers, die nicht

Den ganzen Vorgang könnte man auch als ‘Nonvolatile

sequenziell verarbeitet werden können, auf breiter Basis eli­

Caching auf Tape’ bezeichnen, da parallel auf Band und in

miniert werden.

den Pufferspeicher geschrieben wird. Das Band stellt den stromunabhängigen NVS-Schreibspeicher dar und der Puf­

Klassisch arbeitet ein Laufwerk so, dass immer über den Puf-

ferspeicher den Cache. Geht der Cache aus irgendwelchen

ferspeicher auf Band geschrieben wird. Das Laufwerk bekommt

Gründen kaputt, kann jedes Laufwerk trotzdem die auf Band

also Daten in den Pufferspeicher und über den sogenannten

geschriebenen Daten verarbeiten, da der Hinweis auf das

Flush-Buffer-Befehl die Instruktion, die bisher erhaltenen

Spurset über die RABF-Marke sichergestellt ist.

Daten auf Band rauszuschreiben. Ist dies geschehen, wird der Flush-Buffer-Befehl als Tapemark in der Spur hinterlegt.

Ist der Pufferspeicher nun zu 50 % voll oder kommt das

Sind keine zu schreibenden Daten mehr vorhanden, stoppt

Lauf­werk ans Bandende, dreht das Laufwerk um und

das Laufwerk. Kommt wieder etwas in den Pufferspeicher

schreibt zurück. Ist der Pufferspeicher voll, wird der

mit dem entsprechenden Flush-Buffer-Befehl, kann der Befehl

gesamte Pufferspeicher nun sequenziell in das richtige

nicht sofort ausgeführt werden, weil das Laufwerk ja gestoppt

Datenspurset herausgeschrieben. Danach wird der Verweis

hat. Das Laufwerk muss jetzt zurücksetzen, um an dem Tape­

der RABF-Marke aufgelöst, so, als ob nichts geschehen

mark, der zuletzt geschrieben wurde, in der Streamingge­

wäre. Virtual Backhitch oder Nonvolatile Caching auf Tape

schwindigkeit zu sein, in der der Flush-Buffer-Befehl durchge­

ist eine geniale Tape-Funktionalität, weil Repositionierungs­

führt werden kann. Dieses Zurücksetzen wird als Backhitch

zeiten eingespart werden und zusätzlicher Bandstress ver­

bezeichnet. Ein Backhitch ist also nichts ‘Gutes’, da er Zeit

mieden wird.

benötigt und das Band zusätzlich (vor allem im Außenbereich) stresst. Mit Virtual Backhitch werden in der 3592 solche Posi­

Das 3592-Laufwerk selbst hat noch nie dagewesene

tionierungsvorgänge auf den minimalsten Level eingegrenzt!

Schock- und Vibrationseigenschaften und kann selbst bei hohen Erschütterungen noch sauber schreiben und lesen.

Wie funktioniert nun Virtual Backhitch: Stellt die Control Unit

Dies wurde durch eine selbstkalibrierende Aufhängung des

aufgrund der Pufferspeicherauslastung fest, dass nicht mehr

Laufwerks im Gehäuse realisiert.

im Streamingmodus gearbeitet werden kann, schreibt das Laufwerk in die momentane Spur eine sogenannte RABFMarke. RABF steht für Recursive Accumulative Backhitchless

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

67

1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS

Im November 2005 wurde die zweite Generation der Jaguar-

siger im Vergleich zu LTO3-WORM-Kassetten, bieten aber

Laufwerke verfügbar. Die 3592 Generation 2, die Marketing-

neben allen WORM-Sicherheiten den Vorteil, dass das Fort-

seitig als TS1120-Laufwerk (TS steht für Tape System)

schreiben immer möglich ist, auch wenn in dem Bereich,

bezeichnet wird, war und ist das erste Bandlaufwerk, das

wo fortgeschrieben werden muss, fehlerhafte Spuren oder

mit zwei 4-Gbit-FibreChannel-Schnittstellen angesteuert

Spurbereiche vorkommen sollten. Dies wird dadurch sicher­

wird und dadurch auf komprimierter Basis eine Datenrate

gestellt, dass bei 3592-Kassetten auf den Servobändern

von 260 MB/s realisiert. Die bisher verwendete 8-Spur-Tech­

nicht nur die WORM-Kennzeichnung aufgebracht wird, son­

nik wurde auf 16-Spur-Technik umgestellt und die Induktion

dern zusätzlich sogenannte Appendflags, die für die Fehler­

der Köpfe wurde nochmals verdoppelt, sodass noch ‘bessere’

korrektur herangezogen werden. LTO3-WORM-Kassetten

Bits auf dasselbe Medium geschrieben werden können. Die

arbeiten ohne Appendflags, d. h., gibt es beim Fortschrei­

mit kurzer Bandlänge gestaltete 60-GB-Kassette wird beim

ben der Kassette fehlerhafte Bereiche, dann lässt sich die

Beschreiben mit der zweiten Generation zur 100-GB-Kassette

LTO-WORM-Kassette einfach nicht mehr weiterschreiben.

und die 300-GB-Kassette wird zur 500-GB-Kassette. Jaguar 2 schreibt mit einer unglaublichen Datenrate von 100 MB/s

Ende Oktober 2006 kündigte IBM eine neue 700-GB-Kas-

896 Spuren auf die 3592-Kassetten. Aufgrund der extrem

sette für die TS1120-Laufwerke an. Damit stehen jetzt drei

gut erzeugten Streufelder von Bits und Tapemarks konnte

Kassetten (überschreibbar und als WORM) zur Verfügung:

die Streaming-Geschwindigkeit beim High Speed Search auf

Die 100-GB-Kassette mit 120 Meter Bandlänge, die 500-GB-

10 ms erhöht werden. Das heißt, das Band spult bei einer

Kassette mit 609 Meter Bandlänge und die neue 700-GB-

File-Anforderung mit 36 km in der Stunde vor. Diese hohe

Kassette mit 825 Meter Bandlänge.

Geschwindigkeit ist einmalig im Markt und erlaubt trotz hoch­ kapazitiver Kassetten durchschnittliche Zugriffszeiten von

Mit der Markteinführung von LTO im Jahr 2000 kündigte IBM

27 Sekunden (100-GB-Kassette) und 46 Sekunden (500-GB-

ein neues Bandarchiv, die IBM 3584, für den unternehmens­

Kassette). Auch der Stromverbrauch konnte auf 46 Watt re-

weiten Einsatz im Open-Systems-Bereich an. Im Laufe der

duziert werden. Vergleichbare Laufwerke benötigen heute

Folgejahre wurde die 3584 Library maßgeblich erweitert.

das Doppelte an Strom.

Heute stellt sie die strategische Library-Plattform der IBM dar. Seit Juni 2005 wird neben den Open-Systems-Plattformen

Auch die einmalige Funktion des Virtual Backhitch wurde

auch die zSeries (Mainframe) als Serverplattform unterstützt.

durch die Verwendung eines 512 MB großen Pufferspeichers

Sie machen aus der 3584 ein Bandarchiv, das unternehmens­

(Generation 1 hatte Pufferspeicher) mit 128 MB und durch

weit für alle Rechnerplattformen eingesetzt werden kann und

zwei eingebaute Control Units weiter optimiert.

das aufgrund der hohen Leistungsfähigkeit und Flexibilität alle vergleichbaren Archivprodukte auf dem Markt in den

Im Vergleich zu LTO bietet die Jaguar-Technologie neben

Schatten stellt.

überschreibbaren Kassetten auch WORM(Write Once Read Many)-Kassetten an. 3592-WORM-Kassetten sind hochprei­

IBM TS1120(3592 Generation 2)-Bandlaufwerk der Spitzenklasse

68

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

IBM 3592 WORM-Kassetten in platingrauer Farbe und WORM-Labels

1999 – 2005

2006 – 2010

Software

Anhang

IBM 3584 Doppelgreifer

In dem 3584 Archiv können sowohl LTO-Laufwerke und -Kassetten als auch 3592-Laufwerke und -Kassetten betrieben werden. Ebenso ist der Mischbetrieb in getrennten Frames möglich. Wie schon bei der älteren 3494 Library früher eingeführt, wurde das System im Frühjahr 2005 so erweitert, dass es mit zwei Robotersystemen betrieben werden kann, wobei der zweite Roboter immer im Active Mode betrieben wird. Dabei werden Zahlen von weit über 1.000 Mounts in der Stunde erzielt. Des Weiteren kann die 3584 mit zwei Robotersystemen nahezu unterbrechungsfrei mit Frames erweitert werden (max. IBM 3584 Grundeinheit mit Ein-/Ausgabestation

60 Sekunden, wobei kein Roboter Command verloren gehen

Auf der CeBIT in Hannover sorgte die 3584 immer wieder

kann).

für viele Menschentrauben. Viele können es nicht fassen, dass es technisch möglich ist, einen Roboter mit dieser

Seit Mai 2005 kann das 3584 Archiv auch an zSeries-Ser-

wahnsinnig schnellen Geschwindigkeit zu betreiben. Bei

ver angebunden werden. Dies gilt ausschließlich für den

einer Roboter-Service-Zeit von unter 3 Sekunden in einer

Betrieb von 3592-Laufwerken und wurde dadurch realisiert,

2-Frame-Konfiguration (Kassette holen, in ein Bandlaufwerk

dass an der 3584 jetzt mehrere Library Manager 3953 L05

laden, Kassette aus einem anderen Bandlaufwerk entladen

und J70 ESCON/FICON Controller betrieben werden kön­

und ins Fach zurückbringen) ist es fast nicht möglich, die be-

nen. Im Gegensatz zur 3494 Library sind die Library Mana­

wegten Kassetten mit dem bloßen Auge zu sichten. Schneller

ger und J70 Controller nicht mehr in die Library Frames inte­

geht es wirklich nicht mehr!

griert, sondern werden in externen Frames 3953 F05 installiert und an die Library angeschlossen. Dies bietet eine

Diese Geschwindigkeit ist möglich, weil sich ein neu entwi­

wesentlich höhere Konfigurationsflexibilität. Die 3584 unter­

ckelter Greifer (IBM Patent) in die LTO- und 3592-Kassetten

stützt bis zu vier Library Manager und damit die Anbindung

in dort angebrachte Einkerbungen einhakt, die Kassetten in

von bis zu acht Virtual Tape Servern (3494-B10/B20).

einen Schacht zieht und der Greifer so lange verhakt bleibt, bis die Kassetten in ein Laufwerk oder an einen Stellplatz

Bei VTS-Spiegelungen (Peer to Peer VTS) kann jetzt auf der

zurückgebracht werden. Die Kassette kann also auch bei

primären Seite eine 3494 Library und auf der sekundären

höchsten Geschwindigkeiten oder schnellsten Drehungen

Seite eine 3584 Library oder umgekehrt stehen, d. h., im

nicht verloren gehen. Alle Roboterbewegungen sind Servo-

VTS-Peer-to-Peer-Spiegel-Betrieb ist der Mischbetrieb beider

kontrolliert, um diesen Geschwindigkeiten Rechnung zu tragen.

Libraries möglich.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

69

1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS

Für den Betrieb von Native-Laufwerken an zSeries-Systemen

Im Mai 2006 wurde die IBM 3584 im Zuge der Frame-Umstel­

gibt es fast keine Limitierungen, da in der 3584 bis zu 64 x

lungen auf 4-Gbit-FibreChannel-Technologie in TS3500

J70-Controller mit bis zu 192 Laufwerken konfiguriert werden

(TS steht für Tape System) umbenannt und es stehen ent­

können.

sprechende neue Frames zur Verfügung. Die Library IBM 3584 bzw. TS3500 wird von IBM selbst produziert. Mit der

Das 3584 Archiv bietet in jeglicher Hinsicht maßgebliche Vor­

Umstellung auf 4-Gbit-Technologie wurde auch die RoHS-

teile im Vergleich zu herkömmlichen Libraries. Eine Multi­

Konformität des TS3500 Library-Produktes bekannt gegeben.

pfad-Architektur mit direkter Anbindung von LTO- und 3592

Ebenso wurden die bis dahin verwendeten J70-Steuerein-

FibreChannel-Laufwerken ermöglicht das logische Partitio­

heiten, die für die Anbindung von TS1120-Laufwerken an

nieren der Library (bis zu 192 Partitionen). Ebenso stehen die

den Mainframe benötigt wurden, durch neue RoHS-konforme

Optionen ‘Control Path Failover’ und ‘Data Path Failover’

leistungsstärkere C06-Steuereinheiten mit 4-Gbit-FICON-

zur Verfügung. Mit der Funktion ALMS (Advanced Library

Anschlüssen ersetzt. RoHS steht für ‘Restriction of Hazardous

Management System) können die logischen Partitionen

Substances’ und stellt ab dem 1. Juli 2006 eine gesetzlich

dynamisch vergrößert und verkleinert werden, unabhängig

kontrollierte EU-Richtlinie dar, die genau vorschreibt, welche

davon, wo die Laufwerke oder die Kassetten in der Library

Materialien, Legierungen, Barium-Derivate etc. in Neupro­

untergebracht sind.

dukten eingesetzt werden dürfen. Diese neue Richtlinie gilt EU-weit und betrifft alle Neuprodukte in der Elektro- und IT-

Die WWN(World Wide Name)-Adresse ist den Laufwerk­

Industrie, die ab dem 1. Juli 2006 neu vertrieben werden.

schlitten zugeordnet und erlaubt einen Laufwerkaustausch, ohne dass neu ‘gebootet’ werden muss.

Im mittleren und unteren Systemsegment produzierte IBM keine eigenen Libraries, sondern kaufte die ‘nackten’ Libra­

Mit der Anbindung der 3584 an zSeries-Server signalisierte

ries über OEM-Verträge ein, um sie dann mit IBM LTO-Lauf­

IBM klar, dass die 3584 mit ihrem einzigartigen Robotersys­

werken auszustatten.

tem die strategische Library-Plattform für zukünftige Weiter­ entwicklungen darstellt. Von dieser Weiterentwicklung profi­ tiert aber auch die 3494 Library, die alle Erweiterungen erhält, die am Library Manager entwickelt werden. Ebenso wird die 3494 neben der 3584 alle geplanten neuen Laufwerkgenera­ tionen des 3592-Laufwerks integrieren (SOD vom Mai 2005).

IBM 3583 Modelle L18, L36 und L72, Kapazität mit LTO1-Kassetten bis 7,2 TB (native), ADIC vertrieb unter ADIC Logo das Produkt als Scalar 100

70

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Mit der Ankündigung der ersten LTO-Laufwerke im Jahr 2000

In die Mini-Library wurden 1 bis 2 LTO-Laufwerke eingebaut

wurden auch OEM Libraries und Autoloader angekündigt,

und es konnten bis zu 23 Kassetten verwaltet werden. Neun

die nach dem Umbau/Ausbau als IBM Logo-Produkt weiter­

Kassetten hatten fest eingebaute Stellplätze, die anderen

vertrieben wurden. So wurden 1999 ein Autoloader der Firma

14 Stellplätze wurden über zwei herausnehmbare 7er-Kasset­

ADIC als IBM 3581-Produkt und ein mittleres Archivsystem

tenmagazine abgedeckt.

auch von ADIC als IBM 3583 eingeführt. Der Autoloader war mit einem LTO-SCSI-Laufwerk (LVD oder HVD) ausgestattet

Im Mai 2006 wurde der OEM-Autoloader von ADIC durch

und konnte bis zu acht LTO-Kassetten verwalten. Das Archiv­

einen neuen Autoloader der Firma BDT IBM 3581 ersetzt,

system 3583 konnte mit sechs LTO-Laufwerken ausgestattet

der auch bis zu acht Kassetten verwalten konnte, aber in

werden und je nach Modell 18 Kassetten, 36 und 72 Kassetten

Flachbauweise konstruiert war und dadurch sehr platzspa­

verwalten. Am Anfang wurden ausschließlich SCSI-Lauf­

rend in ein Standard-19-Zoll-Rack integriert werden konnte.

werke eingebaut. Um die Library an ein FibreChannel-Netz anschließen zu können, wurden über ein eingebautes FC-AL

Auch bei der Midrange-Library-Reihe musste bis 30. Juni

Gateway die bis zu sechs SCSI-Laufwerke ‘daisy chained’

2006 die Umstellung auf die neue, ab 1. Juli 2006 geltende

angeschlossen.

EU-RoHS-Richtlinie durchgeführt werden.

Diese FibreChannel-Anschlussweise der IBM 3583 verur­

Die Library 3583 wurde bereits im Oktober 2005 durch eine

sachte bei bestimmten Host-FibreChannel-Adaptern Adres­

neue Library TS3310 ersetzt. Die TS3310 stammt auch aus

sierungsprobleme. Deshalb wurde im Mai 2003 in der 3583

dem Haus ADIC, hatte vorbereitete 4-Gbit-Technologie inte­

ein eigener IBM Controller eingebaut, der durch eine Multi­

griert und war zum Verfügbarkeitszeitraum RoHS-konform.

pfad-Architektur erlaubte, direkt FC-Laufwerke in der Library

Am Anfang konnte die Library nur mit der Grundeinheit, einer

zu betreiben und die Library zu partitionieren. Bis zu drei

Erweiterungseinheit und bis zu sechs LTO3-Laufwerken und

logische Partitionen waren in der 3583 möglich.

122 Kassettenstellplätzen konfiguriert werden, im Mai 2006 wurden dann die Erweiterungen bis zum Maximalausbau mit

Im Mai 2004 wurde dieses Midrange-Library-Portfolio ergänzt

bis zu vier Erweiterungseinheiten und damit bis zu 18 LTO3-

durch eine Mini-Library, die IBM 3582. Die Library ist ein

Laufwerken und bis zu 398 Kassettenstellplätzen bekannt

OEM Produkt der Firma ADIC. Sie ist ausgestattet mit dem

gegeben. IBM verwendet bei dieser neuen Library wiederum

IBM Controller für die Anbindung von FC-LTO-Laufwerken

einen eigenen FC-Controller für die Anbindung der Lauf­

und bietet die Möglichkeit, mit zwei logischen Partitionen

werke. Damit ist die Library partitionierbar und es können

betrieben zu werden.

bis zu 18 logische Partitionen betrieben werden. Die Zuord­ nung von Laufwerken und Stellplätzen auf logische Partitionen ist wesentlich flexibler als beim Vorgänger 3583.

IBM 3581 Modelle L28 und F28, Autoloader der Firma BDT

1952 – 1961

1962 – 1974

1975 – 1993

IBM 3582 Mini-Library mit bis zu 23 LTO-Kassetten. ADIC vertrieb unter ADIC-Logo das Produkt als Scalar 24

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

71

1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS

Tape-Virtualisierung im Open-Systems-Umfeld Tape-Virtualisierung war bisher nur im Mainframe-Umfeld sinnvoll (siehe VTS Virtual Tape Server). Mit der Zunahme der Geschwindigkeit und der Datenrate, wurde es immer schwieriger, die Geschwindigkeit solcher Laufwerke auch maximal auszunutzen. Ein LTO3-Laufwerk arbeitet heute mit 80 MB/s, ein Jaguar-Laufwerk TS1120 sogar mit 100 MB/s (native). Um diese hohen Laufwerkgeschwindigkeiten auch maximal nutzen zu können, werden zunehmend Plattenpuf­ fer als Zwischenspeicher eingesetzt. Um eine geeignete, sinnvolle Backup-Konzeption zu etablieren, muss zwischen dem klassischen Backup über das IP-Netz (LAN-Backup) und dem LAN-free-Backup, wo die Daten über ein Fibre­ Channel-Netz (SAN) auf die Bandlaufwerke über­tragen werden, unterschieden werden. Wird der Backup klassisch über das LAN gefahren, ist die sinnvollste Art einer Virtualisierung, den IBM TSM (Tivoli Die neue IBM Midrange Library IBM TS3310 mit bis zu 18 LTO3-Laufwerken und maximal 398 Kassettenstellplätzen, hier mit einem Erweiterungsframe. ADIC vertreibt unter ADIC-Logo das Produkt als ADIC 500i

Storage Manager) einzusetzen, über den TSM-Server auf einen Plattenpuffer zu sichern und unter Kontrolle des TSM vom Plattenpuffer auf Band zu migrieren. Diese Funktionali­

Im Zuge der gesamten RoHS-Umstellung wurde sowohl der

tät hat der TSM schon seit vielen Jahren. Auf diese Weise

Autoloader von BDT IBM 3581 als auch die Mini-Library von

können die hohen Geschwindigkeiten der Laufwerke genutzt

ADIC IBM 3582 durch neue Produkte der Firma BDT ersetzt.

werden. Der Vorteil dieser Lösung liegt in der Automation, weil

Die 3581 wurde durch die IBM TS3100 ersetzt, ein neuer

man alle Policy-Regeln des TSM entsprechend nutzen kann.

Autoloader mit einem 4-Gbit-Fibre-LTO3-Laufwerk und bis zu 22 Kassettenstellplätzen. Die Mini-Library 3582 wurde durch

Im LAN-free-Bereich macht eine Virtualisierung dann Sinn,

die IBM TS3200 ersetzt, die bis zu zwei 4-Gbit-LTO3-Lauf­

wenn viele LAN-free-Clients betrieben werden, denn jeder

werke und bis zu 44 Kassetten aufnehmen kann. Die TS3200

LAN-free-Client benötigt ein dediziertes Bandlaufwerk. Betreibt

besitzt dieselbe Partitioniermöglichkeit wie ihr Vorgänger.

ein Rechenzentrum den Backup mit vielen LAN-free-Clients, benötigt man dieselbe Anzahl an physikalischen Laufwerken,

Damit sind alle Library-Produkte und -Bandlaufwerke, die IBM

und das kann teuer werden. Hier machen virtuelle Band­

vertreibt, durchgängig auf 4-Gbit-Technologie umgestellt

archive Sinn, weil man viele virtuelle Laufwerke zur Verfügung

und entsprechen der EU-RoHS-Richtlinie, die am 1. Juli 2006

hat. Um diesem Umstand gerecht zu werden, kündigte IBM

für Neuprodukte in Kraft getreten ist.

im Oktober 2005 das virtuelle Bandsystem TS7510 für OpenSystems-Umgebungen an.

IBM TS3200

72

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Band-Virtualisierung für Open Systems (Virtual Tape Library VTL) Das virtuelle Bandarchiv TS7510 besteht aus mehreren wichtigen Komponenten und ist Server-basierend aufgebaut. Als Server werden xSeries-Rechner mit einem Linux-Kernel eingesetzt. Die Maschine kann mit einer (Single) oder zwei xSeries (Dual-Server-Konfiguration) ausgestattet werden. Die Dual-Server-Konfiguration bietet die Möglichkeit des ‘Active Failover und Failback’. Die eingesetzten Server stellen die virtuelle Einheit dar und emulieren virtuelle Bandlaufwerke. Bis zu 512 virtuelle Laufwerke werden pro Rechnereinheit emuliert. Bei einer Dual-Server-Konfiguration werden bis zu 1.024 virtuelle Laufwerke emuliert. Abgebildet werden LTO2-, LTO3- und 3592(Jaguar 1)-Laufwerke. Es stehen bis zu 128 virtuelle Libraries und bis zu 8.192 virtuelle Volumes zur Ver­ fügung, also pro Rechnereinheit 64 virtuelle Libraries und 4.096 virtuelle Volumes. Geschrieben wird in einen Plattenpufferspeicher. Hierzu sind in dem Gehäuse zwei Platten-Controller und entsprechende Plattenerweiterungseinschübe auf Basis der DS4000 einge­ baut. Das erste Frame wird mit einem zweiten Frame erweitert, wenn größere Kapazitäten notwendig werden. Die Minimal­ konfiguration erlaubt 5 TB nutzbaren Plattenplatz und kann auf die maximale Konfiguration von bis zu 46 TB ausgebaut werden. Insgesamt stehen acht 2-Gbit-Ports zur Verfügung, vier für den Plattenzugriff und vier für den Host und die phy­ sikalischen Bandlaufwerke. Spiegelungen der Maschine

Vituelle Tape Library IBM TS7510

können über zwei 1-Gbit-Ethernet-Ports über das IP-Netz durchgeführt werden (Remote-Replikation). Dabei kann mit Compression und Encryption als Zusatzoptionen gearbeitet werden.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

73

1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS

Archivierungslösungen

Bereits 1982 gründeten IBM und Sony eine Entwicklungsallianz

Archivierung von Informationen ist schon ein sehr altes

mit dem Ziel, optische Technologien gemeinsam weiter­zu­

Thema, denkt man an die Höhlenmalereien der Grotte Chau­

entwickeln. So enstanden im IT-Umfeld Anfang der 90er-­

vet im Vallon Pont d’Arc in Südfrankreich, die auf ca. 31.000

Jahre optische Archivierungsmöglichkeiten, sogenannte ‘Juke’-

Jahre geschätzt werden – die wohl erste Überliefung von

Boxen mit optischen Platten und entsprechenden Schreib-/

Informationen aus Menschenhand.

Lesegeräten, die sich in dieser Zeit auch als Archivierungs­ einheiten zur Langzeitarchivierung durchsetzten. Es etablierten

Die Techniken, der Nachwelt Informationen zukommen zu

sich drei unterschiedliche optische Medien, die WORM-Platte

lassen, haben sich seitdem stets verbessert. Zunächst wurden

(Write Once Read Many), die magneto-optische Platte MO

Information in Stein gemeißelt und in Ton gebrannt, bis die

und die ‘Schein-WORM’-Platte, die sogenannte CCW(Conti­

Ägypter ca. 4.000 Jahre vor unserer Zeit das Papyrus – den

n­uous Composite WORM)-Platte, eine magneto-optische

Vorgänger des heutigen Papiers – entdeckten, um in ein­

Platte, die bei der Herstellung eine Kennzeichnung bekommt,

facher Technik, Informationen darauf festzuhalten. Mit fort­

die sicherstellt, dass das Medium nicht versehentlich über­

schreitender Technik war es nun auch möglich, mehr Informa­

schrieben wird.

tionen zu speichern und der Nachwelt zu hinterlassen. Denken wir nur an das Alte Testament, das einen Zeitraum von ca.

Bereits 1992 begann man, die für die IT-Branche entwickelten

2.000 Jahren vor Christi Geburt umfasst und aus insgesamt

Formate WORM, MO und CCW, basierend auf der Rote-Laser-

zwölf Büchern besteht.

Technik, zu standardisieren. Ein ISO-Standardisierungsgre­ mium bildete sich und selbst der deutsche DIN bildete den

Mit der Erfindung des Buckdrucks durch Johannes Guten­

NI23-Arbeitskreis, einen Ausschuss des deutschen DIN zur

berg aus Mainz, Mitte des 15. Jahrhunderts, war es dann

Normierung von optischen Datenträgern, der der internatio­

auch möglich, Informationen einfach zu vervielfältigen, was

nalen ISO direkt zuarbeitete und seine entsprechende Posi­

zu vielen interessanten Überlieferungen beigetragen hat und

tion abgab. Die als 1 x Standard verabschiedete ISO-Norm

natürlich auch zum Wachstum an Informationen.

reflektierte eine 650-GB-Platte in allen drei Formaten, mit dem

>>

>> >>

Entwicklung der optischen Technologien in den 90er-Jahren

74

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

IBM 3995 optisches Archivierungssystem mit den einzelnen Modellvarianten mit 8 x Standard

2 x Standard kam die 1,3-GB-, mit dem 4 x Standard die

Nach der Verabschiedung des 8 x Standards passierte viele

2,6-GB-Platte. 1998 wurde der letzte Standard als 8 x Stan­

Jahre nichts mehr bezüglich einer sinnvollen Standardisierung.

dard verabschiedet, der immer noch auf dem roten Laser

Dies lag darin begründet, dass ein 16 x Standard technisch

basierte. Der 8 x Standard bot auf allen drei Formaten

nicht realisierbar war, da der rote Laser in diesem Bereich

5,2 GB Kapazität pro Platte.

eine Streuung zeigte, die es nicht zuließ, auf einem nach 8 x Standard erzeugten Pit durch Optimierung der Laserfre­

Um Rückwärtskompatibilität zu gewährleisten, war der Stan­

quenz 4 Pits unterzubringen. Auch trug der technologische

dard so gestaltet, dass Medien des 1 x Standards sowohl

Wechsel zur Blaue-Laser-Technik (auch ‘Blue Ray’ genannt)

lese- als auch schreibmäßig von Schreib-/Lesegeräten des

dazu bei, dass ein noch realisierbarer Standard in Rote-

2 x Standards verarbeitet werden konnten und selbst der

Laser-Technik als 12 x Standard nicht weiterverfolgt wurde.

4 x Standard noch in der Lage war, Medien des 1 x Standards zu lesen. Mit dem 8 x Standard kam der Bruch, da nicht mehr

Hier noch ein wichtiger Hinweis, der zeigt, wie tief IBM in

vorgesehen war, Medien des 1 x Standards auf Schreib-/

der Entwicklung von optischen Technologien engagiert war.

Lesegeräten des 8 x Standards verarbeiten zu können.

Der heutige blaue Laser ist ein IBM Patent, das aus einer gemeinsamen Entwicklung von IBM und Sony hervorging.

Mitte der 90er-Jahre wurde die WORM-Platte – vom Gesetz­ geber anerkannt für viele Archivierungsanforderungen – mit

Im Jahr 2000 ergab sich in Deutschland eine massive Ände­

einer Haltbarkeit von 300 Jahren spezifiziert. Viele Unter­

rung für die Langzeitarchivierung. Die GDPdU-Richtlinie

nehmen gingen dazu über, Langzeitarchivierung auf diesen

wurde verabschiedet und im Jahr 2001 nochmals genauer

optischen Juke-Boxen zu betreiben. IBM bot auf diesem

verifiziert. Diese Richtlinie nahm Abschied von der Vorgabe,

Gebiet das IBM 3995 optische Archivsystem an.

bei bestimmten aufzubewahrenden Daten optische WORMMedien zu verwenden. Damit war der Weg frei, neue Lösungs­ konzeptionen zu entwickeln, die nicht unbedingt auf optischen Technologien aufgebaut sind.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

75

1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS

Wenn die Archivierung gesetzlichen Bestimmungen und

Aufgrund der veränderten Bedingungen für die Langzeitarchi­

Anforderungen unterliegt, spricht man auch von revisionssi­

vierung kündigte IBM das System DR450 im Oktober 2003

cherer Archivierung. In vielen Bereichen erkennt der Gesetz­

an. Das System wurde mit Standardkomponenten aufgebaut

geber die digitale Archivierung als revisionssicher an, stellt

und als Langzeitarchivierungslösung für den Open-Systems-

aber gleichzeitig auch Anforderungen an die Art und Weise

Bereich zur Verfügung gestellt. Die Lösung bestand aus

der Archivierung. In Deutschland gibt es z. B. die Grund-

zwei pSeries-p615-Servern, die in einem hochverfügbaren

sätze zum Datenzugriff und zur Prüfbarkeit digitaler

HACMP-Cluster (AIX-Betriebssystem) zusammengefasst waren.

Unterlagen (GDPdU). Viele Gesetze und Bestimmungen

Auf diesen Servern war der IBM Tivoli Storage Manager für

stellen allgemeine Anforderungen an die revisionssichere

Data Retention aufgesetzt, der sicherstellte, dass die archi­

Archivierung. Zumeist werden die Aufbewahrungszeiträume

vierten Dateien und Dokumente innerhalb der Aufbewah­

von archivierten Daten vorgeschrieben. Weiterhin muss

rungsfrist nicht gelöscht oder modifiziert werden. Die Daten

sichergestellt sein, dass die Daten im digitalen Archiv nicht

wurden auf SATA-Platten (siehe auch Technologie-Anhang)

verändert oder gelöscht werden können – in einer Welt mit

einer FAStT600 mit EXP100-Erweiterungseinheiten abge­

zwei bis drei neuen Computerviren pro Tag gar keine so

speichert. Kapazitäten von 3,5 TB bis 56 TB konnten konfi­

einfache Sache. Einige Bestimmungen schreiben auch vor,

guriert werden. Das Magnetplattensystem war über ein

Kopien der Originaldaten in getrennten Räumen zu erstellen.

redundant ausgelegtes, FibreChannel-basierendes SAN an

Revisionssicherheit bedeutet natürlich auch, dass die Inte­

die Server angeschlossen. Optional konnten an diesem SAN

grität der Daten zu jeder Zeit nachweislich gewährleistet ist.

auch IBM 3592 Bandlaufwerke mit entsprechenden WORM-

Es muss also auch anhand von Protokollen nachgewiesen

Kassetten und/oder überschreibbaren Kassetten betrieben

werden, dass die Daten dem Original entsprechen. Die ein­

werden.

gesetzte Technologie zur Archivierung wird aber heute von fast keinem Gesetz oder einer Bestimmung vorgeschrieben.

Bereits im Jahr 2005 kam die Weiterentwicklung der DR450 mit der DR550 auf den Markt, die im Jahr 2006 mit

In einigen Fällen, z. B. im medizinischen und pharmazeu­

allen seinen Komponenten auf RoHS-Konformität umgestellt

tischen Bereich, müssen Daten 30 Jahre und länger archi­

wurde.

viert werden. Eine Frage, die sich daraus ergibt, ist: Gibt es ein digitales Archiv, das auch in 30 Jahren noch Bestand

Das IBM DR550-System besteht heute aus den IBM Standard-

hat? Eine zeitgemäße Antwort darauf ist, dass die Informati­

Software- und Hardware-Komponenten AIX, SSAM, pSeries

onen von Zeit zu Zeit auf neue Systeme und Technologien

p52A, den SAN-Komponenten 2005-B16, Disk System DS4700

überführt werden müssen. Überführung von Informationen

und Disk-Erweiterungseinheiten EXP810. Optional kann man

und informationsverarbeitenden Systemen auf neue Systeme

ein hochverfügbares DR550-System bestellen. Dabei beinhal­

und Technologien – nachfolgend auch Migration genannt –

tet das System zusätzlich noch die Cluster-Software HACMP.

ist heutzutage der einzige Weg, um die Daten auch in 30

Der Vorteil dieses Konzepts liegt auf der Hand: Der Anwen­

Jahren noch lesen zu können.

der erhält ein System, dessen Komponenten schon lange im Markt erprobt sind. Kernkomponente von DR550 ist der System Storage Archive Manager, ein Derivat vom Tivoli Sto­ rage Manager for Data Retention, der jegliche Veränderung oder Löschung von Informationen verhindert und somit die revi­sionssichere Speicherung erlaubt.

76

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

In der Produktfamilie IBM System Storage™ DR550 gibt es drei Modelle: •• Das DR550-Express-System ist eine Einstiegslösung, die aus einer IBM pSeries Model 52A besteht mit internen SCSI-Festplatten, die als RAID5 konfiguriert sind. Mit dem DR550 Express Model wird ein Monitor-Kit mit Keyboard

IBM DR550 Express

und Maus geliefert sowie ein SAN Switch 2005-B16, der für

Die Anbindung des Archivsystems IBM DR550 an die Anwen­

den Anschluss von Tape oder einer Disk-Erwei­terungs­

dung erfolgt über das Tivoli Storage Manager for Data Reten­

einheit vorgesehen ist. Ein DR550-Express-System erhält

tion API (Application Programming Interface). Typische Anwen­

man mit einer Einstiegskapazität von 1,1 TB (brutto). Das

dungen, die Daten auf einem DR550-System zu archivieren,

System kann um 4 TB oder 8 TB (brutto) erweitert werden,

sind Dokumenten-Management-Systeme, wie z. B. IBM Con­

durch den Anschluss eines DS4700-RAID5-Systems. Ein

tent Manager oder Enterprise-Content-Management-Systeme,

entsprechender Einbauschrank kann optional mitbestellt

wie z. B. Opentext Lifelink Enterprise Archive Server. Das TSM

werden.

API steht dem Anwender frei zur Verfügung. Alle Anwen­

•• Das DR550-Single-Node-System besteht aus einem Ein-

dungen, die das TSM API implementiert haben – gleichgültig

bauschrank, in dem eine IBM pSeries p52A, ein SAN Switch

auf welcher Plattform diese Anwendung betrieben wird – kön­

2005-B16, ein Disk System DS4700 und optional ein oder

nen Datenobjekte auf der DR550 archivieren und lesen.

mehrere EXP810 eingebaut und fertig konfiguriert sind. Ein Single-Node-System kann man mit einer FestplattenKapa­zität von 8 TB oder 16 TB bestellen und bis auf 112 TB (brutto) ausbauen. •• Das DR550-Dual-Node-System besteht aus den gleichen Komponenten wie das Single-Node-System, mit dem Unterschied, dass alle Komponenten redundant (doppelt) ausgelegt sind. D. h., in den Einbauschrank sind zwei IBM p52A und zwei SAN Switches 2005-B16 eingebaut und redundant konfiguriert. Ein Dual-Node-System kann man mit einer Festplatten-Kapazität von 8 TB oder 16 TB bestellen und bis auf 112 TB (brutto) ausbauen. Es handelt sich hierbei um ein hochverfügbares System. Die Informationen werden innerhalb der DR550 auf Festplat­ ten gespeichert – optional auch verschlüsselt – und erlauben schnelle Zugriffzeiten. Die Performance aus Anwendersicht kann mithilfe der Multiobjekt-Transaktion noch gesteigert werden, insbesondere, wenn viele Objekte mit einem Male gelesen oder geschrieben werden. Dabei werden innerhalb einer Transaktion mehrere Objekte gespeichert oder gelesen. Mandantenfähigkeit lässt sich mit SSAM auch realisieren. Das erlaubt die logische Trennung von Speicherbereichen für verschiedene Klienten und auch das Reporting von benutzter Speicherkapazität. Dabei ist sichergestellt, dass ein Klient nur auf die Daten zugreifen kann, die in seiner Partition gespei­ chert sind. IBM DR550-Dual-Node-System

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

77

1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS

pondenz, Office-Dokumente, Faxe, Präsentationen, Audio- und Videodateien etc. verwalten kann. Ebenso ist eine Anbindung an SAP zur Dokumenten- und Datenarchi­ vierung möglich. Auf diese Weise kombiniert das Komplett­ paket modernste Technologie mit einem raschen ROI sowie höchster Investitions- und Zukunftssicherheit. Das Komplettpaket besteht aus der benutzerfreundlichen und

DR550 File System Gateway

leistungsfähigen E-Mail-Archivierungslösung IBM Common­ Im Mai 2007 kündigte die IBM für die DR550 ein File Sys-

Store für Lotus Domino und Microsoft Exchange sowie dem

tem Gateway an. Über das DR550 Gateway kann ein Datei­

IBM Content Manager als Basis-Repository. Hinzu kommt ein

system aufgebaut werden, in dem die Daten vor dem Über­

IBM System x3650 Server mit Intel Xeon Quadcore-Prozes­

schreiben geschützt sind. Das Gateway wird vorkonfiguriert

soren, der speziell für anspruchsvolle Aufgaben im Unter­

ausgeliefert. Nach außen wird ein CIFS- oder NFS-Dateisy­

nehmenseinsatz wie z. B. Enterprise Content Management

stem ausgegeben. Die Gateways können ‘geclusteret’ wer­

(ECM), Virtualisierung, Enterprise Resource Planning (ERP)

den, um eine HA-fähige (High Availability) Lösung aufzu­

oder Datenbankanwendungen entwickelt wurde. Als Spei­

bauen.

cherkomponente dient das IBM System Storage DR550, das eine leistungsfähige Funktionalität zur Ablage relevanter

Im August 2007 stellte IBM der DR550 750-GB-SATA-Plat-

Dokumente gemäß gesetzlicher Aufbewahrungsfristen und

ten zur Verfügung. Mit diesen neuen großen Platten kann

-vorschriften auf magnetischen Speichermedien bietet. Die

eine DR550 auf bis zu 168 TB Kapazität ausgebaut werden.

DR550 unterstützt dabei eine nicht löschbare und nicht wieder beschreibbare Datenspeicherung.

Seit August 2007 stehen mit der DR550 Komplettlösungspakete für die E-Mail-Archivierung zur Verfügung. Diese

Im Februar 2008 machte IBM die DR550-Lösung als

Komplettlösungen für Lotus Domino und Microsoft Exchange

Maschine mit zwei Modellen DR1 und DR2 in der Version 4.5

adressieren die Anforderungen kleinerer und mittelständischer

verfügbar. Dies zeigt deutlich, dass IBM stark in das Infor­

Unternehmen. Das Lösungspaket aus einer Hand enthält

mation-Retention-Segment investiert. Durch die erweiterte

aufeinander abgestimmte, skalierbare Software- und Hard­

Nutzung des System Storage Archive Managers (SSAM) für

ware-Komponenten der IBM und kann rasch implementiert

policy-basierten Information-Retention-Betrieb ermöglicht

werden. Basierend auf unternehmensspezifischen Aufbe­

die DR550 eine transparente und automatisierte Bewegung

wahrungs- und Zugriffsprofilen, ermöglicht die Lösung eine

archivierter Daten zwischen verschiedenen Speicherklas­

sichere Verwaltung und Archivierung von E-Mails einschließ­

sen. Dadurch können Kosten eingespart werden, ohne die

lich Dateianhängen in deren gesamten Lebenszyklus. Dabei

Sicherheit der archivierten Daten zu gefährden. Das inzwi­

wird sowohl geschäftlichen Anforderungen als auch natio­

schen preisgekrönte System ist jetzt als Maschine verfügbar.

nalen oder internationalen Compliance-Vorschriften Rech­

Es stehen zwei Modelle zur Verfügung: Die DR1 besteht aus

nung getragen und ebenso den Wünschen vieler Unterneh­

einem 25U-Einheiten großen Rack, ist vorintegriert und eig­

men nach einer Optimierung des Speicherbedarfs und der

net sich besonders für mittelständische Kunden. Die DR2

Reduzierung von Administrationskosten. Das Komplettpaket

wurde speziell für Großunternehmen entwickelt und ist in

zur E-Mail-Archivierung für den SMB-Bereich (Small and

einem größeren 36U-Einheiten-Rack untergebracht. Die DR2

Medium Business) ist jederzeit zu einer umfassenden Archi­

bietet Single- oder Dual-Node-Konfigurationsoptionen für

vierungslösung erweiterbar, die sämtliche unstrukturierten

höhere Verfügbarkeit und Skalierbarkeit.

Unternehmensinformationen wie z. B. digitalisierte Korres­

78

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software Anhang

Software Anhang

Die physikalische Anbindung der DR550 an die Server­

Die DR550 bietet auch den Anschluss anderer externer

systeme erfolgt über Ethernet-Schnittstellen und basiert auf

Speichertechnologien wie z. B. WORM Tape oder optische

dem TCPIP-Protokoll. Standardmäßig wird ein Ethernet Inter­

Speicher. Generell wird empfohlen, dass ein externes Gerät

face benutzt. Wahlweise können aber auch 2 oder mehr

eine Native-WORM-Funktionalität besitzt, wenn es an ein

Ethernet Interfaces angeschlossen werden, was eine Ska­

DR550-System angeschlossen wird.

lierbarkeit des Datendurchsatzes erlaubt. Der Anschluss von Bandlaufwerken an die DR550 erfolgt Das TSM API im Zusammenwirken mit SSAM bietet der An-

über das SAN. Die Anbindung von WORM Tape hat zwei

wendung verschiedene Möglichkeiten zur Kontrolle der Auf­

entscheidende Vorteile für den Anwender:

bewahrungszeit. So kann eine Anwendung unter Benutzung der Ereignis-basierenden Aufbewahrungsregel Datenobjekte

1. Kopien der Daten können auf WORM Tape geschrieben

mittels Event löschen. Natürlich nur unter der Bedingung,

werden und in einem anderen Brandabschnitt

dass die konfigurierbare Mindestaufbewahrungszeit für das

katastrophen­sicher aufbewahrt werden.

Datenobjekt bereits abgelaufen ist. Mithilfe der chronolo­

2. Wenn die Daten auf Festplatte in der DR550 ‘altern’ und

gischen Aufbewahrungsregel sorgt SSAM für die Löschung

somit die Zugriffe seltener werden, können sie auf WORM

der Daten nach Ablauf einer festgelegten Aufbewahrungszeit.

Tape ausgelagert werden. Die Tapes benötigen weniger

Die Aufbewahrungsregeln werden dabei in sogenannten

Strom, Wartung und Austausch und sind somit viel kosten-

Management-Klassen definiert, die Anwendung weist ein

günstiger als Festplatten.

Objekt dann nur noch einer Management-Klasse zu, wodurch dem Objekt die entsprechende Aufbewahrungszeit zugeord­ net wird. Mit dem zusätzlichen Löschschutz, einer weiteren Option des TSM API, kann die vordefinierte Aufbewahrungs­ regel für Objekte außer Kraft gesetzt werden. Damit kann verhindert werden, dass ein Objekt nach Ablauf der normalen Aufbewahrungsfrist gelöscht wird.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software Anhang

Software Anhang

79

1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS

Modell 174

Modell 80

Modell 32

IBM 3996 optische Archive – 960 GB bis 10,4 TB

Im Herbst 2003 wurde endlich ein neuer Standard, basierend

Es bleibt abzuwarten, ob – basierend auf der Blaue-Laser-

auf dem blauen Laser, auf dem Markt verfügbar. Der neue

Technik – ein klassischer optischer 4 x Standard verabschiedet

1 x Standard reflektierte eine 30-GB-Platte in den bisher

wird, da inzwischen andere Lösungsoptionen für die Lang­

klas­sischen Formaten WORM, MO und CCW. Die Firma Plas­

zeitarchivierung auf dem Markt etabliert sind.

mon, die auch sehr aktiv in der Standardisierung der neuen Blaue-Laser-Technik mitwirkte, bot als erste Firma im Jahr

Hinzu kommt noch die Tatsache, dass, ebenfalls auf Blaue-

2004 Juke-Boxen mit den neuen optischen Platten an. Im

Laser-Technik basierend, der Standard der ersten hologra­

Herbst 2005 kam ein OEM-Vertrag zwischen Plasmon und

fischen Platte mit einer Kapazität von 150 GB im XY-Format

IBM zustande, der es IBM erlaubt, diese Juke-Boxen unter

im Jahr 2003 verabschiedet wurde, Anfang 2005 bereits

IBM Logo zu vermarkten. Am Anfang war der Verkauf zum

der 2 x Standard mit einer 500-GB-Platte und Ende 2005

Anschluss an iSeries-Server beschränkt, seit Juni 2006 kön­

ein 2 x Standard als Zusatzstandard für die ‘Consumer’-

nen die Juke-Boxen auch an pSeries-basierende Server

Industrie in Form einer 300-GB-Platte. Holografische CDs

angeschlossen werden. Mit den Modellen 32, 80 und 174

und CD-ROMs lassen sich aufgrund der verwendeten Poly­

bietet die IBM 3996 Kapazitäten von 960 GB bis 5,2 TB an.

merbeschichtung (Kunststoff) wesentlich kostengünstiger

Im August 2007 kündigte IBM für die 3996 optischen Archiv­

produzieren als z. B. klassische DVDs oder im IT-Umfeld

systeme die Verwendung der neuen optischen Platten mit

verwendete WORM-, MO- oder CCW-Platten.

60 GB in den Formaten WORM, MO und CCW an. Die neue Plattengeneration reflektiert den 2 x Standard, basierend auf der blauen Laser-Technologie. Damit skaliert die IBM 3996 auf eine Kapazität von bis zu 10,4 TB. Die kapazitiven Mög­ lichkeiten liegen also deutlich unter den Möglichkeiten einer DR550.

80

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Neue NAS-Produkte

Die IBM Nseries bietet Antworten auf die Fragen der Ver­

Das Jahr 2005 war durch eine weitere Überraschung geprägt.

einfachung der Storage-Infrastrukturen und des zentralen

Am 4. April 2005 wurde eine enge Kooperation und Allianz

Datenmanagements, des Backups der Daten und deren ein­

zwischen IBM und der Firma Network Appliance bekannt

fachster Wiederherstellung.

gegeben. Diese Allianz ermöglicht IBM, alle NetApp-Produkte als IBM Logo-Produkte zu vertreiben. Da IBM bisher auf dem

IBM läutet mit der Nserie die Konvergenz der Speicherwelten

Gebiet des NAS (Network Attached Storage) nur begrenzt

ein. Stand NAS für ‘Einfachheit’ und Funktionsvielfalt, so

aktiv war, ermöglicht diese Partnerschaft IBM, auf dem Gebiet

wurden beim Thema SAN Argumente wie High Performance,

des ‘File-Servings’ ein breites Storage-Lösungsportfolio anzu­

Skalierung und Ausfallsicherheit genannt. Mit der Nseries

bieten. Am Anfang waren nur die kleinen NetApp-Geräte

werden nun diese Unterschiede aufgehoben.

unter IBM Logo verfügbar, seit Ende 2005 die Geräte mittlerer Leistungsklasse, seit Juni 2006 entsprechende Gateways und

Es stehen dabei generell zwei Modelltypen zur Verfügung.

seit August 2006 die Hochleistungsgeräte und damit nahezu

Systeme mit internen Diskdrives (Filer) und Systeme, die

die gesamte Produktpalette von NetApp.

externe SAN-Disk-Ressourcen verwenden, die sogenannten NAS-Gateways. Die Skalierung der beiden Systemreihen reicht von Entryüber Midrange- hin zu Enterprise-Storage-Kapazitäten und Anschlussmöglichkeiten. Als herausragendes Merkmal sei erwähnt, dass alle Systeme dasselbe Betriebssystem Data ONTAP nutzen. Die Nseries-Produkte bieten eine große Möglichkeit, Server im Netzwerk mit ihren spezifischen Zugriffsprotokollen anzu­ schließen. Diese umfassen die NAS-File-I/O-Protokolle (CIFS, NFS) sowie die Block-I/O-Protokolle iSCSI und FCP. Die Nseries bietet eine enorme Flexibilität in Bezug auf die Ausbaustufen und die Möglichkeit, verschiedene Disk-Tech­ nologien für die jeweilige Lösung zusammenzustellen. FiberChannel Diskdrives und SATA Diskdrives können gemischt werden. Eine Nseries, bestückt mit FibreChannel Disks, kann so für ein Mission-Critical-, High-Performance- und Transaktionsorientiertes Umfeld eingesetzt werden. Nseries, bestückt mit SATA Diskdrives, kann die ideale Wahl für Kunden sein, die eine Disk-to-Disk-Backup-Möglichkeit suchen oder sich für Archivierung interessieren. Alle Nseries-Systeme nutzen ein einziges Betriebssystem mit einer enormen Vielfalt von weiteren, zusätzlichen SW-Opti­ onen, angefangen vom Storage- und System-Management, über Inbound- und Outbound-Copy-Services bis hin zur kompletten D/R-Lösung mit integrierten Backup-Funktionen.

IBM Nseries N5000 und Nseries N7000

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

81

1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS

Die Hochleistungssysteme Nseries 7000 bestehen aus der N7600, die kapazitiv bis 420 TB (bis zu 672 LUNs) skaliert, und der N7800, die auf bis 504 TB (bis zu 672 LUNs) ausge­ baut werden kann. Bei der N7600 werden vier 2,6-GHz-AMDOpteron-Prozessoren, bei der N7800 acht 2,8-GHz-AMDOpteron-Prozessoren verwendet. Bei beiden Hochleistungs­systemen können neben den anderen Platten auch 500-GBSATA-Platten eingebaut werden. Auch die ‘Köpfe’ der Hochleistungssysteme sind als Gateways verfügbar. IBM N3700

Da das Thema ‘gesetzeskonforme Archivierung’ einen immer

Um das Portfolio der Nseries-Produkte zwischen N5000 und

wichtigeren Stellenwert einnimmt, bietet die Nseries WORM-

N7000 in der Skalierbarkeit abzurunden, kündigte IBM im

Funktionen an. Damit können Daten als nicht ‘lösch-/verän-

November 2006 das Modell N5600 als neues leistungs­

der­bar’ abgespeichert werden, um den entsprechenden

stärkstes Modell der N5000-Reihe mit einer Verfügbarkeit ab

Richt­linien Rechnung zu tragen. Es können bestimmte

dem 8. Dezember 2006 an. Die N5600 bietet auf Basis

Speicher­bereiche im System oder auch die gesamte Nseries

einer 64-bit-Architektur Kapazitäten von bis zu 252 TB und

einfach als ‘WORM’-Bereiche definiert werden. Eine breite

eine 30 – 40 % höhere Leistung im Vergleich zur N5500 und

Unterstützung der namhaften Application-Management-SW-

schließt damit die Lücke zwischen N5500 und N7600.

Hersteller ist gegeben. Als Ergänzung der N5600 Appliance kündigte IBM im Mai Die Nseries bietet SW-Funktionen an, die dem Systemadmi­

2007 das NAS Gateway N5600 an. Zum selben Zeitpunkt, mit

nistrator das Management seiner Microsoft-Exchange-, Micro­

Verfügbarkeit im Juni 2007, wird die Nseries-Reihe durch

soft-SQL-, IBM DB2- und Oracle-Datenbanken erleichtern. Mit

die neuen Modelle N5300 und das NAS Gateway N5300

255 SnapShots (Point-in-Time-Kopien) können Applikationen

ergänzt. Die N5300 integriert eine 64-Bit-Maschine und ska­

bei Fehlern leicht wiederhergestellt werden. Ein patentierter

liert kapazitiv auf bis zu 126 TB. Das Gateway ist durch die

RAID-DP-Algorithmus sorgt für hohe Datenverfügbarkeit und

64-Bit-Maschine bestens für 4-Gbit-SANs geeignet. Im

schützt vor dem Datenverlust bei Ausfall von zwei Platten in

August 2007 kommen zwei neue Einstiegssysteme hinzu,

einer RAID-Gruppe. Dies ist vor allem beim Einsatz von SATA-

das Entrysystem N3300, das bis auf 24 TB Kapazität ausbau­

Platten sinnvoll.

bar ist, und die N3600, die auf bis zu 69 TB Kapazität ausge­ baut werden kann. Die alte N5500 und das N5500 Gateway

Das Einstiegssystem N3700 bietet eine Kapazität von bis

wurde im Oktober 2007 vom Vertrieb zurückgezogen.

zu 16 TB, die mittleren Systeme N5200 bis zu 84 TB (bis zu 168 LUNs) und N5500 bis zu 168 TB (bis zu 336 LUNs).

Im Oktober 2007 wird den Nseries-Produkten eine neue

Wahlweise können Platten mit 72 GB, 144 GB und 300 GB

Management Software, der Virtual File Manager VFM zur

konfiguriert werden. Bei den mittleren Systemen werden zwei

Verfügung gestellt. Dieses Software-Produkt wurde von der

2,8-GHz-Xeon-Prozessoren verwendet. Der sogenannte ‘Kopf’

Firma Brocade entwickelt und bietet die Möglichkeit der

der Filer (der Begriff hat sich für den Controller der Appliance-

File-Virtualisierung.

Lösung eingebürgert) ist bei den mittleren Systemen auch als Gateway verfügbar und bedient sich der verfügbaren

Im Februar 2008 kündigte IBM eine neue Generation der

Plattenkapazitäten in einem SAN.

Nseries für große Rechenzentrumsbetriebe an. Die nächste Generation der N7000series ist sowohl als Appli­ ance als auch als Gateway verfügbar. Die neuen Modelle N7700 und N7900 ermöglichen eine höhere Skalierbarkeit für den Rechenzentrumsbetrieb in großem Maßstab. Die

82

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

neuen Systeme bieten eine Skalierbarkeit mit bis zu 1.176 TB

gleichen Zuge werden im Oktober 2008 mit Wirkung vom

Kapazitätsunterstützung für speicherintensive Anforderungen

Februar 2009 die Systeme N5200, N5300 und N5600 von

in Rechenzentren. Die N7000series ermöglicht es IT-Betrei­

Marketing zurückgezogen. Im Vergleich zur N5000-Reihe

bern, SAN- und NAS-Speicheranforderungen auf einem ein­

bietet die N6000-Reihe 1,4-fach bis 2-fach höhere Leistungs­

zigen System zu konsolidieren.

fähigkeit, weil sie auf moderner Hardware basieren und mehr Cache besitzen. Auch haben die N6000-Systeme die

Für die Entry-Systeme stehen neue Plattenlaufwerke zur Ver­

Möglichkeit, mit neueren Betriebssystemständen auf Basis

fügung. Für die N3300 und N3600 werden nun auch SATA-

von Data ONTAP zu arbeiten.

oder SAS-Laufwerke im Controller unterstützt. Die N3300 verfügt über eine erweiterte Skalierbarkeit von bis zu 68 TB

Nseries unterstützt eine Vielzahl von Servern und Betriebs­

und die N3600 von bis zu 104 TB. Zusätzlich wurde bei fol­

systemen via FCP, CIFS, NFS und iSCSI. Die angeschlossenen

genden Modellen die Kapazität aufgestockt: N5300 (von

Platten-Arrays können in RAID4 oder RAID-DP (Double Parity),

168 auf 336 TB), N5600 (von 252 auf 504 TB), N7600 (von

das dem RAID6-Level entspricht, konfiguriert werden.

420 auf 840 TB) und N7800 (von 504 auf 1.008 TB). Der SnapManager für Office SharePoint-Server von Microsoft ist

Mit der Nseries-Familie stellt die IBM maßgeschneiderte

jetzt auf allen Systemen der Nseries verfügbar.

Plattenspeicherlösungen im Filer- und NAS-Umfeld zur Verfügung.

Im August 2008 kündigt IBM die neuen Nseries-Systeme N6040 und N6070 an. Die N6040 bietet Kapazitäten von bis

Es stehen für die IBM Nseries zurzeit 40 verschiedene SW-

zu 420 TB und die N6070 von bis zu 840 TB. Die N6000-

Funktionen zur Verfügung. Im Anhang sind die wichtigsten

Reihe wird im Februar 2009 durch das Modell N6060

beschrieben.

ergänzt, das eine Kapazität von bis zu 672 TB bietet. Im

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

83

1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS

SnapShot

Daten – vereinfacht gesagt – synchron oder asynchron über

SnapShots sind lesbare, konsistente Sofort-Kopien (Point-in-

SAN oder LAN auf eine Disaster-Recovery Site. Bei Ausfall

Time Copy) eines Datenbestandes, genauer eines Files oder

der Produktiv-Seite stehen die Daten trotz Ausfalls zur Verfü­

einer LUN. Es können bis zu 255 SnapShots pro File/LUN

gung. Ist die Produktiv-Seite wieder operational, werden die

erzeugt werden. Das Besondere daran ist, dass sie platz­

Daten von der DR-Seite wieder zurückkopiert.

sparend sind, d. h., dass sie beim Erzeugen keinen zusätz­ lichen Plattenplatz benötigen. Dies geschieht dadurch, dass

SnapVault und SnapLock

nur der Verweis auf die Daten (Pointer) gespeichert wird.

SnapVault und SnapLock sind Lösungen für das Backup und

SnapShots können manuell angestoßen oder auch automati­

die Archivierung von Daten. SnapVault ermöglicht ein Backup

siert prozessiert werden – so können z. B. alle 5 Minuten

einer Nseries auf eine andere (oder von vielen auf eine).

Point-in-Time-Kopien erzeugt werden. Durch die hohe Anzahl

Durch den Einsatz von günstigen SATA Disks kann auf das

der SnapShots (255) ist damit ein sehr granulares und zeit­

Backup­system schnell und kostengünstig gesichert werden.

nahes Backup/Recovery möglich. Da SnapShots in einem

Da ein Restoring von Disk erfolgt, sind die Daten auch schnell

speziellen Verzeichnis abgelegt werden, ist es auch für den

wiederherstellbar. SnapLock bietet die Möglichkeit, die

User selbst sehr einfach (per Drag&Drop) seine gelöschten

gesamte Nseries oder einen Teil der Disks als WORM-Bereich

Dateien selbst wiederherzustellen.

(Write Once Read Many) zu nutzen. Daten, die hier abgelegt werden, können erst nach dem Ablauf des Aufbewahrungs­

SnapRestore

datums gelöscht und/oder verändert werden.

SnapRestore nutzt die zeitnahen SnapShot-Kopien, um eine File, ein File-System oder eine LUN wiederherzustellen. Sind

Open System SnapVault (OSSV)

SnapShots nur lesbare Kopien und müssen für die Wieder­

OSSV verhält sich wie SnapVault mit dem Unterschied, dass

herstellung der Daten in das aktive Filesystem kopiert werden,

die OSSV (Open System SnapVault) Software-Server sichern

kann mit SnapRestore sehr leicht das aktive Filesystem auf

und wiederherstellen kann. Hierfür muss die OSSV SW auf

eine SnapShot-Kopie aufgesetzt werden. Dies bedeutet, dass

den Server (Open, d. h. Unix und Windows) installiert wer­

für eine Datenwiederherstellung keine Daten umherkopiert

den. Die Server sichern dann auf eine Nseries als Backup­

werden. Ein solches Restoring geht mit einem einzelnen Kom­

system.

mando sehr schnell vonstatten! Eine 300 GB große Datenbank kann mit dieser Technik in ca. 2 bis 3 Minuten restored werden.

Cluster Failover Cluster Failover (CFO) ist eine Standardkomponente bei

SnapManager

jedem Dual-Controller (A20 oder G20) der Nseries. Bei Aus­

SnapManager wurde speziell für Datenbanken (Oracle und

fall eines Controllers übernimmt automatisch der zweite

MS SQL) und Mail-Applikationen (MS Exchange) entwickelt.

Controller die Server-I/Os und der Datenzugriff bleibt erhalten.

Basierend auf SnapRestore bietet der SnapManager ein hochintegratives SW-Paket für den Systemadministrator.

MetroCluster

Statt aufwendiger Scripts kann er hiermit per GUI einfache

Erweitert man die Cluster-Failover-Funktion (CFO) über

Backup-Tasks aufsetzen, Restoring-Prozesse anstoßen oder

Gebäudegrenzen hinweg, erhält man den MetroCluster.

per ‘Klick’ Datenbank-Clones für Testzwecke erzeugen. Es besteht sogar die Möglichkeit, einzelne Mailboxen (mit Kalen­

Der MetroCluster repliziert die Daten vom Controller 1 des

dereinträgen, Kontakten, Attachments) für das MS Exchange-

primären RZs zum Controller 2 des sekundären RZs und

Umfeld nach einem Fehlerfall einfach wiederherzustellen.

garantiert Datenkonsistenz und deren Verfügbarkeit. Fällt die primäre Site aus, erlaubt MetroCluster einen Failover mit einem

SnapMirror

einzigen Befehl des Administrators. MetroCluster ist im Gegen­

Sind SnapShot und SnapRestore Backup/Recovery-Funkti­

satz zu SnapMirror keine DR-, sondern eine Business Conti­

onen, ist mit SnapMirror eine Funktion entwickelt worden,

nuity-Lösung. Basierend auf dem Design, in dem die Daten

die für die Spiegelung der Daten von einer Nseries auf eine

bereits auf beiden Seiten synchron und im sofortigen Zugriff

andere Nseries eine D/R Funktion liefert. SnapMirror spiegelt

liegen, ist eine sofortige Weiterführung der Geschäftsprozesse möglich. Diese Übernahme ist soweit automatisiert, dass der

84

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Administrator nur noch einen einzigen Befehl absetzen muss.

Mit SnapDrive ist das jetzt sehr einfach: Aus dem GUI der

Stretch MetroCluster bietet einen Schutz von bis zu 300 m

Applicationserver heraus wählt man das entsprechende

zwischen zwei Nseries-Systemen. Fabric MetroCluster bietet

Volume an und gibt die neue größere Kapazität ein. Im Hin­

darüber hinaus einen Schutz von bis zu 100 km mit SAN-

tergrund (also unterbrechungsfrei) wird das Volume ver­

Switchen.

größert. SnapDrive kommuniziert mit der Nseries, um diese Aktionen durchzuführen. SnapDrive spart Zeit und Kosten

A-SIS (Advanced Single Instance Storage)

und hilft Prozesse zu vereinfachen, da diese via GUI erle­

Um die gespeicherte Datenmenge auf einem Backup- oder

digt werden können. Darüber hinaus kann SnapDrive auch

Archivsystem zu reduzieren, kann Data-Deduplication einge­

neue Drives anlegen und diese ‘mounten’ (d. h., den Servern

setzt werden. Bei Nseries heißt diese Funktion A-SIS (Advan­

zur Verfügung stellen). SnapDrive unterstützt MSCS (Micro­

ced Single Instance Storage Deduplication). Identische Daten

soft Cluster) und VSS und sollte für iSCSI und FC immer ein­

werden nur einmal gespeichert, was bei bestimmten Appli­

gesetzt werden. Mit dieser Funktion werden Microsoft, Win­

kationen bis zu 70 % Ersparnis in der Speicherkapazität

dows- sowie Unix/Linux-Derivate unterstützt.

ausmachen kann. Auf Systemebene analysiert die Nseries identische Blöcke im Hintergrund (für die Applikation trans­

SyncMirror

parent) und speichert diese nur einmal ab. A-SIS ist ideal

SyncMirror ist ein Standardfeature, bei dem jeder I/O fak­

für Archive oder Backup-Systeme.

tisch auf zwei getrennte Diskpools geschrieben wird. Dies entspricht quasi einem RAID1 innerhalb eines Systems.

SMBR (Single Mailbox Recovery für Exchange)

SyncMirror lässt sich am besten mit dem LVM (Logical

Im Gegensatz zu Lotus Domino, bei dem jede Mailbox sepa­

Volume Manager) unter AIX vergleichen.

rat als eigene Datenbank gespeichert wird (und damit eine einfach wiederherstellbare Einheit darstellt), legt Exchange

RAID-DP

verschiedene Mailboxen zusammen und in .edb- und .stm-

Herkömmliche Single-Parity RAID-Technologien bieten Schutz

Files ab. Diese Files werden im Laufe der Zeit sehr groß.

beim Ausfall eines Disk-Drives. Es wird erwartet, dass kein

Das erschwert das Restoring, weil man mit sehr großen .edb-

anderer Fehler in der Daten-Rekonstruktionszeit auftritt. Sollte

und .stm-Files arbeiten muss, wenn eine einzelne Mailbox

dennoch ein Fehler in dieser Phase auftreten, kann es zu

wiederhergestellt werden muss.

Datenverlusten führen. Dies ist besonders im Hinblick auf die immer größer werdenden SATA Drives der Fall, die inzwischen

Die Lösung hierfür ist SMBR, eine SW, die diese großen Files

1 TB Datenvolumen fassen können. RAID DP (Double Parity)

durchsucht, um die gewünschte Mailbox (inklusive Anhän­

sichert den Ausfall von zwei Disk-Drives. RAID DP schreibt

gen, Foldern etc.) wiederherzustellen. SMBR setzt auf den

16 Stripes, die vorher kalkuliert werden (Data und Parity),

SnapShots auf und muss nicht auf dem Produktionsserver

gleichzeitig auf das Disk-Backend.

laufen. Eine ‘Content Analyse’ ist eine Option der SMBR: mit ihr kann der Inhalt von E-Mails, Anhängen etc. analysiert

Spares Drives greifen bei Ausfall einer Disk. RAID-DP ent­

und protokolliert werden.

spricht also RAID6.

SnapDrive

FlexVol

SnapDrive ist die SW, die es ermöglicht, aus dem Applikati­

FlexVol ist eine Standard-SW, die für das LUN-Management

onserver heraus Volumes zu verwalten, zu vergrößern, kon­

entwickelt wurde. FlexVol bedient sich dabei aus dem

sistente SnapShots auszulösen und LUNs zu clonen (ohne

gesamten Disk-Storage-Pool der Nseries, um daraus die

FlexClone Feature).

einzelnen LUNs zu formen. Es werden dabei alle verfüg­ baren ‘Spindeln’ im Backend ausgenutzt, ohne dass I/O-

Müssen in einem klassischen Storage-Subsystem die Volu­

Engpässe durch dedizierte Disk-Zuteilungen entstehen.

mes für eine Datenbank vergrößert werden, muss der Ser­ veradministrator spätestens dann einen Prozess anstoßen, um mehr Speicherplatz zu beantragen.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

85

1999 bis 2005 Die Epoche der Multiplattform-Systeme und des FibreChannel SAN und NAS

FlexShare

zentrales Management, wurde zu einer der Hauptanforde­

FlexShare priorisiert den Service für wichtige Workloads

rungen von Rechenzentren, die SANs betrieben. Dazu ent­

durch Zuordnung von Prioritätsstufen von 1 – 5 für jedes

wickelte IBM das Programmpaket IBM TPC (Total Productivity

Volume. So kann z. B. der I/O einer Datenbank gegenüber

Center). Nach 1-Gbit-SANs kamen 2-Gbit- und 4-Gbit-SANs

Fileservices bevorzugt bedient werden. FlexShare ist ein

in Zeitabständen von etwa drei Jahren zum Einsatz. Seit

Standardfeature der Nseries.

2006 sind 4-Gbit-FibreChannel-SAN-‘End to End’-Lösungen möglich.

FlexClone FlexClone ermöglicht, mehrfache Clones von FlexVols zu

Im NAS-Umfeld brachte IBM hauptsächlich Lösungen in Form

erzeugen (z. B. für Testzwecke, QA, DWH etc.). FlexClones

von Gateways, die sich allerdings während der gesamten

verbrauchen zum Zeitpunkt der Erstellung keinen zusätz­

Epoche nicht durchsetzen konnten. IBM hatte zu wenig Fokus

lichen Speicherplatz. Sie setzen auf SnapShots auf und sind

auf die NAS-Möglichkeiten und konzentrierte sich haupt­

in Sekunden erzeugt und schreibend veränderbar. Sie

sächlich auf die SANs. Am Ende der Epoche, im Jahr 2005,

haben die gleiche Performance wie FlexVols inklusive aller

kam es zu einer Allianz der Firmen IBM und Network Appli­

Eigenschaften eines FlexVols (dynamisches Vergrößern und

ance, die auf dem Gebiet NAS sehr erfolgreich waren und

Verkleinern). Eine Einschränkung ist zu berücksichtigen:

bis heute erfolgreich sind. Diese Allianz ermöglicht IBM, auch

‘Parent FlexVol’ und Base SnapShot können nicht gelöscht

auf dem Gebiet NAS entwickelte Lösungen anzubieten und

werden, solange ein davon abhängiges FlexClone Volume

das Gesamtspeicher-Portfolio auszubauen.

existiert. Über ‘Split’ kann das FlexClone Volume von seinem ‘Parent Volume’ getrennt werden und unabhängig weiter

Auf der Bandentwicklungsseite war neben der Einführung

existieren. Dafür wird freier Platz im Aggregat benötigt, um

von LTO2 und LTO3 eines der Meilensteine die Einführung

die ‘Shared Blocks’ zu kopieren.

der sensationellen Jaguar-Bandlaufwerktechnologie mit dem 3592- und später TS1120-Laufwerk. Jaguar ist das ‘Vehicle’,

Kommentar zur Epoche Multiplattform-Systeme und FibreChannel

um im Tape-Umfeld ganz neue Wege beschreiten zu kön­

SAN und NAS

nen. Jaguar eröffnet technische Möglichkeiten, die wir uns

Die Schnelligkeit und Hektik nahm in dieser Epoche im Ver­

vielleicht heute noch gar nicht vorstellen können (siehe

gleich zur Vorgänger-Epoche noch weiter zu. Hinzu kamen

Technologie-Anhang, Kapitel Magnetband).

neue Komplexitäten durch neue FibreChannel-Netze (SANs) und die Möglichkeiten im Networking-Attached-Storage-Um-

Für die Langzeitarchivierung entstanden neben optischen

feld. Storage wurde durch viele neue Produkte im SAN- und

Archiven neue und bessere Lösungsansätze, weil der Gesetz­

NAS-Umfeld zwar vielseitiger, aber auch komplexer und

geber nicht mehr vorschrieb, welches Medium benutzt werden

schwieriger.

muss. Dadurch wurden bessere und sinnvollere Lösungen möglich. IBM entwickelte die Lösung DR450 (Data Retention),

In dieser Epoche lösten sich die Speichersysteme von ihrer

die durch die DR550 ersetzt wurde und heute erfolgreich im

bisherigen Abhängigkeit von den Servern. Multiplattform-Sys­

Langzeitarchivierungsbereich eingesetzt wird.

teme wie die ESS konnten jede Server-Plattform bedienen.

86

Neben diesen Multiplattform-Systemen wurden parallel für die

Die verfügbaren Produkte am Ende dieser vielseitigen Epoche

Open-System-Plattformen FibreChannel-Systeme gebaut, die

werden mit absoluter Sicherheit die Folgeepoche mit ent­

sich an den entstehenden und immer weiter verbreiteten SANs

sprechenden Weiterentwicklungen begleiten und Lösungen

anschließen ließen. SANs und SAN-Strategien beherrschten

für die durch SAN und NAS komplex gewordene Speicher­

immer mehr den Markt. Das gilt auch heute noch! Auch die

welt bieten. Insbesondere werden vor allem die Bereiche des

zSeries stellte von ESCON auf FICON um, um ESCON-Proto­

DS4000-Plattensystems, des San Volume Controller, der ge-

kollpakete über den FibreChannel zu transportieren. SAN-

samte Band- und Bandarchivbereich, Band-Virtualisierungs­

Virtualisierung war das Fokusthema, dem IBM mit dem SAN

lösungen und der Bereich der Langzeitarchivierung mit der

Volume Controller antwortete. SAN-Management, vor allem

DR550 schnell vorangetrieben werden.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

2006 bis 2010

ynchrone Kopie mit Metro Mirror Asynchrone zuder 300 km) Die (bis Epoche Server-basierenden Speichersysteme(keine D und der Speichervirtualisierung

A

B

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

87

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

Was wird uns die neue Epoche der Server-basierenden

nen. Konsolidiert man heute Server auf der Serverebene

Speicherarchitekturen und der Speichervirtualisierung

und Speichereinheiten auf der Speicherebene, lassen Ser­

bringen? Was erwartet uns technologisch in den nächsten

ver-basierende Speicherarchitekturen eine Vertikalkonsoli­

Jahren?

dierung von Servern und Storage zu. Applikationen können von der Serverebene auf die Storage-Ebene verlagert wer­

Der Autor erlaubt sich, eine persönliche und durchaus rea­

den. Dies ist vor allem für Applikationen von wesentlichem

listische Abschätzung der nahen Zukunft in dieses Storage-

Vorteil, die viele I/Os zwischen einer Servereinheit und einer

Kompendium einzuarbeiten.

Storage-Einheit produzieren. Diese I/Os können alle einge­ spart werden, wenn die Applikation von einer Speicherein­

Server-basierende Plattensysteme

heit durchgeführt wird (‘No I/O-is the best I/O’).

Die Ansätze von Server-basierenden Speicherarchitekturen sieht man bereits in der Vorgänger-Epoche in den Produkten

Das erste Produkt in dieser Server-basierenden Speicherar­

DR550 (pSeries-Server) für die Langzeitarchivierung und

chitektur ist das Plattensystem DS8000, das am 12. Oktober

TS7500 Familie (xSeries-Server mit Linux Kernel) für die

2004 von IBM angekündigt wurde. Die Ankündigung

Bandvirtualisierung im Open-Systems-Bereich. Auch die

erfolgte zweifelsfrei viel zu früh und es dauerte fast noch ein

SAN-Virtualisierung mit dem SAN Volume Controller muss

ganzes Jahr, bis die Maschine den Stabilitätsgrad hatte, um

dazugezählt werden.

produktiv eingesetzt zu werden. Heute hat die Maschine eine noch nie dagewesene Stabilität und eine Leistungsfä­

Allerdings bedeuten Server-basierende Speicherarchitek­

higkeit, die kein anderes vergleichbares System auf dem

turen weit mehr. Systeme auf dieser Basis sind nicht nur

Markt ausliefert. Mit der DS8000 wurde am 12. Oktober

Maschinen, auf denen Daten gespeichert werden, sondern

auch der kleine Bruder, die DS6000, angekündigt.

auch gleichzeitig Server, die Applikationen durchführen kön­

IBM DS8100 2-Wege-System

88

1952 – 1961

1962 – 1974

IBM DS8300 4-Wege-System

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Die DS8000 ist das derzeit leistungsfähigste Plattensystem

Die folgende Tabelle gibt einen Überblick über die Skalier­

auf dem Markt. Mit 3,4 Millionen I/Os pro Sekunde ist sie

barkeit des Speichersystems DS8000. Die Systeme wurden

unschlagbar im Vergleich zu anderen Plattensystemen. IBM

im Hinblick auf nahezu lineare Skalierbarkeit konzipiert. Dies

trat mit dem Speichersystem DS8000 aber nicht an, um

geht aus der unten stehenden Tabelle hervor. Den Einstieg

irgendwelche Spitzenpositionen auf irgenwelchen Rang­

in die DS8000-Welt bietet das 2-Wege-System DS8100, das

listen zu erzielen, sondern um mit weniger, leistungsfähiger

bis 116 TB auf Basis von 300-GB-Laufwerken skaliert. Stei­

Hardware die Datenspeicherung günstiger zu gestalten. Es

gen die Kapazitätsanforderungen, erhöhen sich bei dem

geht um die Wirtschaftlichkeit und Spitzentechnologie hilft

System alle zur Leistungssteigerung erforderlichen Kompo­

dabei, die Total Cost of Ownership (TCO) günstiger zu

nenten wie Anzahl der Prozessoren, Cache, FC/FICON-

gestalten. TCO setzen sich aus Hardware-Anschaffungs­

Adapter und Disk-Adapter. Dies gilt auch für die zukünftig

ko­sten und Betriebskosten zusammen. Mit dem Einsatz von

geplanten Erweiterungen. Steigen die Kapazitätsanforde­

DS8000 wird beides reduziert. DS8000 führt zu geringeren

rungen über 192 GB hinaus, sind zukünftig 8-Wege- und

Anschaffungskosten und wesentlich günstigeren SAN-Infra­

12-Wege-Systeme bis hin zum 32-Wege-System ohne Archi­

strukturkosten, weil weniger Komponenten benötigt werden.

tekturänderung machbar. Bei einer nahezu verdreifachten

Gleichzeitig reduziert sich der Management- und Tuning-

Kapazität von über 500 TB skaliert das System nahezu

Aufwand, weil die Hardware leistungsfähiger ist und weniger

linear mit, da dann auch alle wesentlichen Komponenten zur

überwacht und optimiert werden muss. Durch Architektur­

Leistungserbringung wie Cache, Prozessoren, FC/FICON-

prinzipien wie ein Stripe-all-Design und selbstlernende und

Adapter und Disk-Adapter beim Upgrade vom 4-Wege- auf

sich an veränderte Workloads automatisch anpassende

das 12-Wege-System verdreifacht werden. Die zukünftigen

Caching-Algorithmen erreicht die DS8000, dass die Hard­

Systeme sind Bestandteil einer lang angelegten Roadmap.

ware optimal genutzt wird.

Die 8-Wege- und 12-Wege-Systeme werden realisiert werden, sobald sich der Bedarf nach dieser extrem hohen Leistungs­ fähigkeit auf dem Markt abzeichnet.

2-way

4-way

8-way

12-way

Server Processors

2-way POWER5

4-way POWER5

8-way POWER5

12-way POWER5

Cache

16 to 128 GB

32 to 256 GB

64 to 512 GB

96 to 768 GB

FICON (2 Gb/s) (4 ports per adapter)

8 to 64

8 to 128

up to 256

up to 384

FibreChannel (2 Gb/s) (2 ports per adapter) 8 to 64

8 to 128

up to 256

up to 384

ESCON (2 Gb/s) (4 ports per adapter)

4 to 32

8 to 64

up to 128

up to 192

Device Ports

8 to 32

8 to 64

8 to 128

8 to 192

Drives 73 GB (15K RPM), 146 GB, (15K RPM) 146 GB (15K RPM), 300 GB (10K RPM)

16 to 384

16 to 640

up to 1792

up to 1792

Physical Capacity

1.2 to 115 TB

1.2 to 192 TB

up to 538 TB

up to 538 TB

Number of Frames

1 to 2

1 to 3

2 to 8

2 to 8

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

89

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

IBM DS8100 Innenaufbau

IBM DS8300 Innenaufbau

Die DS8100 besteht aus einer Basiseinheit und maximal

In der Zukunft wird es neben den Storage-LPARs auch

einer Erweiterungseinheit. An die DS8300 können bis zu

Anwendungs-LPARs geben. Da die DS8000 eine pSeries

zwei Erweiterungseinheiten angeschlossen werden. Seit

integriert hat, können alle Möglichkeiten eines Servers für

Oktober 2006 können bei den DS8000 Turbo-Modellen bis

die Datenspeicherung genutzt werden. Es ist insbesondere

zu vier Erweiterungseinheiten angeschlossen werden. Damit

daran gedacht, Anwendungen mit einer hohen Affinität zu

bietet die DS8000 Turbo die Möglichkeit, über 300 TB FC-

Storage (viele I/Os) direkt auf dem Speichersystem laufen

Platten und über 500 TB FATA-Platten zu betreiben (maximal

zu lassen und die internen Bandbreiten der DS8000 für opti­

1.024 Plattenlaufwerke).

male Performance zu nutzen.

Die Speichersysteme DS8000 sind die ersten Speichersys­

Ein wesentliches Merkmal der DS8000 sind die überle­

teme im Markt mit echten Storage-LPARs. Wie bei einem

genen Copy-Services, die einen unterbrechungsfreien RZ-

Server können auf einer physischen Einheit logische LPARs

Betrieb ermöglichen. Dazu gehören die Funktionen syn­

mit eigenem Prozessor, eigener Bandbreite, eigenen HBAs,

chrones und asynchrones Kopieren (Metro Mirror/Copy,

eigenem Disk-Adapter, eigenen Laufwerken und eigenem

Global Mirror/Copy) sowie Point-in-Time Copy (FlashCopy).

Mikrocode gebildet werden. Die LPARs sind robust vonein­

Die Spiegelfunktionen der DS8000 sind heute wegen ihrer

ander isoliert. Selbst ein Crash in einer LPAR beeinflusst

Leistungsfähigkeit (Entfernung, Anzahl I/Os über eine Lei­

die zweite LPAR nicht. Das LPAR-Konzept eignet sich daher

tung, Anzahl gleichzeitiger Spiegel) und ihrer Funktionalität

besonders gut für die Sicherstellung eines bestimmten Ser­

(Konsistenzgruppen, Suspend-/Resume-Möglichkeit,

vice-Levels für bestimmte Anwendungsbereiche. Produktion

Umdrehen der Spiegelungsrichtung, drei Spiegel gleichzei­

und Test können auf einer Maschine gefahren werden, ohne

tig etc.) einzigartig im Markt. Derzeit gibt es keine leistungs­

dass die Testaktivitäten die Produktion beeinflussen. zSeries

fähigere Remote-Copy-Implementierung auf dem Markt.

und Open Systems Workload können ebenfalls ohne Beden­ ken auf der gleichen Maschine betrieben werden, da jede LPAR mit ihren eigenen Ressourcen ausgestattet ist. Zum heutigen Stand bietet die DS8300 zwei LPARs, die jeweils 50 % der Ressourcen erhalten. In Kürze wird die Auf­ teilung flexibler werden und Sub-Prozessor-Allokationen werden möglich sein.

90

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Während DS8000 auf Basis der POWER5-Architektur ganz

DS6000 stellt für IBM bei Plattensystemen einen Durchbruch

klar den High-End-Speichermarkt adressiert, gibt es noch

im Platzbedarf dar. Während der bisherige Einstieg in die

ein riesiges Marktpotenzial mit geringeren Anforderungen an

Enterprise-Welt mit der ESS 750 nicht ohne mindestens

Leistung und Skalierbarkeit. Dieses Marktpotenzial adres­

einen Quadratmeter Stellfläche plus zusätzliche Serviceflä­

siert IBM mit einem modularen Speichersystem auf Basis

che sowie einen stabilen Doppelboden, der eine Tragfähig­

der PowerPC-Prozessortechnologie. Wichtig für dieses

keit von über einer Tonne gestatten musste, zu ermöglichen

Marktsegment ist ein kompaktes, modulares Design, das

war, erreicht die DS6000 völlig neue Dimensionen. Der maß­

eine hohe Leistung auf kleinstem Raum ermöglicht, keine

stabsgerechte Vergleich unten zeigt den großen technolo­

besonderen Anforderungen an die RZ-Infrastruktur stellt und

gischen Fortschritt. Der Einstieg in die Enterprise-Welt ist

sich perfekt in die vorhandene IT-Landschaft mit Servern in

jetzt mit weniger als 5 % des Volumens bisheriger Speicher­

19-Zoll-Racks integrieren lässt.

systeme möglich. Damit gehen verringerte Anforderungen bzgl. der Servicefläche, der RZ-Infrastruktur und des Strom­

Diesen Designanforderungen entspricht das Speicher­-

bedarfs einher.

sy­stem DS6000. Das System ist voll und ganz für den Mas­ senmarkt und seine spezifischen Anforderungen konzipiert.

Die DS6000 entspricht im logischen Aufbau der DS8000.

Das System basiert auf modularen Einschüben mit 3U-Bau­

Der Unterschied besteht in der Plattform, auf der das

höhe, die sich in vorhandene 19-Zoll-Racks einbauen lassen,

System betrieben wird. HA- und DA-Code sind im Wesent­

ohne dabei Kompromisse in der Leistungs­fähigkeit einzu­

lichen identisch, da es sich um autarke Einheiten handelt.

gehen. Das Speichersystem skaliert von 288 Gigabyte bis

Die Funktionalität des Speichersystems ist ebenfalls iden­

auf 38,4 TB.

tisch. Der große Unterschied ist die Prozessor-Plattform. Da der PowerPC-Prozessor über keine Partitionierungsmöglich­ keiten verfügt, entfällt diese Komponente. Zudem wird der Prozessor nicht durch AIX, sondern durch Linux gesteuert.

75,25”

5,25” 19” IBM ESS 750 mit 5 TB Kapazität

1952 – 1961

1962 – 1974

IBM DS6000 mit 4,8 TB Kapazität

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

91

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

haben eine Kapazität von 500 GB pro Laufwerk. Das bietet für die Plattensysteme die Möglichkeit, innerhalb des Systems mit einer Zwei-‘tier’-Storage-Hierarchie zu arbeiten. So können die FC-Platten für die klassische Transaktions­ verarbeitung und hoch frequentierte Daten eingesetzt wer­ den und die günstigeren, aber langsameren FATA-Platten für sequenzielle Datenverarbeitung und nur wenig benutzte Ansicht IBM DS6800 Plattensystem

Daten.

Wesentliche Änderungen betreffen auch den Abstraction Layer, der alle HW-Spezifikationen von der Funktionsebene

Damit bietet eine DS8000 voll ausgebaut mit FATA-Platten

isoliert. DS6000 ist also ein reines Speichersystem, das

eine Bruttokapazität von 320 TB und eine kleine DS6000 bis

nicht für Applikationszwecke in der Zukunft eingesetzt wer­

zu 64 TB an Bruttokapazität.

den kann. Die Maschine besteht im Prinzip aus 5 Komponenten, soge­ nannten ‘Customer Replaceable Units’ (CRUs). Dies sind Laufwerke, Stromversorgung, Controller, Batterie und ein ‘Light-Path-Diagnose-Modul’. Wann immer eines dieser Teile defekt ist, erhält der Kunde ein Ersatzteil zugeschickt, das er in Minuten mit wenigen Handgriffen selbst einsetzen kann.

1st tier-FC Drives - Transactional IO - Heavily used data

Das Gleiche gilt für den Mikrocode. Wann immer eine neue Version verfügbar ist, wird der Kunde davon informiert und kann sich aus dem Internet den neuesten Mikrocode herun­ terladen und unterbrechungsfrei einspielen.

Flash

Unterstützt wird man bei der Fehleranalyse durch Light Path Diagnostics, SNMP-Meldungen und ein GUI. Die Fehlerana­ lyse ist voll vom System gestützt. Interaktive Hilfefunktionen vereinfachen die Reparatur. Zur einfachen Administration und schnellen Implementierung verfügt das Speichersystem

2nd tier-FATA Drives - Streaming data - Little used data

über einen Express Configuration Wizzard, der das erstma­ lige Konfigurieren oder Umkonfigurieren stark vereinfacht. Die DS6000 und DS8000 sind die ersten Plattensysteme von IBM, die mit vier Jahren Gewährleistung angekündigt wurden. Aufgrund dieser langen Gewährleistung erkennt man bereits, dass diese neue Architektur sehr lange Bestand haben wird. Am 22. August 2006 mit Verfügbarkeit im September 2006 kündigte IBM die neusten Erweiterungen für die DS6000 und DS8000 an. Beide Plattensysteme können jetzt neben der Auswahl an FibreChannel-Platten auch mit günstigeren Fibre-ATA(FATA)-Platten bestückt werden. Die Platten

92

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Für die DS8000 wurden neue Modelle angekündigt, die

Fällt die Lokation B aus, stellen inkrementelle Resynchroni­

POWER P5+ Prozessortechnologie integriert haben und

sationsverfahren die Verbindung zwischen A und C her und

damit 15 % höhere Leistungsfähigkeit ausliefern. Die

gewährleisten damit weiterhin unterbrechungsfreien Spiegel­

I/O-Cages wurden auf 4-Gbit-FibreChannel- und FICON-

betrieb. Steht die Lokation B wieder zur Verfügung, wird

Ports umgestellt. Damit ist die DS8000 das erste Plattensys­

über ein inkrementelles Verfahren von A nach B resynchroni­

tem auf dem Markt, das mit 4-Gbit-FICON-Ports am zSeries-

siert. Nach Abschluss der Resynchronisation werden die

Host arbeiten kann. Die DS8000-Systeme mit P5+ Pro­zessoren

Lokationen B und C wieder über Global Mirror verbunden

werden als DS8000-Turbo-Systeme bezeichnet.

und so die Ausgangssituation wieder hergestellt.

Ein neue Einrichtung, die als ‘Synergy Feature’ bezeichnet

Fällt Lokation C aus, ist die Anwendung A nicht betroffen

und im November 2006 verfügbar wird, verbessert maßgeb­

und die synchrone Spiegelung zwischen A und B bleibt

lich die Gesamtleistung der Komponenten DS8000 Turbo,

erhalten. Steht die Lokation C wieder zur Verfügung, wird

DB 2 und AIX und erzielt eine wesentlich effektivere Kom­

Global Mirror inkrementell wieder aufgebaut und die Aus­

munikation zwischen Rechner und Speichersystem für DB2-

gangssituation wieder hergestellt.

Anwendungen. Dies wird durch eine gezielte ‘End to End’Prioritätensteuerung ermöglicht.

Parallel Access Volume (PAV): Die Funktion, von mehreren Rechnern und Anwendungen gleichzeitig auf diesselbe

Teil der Ankündigung vom 22. August 2006 war zudem die

Platten­adresse zu schreiben und von ihr zu lesen, wurde im

Möglichkeit, bei DS8000-Turbo-Systemen mit einem dritten

z/OS-Umfeld mit dem Enterprise Storage Server (siehe auch

Spiegel bei Remote-Copy-Verfahren zu arbeiten. Diese

ESS) eingeführt und für die DS8000 weiter optimiert. Der

Lösung wird als ‘3 Site Disaster Recovery Solution’

Work­load Manager (WLM) im z/OS steuerte die dynamische

bezeichnet. Damit wird auch im Disaster-Fall ein konstanter

Zuordnung und Umordnung der dafür notwendigen ‘Alias’-

Zugriff auf die Daten gewährleistet. Diese Möglichkeit war

Adressen, was als dynamisches PAV bezeichnet wird. Im

bisher nur über RPQ (Request for Price Quoting) gegeben.

November 2006 kündigte IBM für die DS8000 Hyper PAV an. Dabei wurde die Funktion so geändert, dass z/OS im

Das dreifache Remote-Spiegelverfahren setzt sich aus

Zusammenspiel mit der DS8000 für jeden einzelnen I/O eine

den Komponenten ‘Metro Mirror’ und ‘Global Mirror’ (ehe­

Alias-Adresse aus einem Pool nehmen kann, ohne dass

mals PPRC XD – Peer to Peer Remote Copy eXtended

eine Koordination zwischen z/OS-Systemen notwendig ist.

Distance – und FlashCopy) zusammen. Von der Lokation A

Damit kann sofort auf sich ändernde Workloads reagiert

wird mit der DS8000-Turbo synchron zur Lokation B gespie­

werden. Hyper-PAV benötigt bei derselben Workload nur

gelt. Die Lokation B spiegelt dann asynchron auf die Loka­

etwa die Hälfte an Alias-Adressen und bietet im Vergleich

tion C weiter.

zum dynamischen PAV bei derselben Anzahl an AliasAdressen die Möglichkeit, 50 % mehr I/Os zu prozessieren.

Fällt die Lokation A aus, wird die Anwendung auf die Loka­ tion B umgeleitet und Global Mirror läuft ohne Unterbre­

Am 22. August 2006 wurde als neues Software-Produkt IBM

chung zwischen den Lokationen B und C weiter. Kommt

TotalStorage Productivity Center (TPC) für Replikation

Lokation A wieder online, wird von der Lokation B nach A

angekündigt. TPC für Replikation erlaubt ein zentrales

auf inkrementeller Basis resynchronisiert. Nach Abschluss

Management der Copy-Services-Funktionen Metro Mirror,

der Resynchronisation kann die Anwendung von B nach A

Global Mirror und FlashCopy für die Produkte DS6000,

zurückverlagert werden.

DS8000, DS8000 Turbo, SAN Volume Controller SVC und ESS Modell 800.

Synchrone Kopie mit Metro Mirror (bis zu 300 km)

A

Asynchrone Kopie mit Global Mirror (keine Distanz-Begrenzung)

B

C

FlashCopy

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

93

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

Im Jahr 2007 stellte IBM für die DS8000 Plattensysteme

Neben den neuen Performance Features wurden im Novem­

erhebliche Erweiterungen zur Verfügung.

ber 2007 für die Maschinen auch neue funktionale Erweite­ rungen verfügbar. Space efficient FlashCopy kann durch

Im Februar 2007 kündigte IBM mit Verfügbarkeit März für

Reduzierung der benötigten Plattenkapazität für Kopien

alle DS8000-Systeme neben den bisherigen Plattentypen

signifikant die Kosten senken. Dadurch können gleichzeitig

300-GB-FibreChannel-Platten mit 15.000 Umdrehungen

die Strom- und Klimaanforderungen gesenkt werden. Flash­

an. Die DS8000 war damit das erste System auf dem Markt,

Copies benötigen nur Plattenplatz, wenn Veränderungen am

das mit diesen schnellen großkapazitiven Platten ausgestat­

Original durchgeführt werden. Dynamic Volume Expansion

tet werden konnte. Im Mai 2008 kamen erhebliche Kapazi­

vereinfacht das Management durch ‘Online’-Vergrößerung

tätserweiterungen dazu. Konnte bisher ein 4-Way-System

von logischen Laufwerken bei Datenwachstum. Neben die­

mit bis zu 640 Platten (bei 2-Way sind es bis zu 384 Platten)

sen Erweiterungen wird das TPC (Total Productivity Center)

in einer Konfiguration von drei Einheiten ausgestattet sein,

bei Auslieferung von neuen DS8000-Systemen standardmä­

war es seit Juni 2007 möglich, ein 4-Way-System DS8300

ßig als neu umbenanntes SSPC (System Storage Producti-

mit bis zu 1.024 Platten zu konfigurieren. Dazu werden an

vity Center) mitgeliefert und bietet damit einen einheitlichen

die Basiseinheit vier zusätzliche Erweiterungseinheiten

Zugang zum Management von IBM und anderen Speicher­

angeschlossen, insgesamt also eine Konfiguration mit fünf

systemen. Damit stehen dem IT-Benutzer eine einheitliche

Gehäuseeinheiten. Bei Verwendung der 500-GB-FATA-Platten

Management-Oberfläche und eine gemeinsame Konsole für

steigerte sich so die maximale Kapazität auf bis zu 512 TB

DS8000-Systeme und die SVCs (San Volume Controller) zur

pro System.

Verfügung.

Seit November 2007 stehen der DS8000 weitere leistungs­

Am 26. Februar 2008 wurden zusammen mit der Ankündigung

optimierende Features zur Verfügung. Die Funktion Storage

des neuen Mainframe-Systems z10 neue Erweiterungen für

Pool Striping mit Rotate Extends reflektiert einen neuen

das DS8000 Plattensystem speziell im z/OS-Umfeld ange­

Default-Algorithmus, der neue logische Platten in 1-GB-

kündigt. Mit der Funktion z/OS Metro/Global Mirror Incre-

Schritten über das Backend verteilt und so die Leistung

mental Resync entfällt bei einer dreifachen Remote Spiege­

ohne spezielles Tuning optimiert. AMP (Adaptive Multi-

lung die Notwendigkeit, eine volle Kopie für die Resynchroni-

stream Prefetching) stellt eine neue Caching-Technologie

sation nach einer Hyper-Swap-Situation zu erzeugen. Die

von IBM Research zur Verfügung, die, auf Workloads bezo­

Erweiterung Extended Distance FICON reduziert den Bedarf

gen, ein selbstoptimierendes Prefetching durchführt. AMP

von Kanalerweiterungseinheiten (Channel Extenders) bei

entscheidet dynamisch, was und wann in den Cache vorge­

z/OS Global Mirror- (zweifache Remote-Spiegelung) und z/OS

laden wird. Das kann den Durchsatz von sequentiellen und

Metro/Global Mirror-Konfigurationen (dreifache Remote-Spie­

Batch-Workloads dramatisch verbessern, d. h., Laufzeiten

gelung) durch eine höhere Parallelität der Leseoperationen.

können erheblich verkürzt werden. AMP verbessert den Lese-

Die neue Möglichkeit des z/OS Basic Hyper Swap erlaubt

Durchsatz aus einem RAID5-Array nahezu um Faktor zwei!

die Konfiguration von Disk Replication Services über das

AMP kann Hot-Spot-Situationen verhindern, wenn sehr hohe

grafische User Interface (GUI) der DS8000 Plattensysteme.

Anforderungen an sequentielle Workloads gestellt werden.

Diese Möglichkeit kann auch für DS6000- und ESS-Systeme

IBM z/OS Global Mirror Multiple Reader bietet im zSeries-

genutzt werden, bei denen das GUI auch zur Verfügung steht.

Umfeld einen deutlich höheren Durchsatz bei Remote-Spie­

Die Möglichkeit des z/OS Basic Hyper Swap ist auch ohne

gelungen.

GDPS (Geographically Dispersed Parallel Sysplex) benutzbar. z/OS Basic Hyper Swap ist eine einzigartige Funktion, die auch ohne GDPS einen automatischen Failover auf das Remote-Plattensystem vornimmt, wenn die primäre Site nicht mehr zur Verfügung stehen sollte. Dies ist aber ausschließlich bei den IBM Systemen DS8000, DS6000 und ESS möglich. Plattensysteme anderer Hersteller werden nicht unterstützt.

94

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Mit dem Release 4.0 bekommt die DS8300 im August 2008

‘Secure Data Overwrite’ garantiert die sichere Löschung

die Möglichkeit mit variablen LPARs und damit mit mehr

von sensiblen Daten auf Platten. Dieser Service wird durch

Flexibilität zu arbeiten. Bisher war nur eine Aufteilung von

einen geschulten IBM Techniker durchgeführt.

50 %/50 % möglich, jetzt ist auch eine variable Aufteilung von 25 %/75 % bzw. 75 %/25 % der System-Ressourcen

Mit dem Release 4.2 im Februar 2009 kommen für die

unterstützt.

DS8000-Systeme weitere fundamentale Erweiterungen zum Tragen. Die DS8000-Systeme können jetzt neben FC-Platten

Innerhalb der separaten System-Ressourcen können unter­

und SATA-Platten mit SSDs (Solid State Disks) ausgestattet

schiedliche Versionen des Microcodes betrieben werden,

werden. Dabei sind Solid State Disks in der Größe von 73

z. B. separate Produktions-Systeme oder Testsysteme und

GB und 146 GB unterstützt. Standardmäßig ist der Werks­

das innerhalb eines physischen Storage-Systems. Variable

einbau vorgesehen, für den Feldeinbau muss ein RPQ

LPARs werden innerhalb der DS8300 ohne zusätzliche

gestellt werden. Dieser RPQ dient zur Sicherstellung der

Kosten ab Microcode R.4.0 zu Verfügung gestellt. Mit R.4

optimalen Performance.

können nun folgende Aufteilungen vorgenommen werden: 50/50 % Split (Factory Default), 75/25 % Split und 25/75 %

Als erstes IBM Subsystem unterstützt DS8000 in Verbindung

Split. Die Aufteilung kann für die System-Ressourcen Pro­

mit speziellen Disk-Drives die Verschlüsselung der Daten

zessoren, NVS und Cache erfolgen. Host Adapter Slots,

(Encryption) auf den Platten. Dadurch kann sichergestellt

Device Adapter Slots und Storage Enclosure Slots bleiben

werden, dass selbst bei einem Verlust der Disk-Drives die

nach wie vor im 50/50 % Split.

Daten nicht ausgelesen werden können. Im Gegensatz zu anderen Lösungen macht Encryption auf Disk-Drive-Level

Mit dem Release 4.1 im September 2008 erhält die

Verschlüsselung ohne Leistungsverluste möglich. Es müs­

DS8000-Familie folgende Erweiterungen:

sen keine Änderungen in Anwendungen oder der StorageInfrastruktur vorgenommen werden. Die Verwaltung der

Unterstützung von Raid 6 als erweiterter Plattenschutz, ins­

Schlüssel wird analog zu der Tape-Verschlüsselung mit dem

besonders geeignet für große Platten, z. B. bei 1 TB SATA-

Softwareprodukt TKLM, früher EKM, vorgenommen (siehe

Platten. Bei FC-Platten wird aufgrund der geforderten hohen

auch unter Tape Encryption).

Plattenperformance und durch die schnelle architekturbe­ dingte Wiederherstellung des RAID-Verbundes bei einem

Mit der Einführung von hochkapazitiven 1 TB SATA-Platten

Plattenausfall weiterhin RAID5 bevorzugt angewandt. Mit

eigenet sich das DS8000 Plattensystem auch für den Ein­

der Integration von 450 GB FC 15K-Platten erweitert sich

satz von Data-De-Duplication-Technologien, z. B. in Verbin­

zum einem die mögliche Gesamtkapazität und erhöht so die

dung mit den Diligent-Produkten (siehe unter Data-De-Dupli­

Wirtschaftlichkeit des Systems. Ein neuer IBM Service

cation IBM ProtecTIER). Mit dem Release 4.3 im Juli 2009 unterstützt die DS8000 ‘Thin Provisioning’ ohne Leistungsbeeinträchtigung. Die Funktion Thin Provisioning ist optional zu bestellen und ist für die gesamte Kapazität einsetzbar. Thin Provisioning kann die Nutzung der Storage-Kapzität erhöhen und damit zur ökonomischen Nutzung des eingesetzten Speichers erheb­ lich beitragen. Die Storage-Administrationskosten können durch automatisiertes Storage Provisioning reduziert werden. Ein neues Feature, das ‘Quick Initialization Feature’ ermöglicht das schnelle Einrichten von Copy Services.

Plattenlaufwerk oben, Solid State Disk unten

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

95

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

zHPF Multi-Track Support für DS8000

Wie die Vorgängersysteme ist die Maschine mit den neuen

Diese einzigartige Funktion der DS8000 in Verbindung mit

optimierten Cache-Algorithmen ausgestattet: SARC (Simpli­

zSeries führt zu erheblich verbesserten I/O-Leistungen.

fied Adaptive Replacement Cache) als Grundalgorithmus

Erreicht wird diese Leistungsverbesserung durch ein opti­

verbunden mit AMP (Adaptive Multistream Prefetching) zur

miertes I/O-Protokoll.

Optimierung von Leseoperationen von den Platten in den Cache und IWC (Intelligent Write Caching) zur Optimierung

IBM DS8700 Plattensystem

der Schreib-Workload. Das Antwortzeitverhalten der DS8700

Im Oktober 2009 kündigt IBM die neue Maschine DS8700

dürfte derzeitig alle verfügbaren Plattensysteme im Markt

als Nachfolger der Plattensysteme DS8100 und DS8300 an.

weit übertreffen.

Die DS8700 basiert auf Power6-Technologie und arbeitet

96

mit P6-Prozessoren mit 4,7 GHz. Die Leistungsfähigkeit

Verbunden mit der DS8700-Ankündigung ist ein Ausblick

der Maschine ist ca. 2,5 Mal schneller als die DS8300. Die

einer Roadmap bis 2013. Diese Roadmap beinhaltet Funk­

Rio-G Loop wird ausschließlich für die P6 ‘Server to Server’-

tionen zur optimalen Nutzung von SSDs durch Analyse des

Kommunikation eingesetzt, während die Platten­arrays über

I/O-Verhaltens und dynamische Verlagerung von Extends,

PCI-E (Express)-Karten angesteuert werden. Durch diese

die sich optimal für die Speicherung auf SSDs eignen. Mit

Architekturänderung bekommt die Maschine eine optimale

diesem neuen Algorithmus bekommt die Maschine die

Backend-Anbindung und höhere Backend-Bandbreite, was

Fähigkeit, Storage Tiers optimal auszunutzen und die Daten

sich vor allem bei Verwendung von schnellen SSDs (Solid

dem I/O-Verhalten entsprechend auf SSDs, FC-Platten und

State Disks) auszahlt.

SATA-Platten abzuspeichern.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

IBM XIV Storage Nahezu jedes Unternehmen ist heute von der steigenden Flut digital zu speichernder Daten betroffen. Laut der IDCStudie „The Diverse and Exploding Digital Universe“ wird das installierte Speichervolumen allein innerhalb der kom­ menden vier Jahre um 600 % wachsen. Schon heute stellt die Speichersystemadministration viele Firmen vor erheb­ liche Probleme. Das erwartete hohe Wachstum kommt aller­ dings nicht aus dem klassischen Rechenzentrumsbereich, sondern fällt im Bereich der unstrukturierten Daten an. Wäh­ rend im klassischen RZ-Betrieb sogenannte ‘Scale Up’-Plat­ tensysteme den Anforderungen an immer schnellere Ant­ wortzeiten Rechnung tragen (z. B. DS8000 mit schnellen FibreChannel-Platten und SSDs) fehlen im Bereich des Datenwachstumsumfelds kostengünstige ‘Scale Out’Systeme, die trotz wachsender Kapazität eine gleichblei­ bende hohe Leistungsfähigkeit bieten. Eine solche Anforde­ rung kann nur mit einer Architektur gelöst werden, die es erlaubt, Standardkomponenten, wie kostengünstige SATAPlatten und PC-basierende Prozessoren, so zu integrieren, dass eine hohe Zuverlässigkeit und hohe Leistungsfähigkeit

Dabei hat z. B. jede Platte immmer denselben Füllgrad und

gewährleistet wird, auch wenn das System kapazitiv wächst.

dieselbe Arbeitslast. Wächst das System in der Kapazität, stehen mehr ‘Arbeiter’, also mehr Plattenlaufwerke, zur Ver­

Diese neue ‘Scale Out’-Anforderung nahm der ehemalige

fügung und steigern die Leistungsfähigkeit und den Durch­

Chef-Entwickler der EMC-Symmetrix Systeme Moshe Yanai

satz des Gesamtsystems. Das ist der perfekte Sozialismus!

zum Anlass, die Firma XIV zu gründen, um ein neuartiges Speichersystem zu entwickeln, das diese neuen Aspekte

XIV-Architektur

von Anfang an berücksichtigt. Die Firma XIV wurde 2002

Ein wesentliches Merkmal der IBM XIV-Systeme ist die hohe

gegründet, die ersten Systeme waren bereits 2005 in Pro­

Parallelität durch eine modulare GRID-Architektur. Anders

duktion. Am 31.12.2007 wurde die Firma XIV von IBM aqui­

als traditionelle Systeme gibt es nicht nur zwei Controller,

riert. Bis Ende 2008 sind bereits über 100 Systeme im pro­

die sämtliche I/Os verarbeiten müssen, sondern mehrere

duktiven Einsatz und seit Oktober 2008 sind die Systeme in

voneinander unabhängige Module. Diese Module bestehen

der zweiten Generation als IBM Produkte verfügbar.

aus Standard-Servern mit optimiertem Linux-Betriebssystem. Die hohe Parallelität wird nun dadurch ermöglicht, dass ein

IBM XIV Storage System

patentiertes Load-Balancing-Verfahren sämtliche I/Os über

Die Entstehung von XIV Storage ist etwas Besonderes! Mit

alle Systemkomponenten verteilt: Module, Switche, Caches

der neuen XIV-Architektur erblickt der erste Plattensub­

und Disks.

system-Sozialismus das Licht der Welt! Es ‘menschelt’ nicht, daher funktioniert der Sozialismus perfekt! Wenn

XIV-Standard-Hardware

immer die Maschine etwas zu tun hat, sei es etwas auf

Ein IBM XIV Storage System besteht aus mehreren Modulen,

Platte wegzuschreiben, von der Platte auszulesen oder sich

jedes Modul mit eigenen CPUs, eigenem Cache-Speicher

intern zu reorganisieren, müssen alle daran arbeiten. Die

und eigenen (lokalen) Disks. Einige Module besitzen darü­

integrierten PCs, alle Plattenlaufwerke ohne Ausnahme

ber hinaus FibreChannel und iSCSI-Interfaces, die zur

arbeiten immer gleichzeitig die anstehende Workload ab.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

97

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

XIV GRID-Architektur mit verteiltem Speicher, Caches und CPUs

redundanten Anbindung der Hosts dienen. Diese Module

Beim Einsatz von 1 TB Disks ergibt sich also eine Bruttoka­

werden auch als Interface-Module bezeichnet. Als Betriebs­

pazität von 15 * 12 * 1 TB = 180 TB. Durch die hohe I/O-

system auf den Modulen (Servern mit Intel CPUs neuester

Parallelität können im Vergleich zu FibreChannel-Disks lang­

Generation) dient ein optimiertes Linux, was allerdings für

samere Disks mit SATA-II-Technologie verwendet werden,

den Anwender transparent ist. Die Kommunikation der

ohne dass dadurch die Systemperformance langsamer

Module erfolgt über zwei Gigabit-Ethernet-Switche. Die hohe

wäre als bei traditionellen High-End-Speichersystemen mit

Performance wird durch die Parallelisierung aller I/Os

FibreChannel-Disks. Der Vorteil bei der Verwendung der

erreicht, welche sich stets über alle Module erstreckt.

Standard-Komponenten für die Module und den Intercon­ nect besteht darin, dass neue Technologieentwicklungen

Ein voll ausgebautes XIV-Rack besteht aus:

rasch und ohne Neuentwicklungen eingesetzt werden kön­ nen. Stehen beispielsweise schnellere Module in Form von

•• 15 Modulen mit jeweils

Standard-Servern oder neue Adapter zur Verfügung, können

-- Intel Quad-Core CPUs

diese sofort ausgetauscht werden. Gleiches gilt für die Inter­

-- 8 GB RAM (Cache)

connect-Switche. Derzeit ist jedes Modul über 4-Gigabit-

-- 4x Gigabit Ethernet für die interne Kommunikation

Ethernet-Verbindungen angeschlossen. Auch der Austausch

-- 12 Disk-Drives (1 TB SATA II)

durch 10-Gigabit-Ethernet-Switche oder Infiniband ließe sich

•• 6 Interface-Module mit insgesamt

kurzfristig realisieren (selbstverständlich verzögern eventuell

-- 24 x 4 GB FC-Adapter

notwendige Software-Anpassungen und vor allem Integrati­

-- 6 x 1GB iSCSI-Adapter

onstests den Einsatz neuer Technologien).

•• 2 Gigabit-Ethernet-Switche für die interne Kommunikation •• 3 unterbrechungsfreie Stromversorgungseinheiten

98

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Datenverteilung und Load Balancing

mance des Systems herabgesetzt, da beim Zugriff auf

Um eine möglichst granulare und gleichmäßige Verteilung

Daten dieses Volumes zusätzliche XOR-Operationen not­

der Daten und I/O-Operationen zu ermöglichen, verteilt das

wendig sind.

System jedes vom Administrator angelegte Volume immer auf 16.384 (oder ein Vielfaches davon) primäre und

Da ja primäre und sekundäre Partitionen immer über Module

genauso viele sekundäre Partitionen mit einer Größe von

hinweg „gespiegelt“ werden, können sogar mehrere Disks

jeweils 1 MB:

innerhalb eines Moduls oder gar ein komplettes Modul aus­ fallen, da selbst dann immer noch eine intakte Datenkopie

•• Die Partitionen werden nach einem ‘pseudo-zufälligen’

im System vorhanden ist. Auch in diesen Fällen beginnt das

Algorithmus auf alle Disks (und damit über alle Module)

System sofort im Hintergrund die fehlenden Kopien neu zu

verteilt. Dies gilt grundsätzlich für alle Volumes, wodurch

erzeugen, immer unter Erhaltung der Gleichverteilung und

immer eine optimale Performance für alle Volumes erreicht

damit einer gleichmäßigen Auslastung aller Systemkompo­

wird.

nenten.

•• Eine Partition enthält dabei entweder eine primäre oder sekundäre Kopie der Daten. Primäre und sekundäre Daten

Das Modul, das für eine IO-Operation eine primäre Partition

werden stets in unterschiedlichen Modulen, also auch auf

beschreibt, sendet parallel zum lokalen IO den gleichen

unterschiedlichen Disks gespeichert.

Datenblock für die sekundäre Kopie an ein anderes Modul. Erst wenn beide Module die Datenblöcke im Cache haben,

Das Verteilungsverfahren arbeitet autonom und dynamisch.

wird dem Host die IO-Operation bestätigt. Das Schreiben

Fällt z. B. eine Disk aus oder wird aus dem System entfernt,

der Datenblöcke auf die jeweils lokalen Caches erfolgt im

werden sofort alle darauf befindlichen (primären oder

Hintergrund.

sekundären) 1 MB-Partitionen von allen anderen Disks neu kopiert bzw. verteilt. Dadurch arbeitet diese Wiederherstel­

Vergleich zu bekannten RAID Verfahren

lung extrem schnell. Kopiert werden dabei übrigens nur Par­

Das dargestellte Verteilungsverfahren der Daten entspricht

titionen, die tatsächlich Daten enthalten. In der Praxis sind

keinem der üblichen RAID1- bis RAID10-Mechanismen. Von

die Daten einer 1 TB SATA-II-Disk innerhalb weniger Minu­

den Eigenschaften ist es einem RAID10-Verfahren am ähn­

ten wieder redundant. Die maximale Dauer zur Herstellung

lichsten, bei dem die Datenblöcke verteilt (engl. striping) und

einer 1-TB-Disks beträgt 30 Minuten. Die Wiederherstellung

gespiegelt werden. Würde man 180 Disks in einem RAID10-

einer ausgefallenen Disk in einem RAID5- oder RAID6-Array

Array konfigurieren, wäre die Performance beider Disk-

dauert in der Regel mehrere Stunden, manchmal Tage.

Anordnungen zu Beginn des Betriebes identisch. In der Pra­

Zusätzlich ist während dieser langen Zeitspanne die Perfor­

xis verflüchtigt sich dieser „Gleichstand“ aber recht schnell:

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

99

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

•• Bei Kapazitätserweiterungen oder Änderung von Volume-

Wiederherstellung vollständiger Datenredundanz zu erlan­

Größen ist die Gleichverteilung bei RAID-Arrays nicht mehr

gen. Im Gegensatz zu RAID5- oder RAID6-Verfahren arbeitet

gewährleistet. Manuelle Nacharbeit am Storage- und Host-

die Wiederherstellung jedoch sehr viel schneller, weil alle

system (Rebuild des Stripings etc.) ist arbeitsintensiv und

verbleibenden Disks an den notwendigen IO-Operationen

finden oft nicht statt. Manchmal müssen für solche Opera-

beteiligt sind und außerdem der Zugriff auf die Daten in die­

tionen ganze Arrays oder Volumes umgezogen werden.

ser Zeit keine zusätzlichen XOR-Operationen erfordert.

•• Eine Gleichverteilung aller I/Os über alle Systemkomponenten erfordert bei traditionellen Systemen genaue

Diese Eigenschaften führen dazu, dass das XIV-System trotz

Kenntnis der Architektur und aller Virtualisierungs-

langsamerer SATA-II-Technologie eine höhere Performance

schichten. Diese Arbeiten können häufig nur von Spezia-

und eine höhere Verfügbarkeit besitzt als klassische High

listen durchgeführt werden. Das Auslagern solcher Tätig-

End RAID-Systeme mit FibreChannel-Technologie.

keiten an die Anwender ist nicht möglich. Verteilte Caches Wie bereits erwähnt, sind derlei Maßnahmen bei XIV-Syste­

Auch hinsichtlich der Caches sorgt die verteilte Architektur

men nicht nötig (und auch nicht möglich), da der Vertei­

für Vorteile gegenüber Dual-Controller Systemen. Die unab­

lungsalgorithmus autonom und dynamisch arbeitet. Sobald

hängigen Caches sind jeweils nur für die in den Modulen

das System zusätzliche Module bekommt, beginnt das

vorhanden 12 Disks zuständig. Dies gewährleistet eine mini­

System mit der Umverteilung der 1-MB-Partitionen, um wie­

male Latenzzeit und maximale Bandbreite. Für das Schrei­

der eine Gleichverteilung über alle Systemressourcen zu

ben der Daten vom Cache auf die Disks steht die volle

erlangen. Auch wenn Module oder Disks entfernt werden,

Bandbreite von zwei dedizierten PCI-X Bussen zur Verfügung.

beginnt eine Neuverteilung, um eine Gleichverteilung und

Verteilung der 1-MB-Partitionen eines Volumes auf alle Disks im System.

100

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Die gesamte CPU-Leistung eines Moduls steht ausschließ­

die 12 Disks eines kompletten Moduls plus drei zusätzliche

lich für diesen lokalen Cache zur Verfügung, was u. a. drei

berücksichtigt. Ferner benötigt das System für interne Zwe­

Dinge ermöglicht:

cke ca. 3,5 TB. Daraus ergibt sich für die Nettokapazität:

•• Aggressives Im-Voraus-Lesen (engl. prefetching) von

K (Netto) = (15 * 12 – 12 – 3) * 1TB / 2 – 3,5 TB = 79,5 TB

Datenblöcken mittels intelligenter Algorithmen. •• Sehr kleine Datenblöcke im Cache. Traditionelle Systeme

Werden mehr oder weniger als 15 Module verwendet,

arbeiten aufgrund eines einfacheren Cache-Manage-

vermindert bzw. vergrößert dies die Nettokapazität ent­

ments meist mit Datenblöcken von 32 oder 64 KB. Das XIV-

sprechend.

System kann aufgrund der hohen lokalen CPU-Leistung mit 4-KB-Blöcken arbeiten, was eine sehr effiziente Cache-

XIV-Funktionen

Nutzung zur Folge hat.

Thin Provisioning

•• Eine Cache-Synchronisation ist nicht notwendig, weil jeder

Mit Hilfe des Thin Provisionings lassen sich Speicherkapazi­

Cache nur für seine lokalen Daten bzw. Disks zuständig ist.

täten effektiver nutzen. Bei einem traditionellen System wird der für ein Volume vorgesehene Speicherplatz sofort allo­

Auch hinsichtlich einer für High-End-Systeme notwendigen

kiert und steht somit anderen Anwendungen nicht mehr zur

Verfügbarkeit hat eine verteilte Cache-Struktur Vorteile:

Verfügung und zwar auch dann nicht, wenn der Speicher­

Selbst beim Ausfall eines gesamten Moduls geht bei einem

platz gar nicht genutzt wird. Das führt in der Praxis zu einer

Ein-Rack-System nur ein Fünfzehntel der Cache-Kapazität

sehr schlechten Auslastung. Anwender wollen nämlich von

und Leistung verloren.

vornherein so viel Speicherplatz reserviert haben, wie auf absehbare Zeit notwendig ist, weil andernfalls spätere

Sämtliche Caches sind durch redundante unterbrechungs­

manuelle Nacharbeit notwendig ist. Beim XIV-System hin­

freie Stromversorgungseinheiten (UPS) abgesichert. Das

gegen kann ein Volume im Prinzip beliebig groß sein. Ist

System besitzt insgesamt drei solcher UPS-Einheiten, die

beispielsweise für eine neue Anwendung bekannt, dass das

sich permanent zwischen dem öffentlichen Netz und den

Datenvolumen in drei Jahren 10 TB beträgt, kann gleich ein

Modulen befinden, sodass diese kurzfristigen Ausfälle oder

Volume mit entsprechender Größe angelegt werden. Der tat­

Spannungsspitzen verborgen bleiben. Erst bei einem Ausfall

sächlich belegte Speicherplatz entspricht lediglich dem der

von mehr als 30 Sekunden fängt das System an, geordnet

wirklich gespeicherten Daten. Ist irgendwann der physika­

herunterzufahren. Ein bei anderen Systemen übliches Write-

lische Speicherplatz des Systems (oder Pools) erschöpft,

Through-Verfahren beim Ausfall eines Controllers oder bei

können einfach neue Module hinzugefügt werden. Der Ver­

Stromausfällen ist also bei XIV nicht notwendig.

teilungsalgorithmus sorgt sofort für eine Neuverteilung der Daten und die Kapazität ist erweitert. Auch hier ist also kei­

Speicherkapazität

nerlei Nacharbeit notwendig.

Wie bereits beschrieben, besitzt jedes Modul 12 lokale Disks. Beim Einsatz von 1 TB SATA-II Disks ergibt sich somit

Diese Überprovisionierung ist übrigens nicht systemweit

für ein volles Ein-Rack-System eine Bruttokapazität von:

gültig, sondern jeweils nur innerhalb eines Storage-Pools. Ein Pool stellt eine administrative Domain dar, innerhalb

K (Brutto) = 12 Disks * 15 Module * 1 TB = 180 TB

derer eine Quota-Verwaltung möglich ist.

Wie im Kapitel Datenverteilung und Load Balancing

Was passiert nun, wenn diese Überprovisionierung für viele

beschrieben, werden stets alle Daten über alle Disks verteilt

Volumes erfolgt, diese über die Zeit wachsen und die physi­

und zwar redundant. Dedizierte Spare-Disks, die im Normal­

kalischen Kapazitätsgrenzen erreicht werden? Wie in jedem

betrieb nichts tun, gibt es hier nicht. Dennoch muss natür­

Storage-System wird die Kapazitätsauslastung überwacht.

lich so viel Kapazität in „Reserve“ gehalten werden, wie Disk

Bei Überschreiten konfigurierbarer Kapazitätsgrenzen wird

ausfallen können sollen. Für diese Reservezwecke werden

der Administrator benachrichtig (SNMP, SMS oder E-Mail).

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

101

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

Reagiert dieser nicht, beginnt das System bei kritischer

dabei nur lesend zugegriffen werden. Bei Bedarf können

Auslastung Snapshots zu löschen. Dabei priorisiert das

Snapshots aber auch mit einem Handgriff als beschreibbar

System nach Wichtigkeit (beim Anlegen von Snapshots kon­

(engl. writeable) markiert werden. Dies ist oft hilfreich für

figurierbar) und nach Alter. Reichen auch diese Maßnahmen

Tests oder andere Szenarien, bei denen auf die Daten

nicht mehr, kann das Systemverhalten auf zwei Reaktionen

schreibend zugegriffen werden muss.

konfiguriert werden: Entweder werden alle Volumes gelockt oder auf ‘read-only’ gesetzt. In jedem Fall bleibt aber die

Snapshots von Snapshots

Datenintegrität erhalten.

Manchmal ist es wünschenswert, von einem Snapshot eine weitere logische Kopie zu haben. XIV-Systeme können mit

Durch das Thin Provisioning wird in der Praxis die Spei­

demselben Mechanismus mehrere Kopien eines Snapshots

cherauslastung um 20 – 30% verbessert.

erzeugen. So könnte ein Snapshot z. B. als beschreibbar markiert werden, während die zweite Kopie für ein Backup

Snapshots

dient.

XIV-Systeme sind mit extrem schnellen und einfach zu handhabenden Snapsho-Mechanismen ausgestattet. Der

Consistency Groups

beschriebene Verteilungsalgorithmus der Daten setzt

Für manche Anwendung ist es wichtig, konsistente

voraus, dass Verteilungstabellen die Informationen beinhal­

Snapshots zu erzeugen, wenn die Anwendung mehrere

ten, welche Datenblöcke auf welchen Disks gespeichert

Volumes benutzt. Dies trifft z. B. auf Datenbanken zu, wenn

sind. Wird nun für ein Volume oder eine Gruppe von

diese ihre Log-Dateien auf separaten Volumes speichert.

Volumes ein Snapshot erzeugt, werden lediglich diese Meta-

Für diese Fälle können mehrere Volumes zu Konsistenz­

Informationen gespeichert. Dies ist eine reine Memory Ope­

gruppen (engl. Consistency Groups) zusammengefasst wer­

ration, die immer ca. 150 ms dauert, unabhängig von der

den. Beim Erzeugen eines Snapshots ist dann sicherge­

Größe eines Volumes (dies gilt ebenso für das Löschen von

stellt, dass selbige konsistente Daten enthalten, d. h., dass

Snapshots). Auch der verwendete Speicherplatz für ein

der Zeitstempel der verschiedenen Volumes identisch ist.

Snapshot ist zu diesem Zeitpunkt gleich null. Erst wenn

Volumes einer Konsistenzgruppe müssen alle demselben

Datenblöcke verändert werden, sorgt ein ‘redirect-on-write’

Storage-Pool angehören.

dafür, dass der modifizierte Datenblock an eine andere Stelle geschrieben wird. Diese Technik ist schneller als das

Automatischer Snapshot bei entfernter Spiegelung

übliche ‘copy-on-write’ Verfahren, da eine Schreiboperation

XIV-Systeme erzeugen vor einem Synchronisationsprozess

weniger notwendig ist.

entfernter Spiegel automatisch einen sogenannten ‘last-con­ sistency-snapshot’ auf dem Zielsystem. Der Grund hierfür ist

XIV-Snapshots führen deshalb in der Praxis zu keiner Perfor­

die Sicherstellung eines konsistenten Zustands für den

mance-Einbuße. Pro System können bis zu 16.000

Fall, dass während des Synchronisationsprozesses das

Snapshots erzeugt werden.

Quellsystem ausfällt oder die Verbindung unterbrochen wird. In diesem Fall ist es möglich, dass das Zielsystem einen

102

Volume-Kopien

inkonsistenten Zustand hat. Der automatische Snapshot

Selbstverständlich können auch Volume-Kopien erzeugt

kann dann verwendet werden, um zu einem definierten,

werden. Volume-Kopien können – wie Snapshots – sofort

konsistenten Zustand zurückzukehren. Diese automatischen

nach deren Initiierung verwendet werden. Das physikalische

Snapshots haben eine Deletion-Priority von null, d.h., sie

Kopieren läuft im Hintergrund, bis alle Datenblöcke kopiert

werden im Falle einer Überprovisionierung eines Pools nicht

sind.

automatisch gelöscht.

Beschreibbare Snapshots

Remote Mirroring/Disaster Recovery

Ein Snapshot kann jedem beliebigen Host zugewiesen wer­

Für katastrophenresistente Installationen ist es möglich, ent­

den. Dies ist oft hilfreich für eine Weiterverarbeitung der

fernte Spiegel (engl. Mirror) auf einem anderen XIV-System

Daten, z. B. Erzeugen von Backups oder als Datenquelle für

zu erzeugen. Dies kann entweder über dedizierte iSCSI

ein Data-Warehouse. Standardmäßig kann auf Snapshots

oder FibreChannel-Ports implementiert werden.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Derzeit werden zwei Möglichkeiten der synchronen Spiege­ lungen unterstützt: Best Effort: Beim Ausfall des Kommunikationspfades oder des Zielsys­ tems kann weiter auf dem primären System gearbeitet wer­ den. Sobald der Link wieder zur Verfügung steht, werden die in dieser Zeit geänderten Blocks nachträglich resynchro­ nisiert. Mandatory: Beim Ausfall des Kommunikationspfades oder des Zielsys­ tems sind keine Schreibzugriffe mehr auf dem primären

Energieverbrauch traditioneller Systeme mit FC-Disks vs. XIV

System möglich. Diese Art der Implementierung erfordert besondere Sorgfalt bei der Planung des gesamten SANs.

Auch andere Eigenschaften der XIV-Architektur helfen, den

Alle Komponenten (Fabrics, Links, Switche etc.) sollten

Energieverbrauch zu senken:

redundant ausgelegt sein. Physikalische Kapazität wird nur „verbraucht“, wenn die Spiegel können pro Volume angelegt werden und es können

Anwendung tatsächlich Daten schreibt, jedoch noch nicht

mehrere Ziel-Volumes definiert werden.

beim Anlegen eines Volumes. Das Thin Provisioning erlaubt es somit, eine Überprovisionierung vorzunehmen, was bis

An einem Zielsystem angeschlossene Hosts können die

zu 30% weniger nicht genutzte Kapazität bedeutet.

Volumes zwar sehen, diese befinden sich aber im ‘read-only’Modus. Wird im Falle eines Disasters das sekundäre Zielsys­

Durch das gleichmäßige Verteilen der Daten eines Volumes

tem zum primären System, können die Volumes beschrieben

auf alle Disks im System entstehen keine ungenutzten „Rest­

werden. Die Volumes des ehemals primären Systems werden

stücke“, die häufig dann entstehen, wenn verschiedene

nun zu sekundären Volumes und sind für diesen Zeitraum

RAID-Arrays für verschiedene Zwecke konfiguriert werden

nur lesbar (read-only).

bzw. Volumes auf verschiedene Arrays verteilt werden müssen.

Energieverbrauch

Management

Durch die GRID-Architektur und die beschriebenen I/O-

Das einfache Management von XIV-Systemen macht deren

Load-Balancing-Mechanismen können selbst für sehr hohe

große Stärke aus. Aufgrund des beschriebenen dyna­

Performance-Anforderungen Disks mit hoher Speicherdichte

mischen und autonomen Verteilungsverfahrens der Daten

und SATA-II-Technologie verwendet werden. Um eine ent­

auf alle Volumes entfällt beispielsweise vollständig die

sprechende Performance zu erreichen, müssen traditionelle

Planung hierfür. Bei traditionellen Systemen ist hier oft eine

Systeme FC-Disks verwenden, die nicht nur wesentlich

aufwendige Planung und Vorarbeit erforderlich, um für die

teurer sind, sondern vor allem mehr Energie verbrauchen,

verschiedenen Anwendungen eine optimale Performance

weil sie erstens schneller drehen und zweitens für die gleiche

und Verfügbarkeit zu gewährleisten. Ferner müssten die Ein­

Kapazität mehr Disks benötigt werden.

stellungen bei Systemveränderungen nachgezogen werden, was wiederum arbeitsintensiv ist. All diese Dinge entfallen

Ein vollständig ausgebautes XIV-Rack mit 180 Disks und

bei XIV-Systemen vollständig. Gleiches gilt auch für die

einer Bruttokapazität von 180 TB hat einen Energieverbrauch

Platzierung von Snapshots. Auch hier sind keine besonderen

von 7,7 kW. Dies entspricht einem Verbrauch von 43 W pro

Vorkehrungen zu treffen.

TB Datenvolumen. Traditionelle Storage Systeme mit 146-GBFC-Disks haben einen Verbrauch von 180–380 W pro TB.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

103

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

Benutzerschnittstellen

Statistikdaten

Das Management von XIV-Systemen ist über drei Wege

Neben den regulären Administrationsaufgaben können auch

möglich:

Statistikdaten über die genannten Benutzerschnittstellen abgerufen werden. Das System speichert die Performance-

Eine grafische Benutzeroberfläche (GUI). Diese ist intuitiv

Daten eines Jahres. So können beispielsweise I/Os pro

bedienbar, die vollständige Administration eines XIV-

Sekunde oder Durchsatzzahlen in MB/s aus jedem Zeitfens­ter

Systems ist in wenigen Stunden erlernbar. Geübte Storage-

innerhalb der letzten 12 Monate abgerufen und genauer

Administratoren kommen häufig sofort ohne Vorbereitung

untersucht werden. Bei der Ausgabe kann z. B. gefiltert

zurecht. Eine Demo für grafische Benutzeroberflächen

werden auf:

befindet sich auf der XIV-Web-Seite: http://www.xivstorage.com/demo/GUI_Demo.html

•• Interfaces •• Hosts

Ein Kommandozeileninterface (CLI). Hier können alle admi­

•• Volumes

nistrativen Aufgaben per Kommandozeile eingegeben oder

•• Targets

durch Skripte automatisiert werden.

•• Cache Hit/Miss-Raten •• Read, Write oder Read/Write

SMI-S-konforme-Storage-Management Werkzeuge: StorageTools, wie z. B. das Tivoli Productivity Center, können

und vieles mehr. Selbstverständlich können diese Daten

­verwendet werden, um XIV-Systeme zu administrieren.

über das CLI auch zur Weiterverarbeitung in andere Tools exportiert werden.

Ansicht Statistikdaten über die GUI

104

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Interoperabilität

Allgemein zeichnen sich die Modelle durch eine geringe

XIV-Systeme können an allen gängigen offenen Systemen

Bauhöhe von nur 2U aus sowie eine Skalierbarkeit von bis

betrieben werden, die iSCSI und/oder FibreChannel-Spei­

zu 48 Festplatten. In der Kopfeinheit können bis zu 12 Fest­

chersysteme unterstützen. Dazu gehören z. B. AIX, Solaris,

platten untergebracht werden. Der Controller und damit das

HP-UX, Linux und die verschiedenen Windows-Varianten.

Gesamtsystem ist über die Erweiterungseinheiten EXP3000

Auch gängige Cluster-Lösungen unterstützen die XIV-Sto­

(bis zu 3 weiteren Einheiten) ausbaubar.

rage Systeme. Seitens der Betriebssysteme hat die DS3000-Familie eine Release XIV Storage System Software Version 10.2

geringeres Portfolio an anschließbaren Betriebssystemen.

Im November 2009 kündigt IBM für XIV den Release 10.2

Hier werden die Systeme Windows, Linux und Novell

an, der folgende Erweiterungen einführt:

standardmäßig angeboten. Zusätzlich bietet die Maschine je nach Modell die Anschlussmöglichkeit von VMware, SVC

Asynchrones Spiegeln von XIV-Volumes und Consistency

(San Volume Controller) oder AIX.

Groups und die Unterstützung des Thin Provisioning Space Reclamation Features der Veritas Storage Foundation. DS3000 Platten Entry System Im Februar 2007 überraschte IBM den Markt mit der Ankün­ digung eines Entry-Plattensystems, der DS3000. Das System wird wie die DS4000-Reihe von der Firma LSI gebaut und als IBM Logo-Produkt vertrieben. Am Anfang war das System nur über den Vertriebskanal IBM System x beziehbar. Als die ersten Performance Benchmarks ergaben, in welche ansehnliche Leistungsklasse die Maschine ­skaliert, wurde das System im April 2007 in den gesamten Storage-Vertrieb der IBM integriert. Rück- und Frontansicht der DS3000

Die DS3000-Familie zeichnet sich im Allgemeinen durch ein hervorragendes Preis-Leistungs-Verhältnis aus und bietet

Jedes Modell besitzt einen Ethernet-Zugang für das

einen extrem günstigen Einstiegspreis. Es stehen drei

Management. Zusätzlich kann die Maschine auch über die

Modelle zur Verfügung.

Host Connectivity administriert werden. Mit 512 MB Ram pro Controller steht ausreichend Speicher für das Caching

Die DS3200 zeichnet sich durch 6 SAS-Hostanschlüsse aus.

zur Verfügung. Dieser Speicher kann mit weiteren 512 MB

Die DS3300 zeichnet sich durch maximal 4 x 1 Gbit Ether­

pro Controller erweitert werden. Dies ergibt eine maximale

net iSCSI-Hostanschlüsse aus. Die DS3400 zeichnet sich

Cache-Größe von 2 GB pro System.

durch maximal 4 FibreChannel-Ports aus, die in den Geschwindigkeiten 4, 2 und 1 Gbps arbeiten können. Die

Trotz „Entrysystem“ wird bei der DS3000 auf redundante

Platten- und Backend-Technologie ist in allen drei Modellen

Komponenten nicht verzichtet. Die DS3000 hat auch bei

SAS mit der Möglichkeit, auch SATA-Platten anzubinden.

einer Single-Controller-Variante redundant ausgelegte Lüfter

Anfangs standen ausschließlich 300-GB-SAS-Platten (Serial

und Netzteile.

Attached SCSI) zur Verfügung bei einer maximalen ausbau­ baren Kapazität von bis zu 14,4 TB. Seit Oktober 2007 können

Der DS3000 Storage Manager ist analog zum DS4000

auch 750-GB-SATA-Platten integriert werden. Damit skalie­

Manager ebenfalls intuitiv zu bedienen und leicht zu instal­

ren die Systeme auf eine maximale Kapazität von 35,2 TB.

lieren. Der initiale Setup der Maschine erfolgt in 6 Dialog-

Der Mischbetrieb von SAS-Platten und SATA-Platten wurde

geführten Schritten und sollte innerhalb von 45 Minuten voll­

sichergestellt.

zogen sein, d. h., nach spätestens 45 Minuten sind die

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

105

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

Positionierung der Entry Systeme DS3000 zu den bestehenden DS4000-Systemen (P= Performance, F=Funktionalität)

ersten Volumes den angeschlossenen Servern bekannt­

Für die DS3300 steht ein neues Modell 32T zur Verfügung,

gegeben. Der DS3000 Storage Manager unterstützt die

das speziell für Telco-Umgebungen ein 48 V basierendes

RAID-Level 0, 1, 3, 5 und 10.

doppeltes Netzteil auf Gleichstrombasis in der ControllerEinheit integriert hat (iSCSI DC-Powered Controller). Damit

Durch den Recovery Guru und durch automatische Benach­

kann die DS3300-32T problemlos in Telco-Umgebungen ein­

richtigungen erhält man proaktiv, auch schon vor Crash-

gesetzt werden.

Situationen, Meldungen über eventuelle Fehler oder ­Überschreitungen von Schwellwerten. Die Benachrichtigung

DS5000 Plattensysteme

erfolgt über SNMP und / oder per E-Mail.

Der August 2008 stand ganz im Zeichen der Ankündigung des neuen Midrange ‘Flagship’ DS5000, die das Produkt­

106

Im Februar 2008 kündigte IBM für alle drei DS3000-Modelle

portfolio nach oben abrunden sollte. Das bewährte Hard­

1.000 GB (1 TB) SATA-Platten an. Damit bekommt das

ware-Design mit der austauschbaren Midplane der DS4800

Entry-System DS3000 als erstes Plattensystem der IBM die

übernehmend, wurde das System mit einigen weiteren

Möglichkeit, Platten mit 1 TB an Kapazität zu verwenden. Mit

Funktionen ausgestattet. So lassen sich bei der aus zwei

diesen Platten kann jede Erweiterungseinheit mit 12 TB

Produkten bestehenden DS5000-Familie (DS5100 und

­Plattenplatz konfiguriert werden. Das Gesamtsystem,

DS5300) die Host-Schnittstellen-Karten (kurz HIC, Host

­bestehend aus Kopfeinheit und drei Erweiterungseinheiten,

Interface Cards) modular austauschen. Dem Anwender steht

liefert mit den 1 TB SATA-Platten eine maximale Kapazität

die Anschlussmöglichkeit über 1 GBit iSCSI, wahlweise

von 48 TB aus.

auch über 4 Gbit oder 8 Gbit FC zur Verfügung.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Ebenso wurde die kapazitive Skalierbarkeit von bisher 224

erhalten. Hierbei wird der Controller selber über eine

Platten bei der DS4800 auf 448 Platten angehoben. Damit

­Batterie bei einem Stromausfall so lange betrieben, bis der

einhergehend wurden die Anzahl der Disk-Backend-Kanäle

Cache-Inhalt auf den permanenten Speicher verlagert

auf sechzehn 4-Gbit-FC-Kanäle verdoppelt.

wurde. Danach wird die DS5000 ordentlich herunterge­ fahren.

Beim Design der Storage Controller wurde hier wieder Augenmerk auf die lineare Skalierbarkeit bis zur letzten

Für das Cache Mirroring bei der DS5000 stehen jetzt

Platte gelegt. Die RAID-Berechnung erfolgt über einen eige­

dedizierte Kanäle zur Verfügung, um die gesamte interne

nen ASIC. Diese beiden Eigenschaften sorgen für eine her­

Bandbreite des Systems ohne Einschränkungen nutzen zu

vorragende Leistung im Bereich von Transaktionen und

können.

Datendurchsatz. Beides wird eindrucksvoll durch die SPC-1und SPC-2-Tests belegt (www.storageperformance.org).

Funktionell wurde die DS5000 gegenüber dem Vorgänger DS4800 um Raid6 erweitert. Das verwendete Raid-Verfahren

Eine Neuerung gegenüber allen anderen Midrange-Pro­

ist dabei P+Q Raid6, ein Industriestandard, der gemeinsam

dukten im IBM Portfolio stellt eine Veränderung des Cache-

mit Intel entwickelt wurde.

Schutzes dar. Während bei allen Vorgängermodellen im Falle eines Stromausfalls der Cache über eine Backup-Batterie bis zu 72 Stunden gestützt wurde, wird der Cache-Inhalt bei der DS5000 mit Hilfe von Flash-Memory-Bausteinen aufrecht

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

107

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

•• Solid State Disk Drives (SSD): Im Herbst 2009 angekündigt, wird die Möglichkeit hinzugefügt, bis zu 20 SSD-Laufwerke in einer DS5000 zu betreiben. Im Gegensatz zu einer herkömmlichen Platte (Abbildung), verfügt die SSD über keine rotierenden bzw. sich bewegenden Bauteile. Hierdurch entfällt die Rotationslatenz, sodass gerade im Bereich der Transaktionen eine deutliche Verbesserung erzielt werden kann. Als typischer Anwendungsbereich können hier die Log-Bereiche einer Datenbank angesehen werden. Zum Zeitpunkt der Ankündigung stand die SSD in der Größe von 73 GB zur Verfügung. Herkömmliche Platte

•• High Density Enclosure EXP5060: Neben der 16 Platten

SSD Drive

fassenden Erweiterungseinheit EXP5000 und EXP810 Im Jahr 2009 erfolgten dann Schritt für Schritt weitere Funk­

steht mit der Ankündigung der EXP5060 eine 60 SATA-

tionserweiterungen der DS5000-Familie:

Platten fassende 4U Expansion Unit zur Verfügung. Diese bietet, verteilt über 5 Schubladen, eine hohe Kapazität

•• Full Disk Encryption Drive (FDE): Hierbei handelt es sich

(60 1TB-SATA-Platten) und sehr geringen Platzbedarf. Um

um eine FC-Platte, die in der Lage, ist darauf befindliche

die benötigte Performance zu gewährleisten, ist bei der

Daten über einen auf den Disks befindlichen Key zu ver-

EXP5060 erstmals möglich, ein Trunking von mehreren FC-

schlüsseln. Die Freischaltung der Verschlüsselung erfolgt

Backend-Kanälen der DS5000 zu nutzen. Mit der EXP5060

über einen weiteren, auf dem Speichersystem vorgehal-

soll primär der HPC- (High Performance Computing) und

tenen Key. So ist sichergestellt, dass die Daten bei dem

Archivierungsmarkt adressiert werden.

Entfernen einer FDE-Platte nicht lesbar sind und damit die darauf befindlichen Daten gegen unberechtigten Zugriff geschützt sind. Eine Funktion, die gerade bei der Speicherung von personen- bzw. kundenbezogenen Daten die Datensicherheit erhöht. •• Anschluss System I: System I konnte auch zuvor über einen VIOS angeschlossen werden, mit der Ankündigung im Herbst 2009 kam dann aber die Möglichkeit, System I native an eine DS5000 anzuschließen, hinzu. Dies ist eine Funktion, auf die viele Anwender von System I lange gewartet haben. Diese Eigenschaft in Kombination mit der gleichzeitigen Möglichkeit, bis zu 64 GB Cache zu unterstützen, gewährleistet die für die Anwendungen von System I so wichtige Response- und Servicezeit.

108

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Ankündigung DS5020 – das Ende der DS4000-Ära

iSCSI zur Verfügung. Beide Protokolle können parallel auf

Mitte 2009 galt es, einen Nachfolger für die DS4700 zu

einem Controller betrieben werden und ermöglichen ein ent­

finden. Zum Ankündigungstermin 25.08.2009 wurde dann

sprechendes ‘SAN Tiering’.

schließlich die DS5020 vorgestellt. Wie alle Mitglieder der DS4000/DS5000-Familie unterstützt Die DS5020 verfügt, ebenso wie ihr Vorgänger DS4700,

die DS5020 eine Vielzahl von Zusatzfunktionen wie:

über die Ausbaufähigkeit bis zu 112 Disks, die über mehrere 4-Gbit-Kanäle angeschlossen werden. Als Disktypen stehen

•• Storage-Partitionen

Standard FibreChannel, FDE FibreChannel und SATA-Platten

•• FlashCopy

zur Auswahl. Alle Plattentypen können nebeneinander in der­

•• VolumeCopy

selben Expansionseinheit betrieben werden.

•• RemoteVolume Mirroring. •• Disk Encrypton etc.

Um den Anforderungen vor allem von virtualisierten Umge­ bungen Rechnung zu tragen, wurde bei der Controller-Ent­

Daten aus bestehenden DS4000-Systemen können direkt

wicklung ein besonderes Augenmerk auf eine ausgewogene

auf neue DS5000-Systeme, z. B. durch Remote VolumeMirro­

Leistung gelegt. Auf der einen Seite steht eine hervorra­

ring oder in manchen Konstellationen auch durch physische

gende Performance bei Transaktionen, die einen maximalen

Migration der Festplattengruppen übernommen werden.

Ausbau sinnvoll erscheinen lässt, und auf der anderen Seite liefert das System sehr beeindruckende Durchsatzergeb­

Nach der Ankündigung der DS5020 wird die DS4700 bis

nisse. Beide Werte wurden in entsprechenden SPC-1- und

Ende 2009 verfügbar bleiben. Danach wird das Kapitel der

SPC-2-Tests dokumentiert. Der mit Flash Memory abgesi­

DS4000-Storagesysteme geschlossen.

cherte Datencache ist bis auf 4 GByte erweiterbar. Um eine für den Betrieb so wichtige Integration der Applika­ Eine weitere Besonderheit ist die Möglichkeit, im FrontEnd,

tionen und deren Betriebssystemplattformen zu gewährleis­ten,

also im Anschluss der Server verschiedene Protokolle zu

begleiteten beide Ankündigungen (DS5000 und DS5020)

nutzen. Hier stehen 4/8 Gbit FibreChannel und auch 1 Gbit

eine Vielzahl von Lösungsangeboten.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

109

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

Hier seien exemplarisch genannt:

Für die gesamte Systemfamilie steht auch eine vollständige Integration in die IBM Virtualisierungslösung SVC (SAN

•• Integration in VMware vCenter über ein PlugIn

Volume Controller) zur Verfügung.

•• Unterstützung von VSS/VDS •• SMI-S-Integration •• Oracle Enterprise Manager PlugIn •• Lösungsangebot für DeDuplikation Lösungen (ProtecTier) •• TSM FlashCopy Manager •• Backup Integration wie z. B. mit FastBack •• Integration in das System Storage Productivity Center (SSPC)

110

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Virtualisierung

sungen ihre installierten Speicherkapazitäten schlecht aus. Weltweite Kundenumfragen ergaben, dass die effektive Nut­

SAN Volume Controller SVC – Virtualisierung von Plattensystemen

zung bei etwa 50% liegt. Auch beim Austausch von Speicher­

im SAN-Umfeld

systemen im Rahmen von Business-Continuity-Maßnahmen

Die ersten Geräte des SAN Volume Controllers SVC waren

war hoher Aufwand notwendig, und zumeist wurde der

im September 2003 verfügbar und sind in der Epoche der

Anwendungsbetrieb für die gesamte Migrationsdauer unter­

Multiplattform-Systeme und des FibreChannel SAN und NAS

brochen. Der IBM SAN Volume Controller (SVC) erleichert

beschrieben. Die Konzeption des SVC und die dazugehörige

dies erheblich, indem er Migrationen bei laufendem

Software wurde über die Jahre kontinuierlich weiterentwickelt

Betrieb ermöglicht.

und der heutige Produktplan des SVC sieht für die nächsten Jahre viele neue Erweiterungen bezüglich der Hardware

Eine Speichervirtualisierung mit IBM SVC bietet gegenüber

und Software vor. Deshalb ist es notwendig, die Konzeption

traditionellen Speicherlösungen den Vorteil, dass Speicher-

und den SVC selbst besser zu verstehen.

platz weitgehend herstellerunabhängig zugeordnet wer­ den kann. Hieraus folgt eine einfachere Administration, da

Die Administration von Speicherkapazitäten stellt nach wie vor

sich die virtuelle Oberfläche unabhängig von den jeweils

einen hohen Anteil der IT-Kosten dar. Virtualisierte Speicher­

installierten Speichersystemen konfigurieren lässt. Die Grund­

landschaften bieten hier eine mögliche Lösung, indem sie

idee besteht darin, schnell und flexibel Plattenspeicher dort

Speichersysteme sowohl unterschiedlicher Bauarten und

zuordnen zu können, wo gerade Bedarf entsteht. Dem stand

Hersteller gemeinsam verwalten und flexibel den Servern

bisher im Wege, dass am SAN angeschlossene Server nur

zuweisen können. Eine Speichervirtualisierung mit dem SAN

Zugriff auf die ihnen zugeordneten Speicherbereiche hatten.

Volume Controller begegnet diesen Herausforderungen mit

Eine virtualisierte Speicherlösung wie der SVC löst dieses

einer skalierbaren Architektur. Viel Aufwand haben viele Unter­

starre Muster auf, da die Server hier nur noch Zugriff auf vir­

nehmen in den letzten Jahren betrieben, um sich von einer

tuelle Speicherbereiche haben. Die SVC-Software entschei­

dezentralen Speicherlandschaft mit direkt angeschlossenem

det nach entsprechenden Vorgaben, wo die Daten physisch

Speicher (Direct Attached Storage, DAS) hin zu einer zen­

abgelegt werden. Dabei bietet die Lösung Schnittstellen zu

tralen Speicherlösung mit einem Storage Area Network (SAN)

allen marktüblichen Betriebssystemen, Hardwareplattformen

zu entwickeln. Wohl existieren Storage Area Networks nicht

und Speichersystemen und ermöglicht ein Management

flächendeckend, vielfach bilden sie aber bereits den Stan­

über eine zentrale Konsole.

dard. In der jetzigen Phase geht es darum, sowohl Server­ umgebungen als auch Speichersysteme weitgehend zu vir­

Einige wichtige Hardwarefunktionen verbleiben nach wie vor

tualisieren. Die derzeit existierenden SAN-Lösungen sind oft

im Speichersystem und sind unabhängig vom SVC. So wer­

recht starre Umgebungen und bilden meist Einzellösungen

den die Systeme vor dem Anschluss an den SVC wie in der

für Plattformen bestimmter Hersteller und Fachbereiche. Folg­

Vergangenheit eingerichtet. Es werden RAID-Arrays und

lich sind Änderungen aufwendig und unterbrechen meist den

anschließend die LUNs (Logical Units) gebildet. Dies erfolgt

Anwendungsbetrieb. Falls ein IT-Betreiber unterschiedliche

im Zuge der Installation mittels der vom Hersteller mitgelie­

Speichersysteme – unter Umständen mehrerer Hersteller –

ferten Administrierungssoftware. Die so definierten LUNs

installiert hat, benötigt er jeweils unterschiedliche Adminis­

werden dann dem SVC zugeteilt, der sie in sogenannte

trations-Tools. Auch ist die hardwarebasierende Datenspiege­

‘Managed Disks’ (MD) umwandelt. Eine MD hat eine feste

lung zwischen Speichersystemen unterschiedlicher Bauart

Größe und ist nicht mehr veränderbar. Danach werden eine

nicht möglich, das Gleiche gilt für Speichersysteme unter­

oder mehrere MDs in sogenannte ‘Managed Disk Groups’

schiedlicher Hersteller.

zusammengefasst. Für die angeschlossenen Server werden im SVC virtuelle LUNs definiert, worauf der jeweilige Server

Administrationsarbeiten geraten damit sehr aufwendig, weil

zugreift. Die Definition legt auch fest, welcher Managed Disk

Plattformwissen und die zugehörige Pflege gleich mannig­

Group die virtuelle LUN zugeordnet wird. Dies bestimmt, wo

fach vorzuhalten ist. Weiterhin lasten heutige Speicherlö­

letztlich die Daten physisch abgelegt werden.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

111

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

Einfache Datenmigration

Insgesamt stellt der SVC eine vollständige Appliance-Lösung

Eine Datenmigration von LUNs zwischen unterschiedlichen

dar, die Hardware, Software und Managementkonsole bein­

Speichersystemen führt der SVC im laufenden Arbeitsbe­

haltet. Jeder der zwei zu einem sogenannten Node-Paar

trieb durch. Verliert eine Applikation, deren Daten sich bei­

gehörigen IBM System x-Server ist mit einem 2-Prozessor­

spielsweise auf einem High-Performance-Speicher befinden,

system mit 2 x 2,4-GHz-Intel-Prozessoren ausgestattet, hat

für das Unternehmen an Priorität – etwa aufgrund hoher

8 GB Cache und vier 4-Gbit/s-FibreChannel-Ports (2145-

Betriebskosten für den Fachbereich, lassen sich deren

8G4). Diese neuen Prozessoren stehen seit Mai 2007 zur

Daten online auf günstigere Low-Performance-Speicher

Verfügung und erhöhen die Leistungsfähigkeit von 160. 000

migrieren. Dies erfolgt durch eine Änderung der Zuordnung

I/Os auf bis zu 276 .000 I/Os. Über die Managementkonsole

einer virtuellen LUN zur Managed Disk Group.

können alle Administrationen ausgeführt und im Fehlerfall auch notwendige Analysedaten ausgelesen werden. Enthal­

Neben der Datenmigration zum Speichersystemaustausch

ten sind auch zwei Komponenten zur unterbrechungsfreien,

können nun auch Pflegearbeiten während der Arbeitszeit

batteriegepufferten Stromversorgung (UPS).

stattfinden. Speicherinhalte der Subsysteme lassen sich im laufenden Betrieb auf andere, freie Bereiche eines anderen

Die Implementierung des SVC vollzieht sich wie bei anderen

Subsystems verlagern. Alle Datenverlagerungen finden

Geräten, die neu ins SAN eingebunden werden. Anpas­

unter Kontrolle des Speicheradministrators statt und müssen

sungen im SAN-Zoning und die Zuweisungen der Daten­

von diesem eingeleitet werden. Der SVC bietet hierbei keine

pfade dürften für einen erfahrenen SAN-Administrator nichts

regelbasierte Datenverschiebungen aufgrund von Zugriffs­

Neues bedeuten. Zur Datenaufnahme in der virtuellen

häufigkeiten an. Dies können Analyse-Tools übernehmen, die

Ebene führt der Administrator zunächst einen Imagemode

etwa im IBM Total Storage Productivity Center eingebettet

mit jeder einzelnen LUN durch. Dies bedeutet, dass die bis­

sind. Es bietet ein komplettes SAN-Management inklusive

herigen LUNs eines Servers dem SVC zugeordnet und von

Speicherplatz- und Zugriffsanalysen und kann regelbasierte

hier als virtuelle LUN an den jeweiligen Server weiterge­

Kopiervorgänge in einem hierarchischen Speichersystem

reicht werden. Im nächsten Schritt können diese LUNs einer

(HSM) anstoßen. Dabei lassen sich alle IBM Speicherpro­

anderen ‘Managed Disk Group’ zugeordnet werden. Das hat

dukte, wie auch Tape Libraries, integrieren. Eine Virtualisie­

zur Folge, dass die Daten auf die dieser Gruppe zugeord­

rung von Tape Libraries mit dem IBM SVC ist allerdings

neten MDs verlagert werden. Dies erfolgt im laufenden

nicht möglich.

Betrieb und ist für den jeweiligen Server transparent.

SVC-Redundanz Der redundante Aufbau des SVC stellt eine höchstmögliche Verfügbarkeit der Speicherumgebung sicher. Die LinuxCluster-Lösung besteht aus mindestens zwei IBM System xServern. Alle kritischen Elemente sind doppelt ausgelegt, was das Risiko von Systemausfällen weitgehend minimiert. In jedem der zum Cluster gehörigen Server läuft ein LinuxKernel, das von IBM auf Virtualisierungsbedürfnisse ange­ passt wurde und nicht von außen modifizierbar ist. Notwen­ dige Veränderungen werden wie ein Firmware-Update behandelt, das der Kunde selbst oder ein Dienstleister durchführt. Die Virtualisierungssoftware läuft genau wie opti­ onale Copy-Service-Routinen unter Kontrolle dieses Linux-

SAN Volume Controller SVC: 3 Knoten im Cluster

Kernels.

112

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Ein Highlight beim SAN Volume Controller besteht in der

SVC Standortübergreifende Spiegelungen

hohen Performance. Der SVC erfüllt alle Skalierungsanfor­

Eine hardwarebasierende Datenspiegelung (synchron oder

derungen, indem ein Cluster heute auf bis zu acht Knoten

asynchron) als typische Funktion zur Erfüllung von Business-

erweitert werden kann. Falls ein Cluster mit einem Node-

Continuity-Vorgaben ist normalerweise herstellerübergreifend

Paar an Performance- oder Kapazitätsgrenzen stößt, ist im

nicht möglich. Der SVC führt eine Datenspiegelung in der

laufenden Betrieb eine Erweiterung um jeweils ein weiteres

Virtualisierungsschicht durch. In einer virtualisierten Speicher­

Node-Paar (bis zu einem Maximum von vier Node-Paaren

umgebung ist damit die Datenspiegelung nun auch zwischen

pro Cluster) möglich. Jeder Knoten des IBM SVC hat einen

Systemen unterschiedlicher Bauart und Hersteller möglich.

8 GB großen Hauptspeicher, der fast vollständig als Cache

Im Desasterfall lässt sich schnell vom primären auf den

genutzt wird. Bei bis zu acht Nodes pro Cluster ergibt sich

sekundären Speicher umschalten. Dies erfordert in der Regel

somit eine Cache-Größe von bis zu 64 GB. Die Nutzung

einen Eingriff durch den Administrator, was durch vorher

des Cache im IBM SVC bringt Performance-Vorteile gegen­

erstellte Skripts unterstützt oder automatisiert werden kann.

über traditionellen Speicherlösungen, da sämtliche Speicher­ zugriffe gegen den Cache des SVC laufen. Damit verliert die

SVC Spiegelungsoptionen

Performance der angeschlossenen Speichersysteme an

Insgesamt laufen beim SVC alle Spiegelungsaktivitäten

Bedeutung, weil ein Großteil der I/Os durch den vorgeschal­

zwischen verteilten Standorten zumeist über Glasfaser ab.

teten Cache des SVC bedient wird.

Bei großen Entfernungen können SAN-Router zum Einsatz kommen, die auf der einen Seite das FC-Protokoll in ein IP-

Damit erfüllt der IBM SAN Volume Controller alle Performance-

Proto­koll und auf der Gegenseite wieder in ein FC-Protokoll

Anforderungen von marktgängigen Systemen. Unterstrichen

umwan­deln. Alternativ bieten einige Hersteller hierfür auch

wird dies vom SPC-Benchmark-Test (Storage Performance

die DWDM- (Dense Wave Division Multiplexing) oder

Council) der gleichnamigen Herstellervereinigung, den alle

CWDM-Technologie (Coarse Wave Division Multiplexing) an.

Anbieter von Speichersystemen freiwillig durchführen können.

Mit diesen Geräten ist eine Bündelung von verschiedenen Protokollen (etwa IP, FC, FICON, ESCON) auf die Mindest­ zahl von physischen Verbindungen (in der Regel Dark Fibre) möglich.

Diese Grafik beschreibt eindrucksvoll die nahezu lineare Skalierung eines SVC Clusters von 2 Knoten über 4, 6 bis 8 Knoten. Es waren bei diesen Tests 1536 15K RPM Laufwerke in RAID10 notwendig, um einen 8 Knoten SVC in die Sättigung zu bringen. Damit hält der SVC den Rekord im SPC-1 Benchmark. Die Benchmark Ergebnisse können unter www.storageperformance.org abgerufen werden.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

113

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

SVC Kopierfunktionen (FlashCopies)

Space Efficient Virtual Disk (SEV)

FlashCopies eignen sich zur Backup-Unterstützung von

Space Efficient Vdisk ist nichts anderes als ”Thin Provisio­

Datenbanken und Filesystemen. Ein FlashCopy wird als

ning” oder ”Storage Overallocation”.

Point-in-Time Copy ausgeführt und erzeugt im Moment seiner Aktivierung eine Festplatte, die eine exakte Kopie der Quell­

Anwender können virtuelle Disks erzeugen, die eine unter­

festplatte zum Startzeitpunkt ist.

schiedliche reale und virtuelle Kapazität haben. Die reale Kapazität definiert, wie viel physische Kapazität tatsächlich

Mit dem Software Release SVC Version 4.2, das im Mai

durch eine Vdisk verwendet wird. Die virtuelle Kapazität

2007 zur Verfügung gestellt wurde, kam die neue Funktion

definiert, wie groß die virtuelle Disk den angeschlossenen

Multi Target FlashCopy hinzu, die es erlaubt, 16 Kopien

Servern gegenüber erscheint.

einer Festplatte zu erzeugen, d. h., von einer Source 16 Targets abzubilden.

Eine SEV unterscheidet sich nur minimal von normalen Disks und kann wie eine normale Disk vergrößert oder ver­

Mit dem Software Release SVC Version 4.2.1 vom Okto-

kleinert werden. Sie wird wie andere non SEV Disks aus

ber 2007 kündigte IBM die Funktion des Incremental

jedem beliebigen Pool erzeugt. Die Umwandlung zwischen

FlashCopy und des Cascaded FlashCopy an. Incremental

SEV und NON SEV wird über Vdisk Mirroring durchgeführt.

bedeutet, dass eine bestehende FlashCopy auf den aktuellen

SEVs helfen Platz einzusparen von allokierter, aber nicht

Stand gehoben werden kann. Es werden dann nur die bis

genutzter Kapazität. Das Einsparungspotenzial hängt von

dahin angefallenen Änderungen der Ursprungsfestplatte

der Betriebssystem-Umgebung und der Anwendung ab (in

kopiert. Cascaded bedeutet, dass man auch von der Kopie

Windows-Umgebungen oft über 50%). SEVs verbessern

weitere Kopien erzeugen kann. Das ist insbesondere dann

den Ausnutzungsgrad der physischen Disks zusätzlich

wichtig, wenn man eine inkrementelle FlashCopy speichern

(neben dem schon vom Pooling-Konzept der Disk- und

möchte, bevor man sie fortführt. In Summe können bis zu 16

Spare-Kapazität herrührenden Potenzial). SEV ist die Basis

Kopien einer Ursprungsfestplatte erzeugt werden. Konsis­

für Space Efficient FlashCopy.

tenzgruppen werden in allen Modi unterstützt. Space Efficient FlashCopy (auch als SnapShot bekannt) Die Version SVC Version 4.2.1 bietet zudem die Möglichkeit,

Space Efficient FlashCopy funktioniert wie Standard Flash­

Copy-Service-Kapazitäten von 256 TB per I/O-Gruppe auf

Copy mit dem Unterschied, dass das FlashCopy Target eine

1.024 TB zu steigern, und eröffnet jetzt die Möglichkeit, eine

Space Efficient Vdisk ist. Damit wird für den FlashCopy nur

maximale Kapazität von 8 PetaByte (vorher war es nur 2 PB)

so viel Platz allokiert, wie aktuell benötigt wird.

per SVC-Cluster abzubilden. Virtual Disk Mirroring Im Mai 2008 kündigt IBM den SVC Release 4.3 mit Verfüg­

Vdisk Mirroring kann man sich wie einen internen LVM

barkeit im Juni 2008 an. Der Release 4.3 enthält viele

(Logical Volume Manager) in einer AIX-Umgebung vorstellen.

Erweiterungen und neue Funktionen, die im Folgenden

Vdisk Mirroring stellt eine neue Vdisk-Konfiguration dar, bei

beschrieben sind.

der eine ‘gespiegelte Vdisk’ zeitgleich auf zwei unter­ schiedliche Mdisk-Sets geschrieben wird, die normalerweise auf zwei unterschiedlichen Disk-Systemen liegen. Der SVC hält beide Kopien synchron. Im Versagensfall eines Spei­

114

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

chersystems hat das keinen Einfluss auf die Verfügbarkeit einer gespiegelten Vdisk. Der Spiegel wird nach Wiederver­ fügbarkeit automatisch resynchronisiert. Spiegelkopien kön­ nen gesplittet werden und die Mdisks können in Disk Groups mit unterschiedlichen Extent Sizes liegen. Dabei können eine oder beide Kopien Space Efficient sein. Vdisk Mirroring kann zusammen mit den SVC Copy Services genutzt werden. Normalerweise werden SVC-Cluster in einem Rechenzen­ trum aufgebaut. Mit Vdisk Mirroring besteht die Möglichkeit, einen ‘Stretched SVC Cluster’ aufzubauen (RPQ notwendig), indem die Knotenpaare auf jeweils zwei Rechenzentren ver­ teilt werden. Die SVC-Knotenpaare werden dabei über Longwave FC im Switch verbunden. Distanzen von bis zu

Neue leistungsstarke SVCs mit Solid State Disks (SSDs)

10 km sind möglich.

mit SVC Release 5.1 Im Oktober 2009 kündigt IBM mit Verfügbarkeit November

Erhöhung der FlashCopy Target Volumes auf 256

2009 den SVC Release 5.1 an, der neben funktionalen

Für die Kapazität von FlashCopy gibt es nur noch zwei

Erweiterungen neue leistungsstärkere Prozessor-Hardware

Begrenzungen: Aus einem Source Volume können bis zu

beinhaltet. Das neue SVC Modell 2145 CF8 basiert auf dem

256 Target Volumes erzeugt werden und die maximale

IBM System x3550 M2-Server mit Intel Core i7 quad-core

Kapazität von allen Spiegelaktionen darf 1 PB nicht über­

2,4 GHz Prozessoren und leistet nahezu das Doppelte wie

schreiten. Es bestehen nun keine Einschränkungen mehr

der Vorgänger 2145 8G4. Die neuen Maschinen sind mit der

bezüglich der Vermischung von Copy-Aktionen.

dreifachen Cache-Größe von 24 GB ausgestattet und eine I/O-Gruppe bietet damit 48 GB als Cache-Speicher an.

Höhere Skalierbarkeit von Virtual Disks

Damit ergeben vier Knotenpaaren im Clusterverbund eine

Die Skalierbarkeit in der Anzahl an Virtual Disks wurde ver­

Cache-Größe von 192 GB. Jeder SVC-Knoten bietet zudem

doppelt und auf 8.192 Virtual Disks erhöht.

8 x 8 Gbps FC-Ports. Das heißt, im Maximalausbau mit vier Knotenpaaren im Cluster stehen 32 x 8 Gbps FC-Ports zur

SVC Entry Edition

Verfügung. Durch die schnelleren Prozessoren und die

Zeitgleich mit dem Release 4.3 stellt IBM auch eine kosten­

Verdreifachung des Caches gewinnt der SVC eine unge­

günstige Einstiegslösung, die SVC Entry Edition, zur Verfü­

wöhnlich hohe Leistungsfähigkeit. Per I/O-Gruppe, also per

gung. Diese Geräte basieren auf einem x3250 Server mit

Knoten, werden 120.000–140.000 IOPS möglich, im Vollaus­

einem Intel Xeon E3110 3,0 GHz 6 MB L2 Cache Dual-Core

bau also 480.000–540000 IOPS.

Prozessor. Wie das aktuelle Modell 8G4 haben die Entry Geräte 8 GB Cache und vier 4 Gbps FibreChannel-

Die neuen SVC Engines können mit eingebauten SSDs

Anschlüsse. Die SVC Entry Edition ist preislich um ca. 40%

(Solid State Disks) ausgestattet werden. Bis zu vier SSDs

günstiger positioniert und erreicht ca. 60 % des Durchsatzes

mit einer Kapazität von 146 GB können in eine Engine ein­

und der Leistungsfähigkeit des 8G4-Modells.

gebaut werden, per I/O-Gruppe also bis zu acht SSDs und damit einer SSD-Bruttokapazität von 1.168 GB per I/O Group. Dabei werden nur 600 GB genutzt, weil der Großteil der SSDs gespiegelt wird. Bei einer maximalen Konfiguration mit vier Knotenpaaren im Cluster stehen damit bis zu 2,4 TB an nutzbarer SSD-Kapazität zur Verfügung.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

115

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

iSCSI-Unterstützung

Multiples Cluster Mirroring erlaubt den Aufbau einer drei­

Die neuen SVC-Geräte können auch mit eingebauten Ether­

fachen Spiegelung. Vier SVC-Cluster bilden eine Mirror-

net-Ports ausgestattet werden und so direkt an iSCSI ange­

Gruppe. Jede Disk kann von jedem Cluster auf einen ande­

schlossen werden. Es werden dazu die vorhandenen LAN-

ren Cluster gespiegelt werden.

Ports des SVC verwendet. Installationsbasis Dezember 2009 Fällt ein Knoten des SVCs aus, wird die entsprechende IP-

Weltweit wurden bis zum Dezember 2009 über 17.000 SVC-

Adresse auf den anderen Knoten übernommen. Somit ist es

Knoten ausgeliefert. Diese Knoten sind in mehr als 5.000

nicht nötig, MPIO-Software für iSCSI auf dem Host zu instal­

SVC-Systemen im produktiven Einsatz.

lieren. Neue Funktionen Mit Release 5.1 stehen dem SVC neue Funktionen zur Ver­ fügung. Reverse FlashCopy erlaubt FlashCopy Targets als ‘Restore Point’ für die Source zu werden, ohne dass die FlashCopy-Beziehung aufgebrochen wird. Dabei werden multiple Targets und multiple ‘Roll Back Points’ unterstützt.

116

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Backup-Konzepte

Tapes sind austauschbare Datenträger, das heißt, sie können

Unabhängig von der jeweiligen Implementierung, ist die

in Sicherheitsräume ausgelagert werden oder zwischen

Bedeutung eines Backups von unternehmenskritischen Daten

unterschiedlichen Lokationen ausgetauscht werden. Tapes

unbestritten. Zu den klassischen drei Business-Faktoren

benötigen keinen Strom, wenn sie einmal beschrieben sind,

Mensch, Boden und Kapital hat sich in den letzten Jahren ein

und sind wesentlich länger haltbar (LTO als ECMA-Standard

weiterer Faktor geradezu aufgedrängt. Der Faktor Informa­

bis zu 30 Jahre). Neben überschreibbaren Kassetten stehen

tion. Informationen sind die Lebensader jedes Unternehmens

heute nahezu in allen Tape-Technologien auch WORM-Bänder

und die IT ist dazu da, den Bestand und die Weiterentwick­

(Write Once read Many) zur Verfügung, die sich besonders

lung dieser Lebensader zu sichern und zu unterstützen.

im Umfeld der Langzeitarchivierung einsetzen lassen.

Ein Backup ist eine Datenkopie an einem je nach Implemen­

Welche Alternativen stehen uns heute für ein sicheres Backup zur

tierung lokalen oder entfernten Ort. Eine solche Datenkopie

Verfügung?

schützt vor dem totalen Verlust bei menschlichen Fehlern,

Das klassische und traditionelle Backup beginnt mit einem

Hardware-Fehlern, Virusinfektionen und totalem Verlust einer

lokal an den Server angeschlossenen Bandlaufwerk. Bei

Lokation. Ein gut durchdachtes Backup-Konzept ist eine per­

mehreren Servern wird dies sehr schnell betreuungsintensiv

sönliche Versicherung für den Fortbestand der Arbeitsfähig­

und skaliert daher nur begrenzt. Der nächste Schritt dazu

keit und somit im Extremfall für den Fortbestand eines

wäre eine zentrale, LAN-basierte Datensicherung z. B. über

gesamten Unternehmens.

TSM und einen entsprechenden Backup-Server, bei dem Disk- oder Tape-Systeme direkt an die Server angeschlossen

Plattentechnologie vs. Bandtechnologie im Backup-Umfeld

werden. So können mehrere Server eine gemeinsame Band­

Eine Platte bietet direkten Zugriff und Vorteile beim Single File

sicherungs-Infrastruktur nutzen (z. B. eine Tape Library). Bei

Restore und Filesystem Restore. Ebenso bietet sich die Mög­

größeren Datenvolumen, z. B. bei DBs, bietet sich ein SAN-

lichkeit mit „multiple Streams“ auf der Platte zu arbeiten,

basiertes Backup an, das die hohen Daten-Transfermengen

umso die Backup-Zeitfenster zu reduzieren. Platten haben

vom lokalen Netzwerk (LAN) fernhält und so insbesondere

aber genauso Nachteile! Sie bieten keinen Vorteil bei großen

Vorteile bei der Geschwindigkeit und Zugriffsmöglichkeit rea­

File Backups oder Full Image Backups (hier ist das Tape

lisiert.

meis­tens wesentlich schneller). Platten können nicht bewegt, also nicht als bewegliche Datenträger eingesetzt werden, sie

Trotz der immensen Weiterentwicklungen im Tape Bereich,

benötigen Strom und kosten bei entsprechend hohen Kapazi­

immer kürzeren Zugriffszeiten mit höheren Schreibdurchsät­

täten mehr als Tape-Lösungen. Auch stellt sich die funda­

zen und Kapazitäten sind die Daten trotzdem nicht im dauer­

mentale Frage, welche Plattentypen setzt man für den

haften Zugriff (Online).

Backup ein? Sollen es ATA-, SATA-, FATA-, SAS- oder FCPlatten sein? Was ist das richtige Preis-Leistungs-Verhältnis in

Dies kann nur durch eine Diskspeicherinfrastruktur erreicht

Relation zur Zuverlässigkeit und Sicherheit?

werden. Vor dem Hintergrund des Preisverfalls bei Festplat­ tenlaufwerken, insbesondere bei den günstigen SATA-Platten

Tapes dagegen sind sequentielle ‘Streaming Devices’ und

(Serial ATA) ergeben sich mannigfaltige Möglichkeiten. Eine

heute in der Datenrate meistens schneller als Platten. Des­

Möglichkeit ist, das Backup-Konzept komplett von Tape auf

halb ist es in der Regel performanter, große Files oder große

Disk umzustellen. Dadurch wird eine hohe Verfügbarkeit und

Datenbanken direkt auf native Tapes wegzusichern. Tapes

Geschwindigkeit erreicht, jedoch ist es schwierig bis unmög­

sind ‘On Demand’, skalieren also in Performance und Kapa­

lich, die Daten physisch in eine entfernte Lokation zu bringen

zität, indem einer Tape Library entweder zusätzliche Lauf­

(Bergwerk, Bunker, Vault, Bank). Je nach Sensibilität der Daten

werke oder zusätzliche Kassetten zugeführt werden.

wird dies empfohlen bzw. ist z.T. Bestandteil von gesetzlichen Vorgaben. Zudem entstehen sehr hohe Energiekosten sowie zusätzliche Migrationsaufwände bei einer reinen Disklösung, die den Vorteil der vermeintlich günstigen Hardware-­ Investition schnell aufheben. Um die Vorteile beider

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

117

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

­Technologien nutzen zu können, setzt sich zunehmend die

Es gibt VTLs auf dem Markt, die keine Tape-Anbindung

­Kombination von Disk und Tape durch für ein schnelles,

haben. Da stellt sich diese Frage natürlich nicht! Allerdings

hochverfügbares und trotzdem sicheres Backup. Dies ist

ist von solchen Konzeptionen dringend abzuraten, da es in

industrieweit bekannt als Disk-to-Disk-to-Tape-Backup. In die­

eine technologische Einbahnstraße führt, aus der man nur

sem Konzept werden die Disks als Backup-Puffer (Staging

wieder mit sehr viel Aufwand und Kosten herauskommt. VTLs

Area) benutzt, um kürzlich zurückliegende Backups für eine

ohne Tape-Anbindung mit sehr günstigen ATA- oder SATA-

gewisse Zeit online zu halten und dann nach Ablauf einer

Platten müssen in der Regel komplett nach drei Jahren aus

gesetzten Frist auf Tape auszulagern. Dies gilt auch bei Virtu­

Sicherheitsgründen ausgetauscht werden, um Plattenausfälle

alisierungslösungen von Tape: Hier werden Tape-Laufwerke

und Datenverlust zu vermeiden. Sind hier sehr große Kapazi­

auf Disk emuliert, d. h., Disks stellen sich dar wie ein Band­

täten betroffen, kommt es in der Regel zu einer regelrechten

laufwerk. Integrierte Tape-Virtualisierungslösungen kombinie­

Kostenexplosion!

ren Hardware und Software zu einer einfach bedienbaren Vir­ tuellen Tape Library (VTL). Erst die Möglichkeit, auch auf

Beim Einsatz von VTLs und Diskbuffern kann eine effektivere

physische Tapes zu migrieren, bietet eine operative, kosten­

Nutzung des Plattenpuffers durch De-Duplizierungsverfahren

günstige und effiziente Umgebung.

eine große Menge an sonst benötigten Plattenplatz einspa­ ren, weil nur noch Datenblöcke einmal abgespeichert werden

118

Wird mit einer Kombinationslösung aus Platte und Band gear­

und Duplikate vermieden werden. Die Einsparung ist dabei

beitet, stellt sich die Frage, wie groß muss das vorgeschaltete

direkt vom erzielten De-Duplizierungsfaktor abhängig. Es gibt

Plattensystem von der Kapazität sein, wie muss die Tape

verschiedene De-Duplizierungsverfahren von unterschied­

Library dahinter konfiguriert werden und wie implementiert

lichen Anbietern. Die wichtigste Anforderung an ein De-Dupli­

man die Migration von Platte auf Band sinnvoll! Individuelle

zierungsverfahren ist die Sicherstellung einer 100%igen

Sizings der vorhandenen Umgebung und der benötigten

Datenintegrität neben skalierbarer Leistungsfähigkeit. Nur

Anforderungen sind für eine sinnvolle Lösung notwendig!

Verfahren mit 100%iger Datenintegrität stellen eine sichere

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Restore-Möglichkeit zur Verfügung, denn Backup macht man

Wichtig ist, dass Daten-Backup sicher und zuverlässig ist und

wegen des Restores!

die Wiederherstellung der Daten in jedem Fall gewährleistet wird. Das gilt für unvorhergesehene Feher wie z. B. Disaster

Die erzielten De-Duplizierungsfaktoren sind von vielen Gege­

(Naturkatastrophen, Hochwasser, technische Fehler, Disk-

benheiten abhängig: Welche Backup SW ist im Einsatz, wie

Crash), aber auch für menschliche Fehler (versehentliches

wird die Sicherung durchgeführt (z. B. immer inkrementell

Löschen von Daten, falsches Bearbeiten von Dateien) und

oder jede Woche einen Full Backup etc.) und wie lange soll

Application Errors (Virus, Fehler in der Software). Es ist also

die Retentionperiode sein, wo die Daten im Plattenpuffer

u. a. wichtig, dass Datenkopien an verschiedenen Lokationen,

gespeichert bleiben (siehe auch unter Daten-De-Duplizie­

auf unterschiedlichen Medien und mit unterschiedlichen Tools

rung).

bzw. Software und von verschiedenen Verantwortlichen erzeugt werden. Snaps in derselben Einheit bieten alleine kei­

Welches Konzept bezüglich der Anforderungen Leistung,

nen Schutz, Spiegelung mit derselben Software ebenfalls

Sicherheit, Kosten, Haltbarkeit und einfache Erweiterbarkeit

nicht!

die beste Effektivität bietet, ist von der vorhandenen Infra­ struktur abhängig und ob die Daten klassisch über das LAN

Der Anspruch an den Sicherheitsgrad sowie die Wiederher­

oder LAN-free über das SAN oder beides gesichert werden.

stellungszeit (Recovery Time Objective) spielen für die Aus­

In den meisten Fällen bieten sich Kombinationslösungen von

wahl der Komponenten respektive der Backup-Strategie

Platte und Band an, um die Stärken beider Technologien ent­

ebenso eine entscheidende Rolle.

sprechend für einen effektiven Backup und Restore zu nutzen.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

119

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

Virtualisierung von Bandsystemen

tiert die Virtualisierungseinheit des Systems. Dieser Aufbau erlaubt einfache zukünftige Skalierung bezüglich der Kapa­

Neue Server-basierende Tape-Virtualisierung für System z

zitäten und der Leistung, indem mehrere gNodes oder auch

Am 29. August 2006 kündigte die IBM eine neue Virtualisie­

nur vNodes im Cluster miteinander gekoppelt werden.

rungslösung für die z/OS-Umgebung an. Die TS7700 wird als Nachfolger der IBM 3494 B10 und B20 Virtual Tape

Die Ankündigung enthält ein ‘SOD’ (Statement of Direction),

Server Ende September 2006 verfügbar. Dies war insbeson­

nachdem ein Cluster mit zwei gNodes verfügbar sein wird.

dere auch deshalb notwendig, weil die alten Einheiten B18,

Das sorgt für erhöhte Verfügbarkeit, erhöhte Performance

B10 und B20 nicht der ab 1. Juli gültigen EU-Richtlinie

sowie mehr virtuelle Devices innerhalb des Clusters und

RoHS entsprachen. Die neue TS7700 Serie für die Bandvir­

ermöglicht unterbrechungsfreie Code-Updates. Bei späteren

tualisierung im Mainframe-Umfeld bildet eine neue, langfris­

Erweiterungen können dann vNodes und hNodes auf unter­

tige Basis durch eine modulare und skalierbare Server-

schiedlichen Systemen laufen und so horizontal innerhalb

Architektur. Man spricht von einer ‘Distributed Node

des Clusters skalieren. Zukünftig vorstellbar ist, dass die

Architecture’.

vNodes dann unterschiedliche Aufgaben wahrnehmen, z. B. Virtualisierung für Open Systems oder Datenarchivierung.

Die TS7700 besteht aus dem 3592 Gehäuse F05, der TS7740-verteilten Node-Architektur mit unterschiedlichen Nodes (siehe unten), die entsprechende Funktionen wahr­ nehmen, einschließlich zwei aktiv geschalteter ‘I/O-Drawer’, die entsprechende FICON-Anschlüsse zum Host, Fibre­ Channel-Anschlüsse zu den Platten und Ethernet-Verbin­ dungen zum Library Manager zur Verfügung stellen, dem TS7740 Cache Controller als RAID-Steuereinheit und ent­ sprechenden RAID-basierenden Platteneinschüben, die den TVC (Tape Volume Cache) als Plattenpuffer reflektieren. Für die Plattenpufferkapazitäten werden RAID-Arrays mit 146-GB-Platten eingesetzt. Der RAID Controller arbeitet mit 16 integrierten Platten, eine TS7740 Cache-Erweiterung beinhaltet ebenfalls 16 Platten. In die Gehäuseeinheit sind neben dem RAID Controller bis zu drei Plattenerweiterungs­ einheiten integrierbar. Damit können bis zu 64 Platten in die Grundeinheit eingebaut werden. Die Gesamtkapazität liegt bei 6 TB (native) und 18 TB (komprimiert). Nodes sind funktionale Aufgaben, die als Applikation auf einem aus zwei Dual-Core 64 bit, 1,9 GHz Prozessoren bestehenden pSeries-Server laufen. Das vNode (v steht für Virtual) stellt dem Host virtuelle Laufwerke zur Verfügung und ist für die Host-Kommunikation verantwortlich. Das hNode (h steht für Hierarchical Storage Management) ist für die Verwaltung der logischen Volumes im Plattenpuffer zuständig. Es managt auch die Migration von Platte auf Band und ist für die gesamte Verwaltung der physischen Band-Ressourcen einschließlich des Tape-Reclamation-Pro­ zesses zuständig. Die Kombination aus vNode und hNode wird als gNode (g steht für general) bezeichnet und reflek­

120

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

IBM TS7700 Virtual Tape Server für zSeries

1999 – 2005

2006 – 2010

Software

Anhang

Zwei Cluster können heute in einem Dual Cluster Grid (oder auch Multi Cluster Grid) zusammengeschlossen wer­ den und dienen dazu, entsprechende Disaster-RecoveryLösungen aufzubauen. Sie sind in der Funktionsweise dem Peer to Peer VTS mit den Modellen B10 und B20 vergleich­ bar (synchrone und asynchrone Spiegelung). Dazu ist das neu angekündigte TS7700 Grid Communication Feature not­ wendig. Seit August 2007 sind Konfigurationen von drei Clustern in einem Grid möglich. Die Architektur selbst erlaubt langfristig bis zu acht Cluster in einem Grid und wird in einer späteren Ankündigung bekanntgegeben. Der Unterschied der Spiegelung liegt darin, dass bei der TS7700 dedizierte Ethernet-Verbindungen (IP) eingesetzt werden. Mit zwei 1-Gbit-Ethernet-Verbindungen wird die Spiegelung durchgeführt, sie ist wesentlich leistungsfähiger im Vergleich zu Peer to Peer VTS mit FICON. Das senkt

Die TS7740 Node emuliert zum Host viele 3490-E Lauf­

die Kosten, nutzt offene Standards und vereinfacht die

werke, die für den Host wie physikalisch vorhandene Lauf­

Infrastruktur.

werke sichtbar sind. Die TS7740 ist also völlig transparent zum Betriebssystem, zum Bandverwaltungssystem und zum

Die Einheit bietet neben dem 6-TB-Plattenpuffer (18 TB

Katalogeintrag. Die emulierten Laufwerke bezeichnet man

komprimiert) einen maximalen Durchsatz von 600 MB/s

als virtuelle Laufwerke. Die TS7700 unterstützt bis zu 256

(Peak) und damit knapp das Doppelte einer 3494-B20. Es

virtuelle Laufwerke sowie bis zu 100. 000 virtuelle Volumes

stehen bis zu vier 4-Gbit-FICON-Anschlüsse in dieser Basis­

und dies erhöht sich später durch die Bildung von Multi

einheit zur Verfügung. Unterstützt ist die TS3500 Library

Node Clustern entsprechend. In einem Dual Cluster Grid

(3584 Library) über die Anbindung des IBM 3953 Library

(Spiegelung) stehen 512 virtuelle Laufwerke zur Verfügung.

Managers Modell L05. Die Einheit unterstützte im Backend TS1120 Laufwerke im Emulation-Mode der 3592 J1A. Seit

Geschrieben wird in den verfügbaren Plattenpuffer, den

Februar 2007 ist auch die ‚Native‘-Unterstützung verfügbar.

TS7740 Cache (ebenso wird bei Recalls aus dem Platten­

Bis zu 16 physische Bandlaufwerke TS1120 können an einer

puffer gelesen). Ist ein Volume im Plattenpuffer gespeichert,

TS7700 betrieben werden.

wird dieses als virtuelles Volume bezeichnet. Durch einen Algorithmus, der als Premigration bezeichnet wird, werden,

Zum z/OS-Host werden wie bei den alten VTS-Modellen

etwas zeitversetzt, Kopien der virtuellen Volumes auf die

3490-E Laufwerke abgebildet. Funktional bietet die neue

physischen Bandlaufwerke migriert und auf physische 3592

Einheit Funktionen, die bei dem Modell 3494-B20 zur Verfü­

Kassetten geschrieben. Die Kopie des virtuellen Volumes,

gung standen. Dies sind vor allem die Funktionen des APM

das jetzt auf einer physikalischen Kassette gespeichert ist,

(Advanced Policy Management) wie ‘Volume Pooling’, ‘Dual

wird als logisches Volume bezeichnet. Viele logische

Copy’, ‘Logical Volume Sizes’ und ‘Multiple Reclamation

Volumes auf einer Bandkassette nennt man ‘Stacked

Policies’ (Beschreibung der Funktionen unter 3494-B20), die

Volumes’. Ein Stacked Volume ist also eine physikalische

bei TS7700 als Outboard Policy Management bezeichnet

Kassette, die viele logische Volumes enthält.

werden. Durch den Premigration-Prozess werden die Laufwerkge­ schwindigkeiten der physischen Laufwerke voll genutzt. Ebenso werden die Kassetten in ihrer Kapazität maximal ausgenutzt, weil viele logische Volumes auf einer Kassette

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

121

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

gespeichert werden. Kommt ein Recall des Hosts auf ein

Grid-Spiegelungen mit TS7700 Systemen

logisches Volume, wird der Recall aus dem Plattenpuffer

Bei einer Multi-Cluster-Grid-Spiegelung ist es erforderlich zu

bedient, solange das Original des virtuellen Volumes dort

definieren, wie jede Storage Group eines jeden Clusters im

noch verfügbar ist. Ist das virtuelle Volume im Plattenpuffer

Grid zu behandeln ist. Das Setzen einer Policy auf dem LM

nicht mehr verfügbar, wird die physische Kassette, welche

definiert den Consistency Point für jede definierte Site im

die Kopie des logischen Volumes enthält, in ein Bandlauf­

Subsystem. Aus den Policies wird ein Array aus Consistency-

werk geladen.

Point-Werten, wobei jedes Element des Arrays die Policy für eine bestimmte Site repräsentiert. Wenn z. B. für Site A eine

Das angeforderte logische Volume wird dann in den Platten­

Kopie zum Zeitpunkt des Unloads und für Site B eine Kopie

puffer zurückgeladen und der Recall wird aus dem Platten­

zu einem späteren Zeitpunkt gewünscht wird, sieht das Array

puffer bedient.

so aus: Site A hat RD und Site B hat RD.

Sollte aufgrund einer großen Schreib-Workload der Platten­

Die Replication Policies können auf den LMs verschieden

pufferplatz (TS7740 Cache) knapp werden, werden im Plat­

sein. Die Policy Settings auf jedem LM diktieren, welche

tenpuffer die virtuellen Volumes, die am wenigsten benutzt

Aktionen ausgeführt werden, wenn ein Volume auf einem

wurden (LRU Least Recently Used Algorithmus), zum Über­

virtuellen Laufwerk, das zu diesem LM gehört, gemountet

schreiben freigegeben, nachdem deren Kopie bereits auf

wird. Consistency Policies bestimmen die Site, welche die

Band ‘pre-migriert’ wurde.

Daten als erste erhält (TVC Selektion), welche Sites eine Kopie der Daten erhalten und zu welchem Zeitpunkt.

Der Reclamation-Prozess der physischen Kassetten findet im Hintergrund von Laufwerk zu Laufwerk statt, ohne dass

Consistency Policies werden über die Management Class

der Plattenpuffer belastet wird. Es erfolgt kein Zurückladen

konfiguriert. Dabei werden Policies einem Management-

der noch validen logischen Volumes auf der Kassette in den

Class-Namen zugeordnet. Policies werden über den ETL

Plattenpuffer, sondern diese werden direkt von Laufwerk zu

Specialist auf dem Library Manager gesetzt.

Laufwerk auf eine neue Kassette geschrieben. Die alte Kas­ sette geht dann automatisch in den vorhandenen Scratch

Eine neue Definition ist die des ‘Copy Consistency Points’,

Pool zurück.

der bestimmt, wann ein Target Volume auf einer TS7700 mit dem Source Volume konsistent ist. Bei den Consistency

Die TS7700 bildet die neue Basis eines Mainframe-basie­

Policy Optionen werden für jede Site Consistency Points

renden Virtual Tape Servers. Es sind viele neue Funktionali­

gesetzt. Dabei stehen drei Definitionen zur Verfügung:

täten, Verbesserung in Leistung und Kapazität und größere Konfigurationen in den nächsten Monaten vorgesehen, die

RUN (R) – diese Site benötigt eine valide Kopie des

die TS7700 zum absoluten Tape-Virtualisierungsspezialisten

logischen Volumes, bevor Device End an den RUN-Befehl

im Mainframe-Umfeld machen, der mit keiner anderen

(Rewind Unload) vom Host geliefert wird (entspricht weitge­

Lösung vergleichbar ist. Das war bereits mit den Modellen

hend dem Immediate Mode beim PtP VTS).

B10 und B20 der Fall, die als einzige Systeme über die APMFunktionalität eine Verbindung ins SMS (System Managed

Deferred (D) – diese Site benötigt eine valide Kopie zu

Storage) als Teil des z/OS-Betriebssystems hatten. Dabei

einem späteren Zeitpunkt, nachdem der Job beendet wurde

werden die SMS-Konstruktnamen, wie Data Class, Storage

(ähnlich wie Deferred Mode beim PtP VTS).

Class und Management Class, sowie die Storage-GroupNamen einschließlich der VolSer-Zuordnung automatisch in

No copy (N) – diese Site soll keine Kopie von Volumes in

die Library Manager Data Base übernommen. Das bietet

dieser Management Class erhalten.

kein anderes System auf dem Markt. Durch diese neue Möglichkeit können extrem flexible Sowohl für die 3494-B10- und -B20-Modelle als auch für die

Spiegel­varianten in Multi-Cluster-Grid-Konfigurationen

neue TS7700 ist eine noch stärkere Integration in das SMS

realisiert werden.

des z/OS-Betriebssystems längerfristig vorgesehen.

122

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

TS7700 Erweiterungen 2007

physischen Kassettenpools erzeugt werden. Die TS7700

Bei der Ankündigung der TS7700 machte IBM die Aussage,

speichert dann zum Schutz vor einem Mediendefekt ein

dass mit vier zusätzlichen Releases im Jahr 2007 in die

Duplikat eines logischen Volumes auf einer zweiten Kas­

TS7700 Systeme eine Vielfalt von neuen funktionalen Erweite­

sette. ‘Cross-site Replication’ wird in einer Grid-Konfiguration

rungen integriert werden, die weit über den Rahmen des Vor­

verwendet, um eine Kopie in einer zweiten Site zu erzeugen.

gängersystems B20 hinausgehen. So wurde jedes Quartal ein

Je nach Ein­stellung erfolgt dies auf synchroner oder asyn­

neuer Release verfügbar, R1.1 im 1., R1.2 im 2., R1.3 im 3.

chroner Basis. Es können aber auch ungespiegelte Volumes

und R1.4 im 4. Quartal 2007. Die verfügbaren Funk­tionen

in einer Grid-Konfiguration verwaltet werden. ‘Logical Virtual

werden in AF-basierende Funktionen (Advanced Functions)

Volume Sizes’ dient der Auswahl von Volume­größen, die

und Nicht-AF-basierende Funktionen unterschieden.

die Standard-Volumegrößen von 400/800 MB übersteigen. Zur Wahl stehen 1.000, 2.000 und 4.000 MB.

Advanced Functions (AF) Die Funktionalität ‘Logical Volume Pooling’ bietet die Mög­

Secure Data Erasure mit Encryption Shredding reflektiert

lichkeit, logische Volumes einzeln pro Nummernkreis in

die Wiederkehr der bereits aus dem VTS bekannten Funktion

unterschiedlichen physischen Kassetten-Pools zu verwalten.

zur vollautomatisierten ‘Zerstörung’ von Datenbeständen auf

Damit ist die TS7700 mandantenfähig.

Leerkassetten (nach Reklamation). Das ist ein genialer Trick, wenn TS1120 Tape Encryption im Einsatz ist: ‘nur’ der Schlüs­

Mit ‘Tape Volume Cache Management’ können logische

sel wird auf der Kassette gelöscht, nicht die gesamte Band-

Volumes einer Cache Management Preference Group zuge­

Datenstruktur! Bei einem 3-Site-Grid wird ein TS7700 Grid so

ordnet werden. Es stehen zwei Preference Groups zur Verfü­

erweitert, dass bis zu 3 Cluster für noch besseren Business

gung. Die Preference Group steuert, wie die logischen Vol­

Continuity Support zur Verfügung stehen (Dreifach-Remote-

umes im Plattenpuffer behandelt werden, und beeinflusst

Spiegelung). Jetzt können in einem 3-Site-Grid zwei TS7700

die Verweildauer von virtuellen Volumes im Tape Volume

z.B. lokal synchron gespiegelt werden und beide Systeme

Cache (Plattenpuffer). Mit ‘Dual Selective Copy’ können zwei

dann asynchron in großer Entfernung über WAN in eine

Kopien eines logischen Volumes in zwei unterschiedlichen

dritte TS7700.

3-Cluster-Spiegel-Grid

TS7700 Cluster 2

Host

WAN WAN R0 R1 D2 TS7700 Cluster 0

TS7700 Cluster 1

R0 R1 D2

R0 R1 D 2

Dreiseitiger TS7700 Spiegel-Grid, Cluster 0 und 1 sind synchron gespiegelt und Cluster 0 und 1 asynchron über eine WAN-Strecke auf Cluster 2

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

123

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

Copy Export (Stand-Alone-Systeme in R1.3, Grid-Systeme

Zusätzliche Funktionen (Nicht-AF)

in R1.4) erlaubt es, eine Gesamt-Kopie der Daten einer TS7700 zu exportieren, z. B. für Disaster Recovery-Zwecke,

Autonomic Ownership Takeover

während die originalen Daten weiterhin in der TS7700 ver­

Ownership bedeutet, dass jedes Volume in einer Grid-Konfi­

bleiben und für die Produktionssite verfügbar sind.

guration einen Owner hat (Cluster). Um ein Volume auf einem bestimmten Cluster zu ‘mounten’, muss der Cluster Owner

Copy Export ist eine neue TS7700 Funktion zur Unterstüt­

sein. Ist er es nicht, requestiert die TS7740 auf dieser Clus­

zung des Transfers von Daten (auf Stacked Tapes) in eine

tersite den Ownership-Transfer von der anderen Clustersite.

regionale/überregionale Sicherheitszone für Disaster-Reco­

Im Falle, dass die andere Site nicht reagiert, wird über die

very-Zwecke. Dabei kann mit der Funktion Dual Selektive

TSSC (Total Storage Service Console) geprüft, was mit der

Copy eine Kopie von Volumes innerhalb einer TS7700

TS7740 auf der anderen Site los ist. Ist die TS7740 tatsäch­

erzeugt werden, die in einem separaten Storage Pool und

lich nicht mehr verfügbar, wird der Autonomic Ownership

damit separaten Kassetten abgespeichert wird. Copy Export

Takeover initiiert. Der Ownership-Transfer kann auch immer

exportiert dann eine Kopie von ausgewählten Daten (log.

manuell angestoßen werden.

Volumes), die primäre Kopie verbleibt dabei allerdings in Tape TS1120 Encryption Support

der produktiven TS7700.

Mit der TS7740 wird eine Verschlüsselung auf den angeschlos­ Die ‘Copy Exported physical Volumes’ werden weiterhin von

senen TS1120 Bandlaufwerken unterstützt (ab Release 1.2).

der produktiven TS7700 verwaltet, d. h., die Volumes werden

Die virtuellen Laufwerke haben damit nichts zu tun. Encryp­

weiterhin in der TS7700 Datenbank geführt. Die TS7700

tion wird durch die existierenden Storage Pools (bis zu 32

managt dabei auch den ‘Offsite’ Volume Reclamation-Pro­

Pools) auf der TS7740 gemanagt. Der Host verwendet die

zess (Recycling der ausgelagerten Kassetten). Informati­

existierenden Storage-Konstrukte der Storage Groups und

onen über die exportierten Volumes können über einen Host

der Management Class, um festzulegen, welche logischen

Console Request und einen BVIR Request initiiert werden.

Volumes auf welchen Pool physischer 3592 Kassetten kom­ men. Ist ein Pool definiert, wo mit Encryption gearbeitet wer­

Ein ‘Copy Export Recovery’ wird durch das TS7700

den muss, wird er entsprechend behandelt. Dabei kann für

Management Interface unter dem Service- und Troubleshoo­

jeden Pool definiert werden, welche ‘Public/Private’ Key-

ting-Menü oder per User-Id und Password mit ‘role-based’-

Paare verwendet werden, um verschlüsselte Schlüssel auf

Zugriff durchgeführt. Die TS7700 ist ‘offline’ zu den Hosts

der Kassette abzuspeichern, die mit Verschlüsselung bear­

während der Recovery. Dabei wird die VolSer des Volumes

beitet wurden.

benötigt, von welchem die Datenbank restored werden soll. Host Console Request Es besteht auch die Kunden-Option zur Bereinigung beste­

Diese Option erlaubt einem MVS Console Operator das

hender Datensätze in einer TS7700 für den Copy Export

Durchführen von Abfragen und eine einfache Problemana­

Recovery-Vorgang (mfg cleanup). Während des Recovery-

lyse zum TS7700 Zustand, ohne Zugriff auf das Web Inter­

Prozesses ist das einzig angezeigte Panel im Management

face (MI) zu haben.

Interface das Status Panel zum Copy Export Recovery. Wenn die Recovery abgeschlossen ist, kann die TS7700 wieder

Enhanced Automated Read Only Recovery (im Backend)

‘online’ zu den angeschlossenen Hosts genommen werden –

Hier handelt es sich um die Wiederkehr der bereits im Vor­

sobald dort TCDB und TMS ebenfalls wieder restored sind.

gänger VTS bekannten Funktion zur vollautomatisierten Recovery von fehlerauffälligen 3592 Backend-Kassetten, auch unter Nutzung der 2. Kopie in einem Grid-System. Remote Read and Write Pipelining Diese Funktion bringt erhebliche Performance-Verbesse­ rungen beim Lesen und Schreiben in den ‘remote’ Cache einer TS7700 im Grid.

124

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

FICON

TS7700 Library Manager Integration

Die bisherigen 128 logischen Kanäle per FICON-Kanal, die

Im Herbst 2008 kündigt IBM den TS7700 Release 1.5 an.

in sehr komlexen Konfigurationen mit vielen LPARs auf der

Einer der wesentlichen Bestandteile dieser R1.5 Erweiterung

System z Site zum Engpass werden konnten, wurden auf

besteht darin, dass die Funktionen des externen Library

256 logische Kanäle erweitert. Damit dürften sich keine

Managers in die TS7700 selbst mit integriert wurde. Dieser

Engpässe mehr bezüglich der Konfigurationen ergeben.

externe Library Manager war noch ein Überbleibsel der IBM 3494 Tape Libary und hat die Aufgabe, das Logical und

Die TS7700 ist ein Tape-Virtualisierungsprodukt für das

Physical Volume Inventory für den Host zu verwalten sowie

Mainframe-Umfeld, für das aufgrund seiner neuen Architek­

die zugehörige Advanced Functions zu managen. Dies war

tur in den kommenden Jahren sowohl kontinuierliche Erwei­

notwendig, da die TS3500 Tape Library eine reine SCSI

terungen als auch die Integration von völlig neuen Entwick­

Medium Changer Tape Library darstellt. Da die Library

lungen vorgesehen sind.

Manager Plattform noch auf OS/2 basierte, kam eine Portie­ rung 1:1 in die TS7700 nicht infrage. Die Entwickler konnten

Dynamic Link Load Balancing

sich allerdings eines anderen bereits existierenden IBM

Der im Frühjahr 2008 angekündigte Release 1.4a bietet

Produkts bedienen: Für die Verwaltung des Physical Inventory

neben funktionaler Erweiterungen vor allem die Möglichkeit

wurde der IBM eRMM mit in den TS7700 Microcode aufge­

des Dynamic Link Load Balancing, das in einem Spiegel­

nommen. Durch diese Integration kann nun ein ganzes

grid dafür sorgt, das die zur Verfügung stehenden Kanal­

zusätzliches Frame eingespart werden (3953F05) und eine

verbindungen bezüglich der Workload so ausbalanciert,

TS7740 Lösung besteht im einfachsten Falle aus nur noch 2

dass eine ausgewogene Grid-Performance reflektiert wird.

Frames (TS7740 und TS3500 L-Frame).

Das betrifft im Wesentlichen die Laufzeitunterschiede im Netzwerk aufgrund unterschiedlicher Längen der Grid-Ver­

TS7720 – neues Modell

bindungen. Um diese Unterschiede entsprechend auszu­

Diese Vereinfachung lässt dann auch erstmals das Erschei­

gleichen, wird alle 5 Minuten ein automatischer „Check“

nen eines Mainframe Virtual Tape Systems zu, welches rein

durchgeführt, die aktuelle Auslastung bewertet und neue

Disk-basierend ist; d. h., es gibt im Backend kein physika­

Copy-Jobs entsprechend noch verfügbaren Leistungsre­

lisches Tape bzw. keine Tape Library mehr. Dieses System

sourcen verteilt.

(die TS7720) hat den gleichen Aufbau und dieselben Kom­

Dynamic Link Load Balancing für TS7700 Spiegel Grid Konfigurationen

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

125

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

ponenten wie eine TS7740 (selbst der Ucode ist der Glei­

4 Cluster-Grid- und Hybrid-Grid-Konfigurationen

che) mit Ausnahme des internen Plattenpuffers. Der Fibre-

Durch den ein Jahr zuvor erschienen R1.5 sind entschei­

Channel PlattenCache der TS7740 wird in der TS7720 mit

dende Grundlagen gelegt worden, um mit dem Folgere­

einem SATA-Plattensystem auf Basis der IBM DS4700 aus­

lease R1.6 die einmaligen Skalierungsmöglichkeiten einer

gestattet. Verwendet werden 1-TB-SATA-Laufwerke, die in

TS7700 Umgebung entfalten zu lassen. Dazu waren im

der Maschine unter RAID6 betrieben werden. Es stehen

Wesentlichen noch zwei wichtige Erweiterungen notwendig:

zwei Konfigurationen mit 40 TB oder 70 TB nativer Kapazität zur Verfügung (nutzbarer Cache von 120 TB bzw. 210 TB bei 1:3 Compression). Die TS7720 bietet 2/4 FICONAnschlüsse, bietet 256 virtuelle Laufwerke ab und verwaltet bis zu 1 Million logische Volumes. Mit dem neuen Modell

•• Erhöhung der maximalen Anzahl von TS7700 Cluster in einer Grid-Umgebung (von ehemals 3 auf 4) •• Hybrider Support von TS7740 und TS7720 innerhalb eines Grid-Verbundes

TS7720 können wie mit der TS7740 Gridkonfigurationen auf­ gebaut werden. Dabei erhöhen sich die Anzahl der virtu­ ellen Laufwerke und die Plattenpufferkapazitäten entspre­ chend. In einer 3-seitigen Gridkonfiguartion stehen bis zu 630 TB Plattenpuffer und bis zu 768 virtuelle Laufwerke zur Verfügung. Dieser Release ist die Grundlage von Backup- und Speicher­ Weitere Funktionalität des R1.5 Releases waren der Support

architekturen, die bislang nicht möglich waren. So können

von den TS1130 (Jaguar Generation 3) Bandlaufwerken an

jetzt 4-Standort-Konzepte realisiert werden oder z. B. ein

der TS7740 sowie größere Ausbaustufen des internen

2-Standort-Konzept, bei dem nun jede Lokation mit 2 Syste­

TS7740 Plattenpuffers auf bis zu 14 TB.

men auch im Fehlerfall hochverfügbar ausgestattet ist. Auch ist eine sogenannte ‘Hub and Spoke’ Architektur möglich,

Neue Möglichkeiten mit TS7700 im Mainframe-Umfeld

bei der 3 Systeme als I/O-Aufnahmesysteme dienen, die

Im Oktober 2009 kündigt IBM für die TS7700 Familie den

dann ihren Inhalt gemeinsam zu einem TS7740 als Disaster

Release 1.6 an. Der neue Release beinhaltet viele Neue­

Recovery System spiegeln.

rungen, die Grid-Computing von TS7700 Clustern und damit verbundene neue Hochverfügbarkeitslösungen ermöglichen.

126

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Zur Optimierung der Verwaltung und Performace in Hybriden Very Large Cache

und multiplen Cluster-Umgebungen wurden zwei wichtige Funktionen in den R1.6 integriert.

Intermediate Cache

Die ‘Cluster-Family-Funktion’ erlaubt es dem Betreiber, den TS7700 Systemen mitzuteilen, in welchen geogra­ fischen Positionen sie zueinander stehen. Damit können die

Tape

Replizierungswege optimiert werden. So wird z. B. in einer 4-Cluster-Grid-Umgebung in 2 Standorten zuerst eine Kopie

Noch interessanter werden diese neuen Architekturansätze

zwischen den Standorten gemacht und erst danach inner­

durch das Mischen von TS7720 und TS7740 Systemen

halb der Standorte eine Kopie zu dem jeweiligen System

(hybride Konfigurationen). Dadurch können z. B. Kosten ein­

innerhalb der Familie. Diese Vorgehensweise spart

gespart werden, weil ein TS7720 ohne Backend-Tape güns­

Leitungskapazitäten der Replikations-Strecke zwischen

tiger in der Anschaffung ist. Der wichtigere Aspekt ist aller­

den Standorten.

dings die 2-dimensionale Skalierbarkeit, die es erlaubt, in Richtung höhere I/O-Performance-Anforderung zu skalieren

Damit in einer hybriden TS7700 Umgebung die Plattenspei­

oder die Anforderung an größere interne TS7700 Caches –

cher der TS7720 Cluster nicht überlaufen, wurde die neue

kostengünstig – zu befriedigen. So kann z. B. ein Kunde, der

Funktion ‘Automatic Volume Removal Policy’ eingeführt.

bereits eine TS7740 2-Cluster-Grid-Lösung betreibt und

Sie sorgt automatisch dafür, dass das älteste logische

mehr Durchsatz im Front-End benötigt, den Grid einfach

Volume einer TS7720 aus dem Cache entfernt wird (sofern

durch das Hinzufügen von 2 x TS7720 erweitern (im Sinne

eine Kopie auf einem anderweitigen TS7740 System exis­

von intelligeten I/O-vNodes mit eigenem Cache). Die Daten

tiert) und somit neuer Platz bei Bedarf freigegeben wird.

können dann mit den bekannten Methoden entweder auf die

Dieses intelligente Management lässt die Plattenpuffer der

andere TS7720 repliziert werden oder gleich über Kreuz auf

TS7720 in einer hybriden Grid-Umgebung als zusätzlichen

die entfernte TS7740. Somit lässt sich bei einer 2-Kopien-

Cache erscheinen und optimal nutzen, um noch größere

Strategie der mögliche Durchsatz um ca. 75 % steigern.

Datenmengen in unmittelbarem Zugriff vorzuhalten, und ent­

Ohne diese neuen Möglichkeiten müsste sonst ein komplett

lastet das Backend von Recalls vom Band.

neues, zweites TS7740-2-Cluster-Grid-System mit Backend Tape angeschafft und administriert werden.

Vorhandene 2- oder 3-way-Grids sind mit Verfügbarkeit im Dezember 2009 auf einen 4-way-Grid erweiterbar. Die

Die zweite Skalierungsmöglichkeit einer Hybrid-Lösung

Zusammenführung von zwei 2-way-Grids zu einem 4-way-

besteht darin, dass der größere interne Plattenspeicher der

Grid soll ab 2010 unterstützt werden.

TS7720 als größerer, aber kostengünstigerer Cache (SATA) TS7700 Logical WORM Support

des TS7700 Grid-Systems dienen kann.

In Bezug auf funktionale Erweiterungen wird mit Release Das hat seinen Charme! So können jetzt z. B. drei TS7720

R1.6 der logische WORM Support bereitgestellt. Diese

mit einer TS7740 inklusive Tape-Anbindung zusammenge­

Funktion erlaubt es, an den ensprechenden Anwendungen

schaltet werden. Damit hat die TS7740 einen riesengroßen

auf dem Host die logischen Volumes als WORM Medien zu

vorgeschalteten Plattenpuffer. Bei drei TS7720 wären das

verwalten. Dabei sieht der Host die TS7700 als logische

bis zu 3 x 70 TB, also bis zu 210 TB native, komprimiert bis

WORM ‘compliant’ Library. Host-Software-Erweiterungen

zu 630 TB (3:1) an vorgeschalteter nutzbarer Plattenpuffer­

unterstützen das Management von logischen WORM

kapazität.

Volumes über die Data-Class-Konstrukte. Der Support ist sowohl für TS7720 und TS7740 verfügbar. Bereits geschrie­ bene Volumes können allerdings nicht in logische WORM Volumes umgewandelt werden!

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

127

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

Neue Server-basierende Tape-Virtualisierung für Open Systems

Heutzutage werden Disk-Backup-Lösungen hauptsächlich

Bereits im Oktober 2005 stellte IBM mit der Virtualisierungs­

als Plattenpuffer für hochkapazitive und schnelle Tape Drives

lösung TS7510 eine virtuelle Tape Library für den Open-

eingesetzt. Dabei werden Sicherungsdaten kurzfristig (ein

Systems-Bereich zur Verfügung, die sich allerdings von den

bis mehrere Tage) auf diesen Disk-Systemen gespeichert

anderen virtuellen Tape Libraries auf dem Markt in der Funk­

und zeitnah oder später auf Band migriert oder kopiert. Disk-

tionalität nur wenig unterschied.

Backup-Systeme kommen auch zum Einsatz, um den Res­ tore-Vorgang zu optimieren, sinnvollerweise allerdings nur

Im April 2007 kündigte die IBM die neue Virtuelle Tape

dort, wo Platten Vorteile gegenüber Tape besitzen, also bei

Library TS7520 (VTL) als Nachfolger der bisherigen

kleinen Files und Filesystemen, aber nicht bei Datenbanken

TS7510 an. Die TS7520 bietet neben höherer Kapazität und

oder Image-Backups.

Leistung einen ganz neuen Funktionsumfang, der speziell für die Anforderungen im Open-Systems-Umfeld in die

Aufgrund der Klimaveränderung, der damit verbundenen

Maschine integriert wurde. Bevor das neue Produkt TS7520

Diskussion um die Verringerung von CO2 (Green-IT) und der

detailliert beschrieben wird, ist es wichtig, den Trend

steigenden Energiekosten sollten Disk-Backup-Systeme nur

bezüglich VTLs im Open-Systems-Umfeld näher zu

noch mit Bedacht eingesetzt werden und nur dort, wo es

beleuchten.

wirklich nötig ist bzw. Disk echte Vorteile gegenüber Tape bietet. Dies gilt gerade für kleinere und mittelständische

Nachdem Festplatten in den letzten Jahren immer günstiger

Unternehmen. Disk-Backup-Systeme locken mit vermeintlich

wurden, besonders durch die Einführung von neuen Tech­

günstigen Kosten, neigen aber dazu, dass die Strom- und

nologien wie beispielsweise SATA, werden Disk-basierende

Klimakosten über einen Zeitraum von sechs Jahren deutlich

Backup-Lösungen immer mehr propagiert. Viele Marktbeob­

höher sind als die Investitionskosten. Dazu kommen Kosten

achter und Kunden vergleichen oft Disk-Lösungen mit alten

für Datenmigration, die bedingt durch den kurzen Lebenszy­

Tape-Technologien und finden so Vorteile bei den Disk-

klus von Disk-Einheiten entstehen.

Lösungen wie schnelleres Backup und Restore oder auch stabilerer und zuverlässigerer Betrieb als bei älteren Band­

Neben der schon lang bestehenden Möglichkeit, den TSM

technologien. Aber die Zuverlässigkeit mit reinen Disk-

(Tivoli Storage Manager) so einzusetzen, dass ein LAN-

Lösungen wollte sich doch nicht so einstellen, wie von

Backup auf einen Plattenpuffer läuft und später die Migra­

vielen gewünscht! Besonders beim Einsatz der günstigen

tion auf Tape erfolgt, bietet die IBM nun auch eine neue VTL

SATA-Laufwerke gibt es immer wieder Disk-Drive-Fehler bis

(Virtual Tape Library) in Form des Produkts TS7520 an. Der

hin zum Datenverlust, auch unter RAID-Schutz.

große Vorteil der TS7520 liegt vor allem im LAN-free-Bereich, weil viele LAN-free-Clients direkt auf die TS7520 sichern

Tape ist ein eigenständiges Medium und bietet die Vorteile

können, ohne dass viele physikalische Bandlaufwerke benö­

von sehr schnellem Lesen und Schreiben von großen Daten­

tigt werden (ein LAN-free-Client benötigt immer ein direktes

mengen, lange Aufbewahrungssicherheit und braucht

Bandlaufwerk, sei es nun physikalisch oder virtuell!). Dabei

außerdem keinen Strom (Tape ist ‘cool’). Daneben kann Tape

stellt prinzipiell die TS7520 den Plattenpuffer und eine Emu­

auch als auswechselbarer Datenträger eingesetzt werden.

lationssoftware zur Verfügung, die Bandlaufwerke emuliert.

Disk ist ebenso ein eigenständiges Medium und bietet den

Geschrieben wird aber direkt in den Plattenpuffer.

Vorteil von schnellem direktem Zugriff mit kurzen Antwort­ zeiten und der Möglichkeit der Parallelität. Optimale maßge­ schneiderte Lösungen bieten sich daher in der Kombination von beiden Technologien.

128

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Die Migration vom TS7520 Plattenpuffer auf Band kann

Ein großer Vorteil von VTL-Systemen ist die Möglichkeit, die

durch die Backup-Software (z. B. TSM) erfolgen oder auch

Daten zu komprimieren und somit die Disk-Kapazität besser

direkt – allerdings mit entsprechenden Performance-Ein­

auszunützen. Allerdings sinkt in den meisten Fällen die Per­

schränkungen – durch die TS7520 selbst.

formance der Systeme bei Einsatz von Kompression. Ein weiterer Vorteil ist, dass die Daten direkt von der VTL auf

Zunächst sind VTLs nichts anderes als Disk-Backup-

Tape migriert oder kopiert werden können und dies transpa­

Lösungen. Allerdings stellen sich VTLs als Tape Libraries mit

rent für den Backup-Server passiert.

Bandlaufwerken dar. Somit bieten VTLs Vorteile, wenn die Backup-Applikation kein natives Disk-Backup unterstützt oder

Die IBM Tape Virtualization Engine TS7520 stellt eine inte-

die Lizenzkosten für ein solches Disk-Backup zu hoch sind.

grierte Lösung aus Hardware und Software dar, die Band­ virtualisierung für Open-Systems-Server über physische

VTLs können auch dort sinnvoll eingesetzt werden, wo viele

FibreChannel- (FC) und iSCSI-Verbindungen bereitstellt.

langsame LAN-free-Sicherungen vorhanden sind, denn hier

Durch System x-basierende Server (1-4) werden Bandlauf­

lassen sich sonst erforderliche Tape Drives einsparen. VTLs

werke emuliert. Die Emulation der TS7520 unterstützt die

sind aber meist auch integrierte Lösungen, die den Anwen­

Laufwerksformate LTO2, LTO3 und LTO4 sowie die ‘High

der von jeglichen administrativen Tätigkeiten, die sonst bei

End’-Technologien 3592 und TS1120. Der Plattenpuffer

nativen Disk-Systemen notwendig wären, frei hält.

wird durch 500-GB- und/oder 750-GB-SATA-Platten reflektiert. Dabei sind die Platten in einem Einschub als RAID5-Array abgebildet. Die 16 Platten im Einschub reflektieren dabei ein 6+P und ein 7+P RAID5-Array (P= Parity Platte) sowie eine Hot-Spare-Platte, die für beide Arrays im Fehlerfall als Rebuild-Platte einspringt. Die Kapazitäten können mit 500-GB-Platten auf bis zu 884 TB und mit 750-GB-Platten auf bis zu 1,3 PB (native Kapazitäten) ausgebaut werden. Die kleinste kapazitive Einstiegsgröße beginnt bei 6,5 TB. Erweiterungen können – je nach Plattenart – in 6,5-TBSchritten oder 9,75-TB-Schritten erfolgen. Die TS7520 bietet eine einmalige Leistungsfähigkeit, indem bis zu 4. 800 MB/s Durchsatzmenge ermöglicht wer­ den (4 .800 MB/s beim Lesen vom Plattenpuffer und bis zu 4 .500 MB/s beim Schreiben in den Plattenpuffer). Sowohl von der Leistungsfähigkeit als auch von den kapazitiven Möglichkeiten gibt es derzeit kein anderes VTL-System auf dem Markt, das diese Möglichkeiten bietet. Die TS7520 lässt sich so konfigurieren, dass bis zu vier Server ‘geclustert’ werden können. Dabei werden bis zu 512 virtuelle Libraries, bis zu 4 .096 virtuelle Bandlaufwerke und bis zu 256 .000 virtuelle Kassetten emuliert. Zu den Hosts können bis zu 32 FC-Anschlüsse auf Basis von 4-Gbit-Fibre­ Channel konfiguriert werden. Für die Tape-Anbindung stehen bis zu 16 FC-Anschlüsse, auch auf Basis von 4-Gbit-Fibre, zur Verfügung.

IBM Virtual Tape Library TS7520 für Open System-Umgebungen

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

129

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

Neben der hohen Flexibilität, Leistungsfähigkeit und Kapazi­

Als Einstiegsversion steht die TS7520 Limited Edition zur

tät bietet die TS7520 einen Funktionsumfang, die derzeit

Verfügung. Diese günstige Einstiegsoption steht für Ein­

keine andere VTL auf dem Markt übertrifft. Auf diese Funk­

stiegskonfigurationen mit einer Virtualization Engine (CV6)

tionalität wird später noch ausführlich eingegangen.

und nur einem Platten-Controller (SV6) zur Verfügung und unterstützt Plattenkapazitäten bis zu 29,25 TB (maximal).

Bei einer maximalen Konfiguration der TS7520 werden bis

Die Limited Edition enthält standardmäßig nicht den ganzen

zu 12 Gehäuseeinheiten benötigt. Wichtig dabei ist die Tat­

Funktionsumfang. Tape Caching ist z. B. ein kosten­

sache, dass selbst bei kleinen Konfigurationen wegen

pflichtiges Feature.

Sicherheits- und Leistungsanforderungen immer mit zwei Platten-Controllern (SV6) gearbeitet wird (Enterprise Edition).

Die Enterprise Edition unterstützt jede Art von TS7520

Sowohl die Platten-Controller als auch die Virtualization

Konfiguration bis zum Maximalausbau und bietet Tape

Engines (CV6) sind über ein integriertes SAN auf Basis von

Caching standardmäßig an.

4-Gbit-FibreChannel miteinander verbunden. Dieser hoch­ redundante Aufbau zeigt sich auch in der Stromzufuhr. Jede

Die IBM TS7520 wurde als komplette Appliance entwickelt

Gehäuseeinheit ist mit zwei Stromversorgungen ausgestattet.

und alle Einzel-Komponenten aufeinander abgestimmt. Das komplette System wurde mit allen Funktionen getestet und ausführlichen Performance-Messungen unterworfen.

Aufbau einer TS7520 in einer Konfiguration mit drei Gehäuseeinheiten

130

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Für IT-Betreiber stellt sich die IBM TS7520 als eine oder

Ohne einen Multipath Device Driver können die einzelnen

mehrere ‘virtuelle’ Tape Libraries dar und man muss sich

virtuellen Tape Drives zwar mühsam und manuell über die

nicht um die Anbindung sowie die Konfiguration des Disk-

Frontend FC-Ports der VTL verteilt werden, doch ein Load

Storage-Systems kümmern. Die IBM TS7520 VTL ist als eine

balancing kann dadurch nicht erreicht werden, weil die

Einheit zu betrachten und auch der Support wird dement­

Backup-Applikation, wie z. B. TSM, von der Verteilung der

sprechend durchgeführt, d. h., es werden keine Einzelkom­

virtuellen Tape Drives über mehrere FC-Ports keine Informa­

ponenten, sondern immer die gesamte Appliance betrachtet

tionen bekommt. Alle Backup-Applikationen verteilen die

und gewartet (z. B. für Firmeware-Updates). Somit kümmert

Workload auf die verfügbaren Tape Drives nach ‘Round-

sich auch nur ein Supportteam um die IBM TS7520. Eine

Robin’- und/oder ‘last recently used’-Algorithmen. Dadurch

zentrale Stelle nimmt die Kundenanfragen entgegen. Eine

kommt es aber in Verbindung mit VTLs vor, dass einzelne

Voranalyse des Problems durch den Kunden, wie es bei

FC-Links overloaded sind und gleichzeitig manche Links

Implementierungen, die aus Einzelkomponenten zusammen­

ohne Last sind.

gestellt wurden, der Fall ist, entfällt. Besonders das Load balancing ist für eine ausgewogene Mit bis zu 48 x 4-Gbit-FC-Anschlüssen bietet die IBM

und hohe Performance bei VTLs enorm wichtig. Bei Disk-

TS7520 die höchste Anzahl von ‘Connectivity’-Möglichkeiten.

Systemen ist ein Load balancing schon seit langem eine Standardfunktion. Bei VTLs, die eigentlich ein Disk-System

End-to-End-4-Gbit-Support bedeutet, dass die Maschine in

sind bzw. Disk-Backup anbieten, ist dies nicht der Fall,

ihrer gesamten Anbindung zu den Hosts wie auch zum Disk

obwohl die meisten VTLs mehrere FC-Ports im Frontend

und Tape Backend eine ausbalancierte Leistung für Front End,

anbieten. Der IBM Multipath Device Driver für Tapes ver­

Disk Cache und Tape Backend realisiert. Dabei werden bis

teilt die Workload auf die verfügbaren FC-Links, so dass die

zu 256 physische Backend Tape-Laufwerke (IBM TS1120

einzelnen Links eine ausgewogene Workload-Verteilung

J1A/E05 Drives und/oder LTO2, LTO3 und LTO4 Drives)

haben. Zusätzlich ermöglicht der IBM Multipath Device Driver

sowie bis zu 32 physische Backend Tape Libraries (IBM

ein automatisches Failover, falls ein Link oder eine Fabric

TS3500 Library, IBM TS3310 Library, IBM TS3200 Library,

ausfällt oder auch nur für Wartungsarbeiten offline ist.

IBM 3582 Library, IBM 3583 Library und IBM 3494 Library) unterstützt.

Spezielle Disk Caching Algorithmen beschleunigen den Recall von Tape, wenn das logische Volume sich nicht mehr

Während manche andere VTL-Anbieter für die Anzahl an

im Plattenpuffer befindet. Werden VTLs eingesetzt, schreibt

emulierten Libraries, Drives und Volumes extra Lizenzkosten

die Backup-Software die einzelnen Files in einen Platten­

berechnen, ist bei der TS7520 immer alles inklusive.

puffer. Im Falle einer Migration von Platte auf Band wird das logische Volume in einer 1:1-Kopie auf eine Kassette

Die IBM TS7520 bietet eine selbstständige Call-Home-Funk­

gespeichert. Im Falle eines Restores einer einzelnen File,

tionalität zum IBM Service-Team. Vergleichbare VTLs bieten

die sich nicht mehr im Plattenpuffer befindet, müssen viele

nur eine ‘E-Mail’-Call-Home-Funktionalität an, sodass nur

VTLs das komplette logische Volume in den Plattenpuffer

intern, ohne Benachrichtigung des Herstellers, über Fehler

zurückladen, um von dort den Host-Request zu bedienen.

informiert wird.

Das kann je nach emulierter Kassette (man bedenke: eine LTO4-Kassette fasst 800 GB Kapazität) sehr lange dauern,

Als großes Alleinstellungsmerkmal bietet die IBM TS7520 als

oft bis zu zwei Stunden und länger! Der Caching-Algorith-

einziges VTL-System auf dem Markt einen Multipath Device

mus der TS7520 arbeitet in solchen Fällen wesentlich intelli­

Driver für FC Failover und Load balancing. Die Maschine

genter! Anstatt des Zurückladens des gesamten logischen

kann problemlos in ein Dual-Fabric integriert werden. Einen

Volumes in den Plattenpuffer wird die zu ‘restorende’ File

Dual-Fabric-Support bieten alle auf dem Markt verfügbaren

direkt von Tape ausgelesen (ohne Zurückladen) und dem

VTLs an, doch nur die IBM TS7520 bietet zusätzlich Failover

Host zur Verfügung gestellt. Das spart wertvolle Zeit bei

und Load balancing. Dies wird durch den Multipfadtreiber

Restore-Aktivitäten.

gewährleistet.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

131

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

Es besteht die Möglichkeit, mehrere TS7520 VTLs über IP-

Duplizierungsverfahren bietet und dadurch wesentlich weni­

Verbindungen asynchron zu spiegeln. Dabei wird nach dem

ger physischen Plattenplatz benötigt, um diesselbe Kapazität

‘demount’ einer Kassette, zu einem bestimmten Zeitpunkt

abzubilden (siehe unter IBM ProtecTIER VTL mit Hyperfactor).

oder intervallmäßig, eine Kopie des logischen Volumes über IP zu einer anderen TS7520 übertragen. Bevor auf erzeugte kopierte Volumes zugegriffen werden kann, müssen diese

Data De-Duplication

Volumes durch einen administrativen Eingriff freigegeben werden, damit aktiv mit ihnen gearbeitet werden kann.

Das Thema De-Duplication wurde im Jahr 2007 zu einem oft

IP Replication kann nicht gleichzeitig mit Tape Caching

diskutierten Thema. De-Duplication ist nichts Neues. Es han­

durchgeführt werden.

delt sich um einen mathematischen Algorithmus, der BitBlock-Vergleiche durchführt. Das einzige Ziel ist die Vermei­

TS7530 – neues Modell

dung von Duplikaten. Dabei gibt es die unterschiedlichsten

Im Mai 2008 kündigt IBM die leistungsstärkere IBM Tape

Ansätze und Verfahrensmöglichkeiten. Man kann solche

Virtualization Engine TS7530 an, die vom Funktionsumfang

Verfahren im Betriebssystem etablieren. Ein Beispiel dafür

der TS7520 entspricht, allerdings neben höherer Leistung

ist das z/OS mit der Funktion Hyper PAV. Auch über Soft­

auch die Möglichkeit von RAID6 und den Einsatz von

ware-Tools sind solche Verfahren möglich, wie z. B. Analyse-

1-TB-SATA-Platten bietet und eine Ausbaustufe von bis zu

Tools, ILM, TPC oder Common Store oder über Vergleichsal­

1,7 PB (Petabyte) erlaubt. Die kleinste kapazitive Einstiegs­

gorithmen in SW und HW. Heutige De-Duplication-Verfahren

größe beginnt bei 6,5 TB. Erweiterungen können – je nach

werden vor allem beim Backup auf Virtuelle Tape Libraries

Plattenart – in 6,5-TB-Schritten, in 9,75-TB-Schritten und in

(VTLs) eingesetzt, weil die meisten Duplikate beim Backup

13-TB-Schritten erfolgen.

und bei der Archivierung erzeugt werden.

Die TS7520 und TS7530 unterstützen die Encryption-Mög-

Das erste professionelle De-Duplication-Verfahren führte

lichkeiten für Backend Tape Drives (TS1120 oder LTO4).

IBM bereits im Jahr 2006 für das Produkt IBM Common

Bei dieser HW-Encryption, die in diese Laufwerke integriert

Store ein. Common Store führt diese Vergleiche bei der

ist, sind keine Leistungsbeeinträchtigungen zu erwarten. Für

E-Mail-Archivierung auf Mail-Basis und/oder Attachment-

Tape-Laufwerke, die nicht mit Verschlüsselungstechnik

Basis durch und stellt sicher, dass eine E-Mail und/oder ein

arbeiten, bietet die TS7520 die Möglichkeit, die Daten auch

Attachment nur einmal archiviert wird. De-Duplication ist ein

über Software-Encryption-Methoden zu verschlüsseln, bevor

Feature von Common Store und ist nur in Verbindung mit dem

sie auf das physikalische Tape geschrieben werden.

IBM Content Manager als Backend Repository verfügbar.

Die TS7520 ermöglicht neben FC-Anbindungen auch iSCSI-

Der De-Duplication-Ansatz findet vor allem Freunde bei Vir-

Anbindungen, wenn Kunden iSCSI im Einsatz haben oder

tuellen Tape Libraries (VTLs). Der mathematische

haben wollen.

Vergleichs­algorithmus läuft dabei auf der VTL mit und führt Bit-Block-Vergleiche durch. Die Einsparungen an Platten­

Über die Funktionalität des Hosted Backups besteht die

platz können dabei durchaus den Faktor 10 – 20 erreichen.

Möglichkeit, die Backup-Software auch direkt auf der TS7520

Es sind verschiedene Ansätze verfügbar: über Software,

zu installieren. Dies ist allerdings nur zu empfehlen, wenn

über Microcode mit Hardware oder eine Kombination von

keine allzu großen Leistungsanforderungen an den Backup-

Software und Hardware. Man unterscheidet grundsätzlich

Server gestellt werden.

zwei Verfahren. Beim Inline-Verfahren werden die Vergleiche durchgeführt, bevor der Bit-Block auf Platte abgespeichert

132

Im Juli 2009 zieht IBM alle Modelle der TS7500 Familie von

wird. Hier ergibt sich das Problem der Skalierbarkeit und

Marketing zurück. Einer der Hauptgründe dürfte die fehlende

Leistung. Werden zu viele TB mit De-Duplication bearbeitet,

Möglichkeit der Daten-De-Duplizierung sein. Durch die Aqui­

gehen die VTLs sehr schnell in der Leistungsfähigkeit

sition der Firma Diligent im April 2008 und die schnelle

zurück, weil der Rechner nur noch den De-Dup-Algorithmus

Umsetzung dieser Technologie in der IBM Hardware setzt

durchführt. Die Empfehlung der Anbieter ist allgemein, nicht

IBM auf die ProtecTIER VTL, die ein einzigartiges Daten-De-

mehr als 15 – 20 TB mit De-Dup zu bearbeiten. Das andere

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Um De-Duplication besser zu verstehen, sehen wir uns folgendes einfaches Beispiel an:

Unsere zweite abzuspeichernde File ist in Form einer Lokomotive (1) dargestellt:

Unsere abzuspeichernde File ist das hier abgebildete Häuschen (1). Es wird in seine Bauteile zerlegt (2). Es besteht aus roten Würfeln, grünen Zylindern und blauen Dächlein. De-Duplication speichert jetzt jedes Bauteil nur einmal ab. Den drei Bausteinen wird noch eine Aufbauanleitung beigefügt, wie das Haus wieder aufzubauen ist und wie viele Bausteine dafür von jedem Element benötigt werden (3). Hier finden wir dieselben Bauteile, die bei der ersten File enthalten waren: der rote Würfel, der grüne Zylinder und das blaue Dächlein. Ein weiteres zusätzliches Element kommt hinzu, das gelbe Rad. Allen vier Bauteilen wird wieder eine Aufbauanleitung beigefügt (2). Da der rote Würfel, der grüne Zylinder und das blaue Dächlein bereits abgespeichert sind, müssen wir nur noch das gelbe Rad und die Aufbauanleitung abspeichern (3). Für beide Files, das ‘Haus’ und die ‘Lokomotive’, wurden nur vier Bauelemente und zwei Aufbauanleitungen abgespeichert. Das Kritische an diesem Verfahren ist: Wenn eine Aufbauanleitung verloren geht, gibt es keine Möglichkeit der Rekonstruktion!

Verfahren ist das Post-Processing-Verfahren, wobei der

einen leistungsfähigen und hochskalierbaren Algorithmus zu

Algorithmus nachgelagert stattfindet. Man schreibt die Blö­

entwickeln, der sowohl in Hardware- als auch in Software-

cke zuerst ohne De-Dup auf Platte und führt die Vergleiche

Lösungen integrierbar ist. Im Herbst 2008 wird ein De-Dupli­

anschließend durch. Dafür wird dann aber zusätzlicher

cation-Verfahren als Post-Processing-Verfahren in die

Speicherplatz benötigt.

Backup-Software TSM (Tivoli Storage Manager) integriert und steht mit dem TSM Release 6.1 zur Verfügung.

De-Duplication-Verfahren werden heute von den Firmen IBM (Diligent), EMC2 (Data Domain), Quantum, FalconStor,

Im April 2008 aquiriert IBM die israelische Firma Diligent,

Sepaton und Network Appliance angeboten. Auch für die

um mit der DILIGENT-Technologie namens ProtecTIER die

IBM Nseries steht De-Duplication in Form der Funktion A-SIS

Herausforderungen Datenwachstum und den Wunsch nach

(Advanced Single Instance Storage) zur Verfügung.

längerer plattenbasierter Datenvorhaltung innerhalb der Datensicherung zu adressieren. ProtecTIER ist eine für den

Die IBM beschäftigt sich schon seit einigen Jahren mit dem

Enterprise-Markt prämierte und seit fünf Jahren bewährte

Thema Daten-De-Duplizierung. Bereits im Januar 2004

Softwarelösung, die die Technologien Virtuelle Tape Library

wurde im IBM Labor Almaden in Kalifornien das Projekt ‘Bit

(VTL) und Daten-De-Duplizierung (DDD) vereint. Die DDD-

Block Mathematics’ ins Leben gerufen. Die Gruppe bestand

Engine innerhalb der ProtecTIER-VTL-Lösung heißt Hyper­

aus Microcode-Spezialisten und Mathematikern. Ziel war es,

factor.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

133

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

IBM Daten-De-Duplizierung mit ProtecTIER und Hyperfactor

ProtecTIER Gateway TS7650G

Nach der Übernahme von Diligent etabliert IBM einen Pro­

Nachdem das ProtecTier Gateway zwischen den Servern

duktplan, um die ProtecTIER-VTL-Lösung mit Hyperfactor in

und den Disksystemen, auf die der Backup gemacht wer­

geeignete IBM Hardware-Produkte umzusetzen. Bereits im

den soll, installiert ist, werden die Hyperfactor-Algorithmen

August 2008 erfolgt die erste Ankündigung der Gateway-

dazu verwendet, redundante Daten herauszufiltern. Dazu ist

Lösungen, also xSeries-basierende Server, die Plattensyste­

ein Index notwendig, über den festgestellt werden kann,

men, die als Backup-Repository dienen, vorgeschaltet wer­

welche Datenblöcke bereits im Repository, d.h. auf den

den und mit dem ProtecTIER und Hyperfactor-Algorithmus

Disksystemen abgespeichert sind. Der Algorithmus analy­

arbeiten. Im Februar 2009 kündigt IBM die entsprechenden

siert den ankommenden Datenstrom und stellt über den

Lösungen als Appliances an und im Juli 2009 erfogt die

Index Ähnlichkeiten fest (agnostisches Verfahren). Werden

Ankündigung der direkten Replikationsmöglichkeit der Gate­

keine Ähnlichkeiten gefunden, wird der entsprechende

ways.

Block direkt im Repository gespeichert. Bei Ähnlichkeiten werden die entsprechenden Blöcke vom Repository eingele­

HyperFactor als Data De-Duplizierung ist ein mathema­

sen und mit den neuen Daten verglichen. Dabei werden die

tischer Algorithmus, der auf variable Bit-Block-Vergleiche

identischen Daten herausgefiltert und nur die verbleibende

schon gespeicherte Blöcke herausfiltert, sodass sie nicht

Differenz wird im Repository neu abgespeichert. Über diese

doppelt abgespeichert werden. Hyperfactor vermeidet also

Methode ist eine 100%ige Datenintegrität gewährleistet. Der

die Abspeicherung von Duplikaten. Die Einsparung ist dabei

Index hat eine feste Größe von 4 GB und wird permanent im

direkt vom erzielten De-Duplizierungsfaktor abhängig, der

Hauptspeicher des Gateways (xSeries) gehalten.

bis zu Faktor 25 gehen kann. Vor allem bei Backup-Verfah­ ren, die viele Full Backups beinhalten und eine relativ lange

Das Verhältnis der gespeicherten Daten zum Index (Ratio of

Retention-Periode haben, werden die höchsten De-Duplizie­

Repository to Index) spiegelt die Effizienz des Index wider.

rungsfaktoren erreicht. Bei TSM sind die Faktoren wesentlich

Die Zahl von 250.000:1 beim Hyperfactor-Verfahren sagt

kleiner, weil TSM schon auf ‘incremental’ Basis arbeitet und

aus, dass ProtecTier mit einem festen Memory Index von 4

nur die entstandenen Änderungen im Backup wegschreibt.

GB das 250.000fache, d.h. 1 PetaByte an Daten verwalten

Metadata Metadata Metadata Metadata Metadata Metadata

User Data User Data User Data User Data User Data User Data

Speicherung auf dem ProtecTIER Repository

134

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

kann. Dabei ist der De-Duplizierungsfaktor noch nicht

Die hohe Leistungsfähigkeit von Hyperfactor kommt von der

berücksichtigt. Wäre der erzielte Faktor bei 25, könnten 25

Tatsache, dass der Algorithmus auf dynamischer Blockbasis

PetaByte an Daten verwaltet werden. Dies ist der große

arbeitet und identifizierte kleine Blöcke, die kleiner als 8 KB

Vorteil dieser Lösung, weil die verwalteten Kapazitäten ohne

sind, nicht betrachtet werden und sofort als ‘neu’ im Reposi­

Leistungsverlust in diese hohe Dimension skaliert werden

tory gespeichert werden. Würde man diese kleinen Blöcke

können (im Vergleich: Hash-basierende Verfahren erzielen in

wie die großen Blöcke behandeln, wäre eine Skalierbarkeit

der Regel nur ein Ratio von etwa 400:1. Das bedeutet, dass

in diese hohe Leistungsklasse nicht möglich.

die Anforderung an die Hauptspeichergröße im Rechner wesentlich höher ist und ab einer bestimmten Datenmenge

Als Band-Laufwerksemulation verwendet ProtecTier virtuelle

der Index nicht mehr komplett im Hauptspeicher gehalten

LTO-Laufwerke (LTO-3). Neben LTO ist auch die Emulation

werden kann. Dann kommt es sofort zum Performance-Ein­

von DLT (DLT7000) möglich. Unterstützt sind bis zu 256 vir­

bruch! Die ProtecTier-Lösung ist daher deutlich besser für

tuelle Laufwerke per Node und 512 Laufwerke per Cluster.

sehr hohe Kapazitäten bei hoher Leistungsfähigkeit im Ver­

In einer Clusterkonfiguration können bis zu 16 virtuelle

gleich zu Hash-basierenden Verfahren geeignet und bildet

Libraries abgebildet und bis zu 500.000 virtuelle Kassetten

eine echte ‘Enterprise’-Lösung ab).

emuliert werden.

Das ProtecTier Repository beinhaltet sowohl die Backup-

Das Hyperfactor-De-Duplication-Verfahren stellt derzeit auf

Daten als auch die dazugehörigen Meta-Daten. Die Meta-

dem Markt als einziges Verfahren eine 100%ige Dateninte-

Daten beinhalten 2 Kopien des Hyperfactor Index, alle virtu­

grität sicher. Im Backend, also hinter dem Gateway, sind alle

ellen Volume Files, die Konfigurationsdaten der virtuellen

aktuellen IBM Plattensysteme unterstützt. Auch IBM Nicht-

Libraries und Storage Management Daten (Pointer-Tabellen,

Systeme von HDS, EMC und HP können betrieben werden.

Referenz Counter etc.). ProtecTIER neue Prozessoren für das TS7650G Gateway Dabei werden die Datenblöcke selbst im Repository RAID5

Im 1. Quartal 2009 führt IBM neue Prozessoren für die

basierend abgespeichert, während die Meta-Daten aus

TS7650G Gateways ein. Zum Einsatz kommt der x3850 M2

Sicherheitsgründen RAID10 basierend, also doppelt, abge­

MT7233 Prozessor. Hierbei handelt es sich um einen 4 x 6

speichert werden.

Core Prozessor mit 2,6 GHz und 32 GB RAM mit zwei inte­ grierten RAID1-betriebenen 146 GB SAS Disk-Laufwerken, 2

Das Repository kann auf einem einzigen RAID-Array gehal­

Emulex Dual Port FC Adapter für die Hostanbindung und

ten werden oder über viele RAID-Arrays verteilt werden.

zwei Qlogic Dual Port FC HBAs für die Anbindung des

LUNs, die für das ProtecTier Repository benutzt werden,

Backend-Platten-Repositories. Für die Replizierung stehen

dürfen nicht von einer Array-Gruppe kommen, die von ande­

Dual Port Gigabit Ethernet Adapter zur Verfügung. Der neue

ren Applikationen benutzt werden. Es wird empfohlen, dass

Prozessor steigert die Gateway-Leistungsfähigkeit um ca.

für das Repository eine LUN so angelegt wird, dass sie die

30%. Dies wird durch den 4 x 6 Core Prozessor möglich,

gesamte RAID-Gruppe umfasst.

der jetzt gleichzeitig 24 Datenströme mit De-Duplizierung bearbeiten kann.

IBM Hyperfactor kann bis zu einer Datenreduzierung 25:1 führen und skaliert bis auf 1 PB native Plattenkapazität. Bei

TS7650G Disk Backend als Repository

einem erreichten De-Duplication-Faktor 25:1 können bei

Im Backend des TS7650G Gateways werden die IBM Plat­

einer nativen 1-PB-Plattenkapazität 25 PB an Daten verwaltet

tensysteme DS3400, die DS4000- und DS5000-Modelle, die

werden. Das Gateway ist als Single Note Gateway oder in

DS8000, XIV Storage, SVC und Nseries unterstützt. Ebenso

einer Clusterkonfiguration mit zwei Nodes verfügbar.

können die Nicht-IBM-Plattensysteme HDS AMS1000, EMC

Die Leistung liegt bei einer Clusterkonfiguration bei bis zu

CX und HP EVA betrieben werden.

1.000 MB/s, ist aber direkt abhängig von der dahinter­ liegenden Platteninfrastruktur und Plattenart (FC-Platten oder SATA-, FATA-Platten).

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

135

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

ProtecTIER Replikation

Die Replikation kann Policy-basierend betrieben werden.

Für die Gateway-Lösung besteht seit September 2009 (Ver­

Dabei kann die Replikation ständig und sofort durchgeführt

fügbarkeit) die Möglichkeit der IP-basierten Replikation.

werden (Immediate Mode). Man kann die Replikation aber

Damit können virtuelle Bänder in eine andere Lokation direkt

auch in einem geplanten Zeitfenster durchführen (Replica­

kopiert werden, um auf diese Weise die Notwendigkeit von

tion Window). Die Policies können sowohl einzelne Kasset­

physikalischen Bandtransporten zu vermeiden. Da bei der

ten als auch einen Pool von vielen Kassetten administrieren.

Replikation nur die geänderten Blöcke übertragen werden,

Dabei gibt es zwei Betriebs-Modi: Der Visibility-Control-

hält sich die benötigte Bandbreite der IP-Verbindungen in

Modus importiert bzw. exportiert die Kassetten, die über die

Grenzen. Die Anforderung für eine dritte, ‘sichere’ Kopie

Backup-Applikation gesteuert werden (Check-Out). Kasset­

besteht bei vielen IT-Umgebungen schon lange, doch bisher

ten, die exportiert werden, werden in die Target-VTL repli­

konnte dies technisch nicht umgesetzt werden, weil entspre­

ziert. Beim Basic-DR-Modus (Disaster Recovery) läuft die

chende Leitungskapazitäten nicht vorhanden oder nicht

Replikation ständig und transparent zur Backup-Applikation

bezahlbar waren. Jetzt steht dem nichts mehr im Wege und

mit und die Kassetten stehen sowohl auf der primären Seite

solche Konzepte können ohne die Notwendigkeit riesiger

als auch auf der Remote-Seite zur Verfügung.

Übertragungsbandbreiten realisiert werden. Multipathing und Control Path Failover Pro Node stehen zwei Ethernet-IP-Ports zur Verfügung.

Das TS7650G Gateway und die TS7650 Appliances bieten

Ältere Systeme können durch eine zweite Ethernet-Karte

zusammen mit der TS7500 Familie derzeit als einzige VTL-

nachgerüstet werden. Das Besondere dieser Replikations­

Systeme auf dem Markt einen Multipfad-Device-Treiber für

funktion ist der automatische Failover und Failback. Fällt die

FC Failover und Load Balancing an. Damit lassen sich die

primäre Seite aus, kann die Disaster/Recovery-Seite per

VTL-Lösungen redundant in SAN Fabric-Infrastrukturen

Knopfdruck zur ‘Primary’ gemacht werden und der Betrieb

betreiben. Fallen Adapter, Pfade oder ganze SAN-Switche

läuft weiter. Steht die primäre Seite dann wieder zur Verfü­

aus, läuft der Betrieb unterbrechungsfrei weiter, weil die

gung, wird ein Failback durchgeführt und die Daten werden

‘Commands’ für die virtuelle Library und Laufwerke automa­

zur primären Seite zurückrepliziert.

tisch über die verbleibenden Adapter, Pfade und SAN-Swit­ che übertragen werden können (Control Path Failover und Data Path Failover).

136

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Zusätzlich bietet der Data Path Failover ein Load Balancing

IBM TS1130 Bandlaufwerk der ‘Enterprise’-Klasse –

auf den redundanten Pfaden vom Server zu den virtuellen

der Durchbruch in der Tape-Technologie

Laufwerken an. Dadurch wird eine gleichmäßige Auslastung

Im Juli 2008 kündigt IBM mit Verfügbarkeit September 2008

der physikalischen FibreChannel-Links und den FC-Ports

das neue Bandlaufwerk TS1130 an und leitet damit eine

ermöglicht.

neue Technologiebasis für die Tape-Weiterentwicklung ein!

ProtecTIER TS7650 Appliances

Das technologische Highlight des TS1130 Laufwerks spie­

Neben der Gateway-Lösung stehen auch Appliance-

gelt sich in den neuen Schreib-/Leseelementen wider. Erst­

Lösungen im Sinne von ‘all-in-one’ zur Verfügung.

malig wird in einer Tape-Laufwerkstechnologie neben den induktiven Schreibköpfen als Lesekopf ein GMR-Lesekopf

Mit den Appliances adressiert IBM vor allem Mittelstands­

(Giant Magneto Resistance) eingesetzt. GMR war im Jahr

kunden, die jetzt auch die Möglichkeit haben, eine Enter­

2007 in aller Munde, als für die Entdeckung des GMR-

prise-Lösung für De-Dup-VTLs kostengünstig zu etablieren.

Effekts Peter Grünberg und Albert Fert mit dem Nobelpreis für Physik ausgezeichnet wurden. Ohne diese Entdeckung

IBM hat den Hyperfactor-De-Duplizierungsalgorithmus nach

wären die hohen Kapazitäten bei Festplatten nicht möglich

allen Regeln der Kunst darauf überprüft, ob tatsächlich eine

geworden. Die Umsetzung dieses Effekts in ein Produkt

100%ige Datenintegrität gewährleitet ist. Dafür wurden auch

wurde durch den IBM Forscher Stuart Parkin ermöglicht, der

Fremdfirmen und ‘Hacker’ beauftragt. Es konnten keine

dazu noch sieben Jahre benötigte und Ende 1997 den

Schwachstellen aufgedeckt werden. Es ist deshalb davon

ersten GMR-Lesekopf in ein Plattenlaufwerk integrierte. Nun

auszugehen, dass IBM Daten-De-Duplizierung über die Zeit

hält diese Technologie auch Einzug im Tape-Bereich!

auf das ganze IBM Speicherportfolio und alle Betriebssys­ templattformen adaptieren wird. ProtecTier ist für die Main­

GMR-Leseköpfe sind in der Lage, kleinste Streufelder von

frame-Umgebung (System z) bereits in 2010 vorgesehen.

Bits auszulesen und das in einer Geschwindigkeit, wie es mit keiner anderen Technologie möglich ist. Dem GMR-Kopf ist es zu verdanken, dass jetzt in der TS1130 die ‘High Speed Search’-Geschwindigkeit von bisher 10 m/s (bei TS1120) auf sagenhafte 12,4 m/s gesteigert werden konnte, also von 36 km/h auf 45 km/h. Beim High Speed Search werden die Tape Marks auf dem Band beim Vorspulen aus­ gelesen und das geht jetzt mit dem GMR-Kopf wesentlich schneller, sodass damit die Zugriffsgeschwindigkeit auf eine auszulesende File beträchtlich gesteigert wird. Neben den Highlights, die schon die Vorgängertechnologie TS1120 integriert hatte, sind viele zusätzliche Einrichtungen verbessert worden, um eine noch höhrere Verfügbarkeit und Zuverlässigkeit zu gewährleisten. Die Vorgänger-Laufwerke TS1120 sind zudem auf die neuen TS1130 Laufwerke hochrüstbar, was jeden TS1120 Nutzer freuen wird. Die Medien, also die Kassetten, bleiben diesel­ ben, d. h. kein Medienwechsel.

TS1130 Bandlaufwerk der ‘Enterprise’-Klasse

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

137

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

3592 Kassetten

Bandlänge

Kassetten-Type

Gen. 1 3592

Gen. 2 TS1120

Gen. 3 TS1130

JJ

200 m

Read Write

60 GB

100 GB

128 GB

JA

609 m

Read Write

300 GB

500 GB

640 GB

JB

825 m

Read Write

700 GB

1.000 GB

JR

200 m

WORM

60 GB

100 GB

128 GB

JW

609 m

WORM

300 GB

500 GB

640 GB

JX

825 m

WORM

700 GB

1.000 GB

IBM 3592 Bandkassettenformate

Das TS1130 Laufwerk arbeitet mit der zur Zeit höchsten

Der Formatfaktor des Laufwerks und der Kassetten ermöglicht

Datenrate (160 MB/s native) und benötigt für die Sicherung

den Einsatz des Laufwerks in den Tape Libraries IBM 3494

von komprimierten Daten (2,3:1) mit bis zu 1.296 GB nur

und IBM TS3500, TS3400 oder in Stand-alone-Rack-

eine Stunde. Die maximale Kapazität pro Kassette beträgt

Lösungen. Unternehmensweite Anschlussmöglichkeiten

1 Terabyte (JB- und JX-Kassetten). Dabei werden 1.152

sind gegeben: FibreChannel 4 Gb/s über Switched Fabric

Spuren auf der Kassette aufgezeichnet (288 per Datenband

mit zwei Ports für Open-Systems-Server und FICON- oder

x 4 = 1.152 Spuren).

ESCON-Unterstützung (2 Gb) über A60 u J70 und (4 Gb) über C06 für Server mit zOS.

Bandformate und Kompatibilität Die 1. Laufwerksgeneration 3592-J1A schrieb im Gen1-Format

Die Encryption-Möglichkeit, IBM 3592 Kassetten so zu

300 GB auf die JA-Kassette und 60 GB auf die JJ-Kassette.

beschreiben, dass nur die Instanz sie wieder auslesen kann,

Die 2. Laufwerksgeneration TS1120 (3592-E05) schreibt im

die den dazugehörigen Encryption Key kennt und hat, ist

Gen2-Format 500 GB auf die JA-Kassette und 100 GB auf

wie beim Vorgänger TS1120 gegeben.

die JJ-Kassette. Das TS1120 Laufwerk kann auch im Gen1Format 300 GB auf die JA- und 60 GB auf die JJ-Kassette

Mit den Durchsatz-/Kapazitätsmerkmalen und den schnellen

schreiben. Seit Verfügbarkeit der JB-Kassette schreibt das

Spul- und Fast-Search-Zeiten, ist das IBM TS1130 Laufwerk

TS1120 Laufwerk im Gen2-Format 700 GB auf die JB-

einzigartig im Markt. Ein Backup-Fenster kann mit dem Ein­

Kassette.

satz von TS1130 Laufwerken bei gleicher Laufwerksanzahl auf 80% reduziert werden (z. B. Im Vergleich zu Generation 1).

Die 3. Laufwerksgeneration TS1130 (3592-E06/EU6) schreibt im Gen3-Format 1.000 GB und im Gen2-Format 700 GB auf die JB-Kassette; 640 GB im Gen3-Format und 500 GB im Gen2-Format auf die JA-Kassette und 128 GB im Gen3-Format und 100 GB im Gen2-Format auf die JJ-Kassette.

138

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Das Laufwerk ist mit zwei Control-Prozessoren ausgestattet.

Der Pufferspeicher wurde zum Vorgänger (TS1120) auf

Das führt zu enormer Performance und Ausfallsicherheit.

1 GB verdoppelt. Dadurch wird eine wesentliche Leistungs­

Um den enormen Durchsatz von 160 MB/s auch nutzen zu

steigerung bezüglich Virtual Backhitch erreicht, da das

können, sind die TS1130 Laufwerke mit zwei 4-Gbit-FC-

Laufwerk noch länger am ‘Streamen’ bleibt. Für die Optimie­

Schittstellen ausgerüstet. Bereits mit den 3592-Laufwerken

rung der Verarbeitung von großen Files wurde ein

konnte IBM den Weltrekord in Sachen Spulgeschwindigkeit

SkipSync-Feature eingeführt, das eine bis zu 80 %ige

(‘High Speed Search’ von 8 m / s.) für sich beanspruchen.

­Leistungsverbesserung für diese Worloads bewirkt. Trotz

Mit den neuen TS1130 Laufwerken übertrifft IBM ihren eigenen

der höheren kapazitiven Nutzung der Kassetten (bis 1 TB)

Rekord und spult mit 12,4 m/s. Das entspricht 45 km/Stunde –

ist das TS1130 Laufwerke in allen Bereichen wesentlich

atemberaubend für ein Bandlaufwerk! Ohne GMR-Technik

schneller als sein Vorgänger.

hätte das nie realisiert werden können!

IBM 3592/TS1120/TS1130 Laufwerkspezifikationen im Überblick Laufwerk Feature

IBM 3592

IBM TS1120

IBM TS1130

Max. Kassettenkapazität

300 GB

700 GB

1.000 GB

Datenrate (native)

40 MB/s

104 MB/s

160 MB/s

System z-Anschluss

2 Gb FICON/ESCON

4 Gb FICON/ESCON

4 Gb FICON/ESCON

Open-System-Anschluss

2 Gbps FibreChannel

4 Gbps FibreChannel

4 Gbps FibreChannel

Virtual Backhitch

Ja

Ja

Ja (erweitert)

Pufferspeicher

128 MB

512 MB

1 GB

Speed Matching

6 Geschwindigkeiten

6 Geschwindigkeiten

6 Geschwindigkeiten

Load-Thread-Zeiten

16 Sekunden

13 Sekunden

13 Sekunden

Durchschnittliche Zugriffszeit inkl. 60 Sekunden Laden

47 Sekunden

38 Sekunden

Verschlüsselung

nein

Ja (kein Aufpreis)

Ja (kein Aufpreis)

Stromverbrauch

42 Watt

42 Watt

46 Watt

Standby

27 Watt

27 Watt

17 Watt

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

139

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

Virtualisierung von Tape Libraries

Die Hosts, also die Backup-Applikationen, sehen völlig transparent virtuelle Laufwerke und virtuelle Kassettenslots

TS3500 (3584) Library-Virtualisierung mit ALMS

so, als ob sie physisch vorhanden wären. ALMS zieht

(Advanced Library Management System)

­zwischen der Library-Hardware und den Hosts eine virtuelle

Eine einmalige Funktionalität bietet die TS3500 mit ALMS

Schicht ein, die es erlaubt, im laufenden Betrieb Hardware-

(Advanced Tape Library Management System). ALMS steht

Erweiterungen vorzunehmen, logische Partitionen umzukon­

für die TS3500 schon seit April 2006 zur Verfügung, wurde

figurieren, zu verkleinern und zu vergrößern, ob es nun die

aber erst richtig im Jahr 2007 genutzt. Mit ALMS wird die

Laufwerke oder die Slots betrifft. ALMS ist eine einmalige

physische Library virtualisiert, d. h., die HW wird von den Hosts

Funktionalität, die es nur mit der TS3500 Library gibt. ALMS

abgekoppelt. Zu den Hosts werden virtuelle Laufwerke und

bietet vier wichtige Funktionalitäten für die TS3500 Library.

virtuelle Kassettenslots dargestellt. Dies ermög­licht eine noch nie dagewesene Flexibilität, weil logische Partitionen als logische Libraries im laufenden Betrieb dynamisch ver­ ändert, also verkleinert oder vergrößert, werden können.

Storage Slot und Drive-Virtualisierung mit ALMS

140

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

1.) Dynamisches Partitioning Mit ALMS können im laufenden Betrieb Partitionen erstellt oder verändert werden. Die physische Position in der Library ist dabei nicht mehr relevant. Dies bezieht sich auf Kassettenund Laufwerksstellplätze. 2.) Laufwerkssharing Mit ALMS können Laufwerke verschiedenen Backup-Servern zugeordnet werden und für den Backup-Server online gesetzt werden, der sie gerade benötigt. 3.) Virtual I/O ALMS bietet eine größere logische I/O-Station. Die Funktion ‘Virtual I/O’ ermöglicht es, dem Backup-Server eine virtuelle I/O-Station von bis zu 255 Slots darzustellen. Das vereinfacht das Kassettenmanagement beim Ein- und Auschecken. 4.) Overallocation/Underallocation Mit ALMS ist eine flexible Darstellung der Library-Größe möglich und somit Over- und Underallocation. Overalloca­

TS3500 Library 4 I/O Station D-Frame

tion verringert den Administrationsaufwand bei einer LibraryErweiterung. Underallocation spart Lizenzkosten, z. B. im

Bei den neuen Frames können nun TS1120 Frames (L23,

Legato-Umfeld.

D23) in LTO-Frames (L53, D53) umgebaut werden. Ebenso können die neuen LTO-Frames (L53, D53) in neue TS1120-

TS3500 Library Hardware-Erweiterungen 2007

Frames (L23, D23) konvertiert werden. Damit bietet die

Neben der Virtual I/O-Option des ALMS besteht seit Juni

TS3500 eine sehr flexible Möglichkeit, bestehende Frames

2006 die Möglichkeit, D-Frames mit zusätzlichen phy-

auf neu gewünschte Ziel-Frames zu konvertieren.

sischen I/O-Stations zu versehen. Bis zu vier I/O-Stations mit jeweils bis zu 16 I/O-Slots können in eine D-Frame-Tür

Die TS3500 Library bietet mit der Funktionalität des Data

integriert werden.

Gatherings die Möglichkeit, Informationen über die unter­ schiedlichsten Dinge, die in der Library ablaufen, zu erhalten.

Die TS3500 unterstützt drei solchermaßen ausgestattete D-Frames innerhalb der Library. Zusammen mit der I/O Sta­

Die Laufwerk-Statistik enthält Informationen über die letz­

tion im L-Frame mit 32 I/O-Slots, drei D-Frames mit bis zu

ten Mounts jedes Laufwerks (nicht mit LTO1 möglich), die

64 I/O-Slots bietet die TS3500 die Möglichkeit, 224 phy-

Port Statistic enthält FibreChannel-Port-Informationen der

sische Kassetten in die Library als ‘Bulk’ einzulagern oder

letzten Mounts (nicht mit LTO1 möglich), die Mount History

als ‘Bulk’ aus der Library zu entnehmen.

zeigt die Mount-Statistik der letzten 100 Kassetten, die ‘demounted’ wurden, und die Library Statistics gibt Aufschluss

Für die TS3500 stehen flexible Modellkonvertierungen zur

über eine effektive Auslastung der logischen Libraries, d. h.,

Verfügung. So können alte Frames wie z. B. L22 und D22

es wird deutlich, ob manche logischen Libraries überdurch­

mit TS1120 Laufwerken in die neuen L23- und D23-Frames

schnittlich genutzt werden. Dadurch können die Partitionen

umgebaut werden. Dasselbe gilt für die alten LTO-Frames

geändert werden, um die Library Performance zu verbessern.

L52 und D52, die in die neuen LTO-Frames L53 und D53

Dies ist nur mit den neuen Frames möglich. Zusätzlich kann

umgebaut werden können.

eine Vielzahl von Informationen wie Residency Max Time (maximale Mountzeit einer Kassette), Residency Avg Time (durchschnittliche Mountzeit einer Kassette), Mounts Total (Anzahl der gesamten Mounts), Mounts Max Time

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

141

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

(Maximalzeiten der Mounts), Mounts Avg Time (Durch­ schnittszeiten der Mounts), Ejects Total (Anzahl der Kasset­ tenausgaben), Ejects Max Time (Maximalzeiten von Kasset­ tenausgaben), Ejects Avg Time (Durchschnittszeiten von Kassettenausgaben) und Total Inputs (Anzahl der Kasset­ ten-Inserts, die über die I/O-Station der Library zugeführt werden) jeweils der letzten Stunde abgerufen werden. IBM TS3500 Library – neue Erweiterungen und HD-Technologie (High Density) Im Juli und August 2008 kündigt IBM für die High End Library TS3500 (3584) massive Erweiterungen an. Mit dem am 15.07.2008 angekündigten neuen Release 8A

IBM TS3500 – schnellstes Bandarchiv im Markt

unterstützt die TS3500 Tape Library die neuen TS1130 Lauf­ werke. Der Mischbetrieb mit den Vorgängerlaufwerken ist

lagern. Für die 3592-Kassetten wird das neue S24 Frame

auch gewährleistet. Voraussetzung für den Einsatz der

verwendet, für die LTO-Kassetten das neue S54 Frame.

neuen TS1130 Laufwerke ist ALMS (Advanced Library

Voraussetzung für den Betrieb der neuen Frames in der

Management System). Neben der Unterstützung der

TS3500 Library ist ALMS (Advanced Library Management

TS1130 Laufwerke bietet der neue Release 8A die Möglich­

System) und ein neuer Gripper. Die Kassetten werden in

keit der SSL-Funktionalität (Secure Socket Layer). Dieser

mehreren Slot-Reihen hintereinander abgelegt. Greift der

stellt sicher, dass, wenn die Library über das Web adminis­

Gripper, der diesem neuen Handling angepasst wurde, eine

tiert wird, kein anderer sich „dazwischenhacken“ kann, und

Kassette aus der ersten Reihe, rutschen die dahinterlie­

gewährleistet so absolute Administrationssicherheit. Ebenso

genden Kassetten um einen Slot nach vorne und umgekehrt!

wurde bezüglich der Standardisierung die IPv6-Unterstüt­

Eine geniale und IBM patentierte Konstruktion, um auf aller­

zung zur Verfügung gestellt (in USA eine wichtige Anforde­

kleinstem Raum viele Kassetten unterzubringen und dabei

rung) und die standardisierte SMI-S-Schnittstelle integriert.

Vollautomation sicherzustellen.

Ein neues Tool ist der TSR, der ‘Tape System Reporter’. Dieser erlaubt es mit Windows basierenden Systemen (also z. B. mit dem Laptop), aktuelle Status-Abfragen der Library zu bekommen und zu sammeln (auch über einen längeren Zeitraum). Alle Updates und Neuerungen sind über einen Microcode-Update verfügbar. Für alle Sx4-Gehäuseeinheiten stehen jetzt auch LEDs als Beleuchtung zur Verfügung (Bild rechts). So kann ein Beo­ bachter genauer sehen, was der Roboter und die Kassetten machen, und kann den Betriebsablauf in der Library sicht­ bar verfolgen. Interessant ist, dass diese Anforderung von vielen TS3500-Nutzern gestellt wurde! Mit dem am 26.08.08 angekündigten neuen Release 8B stehen der Library ganz neue, sogenannte High Density (HD) Frames, zu Verfügung, die es erlauben, über die drei­

IBM TS3500 – LED-Beleuchtung

fache Menge an physischen Kassetten in einem Frame zu

142

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Im S24 Frame für 3592 Kassetten (1/2 Zoll) , die etwas größer

Darüber hinaus werden die Slots der Tierstufe 0 als Cart-

als LTO-Kassetten sind, sind 5 Tierstufen etabliert, d. h., auf

ridge Cache behandelt, d. h. alle Kassetten, die sich in

der Rückseite des Frames sind hinter jeder Slotreihe noch­

Slots der Tierstufe 0 befinden, werden einem LRU-Caching-

mals 3 zusätzliche Slotreihen untergebracht. Ein S24 Frame

Algorithmus (Least Recently Used) unterzogen. Werden die

kann damit bis zu 1.000 Kassetten ablegen. Für die

Kassetten länger nicht gebraucht (im Vergleich zu anderen

kleineren LTO-Kassetten stehen sogar 6 Tierstufen zur Ver­

Kassetten der Tierstufe 0), werden sie von Tierstufe 0 in

fügung, d. h., hinter jeder Slotreihe auf der Rückseite sind

Slots der Tierstufe 1 verlagert. Werden sie dort im Vergleich

nochmals 4 zusätzliche Slotreihen untergebracht. Ein S54

zu anderen Kassetten der Tierstufe 1 nicht benutzt, werden

Frame kann somit bis zu 1.320 Kassetten ablegen.

sie in Slots der Tierstufe 2 verlagert. Das geht je nach Füll­ grad der HD-Slots bis in die letzte Tierstufe. Das Cartridge Caching stellt also sicher, dass Kassetten, die häufig benö­ tigt werden, immer im direkten Zugriff des Roboters stehen, also in Tierstufe 0 und 1. Sind nun mehrere HD-Frames innerhalb einer Library in Betrieb, sorgt die Funktion Tier Load Balancing dafür, dass alle HD-Slots vom Kassettenfüllgrad über alle HD-Frames gleichmäßig benutzt werden (ausbalancierte Slotausnutzung über alle HD-Frames). So wird sichergestellt, dass sich die Kassetten möglichst in den Slots der kleineren Tierstufen befinden und alle HD-Frames bezüglich ihrer Tierbenutzung gleichmäßig optimiert werden. Über eine SCSI Command Option kann für bestimmte Kas­ setten der Cartridge Caching Algorithmus umgangen wer­ den. Die Option lässt zu, ausgewählte Kassetten immer im Cache, also immer in der Tierstufe 0 zu lagern oder auch nicht. Der Command steuert das gezielte Prestaging und Destaging von ausgewählten Kassetten in und aus dem Cache (Tierstufe 0). Für die neuen HD-Frames steht eine „Capacity on Demand“ Option (CoD) zur Verfügung. Standardmäßig werden die

IBM TS3500 – HD-Frame S54 für LTO-Kassetten

neuen S24 und S54 Frames so ausgeliefert, dass 3 vertikale Die Hardware in Form von HD-Frames ist die eine Sache,

Tierreihen aktiviert sind. Tier 0 auf der Frontseite und die

doch jetzt gilt es, diese HD-Frames effektiv zu verwalten.

ersten beiden Tiers 1 und 2 auf der Rückseite des Frames.

Dazu stehen neue Funktionen für die TS3500 Library zur

Mit dieser Aktivierung kann ein S24 Frames 600 Slots und

Verfügung.

ein S54 Frames 660 Slots nutzen.

Hier ist am Beispiel des S54 Frames (siehe Abbildung) mit

Über eine ‘On Demand’-Aktivierung können die noch nicht

bis zu 5 Tierstufen das HD Slot Management beschrieben.

genutzten Slots freigeschaltet werden, d. h., bei dem S24

Alle Tiers und damit alle HD-Slots sind völlig transparent zu

Frame werden die Tiers 3 und 4 freigeschaltet und bei dem

den Hosts. Drei Key-Elemente sind für das HD Slot Manage­

S54 Frame die Tiers 3, 4 und 5. Mit dieser Freischaltung

ment zuständig. Die Funktion Floating Home Cell optimiert

können alle Slots im Frame genutzt werden und damit die

die Kassettenbelegung in den Slots der Tierstufen 0 und 1.

maximale Anzahl an Kassetten und damit die höchste Kapa­ zität abgebildet werden.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

143

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

Modellkonvertierungen der neuen Frames, also der Umbau

Tape Library-Virtualisierung mit dem Enterprise Removable

von S24 nach S54 oder von S54 nach S24 stehen seit dem

Media Manager (eRMM, iRMM)

20. Februar 2009 zur Verfügung.

Der Enterprise Removable Media Manager bildet einen Vir­ tualisierungslayer zwischen Datensicherungs-Anwendungen

Mount-Zeiten HD-Frames

und der Tape Library-Hardware. Durch die Entkoppelung

Die Roboter Mount-Zeiten wurden für die HD-Frames in

von Datensicherungsanwendungen und Tape Library-Hard­

einer 6-Frame-Konfiguration der TS3500 unter Produktions­

ware wird größtmögliche Flexibilität und Skalierbarkeit der

bedingungen bei einem Kunden ermittelt (siehe Grafik

Tape Library-Infrastruktur erreicht und der Funktionsumfang

‘Roboter Mount-Zeiten HD-Frames’).

von Libraries mit SCSI Media Changer wie z. B. IBM TS3500, durch erweitertes Media Management ergänzt. eRMM (seit August 2007 als Programmpaket iRMM – integrated Removable Media Manager – verfügbar) bietet die effizientere Nutzung von Drives und Libraries durch dynamisches Sharing und Pooling der Bandlaufwerke. Es erlaubt zentrales Management von Bändern und Bandlaufwerken, die von verschiedenen Anwendungen genutzt werden, und bietet so größtmögliche Flexibilität und Skalierbarkeit der Tape LibraryInfrastruktur. Das Ergebnis sind verkürzte Backup-Laufzeiten durch flexible Tape Device-Zuordnung und eine deutliche

Roboter Mount-Zeiten HD-Frames

Ressourceneinsparung bei der Tape Library-Infrastruktur. Der Zugriff auf Kassetten in der Tierstufe 0 ist am schnellsten,

In modernen Umgebungen mit Speichernetzen sind Server

da der Greifer des Roboters in seiner Grundstellung in Rich­

und Tape Libraries über ein Speichernetz miteinander ver­

tung Tierstufe 0 ausgerichtet ist. Der Zugriff auf die Tierstufe

bunden. Damit sind die technischen Voraussetzungen für

1 ist 760 ms langsamer, da jetzt der Greifer sich um 180

das effiziente Sharing von Tape-Ressourcen zwischen ver­

Grad drehen muss, um sich in Richtung Tierstufe 1 auszu­

schiedenen Backup- und Archivierungsservern nur bedingt

richten.

erfüllt. Für Tapes fehlt eine Abstraktionsschicht, die mit einem Volume Manager (SAN Volume Controller) oder einem

144

Kassetten in der Tierstufe 2 benötigen nochmals zusätzliche

Dateisystem (SAN File System) vergleichbar ist. Das führt

2 Sekunden. Diese kommen zustande, da der Roboter

dazu, dass Tape-Ressourcen nur sehr eingeschränkt von

zuerst die Kassette in der Tierstufe 1 herausnehmen muss.

mehreren Anwendungen gemeinsam genutzt werden können.

Dann rutscht die Kassette in der Tierstufe 2 nach vorne in

Die Datensicherungsanwendungen verlangen meist exklusi­

die Tierstufe 1. Der Roboter greift dann diese Kassette mit

ven Zugriff auf einen Teil der Ressourcen. Es fehlte bisher

seinem zweiten Greifer (Dual Gripper Standard) ab. Die

eine zentrale Verwaltung von Tape-Ressourcen, welche die

große Zeitspanne ergibt sich zwischen Tierstufe 2 und 3.

Voraussetzung für ein anwendungsübergreifendes Sharing

Die 10,9 Sekunden kommen zustande, weil der Roboter

ermöglichen. Mit eRMM (iRMM) macht IBM eine Lösung

zuerst die Kassetten der Tierstufe 1 und 2 herausnehmen

ver­fügbar, die genau diese Anforderung erfüllt. Dieses

und an einen anderen Platz bringen muss. Dies wird auf­

Programm­produkt wurde in der IBM Lokation in Mainz ent­

grund der zwei Gripper in einem Vorgang durchgeführt.

wickelt. iRMM ist jetzt auch in modifizierter Form integraler

Inzwischen sind die Kassetten von Tierstufe 3 und 4 in die

Bestandteil der TS7700 Virtual Tape Server Systeme und

Tierstufen 1 und 2 vorgerutscht. Der Roboter kann sie dann

ersetzt den bisher benötigten Library Manager in System z-

dort in einer zweiten Aktion abholen.

­Umgebungen.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

nistrier- und managebar. Die Library kann ‘Stand Alone’ oder ‘Rack Mounted’ (5U) betrieben werden. Die Speicherkapazi­ tät bei Verwendung der 700-GB-Kassetten geht bis 12,6 TB (bis 37,8 TB mit 3:1 Kompression) und bei Verwendung der 1.000-GB-Kassetten bis 18 TB (bis 54 TB mit 3:1 Kom­ pression). Die TS3400 ist eine hochredundante Library und mit redun­ danter Stromversorgung, ‘Hot Swappable’-Laufwerken und Netzteilen, einem doppelten Stromanschluss sowie Control Path und Data Path Failover-Möglichkeit ausgestattet. Die TS3400 Mini-Library mit TS1120 Laufwerken für Mainframe und Open Systems

Library kann an IBM Systeme i, p, x und zLinux sowie an z/OS via TS1120 Controller angeschlossen werden. Außer den

TS3400 Mini-Library für High-End-Tape-Technologie

IBM Systemen werden die Betriebssystem-Plattformen von

Im Februar 2007 kündigte IBM eine kleine Library TS3400

HP, Sun und Microsoft Windows unterstützt.

an, die wie die große TS3500 mit den TS1120 und TS1130 High-End-Laufwerken arbeitet. Die Library wurde speziell für

Damit stellt IBM die Möglichkeit zur Verfügung, große

die High-End-Tape-Laufwerke TS1120 (Jaguar-Technologie)

TS3500 Libraries mit TS1120 und TS1130 Laufwerken in

als Einstiegslösung konzipiert. Diese kleine Library kann

einem zentralen Rechenzentrum zu betreiben, während

sowohl im Open-Systems-Umfeld als auch im Mainframe-

Außenstellen mit derselben Technologie in Form einer Mini-

Umfeld (über den TS1120 FICON Controller seit August 2007)

Library arbeiten können. Dies ermöglicht den Datenträgeraus­

betrieben werden. Die TS3400 bietet eine native Kapazität

tausch in Form von 3592 Kassetten zwischen Rechenzen­

von 12,6 TB (TS1120) und 18 TB (TS1130) an.

trum und Außenstellen. Um hier höchste Sicherheitsaspekte zu gewährleisten, bieten die TS1120 und TS1130 Laufwerke

In die TS3400 können 1 bis 2 TS1120 und TS1130 FC-

die Möglichkeit, die Kassetten in verschlüsselter Form zu

Bandlaufwerke mit 4-GB/s-Dual-Port-Fibre-Channel-

beschreiben (siehe auch unter Tape Encryption).

Anschlüssen integriert werden. Man kann alle Kassetten, die ein TS1120 und TS1130 Laufwerk verarbeitet, verwen­

Mit der Verfügbarkeit der TS3400 erweitert sich das IBM

den (100-, 500- und 700-GB-Kassetten bei TS1120 und 128-,

Library-Portfolio in der Weise, dass kleine bis ganz große

640- und 1.000-GB-Kasetten bei TS1130). Die Library unter­

Lösungen sowohl mit TS1120 und TS1130 Technologie als

stützt sowohl überschreibbare als auch WORM-Kassetten

auch mit LTO-Technologie ermöglicht werden.

und bietet direkte Encryption und Encryption Key Manage­ ment-Unterstützung an, eine Verschlüsselungstechnik, die

TS2900 Autoloader mit HD-Technologie (High Density)

für die TS1120 Laufwerke im Herbst 2006 zur Verfügung

IBM kündigt im August 2008 (zusammen mit der HD-Frame-

gestellt wurde und ebenso in die TS1130 Laufwerke inte­

Ankündigung der TS3500) eine neue Library-Einstiegslösung

griert ist. Die Library hat 2 herausnehmbare austauschbare

TS2900 an, die Kapazitäten von 3,6 TB bis 7,2 TB (native)

Kassettenmagazine. Jedes Magazin kann bis zu 9 Kasset­

bietet und mit einem halbhohen LTO3-Laufwerk oder einem

ten aufnehmen. Das untere Magazin kann so konfiguriert

halbhohen LTO4-Laufwerk ausgestattet werden kann. Die

werden, dass 3 Slots im Magazin als I/O-Station dienen. Das

älteren LTO-Technologien LTO1 und LTO2 sind in dieser Ein­

obere Magazin ist mit zwei Reinigungskassettenslots konfi­

stiegslösung nicht unterstützt.

gurierbar. Die Ausstattung mit Barcode-Leser ist Standard. Der neue Autoloader steht seit September 2008 für den Ein­ Die TS3400 bietet eine Partitionierung von bis zu 2 logischen

stiegsbereich zur Verfügung. Er hat nur eine Bauhöhe von

Libraries. Jede logische Library enthält ein Laufwerk und ein

1U und sieht damit fast wie eine dünne „Pizzascheibe“ aus.

Magazin und kann im Sequential-Mode (Autoloader) oder

Wegen dieser geringen Bauhöhe sind nur LTO-Laufwerke in

Random-Mode (Library) arbeiten. Die TS3400 ist über das

halber Bauhöhe integrierbar. Die TS2900 lässt sich mit

lokale Operator Panel oder remote über ein Web GUI admi­

einem Laufwerk HH LTO 4 SAS oder einem HH LTO 3 SAS

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

145

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

durch die neue patentierte HD-Technologie (High Density) von IBM möglich. Das Magazin, das herausgenommen werden kann, ist mit dieser HD-Technik ausgestattet. Es fasst eigentlich zehn Kassetten, immer zwei in fünf aneinanderliegenden Reihen von jeweils zwei Kassetten und darf nur mit neun Kassetten konfigurieren und bietet Platz für bis zu neun LTO-Kassetten,

bestückt werden – damit ist ein Stellplatz im Magazin immer

die in einem austauschbaren Magazin dem Autoloader zur

frei und wird als ‘Cartride Caching’-Slot eingesetzt.

Verfügung gestellt werden. Ein Slot des Magazins dient als I/O-Station. Trotz der kleinen Baugröße bietet der Autoloader

Links auf dem Bild ist das Greifersystem abgebildet, das auf

beträchtliche Kapazitäten. Mit LTO4 erreicht man bis zu

dem rechten Bild vorne hin- und herfährt. Muss nun ein

14,4 TB (mit 2:1 Kompression). Diese kleine Mini-Library

Zugriff auf eine Kassette erfolgen, die in einem der fünf

bietet direkten Zugriff auf jede Kassette und kann über das

Schächte hinten abgelegt ist, nimmt der Roboter die erste

Web administriert werden.

Kassette heraus und stellt sie in dem Schacht ab, wo nur eine Kassette liegt! Die dahinterliegende Kassette rutscht

Die TS2900 Mini-Library ist eine geniale Konstruktion auf

automatisch einen Stellpatz vor und wird dann in einem

kleinstem Raum, weil man in der Konstruktion von 1U Höhe

zweiten Schritt vom Roboter geholt und dann zum Laufwerk

ein halbhohes LTO3- oder LTO4-Laufwerk untergebracht

gebracht, das sich ganz rechts vom Magazin befindet.

hat, ein Greifersystem, das direkten Zugriff auf alle neun

Damit ist der Greifer immer in der Lage, jede Kassette auf

Kassetten im Magazin hat, Netzteil, die ganze Elektronik

Anforderung zum Laufwerk zu bringen. Einfach faszinierend,

einschließlich des Gebläses sowie ein herausnehmbares

wie sich mit Ideen ganz neue Dinge umsetzen lassen!

Magazin mit zehn Kassetten-Stellplätzen, von denen nur neun Stellplätze mit Kassetten belegt werden können.

Unten stehende Grafik zeigt im Überblick das komplette Library-Angebot der IBM im Jahr 2009/ 2010, von der Mini-

146

Auf dieser niedrigen Bauhöhe neun Kassetten unterzubringen

Library TS2900 bis zur High End Library TS3500. TS2900

und die im direkten Zugriff des Greifers zu haben, ist nur

und TS3400 sind IBM Eigenentwicklungen und werden von

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

der Firma NEC als OEM-Produkt für IBM produziert. Die Ein­

Produkten – und das IBM General Parallel File System – kurz

stiegslösungen TS3100 und TS3200 kommen von der Firma

GPFS, das seit 1996 in High-Performance-Computing­-

BDT und werden als IBM Logo-Produkte vertrieben. Als

Umgebungen sehr erfolgreich eingesetzt wird. IBM GPFS

Midrange Library für LTO-Laufwerke hat die IBM die TS3310

stellt eine stabile Grid-Plattform mit erprobten Skalierungs­

im Portfolio, eine Library, die von Quantum/Adic gebaut wird

möglichkeiten und integrierten Hochverfügbarkeits­

und per OEM als IBM Logo-Produkt vetrieben wird. Quan­

funktionen zur Verfügung.

tum selbst vertreibt diese Library als Scalar 500i auch selbst. Der Produktunterschied liegt darin, dass die IBM

Durch Erweiterungen mit bewährten Bausteinen (Redhat

TS3310 ‘End to End’ Path Failover unterstützt. Im High-End-

Linux, Samba) verfügt SPSC über eine hochmoderne und

Bereich verwendet die IBM die TS3500, die IBM selbst pro­

eine offene Systemplattform. Dieses Grid-basierte Lösungs­

duziert und konstant weiterentwickelt. Die TS3500 ist derzeit

konzept stellt eine stabile Scale-Out-Plattform für zukünftige

die schnellste Library auf dem Markt und bietet viele Allein­

Storage-Anforderungen zur Verfügung. Durch Fokussierung

stellungsmerkmale und Vorteile gegenüber vergleichbaren

der SPSC-Entwicklung auf eine optimierte Betriebsführung

Libraries. Das angebotene Library-Portfolio ist für einen Her­

und reduzierte Komplexitätsanforderungen integriert IBM

steller/Anbieter einmalig und bietet Tape Automation für alle

bereits im SPSC-Standard viele Funktionalitäten und unter­

Anforderungen.

stützt diese mit Prozessen. Diese Funktionalitäten beinhalten Trendanalysen, Datenmigrationsprozesse und Information Lifecycle Management Prozesse.

File Virtualisierung und File Area Networks (FAN) Ebenso wie die in der IBM SPSC-Lösung integrierten Global Parallel File System (GPFS) und Scale Out File Services

Management-Funktionalitäten wie Monitoring, Administration

(SOFS)

und Operation erlauben Schnittstellen eine einfache Integra­

Unter Verwendung von erprobten IBM Baugruppen wie GPFS,

tion in die IT-Überwachung und garantieren geringe Adminis­

BladeCenter und Storage stellte IBM im November 2007 ein

trationsaufwände. Zur Steigerung der Backup/Restore-

hochskalierbares und hochperformantes Dateisystem mit

Zeiten erfolgte eine Integration von IBM Tivoli Storage

integrierten ILM-Funktionalitäten vor. Das System ist in der

Manager – kurz TSM – in die Lösung. Unter Verwendung

Lage, linear mit den Anforderungen an Speicherplatz und

der SPSC-Mechanismen reduzieren sich die Scan-Zeiten

Durchsatz zu wachsen, und bietet neben extremer Hochver­

erheblich, Gleiches gilt für den Restore.

fügbarkeit eine einfache Administrierbarkeit. Im Frühjahr 2010 kommt als Lösungsnachfolger von SOFS die IBM

IBM SPSC bietet:

SPSC-Lösung zur Anwendung. SPSC steht für Smart Private Storage Cloud.

•• einen globalen Namensbereich für alle Verzeichnisse (File-Virtualisierung)

IBM SPSC – Smart Private Storage Cloud (vormals SOFS Scale

•• einfachste Betriebsführung und Administration

Out File Services)

•• Hochverfügbarkeitsmechanismen eines Clusters mit Grid-

Lösungsüberblick

Mechanismen

Die IBM SPSC-Lösung wurde entwickelt, um einfach und performant unstrukturierte Daten in Kundenumgebungen zur Verfügung zu stellen und bekannte Engpässe (Administra­

•• dynamische Erweiterung/Reduzierung ohne Betriebsunterbrechung •• integrierte Information Lifecycle Funktionalitäten mit auto-

tion, Wachstum, Durchsatz, z.B bei Web-Anwendungen) in

matisierten Regeln auf File-Ebene, in Kombination mit TSM

aktuellen Network Attached Storage-Lösungen – kurz NAS –

HSM eine Integration bis auf Band

zu beseitigen.

•• flexible Kopplung von Anwendungsservern durch CIFS,

Als Basis der IBM SPSC-Lösung dienen erprobte IBM Hard­

•• sehr große Speichervolumen in einem System (>10 Peta-

NFS, GPFS Cross Cluster Mount ware-Komponenten – IBM Bladecenter mit IBM Storage-

Byte) •• integrierte Datenmigrationsmechanismen

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

147

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

Lösungskomponenten Im Bild ‘SPSC-Lösungskomponenten’ wird der schematische Aufbau der Lösung im Gesamtüberblick dargestellt. Die Bausteine HSM, TSM sind hierbei Optionen, die auf Wunsch in die Lösung integriert werden können. Die SPSC-Lösung besteht immer aus IBM Komponenten und Erweiterungen von GNU-Komponenten. IBM Lösungskomponenten: •• IBM Hardware (BladeCenter, Storage) •• IBM Software (GPFS, TSM, HSM, SPSC Lizenzmaterial) IBM Implementation Service

inklusive Subscribtion •• Zusätzliche SW – Redhat Linux, CIFS, Samba .. inklusive Subscribtion, soweit nötig

Mit dem IBM Implementation Service wird die SPSC-Lösung in bestehende IT-Umgebungen integriert:

•• IBM Implementierungsservice •• Konfigurations- und Anbindungsplanung •• Installation aller IBM HW -und SW-Komponenten •• In Vertretung die Installation der Open-Source-Produkte •• Inbetriebnahme der SPSC und Unterstützung bei ­Einbindung in die IT-Infrastruktur •• Überführung der SPSC-Lösung an das Operating Team •• Dokumentation der Implementierung •• Projektleitung IBM Basis Support Service Der Service beinhaltet Solution-orientierten Support mit zentraler Call Entry für alle Fragen und Probleme mit der SPSC-Lösung. Diese Support-Struktur beinhaltet die Problem­ IBM Server und Storage-Hardware

lösung der Open-Source-Komponenten und stellt höchste

Basierend auf IBM HW-Bausteinen wird für jede Anforde­

Verfügbarkeit der Lösung sicher.

rungen ein System zusammengestellt. Die Konfiguration wird bestimmt aus der benötigten Leistung (Durchsatzanfor­

•• Zentrales Customer Care Center für Fehlermeldung

derungen, Speicherbedarf, Verfügbarkeits- und Erweite­

•• Bereitstellung von Informationen zu Fehlerkorrekturen,

rungsanforderungen). Durch Nutzung des IBM SAN Volume Controllers besteht die Option, vorhandene Plattensysteme anderer Hersteller zu integrieren (Investitionsschutz) und die Vorteile einer Blockvirtualisierung zu nutzen.

Programmkorrekturen für bekannte Fehler •• Updates des SPSC-Codes und der zugehörigen ­Dokumentation •• Bereitstellung von Unterstützung für das aktuelle und das vorhergehende Release des SPSC-Codes

IBM Software GPFS bildet und stellt die Laufzeitumgebung der Lösung

IBM Premium Service (beinhaltet Basis Support Service)

bereit. Optional kann die Lösung mit TSM und/oder um effi­

Der Premium Service erweitert den Basis-Support mit der

ziente Backup- und Recovery-Mechanismen und/oder

Übernahme von Basis-Betriebsaufgaben wie Füllstands­

hierarchisches Speicher-Management erweitert werden.

überwachung, Change und aktive Problembeseitigung und Pflege des Systems mit SW-Updates, Optimierungen und technischer Administation der Lösung.

148

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Der IBM SPSC Premium Service unterstützt bei den

Aufbau passt sich die SPSC-Lösung leicht den Bedürfnissen

Betriebsleistungen auf Basis 7 Tage x 24 Stunden und bein­

und Anforderungen an. Veränderungen an der Konfiguration

haltet folgende Tätigkeiten der IBM:

und Systemkomponenten können in den meisten Fällen im Online-Betrieb erfolgen.

•• Zentrales Customer Care Center für alle Kundenanfragen •• Regelmäßige Überwachung der Lösung und aktives Operating

Globaler Namensbereich für alle Verzeichnisse Durch Verwendung des GPFS-Filesystems ermöglicht SPSC

•• Bereitstellung von Patches / Updates und Einspielen in die SPSC-Umgebung nach Absprache mit dem Kunden

die Repräsentation eines transparenten Filesystems inner­ halb der Lösung (Filesystem-Virtualisierung).

•• Lösungsunterstützung bei Problemen (Problem Ownership inklusive der Einbindung notwendiger Funktionen,

Dieser Ansatz erlaubt es, Daten in unterschiedlichen Spei­

z. B. HW-Maintenance)

cherklassen zu speichern, ohne ihre Repräsentation zum

•• Regelmäßige Betreuung zur Betriebsoptimierung und Nutzung

Benutzer zu verändern. Hierbei ist es unerheblich, ob dies ein SPSC-Cluster ist oder mehrere SPSC-Cluster zusammen­

•• IBM Projektverantwortliche für alle Betriebsanfragen

geschaltet werden.

•• Regelmäßiger Statusreport (Nutzungskenngrößen, Hochverfügbarkeitsmechanismen eines Grids

Auslastung, Durchsatz) •• Optimierung der SPSC-Lösung auf Basis der Betriebs­ erfahrungen

Ein SPSC-Cluster kann aus bis zu 26 Blades bestehen mit einem zusätzlichen Quorum Server. Der Quorum Server

•• Planung von Änderungen (neue Kundenprojekte einführen, Leistungsparameter)

erlaubt eine automatisierte Umschaltung bei Ausfall/Nicht­ verfügbarkeit eines Clusterteils.

•• Strategische Weiterentwicklung der Lösung für geplante Projekte

Die Basis hierfür bildet die Aufsplittung eines SPSC-Clusters in zwei BladeCenter in zwei Rechenzentren (< 20 km Entfer­

SPSC-Standard-Funktionalitäten

nung). In diesem Clusteraufbau sind alle Knoten aktiv und

SPSC stellt eine skalierbare Plattform für alle Anforderungen

bedienen ankommende Anfragen. Bei Ausfall eines Rechen­

von Fileservices zur Verfügung. Durch den sehr modularen

zentrums übernimmt der verbleibende Clusterteil die

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

149

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

Gesamtmenge der Anfragen und erhält den Service für den

Erweiterung von Speicherkapazität (Beispiel):

Benutzer. Diese Mechanismen finden bei der Spiegelung der Filesysteme ebenfalls Anwendung.

1. Basiskonfiguration der neuen Storage-Komponenten (LUNs)

Spiegelmechanismen auf Filesystemebene

2. Anbindung der Storage-Komponenten an das

Bei der Spiegelung von Dateien zur Erhöhung der Datensi­ cherheit können, basierend auf Datei-Shares, Spiegelungen mittels Policies eingerichtet werden. Der Spiegel kann hier­ bei jeweils (und/oder) im gleichen Share, in einem anderen Share oder einem anderen Cluster definiert werden.

BladeCenter 3. Übergabe der Resourcen an SPSC in Form zusätzlicher LUNs 4. Mit dem SPSC-Administrationsinterface werden die LUNs Shares zugeordnet. 5. SPSC übernimmt automatisch das Striping der Daten über

In SPSC erfolgt die Spiegelung der definierten Dateien

den erweiterten Share.

durch das parallele Schreiben der Dateien unter Kontrolle von GPFS. Diese erlaubt eine parallele Verarbeitung der

SPSC integrierte ILM-Funktionalitäten

Schreibvorgänge, speziell bei mehrfachen Spiegeln in meh­

Mit den integrierten ILM-Funktionalitäten (Information Lifecycle

reren Clustern. Hierbei ist einen Kopplung der Plattensys­

Management) bietet IBM SPSC eine Plattform zur effizienten

teme nicht notwendig.

und automatisierten Handhabung von unstrukturierten Daten. Durch die Definition-Regeln auf Fileebene können

Dynamische Erweiterung ohne Betriebsunterbrechung

automatisiert Verlagerungsprozesse auf unterschiedliche

Die SPSC-Lösung erlaubt die Erweiterung / Verkleinerung der

Speicherklassen angestoßen werden und in Kombination mit

Lösung unter vollem Online-Betrieb.

IBM TSM (Tivoli Storage Manager) und HSM (Hierarchical Storage Manager) erfolgt die Auslagerung bis auf Bänder,

Veränderungen an der SPSC-Lösung erfolgen in voneinander

wobei die Dateieinträge transparent im Filesystem für den

unabhängigen Schritten. Die Verteilung der Daten liegt aus­

Benutzer dargestellt werden.

schließlich in Verantwortung von SPSC. Wie bereits beschrieben, können in SPSC mehrere unter­ schiedliche Speicherklassen definiert werden. Zur Optimierung der Nutzung der Speicherklassen verfügt SPSC bereits in Basisfunktionalität über ILM-Erweiterungen (Information Lifecycle). Hierbei können auf Grundlage von Policies auf Share-Ebene definiert werden, auf welchem Type von Plattenspeicher Daten vorgehalten werden sollen. Optional kann eine Migration bis auf Band erfolgen: •• Definition von Policies für Dateien auf Share-Ebene •• Automatische Migration der Dateien nach den definierten Policies •• Transparenter Zugriff für den Benutzer (inklusive der Bandnutzung) •• Optional: Bei Einsatz von TSM HSM – Tivoli Storage Manager Hierarchical Storage Manager – kann bei der Migration ein Bandlaufwerk integriert werden.

150

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Flexible Anbindung von Anwendungssystemen

ILM-Prozesse mit integrierter Auslagerung auf Bänder

Zusätzlich zu den Protokollen CIFS / NFS steht eine hoch­

Da Filer meist mit sehr viel Datenvolumen von inaktiven

performante Anbindung von Linux-Anwendungsservern mit­

Dateien gefüllt sind (60–70% der Daten, da nicht mehr

tels GPFS Cross Cluster Mount zur Verfügung. Die Kopp­

be­nötigt), können diese kostengünstig auf Bänder ausgela­

lung erfolgt hierbei mittels des IBM GPFS-Protokolls, das in

gert werden. Auf Basis von Policies erfolgt automatisiert die

HPC-Umgebungen sehr erfolgreich eingesetzt wird. Zur

Auslagerung über Speicherklassen bis auf Bandkassetten.

Optimierung des Datendurchsatzes unterstützt IBM SPSC die direkte Kopplung von GPFS-basierten Anwendungsser­ vern. Diese Kopplung erlaubt durch das im GPFS imple­ mentierte Protokoll einen maximalen Datendurchsatz.

•• Die Verschiebung erfolgt zunächst innerhalb des Filers auf unterschiedliche Plattentypen •• Die Policies wirken auf Fileebene •• Nach Regeln werden die Daten automatisiert an TSM-HSM

Integrierte Datenmigrationsmechanismen

übergeben und für den Windows-Benutzer als Offline-

Basierend auf den beschriebenen Verfahren für die Online-

Datei markiert.

Erweiterung vom Speicher kann sehr einfach und effizient eine Datemigration erfolgen. Die Datenmigration kann hier­

•• Bei Öffnen der Datei wird diese automatisiert aus der TSM-HSM-Umgebung wiederhergestellt.

bei ohne zusätzliche Werkzeuge bei minimalen System­ Optionale Erweiterungen

belastungen durchgeführt werden.

Asynchroner Spiegel Die hierzu notwendigen Schritte sind:

Mit dem asynchronen Spiegel können zeitversetzt Daten online kopiert werden, um gegen ungewollte Datenlöschung

1. Bereitstellung der LUNs im SPSC

oder im Katastrophenfall einen zusätzlichen Datenbestand

2. Einrichten der Migrationsbeziehung zwischen den

zu haben. Hierbei können kurzfristig Daten zurückgeholt

abzulösenden Speicherbereichen

werden (innerhalb des Synchronisationszeitraums oder im

3. Migration der Daten auf die neuen LUNs

K-Fall als Betrieb des asynchronen Clusters als Notsystem).

4. Auflösen der Migrationsbeziehung im Speicherbereich

Der asynchrone Spiegel ist hierbei ein SPSC-Cluster, der im

5. Herausnahme der alten LUNs aus dem SPSC-Cluster

Normalbetrieb als Teil des Produktionsclusters läuft. Die Spiegelungsregeln werden wie durchgängig in SPSC per

Erweiterungspotenziale für SPSC

Policy definiert.

Mit SPSC steht eine skalierbare NAS-Plattform zur Verfü­ gung. Die Skalierung kann hierbei unter mehreren

Weitstreckenkopplung von SPSC-Clustern durch Grid-Prozesse

Geschichtspunkten erfolgen:

Mit SPSC stehen mehrere Varianten einer Kopplung von unternehmensweiten Lösungen zur Verfügung.

•• Durchsatz bei Zugriff auf die Dateien: zusätzliche Blades •• Volumen: zusätzlicher Speicher

•• Kopplung von zwei eigenständigen SPSC-Clustern unter

•• Fehlbedienung /Datenintegrität: asynchroner Spiegel

einem Global Namespace. Jeder der Cluster hält einen Teil

•• Höhere Verfügbarkeit: SPSC Cross Cluster Mount

der Benutzerdaten. •• Alternativ kann ein SPSC-Cluster als asynchrone Spiegel-

Alle diese Erweiterungen stehen innerhalb der Lösung zur

lokation genutzt werden, in der mit Zeitversatz die

Verfügung, egal mit welcher Variante und in welcher Umge­

Betriebsdaten bereitstehen. Bei Bedarf kann diese Loka-

bung gestartet wird.

tion als Notfalllokation aktiviert werden.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

151

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

Encryption für Tape

Beispiele für bekannte symmetrische Verschlüsselungsalgo­

Im August 2006 kündigte IBM die Verschlüsselungstechnik

rithmen sind der Data Encryption Standard (DES), der von IBM

und ein dazugehöriges Schlüsselmanagement für die

Anfang der 70er-Jahre entwickelt wurde und mit einer

TS1120 Bandlaufwerke (Jaguar 2) an. Damit können 3592

Schlüssellänge von 56 Bit arbeitet, sowie der International

Kassetten so beschrieben werden, dass nur die Instanz sie

Data Encryption Algorithm (IDEA), der von den Schweizern

wieder auslesen kann, die den dazugehörigen Encryption

Lai und Massey entwickelt und 1990 veröffentlicht wurde

Key kennt und hat. Missbrauch von Daten, die sich auf den

und mit einer Schlüssellänge von 128 Bit deutlich sicherer

Kassetten befinden, kann somit ausgeschlossen werden.

ist als der DES. Der generelle Nachteil dieses Algorithmus ist

Fallen Kassetten aus irgendwelchen Gründen in falsche

der direkte Austausch der geheimen Schlüssel, was seine

Hände, können sie nicht ausgelesen werden.

Anwendung in einer Kunde-Händler-Beziehung erschwert. Der Vorteil besteht in der relativ geringen benötigten

Encryption-Möglichkeiten auf Tape gab es bisher in unter­

Rechen­leistung.

schiedlichen Ausprägungen. Mit speziell entwickelter Encryption-Software auf einem Server, mit speziell entwickel­

Asymmetrische Verschlüsselung: Ein weiteres Verschlüs­

ten Encryption-Anwendungen oder externen Verschlüsse­

selungsverfahren ist die sogenannte asymmetrische Ver­

lungsgeräten konnte auf Tape verschlüsselt aufgezeichnet

schlüsselung. Sie basiert auf der Verwendung eines zusam­

werden. Das Bandlaufwerk selbst hatte mit der eigentlichen

mengehörenden Schlüsselpaares, wobei ein Schlüssel zur

Encryption nichts zu tun. Solche Lösungen konnten bisher

Ver- und einer zur Entschlüsselung genutzt wird. Beim

immer nur in Teilbereichen zur Anwendung kommen. Eine

Public-Key-Verfahren wird nun einer der Schlüssel veröffent­

Implementierung auf unternehmensweiter Basis, unabhän­

licht und kann von jedem Sender dazu genutzt werden, eine

gig von den unterschiedlichen Betriebssystem-Plattformen

Nachricht an den Empfänger zu verschlüsseln. Nur der

und auch über Unternehmensgrenzen hinaus, war bisher

Empfänger, der im Besitz des zweiten, privaten Schlüssels

nicht sinnvoll gestaltbar. Hinzu kommen noch die vielen Ver­

ist, kann die Nachricht dann entschlüsseln.

schlüsselungsarten wie z. B. Mars, RC5, Serpent, Twofish, DES oder AES, um nur einige zu nennen, die das Ganze

Ein Vertreter der asymmetrischen Verschlüsselungs-Algorith­

entsprechend komplex gestalten. Um Verschlüsselungen

men ist der RSA-Algorithmus (RSA Data Security Inc.),

vorzunehmen, wird zum einen ein Verschlüsselungsalgo­

benannt nach seinen Entwicklern Ron Rivest, Adi Shamir,

rithmus benötigt und zum anderen ein sogenannter Daten­

Leonard Adleman, der in den USA 1977 entwickelt und

schlüssel (Data Key), der die verschlüsselten Daten vor

patentiert wurde und für den Export in jedoch nur begrenzter

unautorisiertem Zugriff absichert. Nur über den Daten­

Verschlüsselungstiefe (40 Bit) zur Verfügung steht.

schlüssel können die verschlüsselten Daten wieder ent­ schlüsselt werden. Zum besseren Verständnis werden im

Die asymmetrische Verschlüsselung kann auch genutzt wer­

Folgenden die verschiedenen Verschlüsselungsmethoden

den, um das Problem der Authentifizierung zu lösen. Zu die­

beschrieben.

sem Zweck werden die öffentlichen Schlüssel von Sender und Empfänger gegenseitig bekannt gemacht. Der Sender

Symmetrische Verschlüsselung: Um das Ausspionieren

verschlüsselt die Nachricht zunächst mit seinem eigenen,

von versendeten Daten durch eine dritte Partei zu verhin­

privaten und dann mit dem öffentlichen Schlüssel des Emp­

dern, werden im Allgemeinen kryptografische Verfahren

fängers. Nach Erhalt der Nachricht entschlüsselt der Emp­

angewendet. Bei der symmetrischen Verschlüsselung wer­

fänger die Nachricht zunächst mit seinem privaten und

den die Daten mittels eines geheimen Schlüssels ver- bzw.

dann mit dem öffentlichen Schlüssel des Senders. Dieser

entschlüsselt. Der Schlüssel muss dabei sowohl dem Sen­

letzte Schritt ist jedoch nur dann erfolgreich, wenn die

der als auch dem Empfänger bekannt sein und zu diesem

Nachricht wirklich von dem bezeichneten Sender kam, da

Zweck vorher persönlich ausgetauscht werden.

andernfalls der verwendete öffentliche Schlüssel nicht pas­ send ist.

152

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Hybride Verfahren: Der Nachteil der asymmetrischen Ver­

EKM wurde nun auf die JAVA-Plattform portiert und steht so

schlüsselung ist der hohe Rechenaufwand. Deswegen wird

für alle Betriebssystemplattformen zur Verfügung. Der neue

oftmals eine Kombination aus symmetrischer und asymmet­

EKM liefert die Keys zum TS1120 Laufwerk, kann auf unter­

rischer Verschlüsselung genutzt. Dabei wird eine Nachricht

schiedlichsten Systemplattformen laufen und unterstützt

durch den Sender zunächst mit einem speziellen geheimen

dabei zentralisiertes Encryption Key Management, das

Schlüssel (Session Key) symmetrisch verschlüsselt.

unternehmensweit einsetzbar ist.

Anschließend wird dieser Schlüssel mit dem öffentlichen Schlüssel des Empfängers asymmetrisch verschlüsselt und

Der EKM steht für die Betriebssysteme z/OS 1.6 oder 1.7,

übertragen. Der Empfänger kann nun asymmetrisch mit sei­

AIX 5.2 oder später, I5/OS 5.2 oder später, HP-UX 11.0, 11i,

nem privaten Schlüssel den Session Key und somit die

und 11.23Pl, Sun Solaris 8, 9 und 10, Linux – System z,

eigentliche Nachricht symmetrisch entschlüsseln. Da die

System p und Intel, Red Hat Enterprise Linux 4 (REHL 4),

asymmetrische Verschlüsselung nur für die Verschlüsselung

SuSE Linux Enterprise Server 9 (SLES 9), Windows 2000

des symmetrischen Schlüssels verwendet wird, bleibt der

und Windows 2003 zur Verfügung.

Rechenaufwand bei der asymmetrischen Verschlüsselung relativ gering.

Muss nun ein TS1120 Bandlaufwerk mit Encryption auf­ zeichnen, fordert das Laufwerk den Datenschlüssel vom

IBM ist die erste Firma, die für Bandlaufwerke eine direkte

EKM Encryption Key Manager an. Der EKM prüft dann, ob

Verschlüsselungstechnik anbietet. Um mit den TS1120 Lauf­

das Laufwerk zugelassen ist und im ‘Drive Table’ des EKM

werken mit der Option Encryption arbeiten zu können, muss

bekannt ist. Falls nicht, muss das Laufwerk über die Konfi­

auf installierten TS1120 Laufwerken ein Hardware-Upgrade

gurationsfile im Drive Table des EKM aufgenommen werden.

und ein Mikrocode-Update durchgeführt werden. TS1120

Dann erstellt der EKM den angeforderten Datenschlüssel,

Laufwerke, die seit September 2006 ausgeliefert werden,

der im Folgenden als ‘Data Key’ bezeichnet wird.

sind standardmäßig mit der Encryptionfähigkeit ausgestat­ tet. IBM entschied sich für die AES-Verschlüsselung (Advan­

Da die Datenschlüssel aus Sicherheitsgründen nicht unver­

ced Encryption Standard), die mit 128, 192 und 256 Bit

schlüsselt über ein Netzwerk zum Bandlaufwerk übertragen

Schlüssellänge zur Verfügung steht und den Rijndael-Algo­

werden können, arbeitet der EKM intern mit zwei verschie­

rithmus als symmetrisches Kryptografieverfahren verwendet.

denen Verschlüsselungsmethoden für den Datenschlüssel.

AES ist der Nachfolger von DES (Data Encryption Standard

Der eine Algorithmus ist der KEK Key Encryption Key, der

mit 56 Bit Schlüssellänge). AES ist anerkannt von der US-

ausschließlich im EKM läuft und mit dem nur der EKM etwas

Behörde NIST (National Institute of Standards and Techno­

anzufangen weiß. Der andere Algorithmus ist der SK Ses­

logy) und vom US-Handelsministerium und soll anerkannter­

sion Key, der sowohl im EKM als auch im Bandlaufwerk zur

maßen nicht ‘knackbar’ für die kommenden Jahre sein. Das

Anwendung kommt. Ist zwischen EKM und Bandlaufwerk

Bandlaufwerk TS1120 arbeitet mit dem sicheren AES-256-

eine Session aufgebaut und wird der Data Key mit dem

Bit-Verschlüsselungsalgorithmus. Damit ist zum ersten Mal

Session Key SK verschlüsselt und zum Bandlaufwerk über­

die Möglichkeit gegeben, dass das Laufwerk selbst die Ver­

tragen, entschlüsselt das Bandlaufwerk wieder den originalen

schlüsselung durchführt.

Data Key, um dann mit der AES-256-Bit-Verschlüsselung die Daten aufzuzeichnen. Bei jeder neu aufgebauten Session

Die Verschlüsselungsmethode ist die eine Seite. Genauso

zwischen EKM und Bandlaufwerk kommt immer ein neuer

wichtig sind die Datenschlüssel, die vor unautorisiertem

SK Session Key zum Einsatz. Der mit dem SK verschlüsselte

Zugriff schützen und über die sich die verschlüsselten

Data Key wird als SEDK (Session Encryption Data Key)

Daten wieder entschlüsseln lassen. Im Mainframe-Umfeld,

bezeichnet. Neben dem SEDK überträgt der EKM aber auch

wo schon seit Jahren Encryption mit entsprechenden

den über den KEK (Key Encryption Key) verschlüsselten Data

Krypto-Prozessoren eingesetzt wird, bildet das Herzstück für

Key zum Laufwerk, der als EEDK (Externally Encryption

die Datenschlüsselverwaltung ein EKM Encryption Key

Data Key) bezeichnet wird und mit dem das Laufwerk

Manager im z/OS-Betriebssystem. Der im z/OS eingesetzte

absolut nichts anfangen kann, weil ausschließlich der EKM

EKM bietet eine absolut nicht manipulierbare und hundert­

den KEK kennt und anwenden kann. Das Laufwerk hat

prozentig sichere zentrale Datenschlüsselverwaltung. Dieser

also keine Möglichkeit, den übertragenen EEDK zu

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

153

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

entschlüsseln, um an den eigentlichen Data Key zu gelan­

Es besteht also keine Möglichkeit, die verschlüsselten Daten

gen. Das Laufwerk kann den Data Key ausschließlich über

ohne den originalen Data Key auszulesen. Die Raffinesse

den übertragenen SEDK entschlüsseln. Hat das Laufwerk

dieser Implementierung liegt in der Tatsache, dass das

nun die verschlüsselte Aufzeichnung abgeschlossen, wird

Laufwerk eine symmetrische Encryption über einen Data

am Bandende in die Tape Volume Control Region der EEDK

Key durchführt, während die darübergelegte Key-Verwal­

hinterlegt, mit dem das Bandlaufwerk nichts anzufangen

tung asynchron implementiert ist. Dabei kann der auf dem

weiß. Zusätzlich wird der EEDK auch im Memory Chip der

Tape verschlüsselt abgespeicherte Data Key (EEDK) nicht

Kassette gespeichert. Sollte nun unautorisiert diese Kas­

von TS1120 Laufwerken, sondern ausschließlich vom EKM

sette auf einem Encryption-fähigen TS1120 Laufwerk ausge­

(Encryption Key Manager) für die Wiederherstellung des ori­

lesen werden, ist dies nicht möglich, weil das Laufwerk mit

ginalen Data Keys verwendet werden. Das Laufwerk muss

dem mitaufgezeichneten EEDK nichts anfangen kann. Ein

den abgespeicherten verschlüsselten Data Key zum EKM

nicht autorisiertes Auslesen ist nicht möglich.

übertragen. Der EKM stellt den originalen Data Key wieder her und schickt ihn für das Laufwerk verständlich verschlüs­

Zum Auslesen fordert das Laufwerk vom EKM wieder den

selt (Session Key) zurück. Das Laufwerk ist nun in der Lage,

Data Key an und überträgt den aufgezeichneten EEDK zum

den originalen Data Key herzustellen und damit die Daten

EKM. Der EKM sucht den zum EEDK zugehörigen KEK Key

entschlüsselt auszulesen. Die Kombination von synchroner

Encryption Key und entschlüsselt den EEDK. Der orginale

und asynchroner Technik machen diese Verschlüsselung

Data Key steht also wieder zur Verfügung. Der Data Key

absolut ‘wasserdicht’.

wird nun wieder über einen neuen SK Session Key ver­ schlüsselt und zum Laufwerk übertragen. Das Laufwerk

Werden Kassetten, die mit Verschlüsselung aufgezeichnet

erhält den neuen SEDK Session Encryption Data Key und

wurden, in eine andere Lokation transportiert, z.B. zu einem

entschlüsselt den SEDK, um den orginalen Data Key zu

Geschäftspartner, müssen dort TS1120 Laufwerke mit

erhalten. Danach können die verschlüsselt aufgezeichneten

Encryptionfähigkeit und ein EKM installiert sein. Will die

Daten auf der Kassette entschlüsselt und ausgelesen werden.

Lokation nun die Daten auslesen, schickt ein TS1120 Lauf­ werk den auf der Kassette gespeicherten EEDK zum örtlichen EKM, der einen Private Key hat, um den auf der Kassette abgespeicherten EEDK zu entschlüsseln.

154

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Es können auf der 3592 Kassette bis zu zwei verschlüsselte

TKLM – Tivoli Key Lifecycle Manager

EEDKs mit zwei unterschiedlichen Private Keys abgespeichert werden. Der erste Key gehört zum EKM, der den Schlüssel

Im Frühjahr 2008 steht als neue Software zur Keyverwaltung

erzeugt hat, und der zweite Key kann einem anderen EKM

der TKLM (Tivoli Key Lifecycle Manager) zur Verfügung, der

gehören, der aufgrund des dort verfügbaren Private Keys

denselben Funktionsumfang wie der EKM hat und darüber

den zweiten EEDK in den orginalen Schlüssel umwandeln

hinaus auch das Key-Handling für Encryption auf Platte

kann. Mit zwei Keys auf der Kassette zu arbeiten ist dann

(Disk) zur Verfügung stellt und eine einfach zu bedienende

sinnvoll, wenn in verschlüsselter Form Datenträgeraus­

Oberfläche besitzt. Der TKLM kann als offizielles IBM

tausch zwischen zwei unterschiedlichen Lokationen durch­

Programmpaket bezogen werden.

geführt wird. Das Laufwerk schickt immer den ersten EEDK zum EKM. Kann der EKM damit nichts anfangen, wird auto­

IBM bietet drei Encryption-Implementierungs-Möglichkeiten

matisch der zweite EEDK zu dem vorhandenen EKM über­

auf Tape an:

tragen. •• Die Anwendung selektiert die Daten, die mit Encryption auf Mit der Ankündigung der LTO4-Laufwerke im April 2007

Band geschrieben werden müssen, und stellt die Keys

wurde für LTO4 auch Encryption angekündigt. LTO4-Lauf­

dem TSM zur Verfügung. Der TSM Tivoli Storage Manager

werke arbeiten wie TS1120 Laufwerke auch mit der AES

verwaltet dann als Backup-Server die Encryption-Key-

256-Bit-Verschlüsselungstechnik. Der Unterschied zu

Datenbank.

TS1120 liegt darin, dass keine verschlüsselten Schlüssel

•• Im Mainframe-Umfeld kann über System Utilities des

(EEDK) auf der LTO4-Kassette abgespeichert werden, son­

DFSMS im z/OS-Betriebssystem über neue Data-Class-

dern nur der Key Identifier, also der Schlüsselanhänger. Die

Parameter selektiert werden, was mit Encryption verarbei-

Key-Verwaltung und Key-Abspeicherung erfolgt über den

tet werden soll. Ähnlich können Policies für Encryption

EKM. Soll eine verschlüsselte Kassette ausgelesen werden,

auch im ‘AIX Tape Device Driver’ eingerichtet werden. In

überträgt das LTO4-Laufwerk den Identifier zum EKM, der

beiden Fällen verwaltet der neue Enterprise Key Manager

dann in der Lage ist, den richtigen Originalschlüssel dem

(EKM) die Encryption-Key-Datenbank.

Identifier zuzuordnen.

•• Die dritte Option geht über die Library selbst. Sowohl die 3494 als auch die TS3500 Library etabliert entsprechende

Der EKM wurde im Mai 2007 mit dem EKM Release 2 so

Policy-Regeln, welche ‘VolSers’ oder welche logischen

erweitert, dass er sowohl das Key-Handling für TS1120,

Libraries mit Encryption verarbeitet werden sollen. Die

TS1130 als auch für LTO4 durchführen kann. Damit können

Verwaltung der Encryption-Key-Datenbank wird durch

beide Technologien mit demselben EKM gemanagt werden.

den neuen Enterprise Key Manager (EKM) durchgeführt.

Das neue TS1130 Bandlaufwerk, das als Nachfolger der

Alle drei Optionen lassen sehr flexible, unternehmensweite

TS1120 im September 2008 verfügbar wird, ist mit dersel­

und über Unternehmensgrenzen hinausgehende Verschlüs­

ben Verschlüsselungstechnik ausgestattet. Die Bandkasset­

selungslösungen auf Tape mit einem zentralen Key Manage­

ten bleiben gleich, d. h., das neue TS1130 Laufwerk verwen­

ment zu und sind einmalig in ihrer Lösungsform.

det dieselben Kassetten. Das Abspeichern der Keys auf den Kassetten ist identisch.

Encryption auf Tape sichert die auf Bandkassetten geschriebenen Daten vor Missbrauch und bietet einen neuen Sicherheitsstandard auf Tape, der die geschrie­ benen Daten vor unautorisiertem Zugriff schützt.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

155

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

Archivierung

IBM Information Archive (IIA)

Die Anforderungen an Archivierung haben sich in den letz­

IBM kündigt im November 2009 das neue Archivierungs­

ten Jahren verändert. Neben der klassischen Aufbewahrung

system ‘IBM Information Archive’, kurz IIA, als Nachfolger

von Daten aufgrund von gesetzlichen oder firmeninternen

des bisherigen DR550-Systems an.

Vorschriften kommen weitere Anforderungsprofile wie erhöhte Zugriffsgeschwindigkeit und eine automatische Aus­

Mit dem neuen System werden die veränderten bzw. erwei­

lagerung von nicht mehr operational genutzten Daten auf

terten Anforderungen an Archivsysteme adressiert. IIA ist

Archivsysteme dazu. Desweiteren sind heute Archivlösungen

eine universelle Lösung zur Archivierung von strukturierten

gefragt, die ein hierarchisches Speichermanagement

und unstrukturierten Daten, die sowohl die gesetzlichen Auf­

be­inhalten und damit die Möglichkeit bieten, archivierte Daten

bewahrungsvorschriften erfüllt, als auch generell der vor­

automatisch nach ILM-Regulatorien (Information Lifecycle

schriftsfreien Datenhaltung im Langzeitbereich Rechnung

Management) auf unterschiedlichen Speichersystemen zu

trägt. Das System zeichnet sich dadurch aus, dass es eine

verwalten. Aufgrund der immmer größer werdenden Daten­

hohe Flexibilität in der Datenspeicherung bietet, weil zu

mengen im Archivierungsbereich sind heute sehr leistungs­

archivierende Anwendungen durch unterschiedliche stan­

fähige und skalierbare Archivsysteme gefragt, die zudem

dardisierte Zugriffsmethoden möglich werden. Die hohe

die Anforderungen nach Hochverfügbarkeit und Datensi­

Leistungsfähigkeit und Skalierbarkeit sind besondere

cherheit gewährleisten müssen. Dies gilt sowohl für die

Merkmale des Systems.

Archivierung der klassischen Dokumenten- bzw. ContentManagement-Systeme als auch für Anwendungen auf

Architektur

Filesystem-Basis. Moderne Archivlösungen müssen zudem

Das System besteht aus bis zu drei Rechnerknoten (in der

die Migrationsanforderung hinsichtlich der Daten als auch

IIA-Terminologie als ‘Collection’ bezeichnet), die intern mit

des Systems selbst erfüllen, wenn neue Technologien zur

den Platten-Arrays durch ein FibreChannel-Netz miteinander

Verfügung stehen.

verbunden sind und sich gegenseitig durch das integrierte GPFS (Generell Parallel File System) Backup geben und damit eine hohe Verfügbarkeit gewährleisten. Per Knoten können Anwendungen zum einen via NAS-Interface durch

156

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

die NFS- oder HTTP-Schnittstellen oder über die klassische

Technischer Aufbau

Schnittstelle SSAM System Storage Archive Manager (TSM-

Die Rechnerknoten (GPFS-Knoten) bestehen aus einem IBM

API) angebunden werden. Zu einem späteren Zeitpunkt

System x Server mit zwei quad-core Prozessoren, 24 GB

werden auch FTP und CIFS unterstützt werden. Die Knoten

Memory und einem Linux-Betriebssystem. Bis zu drei Kno­

hinsichtlich der zu adressierenden Schnittstellen zu den

ten können innerhalb eines Clusters konfiguriert werden. Für

Anwendungen sind frei wählbar. Dabei bieten beide Schnitt­

das Management des Systems wird ein IBM System x mit

stellen die Möglichkeit, andere Infrastrukturen wie z. B. Tape

einem quad-core Prozessor und 4 GB Memory verwendet.

anzuschließen.

Die Platten-Arrays bestehen aus 1-TB-SATA-Platten und wer­ den mit RAID6 an dual-redundanten Active/Active-Platten­

Die Möglichkeit, mehrere Archivierungsinstanzen gleich­

steuereinheiten betrieben. Jede Steuereinheit ist mit 2 GB

zeitig innerhalb eines Systems zu betreiben, erhöht die Leis­

Cache ausgestattet und bietet bis zu 2 x 4 Gbit FC-Ports für

tungsfähigkeit des Gesamtsystems beträchtlich. Im Unter­

die Serveranbindung und bis zu 2 x 4 Gbit FC-Ports für die

schied zur DR550 ist die Datenbank des SSAM-Servers

Remote-Spiegelung. Rechnerknoten und Plattensteuerein­

DB2-basierend (durch die Integration von TSM 6.1). Damit

heiten sind durch ein 8 Gbit FC-SAN auf Basis von 24-Port-

wird die Anzahl der zu speichernden Datenobjekte um den

Switchen miteinander verbunden, wobei der Betrieb am

Faktor 3 pro Collection erhöht. Der SSAM-Server sorgt für

Anfang auf Basis von 4 Gb läuft. Jeder Plattenkontroller hat

die Datenmigration auf angeschlossenen externen Speichern.

Zugriff auf jeden GPFS-Knoten und umgekehrt. Die Maxi­

Innerhalb einer Collection zur Fileanbindung (Knoten mit

malkonfiguration besteht aus zwei Gehäuseeinheiten und

NAS-Interface) werden Daten, die auf externen Storage wie

bildet eine Bruttokapazität von 304 TB ab. Davon sind 209 TB

z. B. auf Tape ausgelagert werden sollen, durch den inter­

nutzbar. Im ersten Rack beträgt die Plattenkapazität bis zu

nen TSM-Server mittels seiner HSM-Funktionalität migriert.

112 TB brutto (77 TB nutzbar). Im zweiten Rack können bis zu 2 x 96 TB brutto (2 x 66 TB nutzbar) dazukonfiguriert

Das Management und die Administration des Systems wird

werden. Der Anschluss von Tape-Laufwerken und Tape

über eine einheitliche Bedieneroberfläche durchgeführt.

Libraries ist voll unterstützt. Die neue Architektur des IBM Information Archive bietet zukünftig skalierbare Erweiterungsmöglichkeiten, indem das System mit zusätzlichen Rechner-Knoten und zusätzlicher Plattenkapazität erweitert werden kann.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

157

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

SAN und IP-Networking Brocade hatte im Januar 2007 McData übernommen und eine Roadmap für die nächsten 18 – 24 Monate angekündigt. Die Architektur der übernommenen McData SAN Direktoren IBM 2027-140/256 sowie die Architektur des Brocade 2109M48 SAN Direktors wird in einer gemeinsamen neuen Archi­ tektur in einem neuen Produkt, dem ‘Converged’ SAN Direk­ tor, mit 8 Gbps abgebildet. Die Ankündigung des IBM SAN768B erfolgte im Februar 2008. Dabei können dann die 2027-140/256 native an den neuen 8-Gbps-Direktor ange­ schlossen und weiterverwendet werden. Der IBM Direktor SAN768B wird von Brocade (Brocade DCX) gebaut und stellt eine Plattform bereit, die sich durch hoch­ leistungsfähige IT- und zukünftige FCoE-Technologien (FibreChannel over Ethernet) kommenden IT-Entwicklungs­ stufen anpasst. Es ist das erste ‘Direktor-artige’ Produkt, das über FibreChannel-Verbindungen Transferraten von 8 Giga­ bit pro Sekunde (Gbps) unterstützt, was die Geschwindig­ keit beim Datentransfer in Zukunft nahezu verdoppeln kann.

IBM Direktor SAN768B (Brocade DCX) mit bis zu 896 Ports

Der Direktor bietet die Unterstützung von FibreChannel, Fibre­Channel over Ethernet (FCoE), Data Center Ethernet

Die adaptiven Networking Services Features im SAN768B

(DCE), Gigabit Ethernet und das iSCSI-Protokoll.

(Brocade DCX) erlauben in der Fabric eine dynamische Zuweisung verteilter Ressourcen in dem Moment, in dem

Der SAN768B ist das erste Produkt der Branche, das wirk­

die Anforderungen der virtuellen Server oder des vernetzten

liche Interoperabilität zwischen Direktoren des b-Typs (Bro­

Speichers auftreten. Sollten Engpässe auftreten (oder vor­

cade) und solchen des m-Typs (McDATA) in einer 8- oder

hersehbar sein), können die Bandbreiten in der Fabric auto­

10-Gbps-FC-SAN-Infrastruktur unterstützt. Für Nutzer des

matisch und entsprechend der vordefinierten Service Levels

m-Typs und Großkunden, die ihre Mainframes über FICON-

angepasst werden. Dies hilft dabei, Operationen mit einer

Kanäle betreiben, bietet diese Interoperabilität eine Road­

höheren Priorität automatisch die benötigten Ressourcen zur

map für die Erweiterung der bestehenden FICON-Struktur.

Verfügung zu stellen.

Die neue Plattform reduziert Komplexität, Ausfallrisiko und Energieverbrauch mit einer speziellen Skalierbarkeit von bis

Das Jahr 2008 ist das Jahr der Einführung von 8-Gbps-

zu 768 FibreChannel-Ports (externe User Ports) auf Basis

Technologie in Storage Area Networks, die es erlauben

von 8 Gbps über zwei Domänen.

8-Gbps-End-to-End-Lösungen zu implementieren. Im Jahr 2009 zeigen sich neue Möglichkeiten auf, SAN-Infrastruk­

In einer großen Konfiguration mit zwei Domänen (Bild oben,

turen über IP-Netze miteinander zu verbinden, und das Zau­

Abbildung rechts) bietet der Direktor bis zu 896 Ports.

berwort heißt FcoE, FibreChannel over Ethernet.

Davon werden 768 Ports als ‘User Ports für externen Anschluss’ verwendet. Die restlichen 128 Ports werden über

FCoE – FibreChannel over Ethernet

sogenannte ICL Inter Chassis Links an die Backplane der

Neben FibreChannel und iSCSI kommt mit FCoE ein neuer

beiden Direktoren geführt und als ICL-Ports bezeichnet. Die

Standard auf den Markt mit dem Ziel, den Datenverkehr im

Übertragungsbandbreite zwischen den beiden Domänen

Unternehmensnetz zu vereinheitlichen und FibreChannel

(SAN868B Chassis) kann auf bis zu 1 Tbit/s gesteigert werden.

SAN-Infrastrukturen via Ethernet miteinander zu verbinden. LAN nutzt Ethernet und das TCP/IP-Protokoll für den Daten­ transfer. SANs, kommunizieren über FibreChannel. Dabei nutzen Server für die verschiedene Netzwerk-Typen

158

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

getrennte Interface-Module, die Network Interface Cards

Brocade hat im Juli 2009 Foundry Networks aquiriert und ist

(NICs) für Ethernet und FC, ebenso separate Switch-Infra­

damit eine ziemlich gute Verbindung eingegangen. Brocade

strukturen. FCoE überträgt die Daten in einem FC-SAN über

baut Hardware und Software für die Speicherlandschaft,

das lokale produktive Netz via Ethernet. Damit können

Foundry ist im klassischen Unternehmensnetz unterwegs.

bestehende SAN-Systeme weiterhin genutzt werden und per

Brocade kann sich künftig also in der FC- und in der Ether­

Ethernet in andere Systeme eingebunden werden, was lang­

net-Welt ausbreiten und damit die Konvergenz erfüllen, die

fristig die Betriebskosten durch eine konsolidierte Anbin­

mit FCoE angestrebt wird.

dung senken wird. Statt zwei parallele Netze zu pflegen, soll der gesamte Datenverkehr über ein Netz abgewickelt und

Cisco hat im April 2009 Nuova aquiriert, eine Firma, die

administriert werden können. Dabei unterstützt FCoE ein

sich schon länger mit FCoE beschäftigt.

konsistentes Verwaltungsmodell, das in FibreChannel-SANs gebräuchlich ist. Diese neue konvergierte Technologie

Hinter FCoE stehen nun die Firmen Brocade, Cisco, Nuova,

ermöglicht es, sowohl FibreChannel-Daten wie auch IP-

EMC, Emulex, IBM, Intel, QLogic und Sun. Die Spezifikation

Daten über denselben Transportmechanismus zu übertragen.

für ‘FibreChannel over Ethernet’ sind dem T11-Komitee des US-amerikanischen National Standards Institute (ANSI) vor­

Damit man nun FibreChannel-Pakete über ein Ethernet-

gelegt, um einen gemeinsamen Standard zu etablieren. Seit

Transport-Protokoll verschicken kann, haben sich verschie­

Juni 2009 ist der FCoE-Standard verabschiedet. Bis FCoE

dene Hersteller von Speicherlösungen und Netzwerkkompo­

professionell im IT-Umfeld eingesetzt werden kann, wird es

nenten zusammengesetzt und einen Vorschlag zum

noch etwas dauern! Bis Mitte bzw. Ende 2010 ist mit der

FCoE-Standard entwickelt. FCoE legt fest, wie man FC-

Fertigstellung aller notwendigen Protokoll-Standards zu

Daten verlustfrei über IP transportieren kann. Dieses ‘ver­

rechnen.

lustfreie Ethernet’ besteht aus zwei Protokollen: Einmal das Protokoll zum Transport der Daten, FCoE genannt, und zwei­

SAN & Converged Networking

tens das Protokoll zur Kontrolle der FCoE-Verbindungen, FIP

Nach der Ankündigung des IBM SAN768B im Feburar 2008

(FCoE Initialisation Protocol) genannt. FIP kümmert sich um

war die Integration der Technologie von McData, die Brocade

das Login und Logout von Geräten in einem FCoE-Netz­

im Januar 2007 übernommen hatte, in einem neuen 8 Gbit/s

werk. FCoE verpackt den FC-Frame in einen Ethernet-Hea­

Direktor-Produkt komplett. Seither ist viel In der Zusammen­

der und versendet diesen über Ethernet, wobei nun aber

arbeit von Brocade und IBM im Bereich Storage Networking

kein ‘traditionelles Ethernet’ zum Einsatz kommt, sondern

hinzugekommen: Nach der Erweiterung der Lösungspalette

eine verbesserte Version, die als CEE (Converged Enhanced

mit 8 Gbit/s HBAs von Brocade steht erstmals eine durch­

Ethernet) bzw. DCE (Date Center Ethernet) bezeichnet wird.

gängige Server-zu-Storage-Konnektivität von einem Hersteller zur Verfügung – mit großen Vorteilen beim durchgängigen

Was wird mit iSCSI? iSCSI verschickt SCSI-Befehle über

Management der Umgebung. Im Bereich der Netzwerk-Kon­

Ethernet und TCP/IP und benötigt keine teuren FC-Netze.

vergenz bietet IBM nun mit dem IBM® Converged Switch

Klassisches FibreChannel verliert gegen iSCSI vor allem bei

B32 eine Top-of-Rack-Lösung für Benutzer, die FibreChannel

den Kosten. iSCSI nutzt die bestehende Infrastruktur, wäh­

over Ethernet (FCoE) einsetzen und Erfahrungen mit der

rend die IT für ein FC-SAN komplett neue Komponenten

neuen Technologie sammeln möchten. Schließlich steht mit

benötigt. Nun kommt FCoE als neue Technologie und ver­

dem SAN384B eine weitere Core- und Edge-Switching-Platt­

fügt über alle Eigenschaften, die iSCSI hat, auch bezüglich

fom für mittlere bis große SAN-Umgebungen zur Verfügung,

der Kosten. Es stellt sich damit die Frage, wie es mit iSCSI

mit der weitere Design-Optionen im Backbone-Bereich mög­

weitergehen wird, wenn sich FCoE als Technologie durchsetzt.

lich sind. ‘End-to-End’-Unterstützung Die 8 Gbps FibreChannel Host Bus Adapter ermöglichen es, ein hohes Maß an Robustheit und Zuverlässigkeit für die IBM System x Produktfamilie aufzubauen. Auf Basis der

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

159

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

hohen Leistungsfähigkeit der Brocade DCX Backbone Pro­

Standards wie Converged Enhanced Ethernet (CEE) und

duktfamilie integrieren die 8 Gbit/s HBAs industrieweit erst­

FibreChannel over Ethernet (FCoE). Diese Protokolle werden

mals wichtige Adapterfunktionen wie beispielsweise virtuelle

durch einfache Ergänzung mit entsprechenden Blades zu

Kanäle (Virtual Channels).

einem vom Benutzer gewünschten Zeitpunkt ermöglicht.

Mittels der ‘Adaptive Network Services’ bieten die HBAs

Die adaptiven Networking Services Features erlauben – wie

einen echten Quality of Service (QoS) im SAN von virtuellen

auch im im SAN768B – in der Fabric eine dynamische

Servern bis hin zum Storage Array und unterstützen Funkti­

Zuweisung verteilter Ressourcen in dem Moment, in dem

onen zur Datenautentifizierung, die eine schnellere und

die Anforderungen der virtuellen Server oder des vernetzten

sicherere Kommunikation zwischen virtuellen Servern und

Speichers auftreten. Sollten Engpässe entstehen (oder

dem Speicher erlaubt.

vorhersehbar sein), können die Bandbreiten in der Fabric automatisch und entsprechend den vordefinierten Service

Die 8 Gbit/s HBAs wurden dafür ausgelegt, die I/O-Leistung

Levels angepasst werden. Dies hilft dabei, Operationen mit

am Server auf 500.000 Input/Output-Operationen pro

einer höheren Priorität automatisch die benötigten Ressour­

Sekunde (IOPS) pro Port zu steigern. Damit leisten die 8 Gbit/s

cen zur Verfügung zu stellen.

HBAs den doppelten Durchsatz im Vergleich zu vergleich­ baren Produkten. Durch die enge Integration lassen sich die

FibreChannel over Ethernet (FCoE) Produkte

HBAs äußerst einfach installieren und in bestehende SAN-

Auch wenn die Entwicklung noch nicht abgeschlossen ist –

Umgebungen einbinden.

die ersten Standards für FibreChannel over Ethernet (FCoE) sind da. Mit dem IBM Converged Switch B32 sowie den

Erweiterte Fabric Backbone-Optionen mit dem SAN384B

dazugehörigen 10 Gb Converged Network Adaptern (CNA

(Brocade DCX-4S)

für IBM System x) steht eine Lösung zur Verfügung, die den

Der IBM SAN384B ist eine Einstiegsversion des bereits ver­

Einsatz dieser neuen Technologie bereits erlauben. FCoE

fügbaren IBM SAN768B Backbone (Brocade DCX). Die

müsste eigentlich FCoCEE heißen, da für den verlustfreien

neue Switching-Plattform, die sowohl im Core als auch im

Transport mit Converged Enhanced Ethernet (CEE) ein

Edge eingesetzt werden kann, ist für die Konsolidierung von

neues Ethernet-Protokoll entwickelt wurde.

Servern, Storage Area Networks (SAN) und Rechenzentren ausgelegt. Da die komplette DCX-Funktionalität zur Verfü­

Der IBM Converged Switch B32 ist ein multiprotokollfähiger,

gung steht, können mit dem SAN384B die Kosten für die

Layer 2, Top-of-the-Rack FCoE Switch mit 24 mal 10 Gigabit

Infrastruktur und die Administration gesenkt werden.

Ethernet (GbE) CEE Ports sowie acht FC Ports mit 8 Gbit/s. Er ermöglicht den konsolidierten Input/Output (I/O) von

Der IBM SAN384B skaliert in vier Blade-Einschüben auf bis

Speicher- und Netzwerk-Ports auf der Server-Seite. Die

zu insgesamt 198 Ports mit vollen 8 Gbit/s und ist damit für

neuen Converged Netzwerkadapter (CNAs) bieten eine

Betreiber von mittleren Netzwerken geeignet. Betreiber von

Leis­tung von bis zu 500.000 I/Os pro Sekunde (IOPS) und

großen Speichernetzwerken können den IBM SAN384B

stehen in zwei Varianten zur Verfügung: dem Single Port

auch als Netzwerk-Edge einsetzen. Der IBM SAN384B ist

Brocade CNA 1010 und dem Dual Port Brocade CNA 1020.

mit der neuesten Brocade Fabric OS (FOS) Version 6.2 aus­

Die neuen Brocade-Adapter gehören zu den ersten CNAs

gestattet, die eine neue Virtual-Fabric-Möglichkeit bietet, mit

mit Single-ASIC, die klassisches Ethernet auf Basis des TCP/

der die logische Partitionierung eines physischen SAN in

IP Protokolls, Converged Enhanced Ethernet sowie Speicher­

logische Fabrics ermöglicht wird.

netzwerk-Funktionalität über einen einzigen 10 Gb/s FCoELink von den Servern über das SAN bis hin zum LAN bieten.

Der IBM SAN384B unterstützt optional die Verschlüsselung von Daten auf Festplatten und Bandlaufwerken (Data at

In Kombination ermöglichen der IBM Converged Switch B32

Rest) in Verbindung mit unterschiedlichen Key-Manage­

und die 1010/1020 CNAs eine durchgängige FCoE-Konnek­

mentsystemen. Die Konvergenz im Netzwerkbereich

tivität vom Server bis hin zum Speicher. Die Lösungen kön­

gewährleistet der IBM SAN384B mit seiner Multiprotokoll-

nen in existierende FC-Umgebungen integriert werden und

Architektur durch die Unterstützung neu aufkommender

lassen sich mit einer übergreifenden Management-Plattform, dem Data Center Fabric Manager (DCFM), administrieren.

160

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Green IT

Virtualisierung allgemein

Das Thema Energieeffizienz rückt immer mehr in den Mittel­

Virtualisierung in jeglicher Form wird für die Epoche der Ser­

punkt. Manche Rechenzentren können schon heute keine

ver-basierenden Speicherarchitekturen prägend sein. Neben

Server oder Speichereinheiten mehr aufnehmen, weil es kli­

Tape-Virtualisierungen und Plattenvirtualisierungslösungen

matechnisch unmöglich ist.

im SAN wird sich die Virtualisierung auf weit mehr Bereiche ausdehnen. Die IBM vertritt hier weltweit die Strategie ‘Vir-

Laut einer IDC-Umfrage von 2007 sind Themen rund um

tualize Everything’. Nur so wird es möglich werden, hetero­

Energieverbrauch und Energieversorgung von zunehmender

gene Server- und Speichereinheiten und unterschiedlichste

Bedeutung. Steigende Strompreise belasten die verfügbaren

Infrastrukturen optimal zu nutzen und ein flexibles, nach

Budgets. In vielen Rechenzentren wird das Thema Energie­

Regelwerken betriebenes Datenmanagement zu ermögli­

effizienz inzwischen zum Top-Thema. ‘Stromlose’ Datenträ­

chen. Nur durch Virtualisierung in allen Bereichen werden

ger wie Bandkassetten oder optische Platten werden in den

Automationsprozesse in den heute unterschiedlichen Infra­

nächsten Jahren eine Renaissance erleben. Nach einer Gart­

strukturen möglich werden. Server-basierende Speicherar­

ner-Studie aus dem Jahr 2006 und 2008 werden mehr als

chitekturen erleichtern den Virtualisierungs-Gesamtansatz

70 % aller Daten auf Band abgespeichert. Wenn alle Daten,

erheblich.

die heute im produktiven Einsatz auf Bandkassetten abge­ speichert sind, auf Plattensysteme (Disk) verlagert würden,

Mit effektiven Virtualisierungslösungen erzielt man eine mög­

müssten ca. 40 neue Kernkraftwerke für die Stromversorgung

lichst maximale Nutzung der vorhandenen physikalischen

gebaut werden. Das Internet und die steigende Nutzung

Ressource, d. h., vorhandene Speicherkapazitäten werden

des Internets erhöhen die Energieproblematik zudem

wesentlich höher ausgenutzt. Somit liefert die Virtualisierung

immens: Vier Internet-Suchanfragen benötigen so viel Strom

einen maßgeblichen positiven Beitrag zur Bewältigung der

wie eine 40-Watt-Glühbirne mit einer Stunde Brenndauer.

Energieproblematik im IT-Umfeld.

Im Mai 2007 kündigte IBM das Projekt ‘Big Green’ an. IBM

Neue Infrastrukturen und Bandbreiten

investiert seit dieser Ankündigung 1 Milliarde Dollar pro

Die heutigen FibreChannel-Netze und IP-Infrastrukturen wer­

Jahr in das Projekt zur Verbesserung der ‘green’ Technolo­

den in den nächsten Jahren mit Sicherheit weiterentwickelt

gien und Services und arbeitet an einer Roadmap, um die

werden. Von heutigen 4-Gbit-SANs und 8-Gbit-SANs geht

eingetretene IT-Energie-Krise für Rechenzentren zu bewälti­

es in Richtung 12-Gbit-SAN-Technologie weiter. IP-Netze

gen. Dazu hat IBM ein Team aus mehr als 850 Energie-Spe­

heute mit bis zu 2-Gbit- und 10-Gbit-Ethernet könnten in den

zialisten aufgebaut. Der Mehrwert für IT-Betriebe ergibt sich

nächsten Jahren durch 100-Gbit-Ethernet-Technologie

oft aus der Tatsache, dass Energiekosten für ein typisches

abgelöst werden. Der IP-Infrastruktur, speziell dem Ethernet,

Rechenzentrum halbiert werden können. Das entspricht im

wird in den nächsten Jahren noch eine besondere Bedeu­

Vergleich einer Emmissionsreduzierung, die ca. 1.300 Autos

tung zukommen. Es ist geplant, innerhalb der nächsten

erzeugen. IBM bietet dazu neben der Hardware und Soft­

fünf Jahre jedem Privathaushalt in Deutschland einen

ware eine Vielzahl entsprechender Services für Rechenzen­

100-Mbit-Ethernet-Anschluss zur Verfügung zu stellen.

trumsbetriebe an. Teil dieser Services beinhalten Energie-

Damit bekommen die Privathaushalte neue, riesige Übertra­

Effizienz-Analysen und/oder ‘Energy-Self-Assessments’.

gungsbandbreiten. Ethernet-Infrastrukturen werden also zu einem maßgeblichen Faktor auch im privaten Umfeld.

Die beispielhaften Aktivitäten der IBM im Rahmen des Projekts ‘Big Green’ und die damit verbundenen langfristigen Ver­

So wie die ersten SAN-Infrastrukturen zwei Jahre früher in

pflichtungen führten dazu, dass IBM im Februar 2008 als

den Hochleistungsrechenzentren der Universitäten ihre An-

die ‘Top Green IT Company’ des Jahres 2008 sowohl von

wendung fanden, bevor sie im kommerziellen Rechen­zen­

der IDG (International Data Group) als auch von der Com­

trums­­umfeld zum Einsatz kamen, entwickeln sich heute ähn­

puterworld gewählt und ausgezeichnet wurde.

liche Tendenzen für eine neue Übertragungstechnik, die als InfiniBand bezeichnet wird. InfiniBand steht für ‘Infinite Bandwidth’. InfiniBand ist ein neues Transport-Protokoll,

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

161

2006 bis 2010 Die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung

das Servereinheiten, Speichereinheiten und ganze Netz­

4, 8 oder 12 ‘Physical Lanes’ können auf einen InfiniBand-

werke von Rechenzentren verbinden kann. Seit 1999 wird

‘Physischen Link’ geschaltet werden, die Paketübertragung

der Standard von der InfiniBand Trade Association vorange­

ist ‘byte-multiplexed’ über die Physical Lanes.

trieben, nachdem damals Compaq, Dell, HP, IBM, Intel, Microsoft und SUN angekündigt hatten, ihre zukünftigen I/O-

InfiniBand repräsentiert ein extrem hohes skalierbares Link

Entwicklungen der InfiniBand-Technologie anzupassen. Seit

Interface SLI. Es ist möglich, die Anzahl der Physical Lanes

Herbst 2005 ist der Standard verfügbar.

dynamisch – abhängig von Durchsatzanforderungen und Datenverkehr – zu verändern und dynamisch anzupassen.

InfiniBand schafft die Möglichkeit, heutige LAN-, SAN-, NASund IPC(Interprocessor Communication)-Infrastrukturen in

InfiniBand bietet eine hoch skalierbare Verbindungstechnik

einem einzigen universellen Netzwerk zu vereinigen.

mit ‘nX’ Multiple Lane Pairs mit einer Datenübertragungsrate

Ebenso könnten separate InfiniBand-Netze neben vorhan­

von 2,5 Gbit/s (Single Data Rate SDR), 5 Gbit/s (Double

denen SAN- und IP-Infrastrukturen über iSCSI betrieben

Data Rate DDR) oder 10 Gbit/s (Quad Data Rate QDR) in

werden.

jede Richtung. Die unten stehende Tabelle stellt die maxi­ male Bandbreite für jede der Möglichkeiten dar:

Für das Transport-Protokoll können Kupferkabel (Entfer­ nungslimitierung bei 17 m) und Fibre-Optic-Kabel (bis 10 km) verwendet werden. Die Fibre-Optic-Kabel für InfiniBand

1X

SDR

DDR

QDR

2,5 Gb/s

5,0 Gb/s

10,0 Gb/s

werden im Vergleich zu heutigen FibreChannel-Verbin­

4X

10,0 Gb/s

20,0 Gb/s

40,0 Gb/s

dungen anders hergestellt und sind lange nicht so empfind­

8X

20,0 Gb/s

40,0 Gb/s

80,0 Gb/s

lich. Ein Knick im Kabel verursacht fast keine Dämpfung

12X

30,0 Gb/s

60,0 Gb/s

120,0 Gb/s

und damit keinen Verlust. Würde man das mit dem heutigen FibreChannel machen, müssten die Kabel komplett ausge­ tauscht werden. Durch diese Eigenschaft ist InfiniBand Fibre

InfiniBand hat einen weiteren wesentlichen Vorteil. Die Infini­

Optic ideal geeignet, um für interne Verkabelungen von

Band-Upper-Level-Protokolle wie SDP, SRP und iSER benüt­

Maschinen zur Anwendung zu kommen.

zen die Methode des Remote Direct Memory Access RDMA, um direkt Daten in anwendungszugeordnete Puffer­

Für den externen Einsatz ist es wichtig, die Fibre-Optic-

bereiche des Rechners zu schreiben und gleichzeitig aus­

Lösungen sowohl in der Unterstützung der seriellen Schnitt­

zulesen.

stellen als auch in den Entfernungsmöglichkeiten voranzu­ Dies reduziert den Overhead-Datentransfer zu einem Drittel

treiben.

und setzt CPU-Kapazitäten frei, die anders genutzt werden können. Nachdem die ersten InfiniBand-Netze in einigen Hochleis­ tungsrechenzentren der Universitäten etabliert sind, kann man – analog zum FibreChannel – davon ausgehen, dass die ersten InfiniBand-Netze und -Infrastrukturen innerhalb der nächsten 2–3 Jahre in ‘kommerziellen’ Rechenzentren implementiert werden. Beschleunigend kommt noch hinzu, dass InfiniBand im Vergleich zum FibreChannel kostengünstiger ist.

162

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Neue Basis-Technologien

Durch neue Bandbreiten der Datenübertragung und neue

Die Fachwelt im Storagebereich ist sich darin einig, dass

Vernetzungstechniken ergeben sich neue Ansätze für eine

Kunststoff das Speichermedium der Zukunft werden kann.

optimale Gestaltung der Rechenzentren und deren Infrastruk­

Mit organischen Polymeren und polykristallinem Chalkoge­

tur. Virtualisierungslösungen in den unterschiedlichsten RZ-

nid wird schon seit einigen Jahren experimentiert. Orga­

Bereichen werden zu einer wesentlichen Vereinfachung der

nische Polymere sind geeignet, durch optische Technologien

RZ-Abläufe führen und die Administration stark vereinfachen.

für die Speicherung von Daten genutzt zu werden. Mit der neuen blauen Laser-Technik lassen sich Interferenz-Felder

Durch Standards werden die IT-Anbieter gezwungen, näher

auf dem Kunstoff erzeugen, die eine Vielzahl von Bits abbil­

zusammenzurücken, und der Endbenutzer bekommt endlich

den. Diese Technologie wird auch als holografische Spei­

mehr Kompatibilität zwischen den unterschiedlichen Syste­

cherung bezeichnet und erlaubt viel größere Kapazitäten als

men, wie es bisher nicht der Fall war. Virtualisierung trägt

mit herkömmlichen optischen Verfahren. Hierzu wird ein

hier einen ganz entscheidenden Anteil dazu bei.

blauer Laser als ‘Daten-Strahl’ eingesetzt. Ein Teil des Lasers wird über Spiegelverfahren durch einen Lichtmodula­

Neue Speichertechnologien werden rechtzeitig auf den Markt

tor geschickt, damit er eine andere Lichtbeugung bekommt.

kommen, um den Anforderungen an ständig wachsende

Anschließend kommen beide Strahlen auf der Polymerober­

Kapazitäten Rechnung zu tragen. Kunststoffe als Speicher­

fläche wieder zusammen. Durch die unterschiedliche Licht­

medium der Zukunft werden maßgeblich diese Epoche

beugung wird ein Interferenzfeld im Polymer erzeugt, das

prägen. Ebenso können stromunabhängige Flashspeicher in

man heute als Hologramm bezeichnet (siehe Technologie-

Form von SSDs (Solid State Disks), Phasenwechselspeicher

Anhang unter HVD Holographic Versatile Disk, PCM Phase

und Storage Class Memories die heutigen teuren FC-Platten

Change Memories und Nano-Technologien).

verdrängen, wenn sie in den nächsten Jahren entsprechend billiger produziert werden.

Da heute noch niemand abschätzen kann, wie sich Kunst­ stoffe und veränderte Kunststoffe im Laufe ihrer Alterung

Das Tempo in der Entwicklung und in den Produktzyklen

verhalten, arbeitet IBM an sinnvollen Alterungsverfahren für

wird sich noch weiter verstärken. Es wird immer schwieriger

Kunststoffe, um genauere Aussagen zu bekommen. Heute

werden, einen Gesamtüberblick über alle Möglichkeiten im

geht man davon aus, dass ein veränderter Kunststoff einen

Storage-Umfeld zu behalten, die man aktiv nutzen kann, und

Lebenszyklus von ca. 100 Jahren haben müsste. Diese Aus­

Beratung wird eine größere Bedeutung als bisher haben.

sage muss aber noch durch entsprechende Alterungsver­

Hardware allein spielt dabei nur noch eine geringe Rolle.

fahren belegt und bestätigt werden. Die Epoche wird sicherlich die innovativste werden und viel­ Kommentar zur Epoche der Server-basierenden Speicherarchitek-

leicht Dinge hervorbringen, an die wir heute noch gar nicht

turen mit neuen Infrastrukturmöglichkeiten

zu denken wagen. Hätte man in den 90er-Jahren jemandem

Server-basierende Speicherarchitekturen wie DS8000, SVC,

erzählt, was heute alles verfügbar ist, wäre man sicher zum

neue Archivierungslösungen, die neuen Tape-Virtualisie­

Fantasten gestempelt worden.

rungseinheiten ProtecTIER und TS7700, TS3500 Tape Library Virtualisierung und File Virtualisierung über File Area

Was wird in zehn Jahren sein? Es wird eine spannende

Networks bieten eine noch nie dagewesene Flexibilität und

Epoche werden und der Autor fragt sich selbst, ob seine

Skalierung in Leistung, Kapazität und Funktionalität. Sie wer­

Aussagen zutreffen werden.

den die vor uns liegende Epoche maßgeblich bestimmen, weil Konsolidierungen auf einer ganz neuen Basis möglich

Vielleicht liegt unsere Vorstellungskraft noch weit hinter den

werden. Diese neuen Architekturen schaffen die Möglich­

Dingen, die vor uns liegen ...

keit, viele Server über Cluster zusammenzuschließen. Damit sind die ersten Anfänge von Grid Computing im kommerzi­ ellen Umfeld gelegt.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

163

164

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

IBM Storage Software

Software

IBM Storage Software

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

165

IBM Storage Software Der System-verwaltete Speicher im Mainframe-Umfeld – Werner Bauer

Der System-verwaltete Speicher im Mainframe-Umfeld

SMS hatte zum Ziel, das rasante Speicherwachstum der

Wie der Name impliziert, wird die externe Speicherum­

damaligen Zeit rasch zu adaptieren, ohne die Anzahl der

gebung durch das System, genauer gesagt durch den

Speicheradministratoren analog mitwachsen zu lassen. SMS

angeschlossenen Server und dessen Betriebssystem,

verhält sich – fast – völlig elastisch zu dem wachsenden

verwaltet. Verwaltet heißt in diesem Zusammenhang, dass

externen Speichervolumen, skaliert ausgezeichnet und

das Betriebssystem automatisch alle Aktivitäten im Zusam­

verwaltet ein 400-GB-Disk-basierendes Speicherumfeld

menhang mit externem Speicher nach einem vordefinierten

in 1990 genauso gut wie heute eine 4.000.000 GB große

Regelwerk – Policy-basierend – verwaltet. Andere oder

Disk-Konfiguration.

ähnliche Begriffe für den systemverwalteten Speicher – System Managed Storage – sind Information Lifecycle

Speicherhierarchie

Management (ILM) oder Scale-out File Services (SoFS). Sol­

Neben dem Abgleich der logischen Anforderungen an eine

che Begriffe finden sich in IT-Landschaften, die vornehmlich

Datei mit der physisch vorhandenen Konfiguration wird von

mit Unix- und/oder Intel-basierenden Servern ausgestattet

einer automatischen Speichermanagement-Lösung erwartet,

sind. System Managed Storage oder kurz SMS wurde durch

dass die Dateien sinnvoll in der vorhandenen Speicherhierar­

die Ansätze im Mainframe- und Host-Umfeld in den 80er-

chie abgelegt und nach Anforderung bewegt werden.

Jahren des vergangenen Jahrhunderts massiv geprägt. Dieser Ansatz wurde in den Anfängen bereits 1974 durch

Heutige Plattensysteme können mit SSDs (Solid State

das Mass Storage System IBM 3850 eingeführt, wo bereits

Disks), FibreChannel-Platten und SATA-Platten bestückt wer­

eine HSM-Funktionalität zur Verfügung gestellt wurde, um

den und dadurch systemintern eine Speicherhierarchie

Daten, die nicht oft benötigt wurden, auf einem billigen

abbilden. SSDs sind zwar noch sehr teuer, bieten dafür aber

Massenspeicher systemgesteuert abzuspeichern (siehe

extrem schnellen Zugriff und extrem schnelle Antwortzeiten.

auch unter IBM 3850).

166

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Die Speicherhierarchie wird bei den Magnetplatten durch

Automatische Tape Libraries und Virtuelle Tape Server

zwei gegenläufige Trends bestimmt: Je schneller der Spei­

nutzen aber – sinnvoll – weiterhin reale Bandlaufwerke und

cherzugriff und je besser und kürzer die Servicezeit ist,

Kassetten, auf denen letztlich die Dateien abgelegt werden,

desto teurer ist das gespeicherte GB. Anders ausgedrückt:

nachdem die geschriebenen Tape-Daten durch einen

das gespeicherte GB wird preiswerter, wenn die Anforde­

vorgeschalteten Plattenpuffer gegangen sind. Über einen

rungen an Zugriffszeit und Schnelligkeit geringer werden.

solchen Plattenpuffer können wieder virtuelle Tape-Lauf­ werke emuliert werden, die viele Tape-Laufwerke pro virtuellem

Ein schnelles FibreChannel-Plattenlaufwerk dreht mit

Tape Server simulieren. Das eigentliche Backend besteht

15.000 Umdrehung pro Minute bzw. 250 Umdrehungen pro

nur aus wenigen realen Kassetten-Laufwerken, über die

Sekunde, d. h., eine Umdrehung dauert 4 ms. Die übliche

hochkapazitive Kassetten beschrieben werden. Diese realen

Kapazität einer FibreChannel-Disk liegt heute zwischen

Kassetten-Laufwerke sind in einem virtuellen Tape Server für

300 GB und 650 GB mit einem Formfaktor von 3,5 Zoll

das z/OS-Betriebssystem nicht sichtbar.

Durchmesser. Die Anzahl der möglichen Zugriffe ist durch die hohe Umdrehungszahl wesentlich schneller im Vergleich

Entstehung

zu einer preiswerten, hochkapazitiven SATA-Platte mit 7.200 Umdrehungen pro Minute bzw. 120 Umdrehungen pro

Storage Management Software

Sekunde mit 8,3 ms pro Umdrehung. Das dauert mehr als

DFSMS/MVS setzt heute den Standard der Storage Manage­

doppelt so lange im Vergleich zu einer FibreChannel-Platte.

ment Software, ohne die das Speicherwachstum in den ver­

Die Kapazitäten bei SATA-Platten liegen heute bei 1 TB

gangenen Jahren im Mainframe-Umfeld nicht administrier­

und 2 TB.

bar gewesen wäre.

Eine übliche Größe, um die Leistungsfähigkeit einer Platte

Die Anfänge von DFSMS/MVS gehen zurück bis in die

einzuordnen, ist die Anzahl von Ein-/Ausgabe-Zugriffen

frühen 80er-Jahre des vergangenen Jahrhunderts. Damals

pro Sekunde und pro GB. Das macht deutlich, dass SATA

haben Kunden und entsprechende Benutzerorganisationen

wesentlich schwächer als eine FibreChannel-Platte ist und

einschließlich der IBM die Notwendigkeit für ein vollautoma­

daher für hochaktive Dateien ungeeignet ist. Die Technologie

tisches Speichermanagement erkannt:

für 15.000 U/M ist auch anspruchsvoller – und damit teurer – als die notwendige Technologie, um mit nur 7.200 Um­­

•• Rapides Speicherwachstum

drehungen pro Minute zu rotieren.

•• Die TCO für Speicher eskalierten bereits in den Jahren ab Anfang 1980

Eine spezielle Rolle im Mainframe-Umfeld kommt vir­tuellen Tape-Konfigurationen zu. Um den Vorteil des direkten Zugriffs der Platte für Backup und ausgelagerte Dateien

•• „Storage keeps getting cheaper, but also harder to manage“, Datamation, 15.12.1985 •• GUIDE/SHARE fordert IBM in den Jahren 1983–1985 auf,

zugänglich zu machen, aber andererseits ökonomisch mit

ein „policy based storage management“ anzubieten und

dem genutzten Speicherplatz umzugehen, wird eine Techno­

definiert „requirements for futures of storage manage-

logie genutzt, die vermeidet, dass gleiche Datenstrukturen

ment“, GUIDE 1983

mehrfach gespeichert werden („Deduplication“). Dabei wird

•• „Without improvements in methods, or the emergence of

auf reale Tape-Laufwerke gänzlich verzichtet und die

improved automated managers, the storage management

Backup-Dateien und die ausgelagerten Daten („migrated

forces will have to grow exponentially as the data grows“,

data sets“) werden auf Disks abgespeichert. Ein solches

GUIDE Paper, 15.11.1985

System simuliert Tape-Laufwerke gegenüber den ange­ schlossenen z/OS-Servern.

•• Internet, e-business, b-2-b interactions, life sciences, WEB 2.0, etc. tragen weiterhin zu einer verstärkten Explosion der Nachfrage nach Speicherkapazität bei, die verwaltet werden muss.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

167

IBM Storage Software Der System-verwaltete Speicher im Mainframe-Umfeld – Werner Bauer

Automatisches Storage und Daten-Management wurde mit

3. Jupiter Stage III war als letzte Stufe geplant. In dieser Stufe

DFSMS/MVS realisiert und wird in den folgenden Abschnitten

sollte die völlige Trennung von logischen Daten und physi-

beschrieben.

kalischer Speicherung umgesetzt werden. Dabei sollte der externe Speicher auf eine Block-Level Architektur standar-

Data Facility Storage Management Subsystem, DFSMS/MVS

disiert und die logischen Daten automatisch so plaziert

IBM hat 1989 mit MVS/DPF 3.0 die 2. Stufe einer Strategie

werden, wie es über Regeln und Service-Levels vorge­ge­

realisiert, die unter dem internen Begriff „Jupiter Strategy“ in

ben ist. Sollte eine Regel – oder der geforderter Service-

den frühen 80er-Jahren entstanden ist. Diese 2. Stufe ist

Level – nicht mehr eingehalten werden können, sorgt das

das, was wir heute im Host-Umfeld als SMS verstehen.

System selbst dafür, dass die betroffenen Blöcke automatisch und für die Anwendung unbemerkt in der Speicher-

Die Jupiter-Strategie war damals in drei Stufen geplant:

Hierachie so umverlagert werden, dass der geforderte Service-Level wieder eingehalten werden kann.

1. Jupiter Stage I ist das, was im DFSMS/MVS bzw. z/OS als Interactive Storage Management Facility (ISMF) verstanden

Anfang der 90er-Jahre entschied IBM, diese 3. Stufe im

wird. ISMF ist ein Panel-basierendes ”Frontend“ zu dem

Rahmen der Jupiter-Strategie nicht mehr zu verwirklichen.

externen Speicher und dem dazugehörigen Repository, in

Man ging davon aus, dass eine entsprechende Investition

dem der externe Speicher in einer speziellen, sehr effektiven

eher für Unix-basierende Server gemacht werden sollte.

und effizienten Datenbank verzeichnet ist. ISMF war der erste Schritt und wurde 1987 angekündigt und im Markt eingeführt. 2. Jupiter Stage II wurde 1989 als MVS/DFP 3.0 angekündigt und allgemein verfügbar. Neben dem Data Facility Product (DFP) waren auch die Komponenten Data Set Services (DSS), der Hierarchical Storage Manager (HSM) und der Removable Media Manager (RMM) integraler Bestandteil dieser Jupiter Stufe II. Das ist der Stand von SMS, wie er heute im Mainframe-Umfeld bekannt ist. Er trägt der Realisierung des Gedankens Rechnung, den Speicher durch das Betriebssystem nach einem vordefinierten Regelwerk automatisch zu verwalten. Über die Jahre hinweg wurde diese Stufe verfeinert und ergänzt und ist heute unter z/OS integraler Bestandteil der Betriebssystemsoftware.

168

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Funktionsweise

action1>. Unter &variable_llq ist bspw. INDEX, VER*, GRUPPE1 als mögliche LLQ-Liste definiert, wobei dieser

Dateien im z/OS

LLQ auch mit den ersten 3 Zeichen VER in die Auswahl

Bevor wir SMS und seine Komponenten genauer betrachten,

fallen würde. Dabei wäre gleichgültig, wie die anderen

wollen wir das Prinzip der Datei im z/OS beschreiben bzw.

Qualifier ausgeprägt sind. Also eine Datei mit DSN=TEST.

wie eine Datei angelegt und wiedergefunden wird.

D30M09.VERZ1 würde die Auswahl als gültig akzeptieren, da in der LLQ-Liste auch VER* steht.

Jede Datei – vergleichbar mit einer „File“ in Unix oder Windows – bekommt im z/OS einen eindeutigen Namen

Mit entsprechenden UND-Verknüpfungen von weiteren

bzw. genauer einen Dateinamen, ein „Data Set Name“

Regeln kann die Auswahl selektiver ausfallen wie etwa

(DSN) zugeordnet. Ein DSN kann bis zu 44 Character lang

mit SAP*,PROD als Liste in der Variablen

sind zwischen 1 und 8 Caracter lang und bestehen aus

&variable_hlq. Dann fallen alle DSN mit SAP in den ersten

alpha-numerischen Zeichen. In der Regel gibt es keine

3 Stellen des HLQ und mit den LLQ, wie in der Variablen

Vorschriften, wie solch ein Name ausgeprägt sein muss.

&variable_llq definiert, in die Auswahl.

Ein Beispiel: “SAP.PROD.KDNR1984.INDEX“ hat den 1. Qualifier mit SAP, der auch als High Level Qualifier (HLQ)

Eine Datei muss in einem SMS Environment immer katalo­

bezeichnet wird, einen 2. Qualifier PROD, den 3. Qualifier

gisiert sein. Ein Katalog ist ein Verzeichnis, in dem jede

KDNR1984 und den sogenannten Last Level Qualifier (LLQ)

einzelne Datei mit Namen verzeichnet ist und wo diese

mit INDEX. Die Qualifier sind jeweils durch einen Punkt

Datei zu finden ist. Das wird über ein Volume Label oder

getrennt.

die sog. Volume Serial Number, VOLSER, bewerkstelligt. Die VOLSER ist ebenfalls eindeutig in einem SMS-System.

Solch ein Name kann vom System genauso zerlegt und

Mit Hunderttausenden oder Millionen von Dateien in einem

geprüft werden. Beispielsweise kann eine Regel definiert

großen System wird man nicht nur einen einzigen Katalog

werden, die lautet Speiche­

eingebrannt. Von der Masterplatte lassen sich dann

rung einer Dateichronologie. Beim Schreiben wird durch

beliebig viele Kopien herstellen.

hohe Laserenergie die Plattenstruktur dauerhaft verändert. Beim Lesen wird diese Veränderung mit niedriger Laser­

Die Kopie wird vom Laserstrahl abgetastet, der durch die

energie abgetastet und detektiert. Man unterscheidet zwei

unterschiedliche Struktur der Speicherfläche mit einer digi­

Speichertechniken:

talen Information moduliert wird. Die Spurdichte beträgt bis zu 16.000 Spuren/Zoll. Als Aufzeichnungsstandard hat sich

Bei der Blasenerzeugung wird durch den Laserstrahl eine

das Format ISO 9660 durchgesetzt (Transferrate: 1,2 MBit/s,

Polymerschicht erhitzt, die unter einem dünnen Metallfilm

Kapazität: ca. 600 MB). Die CD-ROM dient hauptsächlich

liegt. Es kommt zur Bildung einer Blase, die den Metallfilm

der Verbreitung größerer Datenmengen, als Foto-CD und

dauerhaft verformt. Bei der Abtastung mit geringer Laser­

jüngst auch als Videoträger. Die erste CD-ROM-Applikation,

energie kann die geänderte Streuung ausgewertet werden.

die auf CD-ROM ausgeliefert wird, ist 1987 Microsoft Book­ shelf. 1990 kommt der Commodore CDTV auf den Markt, ein

Bei der Pit-Erzeugung durchbrennt der Laserstrahl eine

auf dem Amiga 500 basierender Computer mit integriertem

lichtundurchlässige Schicht, die über einer Reflexions­

CD-ROM-Laufwerk. 1993 und 1994 gibt NEC den Takt mit

schicht liegt (Pit entsteht). Beim Lesen werden die so

Dreifach- (Triple Speed) bzw. Vierfach-CD-ROM-Laufwerk

entstandenen Hell-Dunkel-Zonen ausgewertet.

(Quad Speed) an. Ende der 90er-Jahre wurde die Haltbarkeit von Daten auf Bei der beschreibbaren CD-R ist der Aufbau komplexer als

WORM-Platten auf ca. 300 Jahre geschätzt.

bei der CD-ROM. Unten liegt die Trägerschicht aus Polycar­ bonat, darauf folgt eine lichtempfindliche organische Sub­ stanz, die durchscheinend ist. Dann kommt eine reflektie­ rende Goldschicht und schließlich eine Lack-Schutzschicht. Mit erhöhter Laserenergie kann das organische Material ver­ färbt bzw. verschmolzen werden und es erhält so eine andere Reflexionseigenschaft. Die Platte kann danach wie eine CD-ROM gelesen werden.

274

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

MOD (Magneto Optical Disc) Mit WORM verwandt ist die MOD, ein modernes Speicher­ medium für Computer auf magnetisch-optischer Basis. Sie erlaubt das digitale Aufnehmen und Löschen über Laser. Die MOD enthält in Aufzeichnungsspuren geordnet bis zu einer Milliarde Mikromagnete. Diese sind in einer bestimmten Richtung vormagnetisiert. An den mit einem Laserstrahl erwärmten Stellen lassen sich diese Mikroma­ gnete durch ein angelegtes Magnetfeld umpolen. Beim Abtasten wird der Laserstrahl durch die nun verschieden gepolten Magnete zirkular entweder rechts- oder linksdre­ hend zurückgeworfen (magneto-optischer Kerr-Effekt). Die Änderung der Polari­sation kann über eine entsprechende Optik gelesen werden. Die MOD ist weniger lichtempfindlich 120 mm Optical Disk im IT-Umfeld für Langzeitarchivierung (WORM, MO und

als die CD-R, kann schneller beschrieben werden, ist

CCW)

unempfindlich gegen Nässe, hat eine hohe Lebenserwar­ tung und bietet hohe Datensicherheit.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

275

Technologie-Anhang

CCW (Continuous Composite WORM) basiert auf der MO-

DVD (Digital Versatile Disk)

Technik. Die Platte erhält bei der Produktion eine Kennzeich­

DVD steht für „Digital Versatile Disk“ (ehemals „Digital Video

nung, damit sie nicht überschrieben werden kann. Zusätz­

Disk“). Das Medium ist so groß wie eine normale CD-ROM,

lich schützt eine Software im Laufwerk die Platte vor dem

jedoch wird mit einer wesentlich höheren Speicherdichte

Überschreiben. CCW ist also eine „Schein“-WORM-Platte,

gearbeitet. Dabei unterscheidet man vier verschiedene

die auf der MOD-Technologie basiert.

Medien. Die einfache einseitige DVD kann 4,7 GB auf einer Schicht speichern. Es gibt aber auch zweischichtige DVDs.

Im IT-Umfeld wurden Anfang der 90er-Jahre die Technolo­

Dabei wird die Information auf zwei übereinanderliegenden

gien auf 120-mm-Basis (5,25 Zoll) als MO-, CCW- und

Schichten gespeichert, eine davon ist durchsichtig.

WORM-Platten standardisiert. Die 120-mm-Technologie findet bis heute ihren Einsatz im IT-Umfeld für Archivierungs­

Durch unterschiedliche Fokussierung des Lasers wird die

zwecke. Optische Platten auf 90-mm-Basis (3,25 Zoll)

richtige Schicht angesteuert. Damit sind 8,5 GB möglich. Und

werden vorrangig im Consumer-Umfeld eingesetzt.

dann gibt es das Ganze noch zweiseitig. Damit sind 17 GB Daten auf einer einzigen DVD möglich. Die ersten Laufwerke

UDO (Ultra Density Optical Disk)

kamen in den 90er-Jahren auf den Markt und können ein­

In den Jahren 2003 und 2004 wurde die 120-mm-Technolo­

schichtige, einseitige DVDs lesen. Leider gab es zu diesem

gie, die bis dahin mit einem roten Laser arbeitete, durch

Zeitpunkt noch wenig DVD-Titel mit Videos. Die Videos wur­

einen neuen Standard ersetzt, die UDO-Technologie (Ultra

den in MPEG-2 kodiert, was eine sehr gute Qualität bei der

Density Optical). Die UDO-Technologie ist nicht rückwärts­

Wiedergabe ergibt. Auch die ersten Brenngeräte für einsei­

kompatibel zur alten 120-mm-Technologie und arbeitet mit

tige, einschichtige DVDs waren in den 90er-Jahren bereits

einem blau-violetten Laser mit 405-nm-Wellenlänge. Die

vorgestellt worden, der Brenner von Pioneer wurde im

Plattenformate WORM, MO und CCW wurden beibehalten.

Herbst 1997 für etwas über 10.000 DM angeboten. Aufge­

UDO bietet ein „Phase Change“ WORM und „Phase Change“

nommen wurde mit ca. 1 – 2 MB/s und speichern konnte er

Rewritable-Medium zum Einsatz an. Die ersten Platten auf

maximal 3,9 GB.

dieser neuen Laser-Basis als neuer 1-x-Standard boten eine Kapazität von 30 GB. Die Zweitgeneration als 2-x-Standard,

Die Lesegeräte können auch normale CDs lesen, jedoch

der 2006 verfügbar wurde, bot das Doppelte an Kapazität,

meist keine CD-Rs, also die beschreibbaren CDs. Dies

also 60 GB. Die UDO-Technologie als neuer 120-mm-Stan­

kommt daher, dass ein Laser mit einer kürzeren Wellenlänge

dard wird gemäß einer Roadmap weiterentwickelt, die im

verwendet wird, der die selbst gebrannten CDs nicht mehr

UDO-Standard verankert wurde.

richtig lesen kann. Sony hatte dazu ein Laufwerk mit zwei Laser-Dioden entwickelt, mit dem man dann auch die CD-Rs

UDO Roadmap

276

wieder lesen kann. Generation 1

Generation 2

Generation 3

Capacity

30 GB

60 GB

120 GB

HD DVD

Transfer Rate

8 MB/s

12 MB/s

18 MB/s

Die HD DVD (High Density Digital Versatile Disk, zuvor:

RPM

2 000

3 000

3 600

Advanced Optical Disk, kurz: AOD) ist ein Datenträgerfor­

Avg Seek Time

25 ms

25 ms

25 ms

mat und wurde von 2005 bis Februar 2008 neben Blu-ray

Numerical Aperture

0.7

0.7

0.85

Disc und VMD als ein mögliches Nachfolgeformat der DVD

Media Layers

1

2

2

Encoding

1,7

1,7

ML

gehandelt.

Sector Size

8 KB

8 KB

8 KB

SCSI Transfer Rate

80 MB/s

80 MB/s

80 MB/s

Load Time

5s

5s

5s

Unload Time

3s

3s

3s

MSBF

750 000

750 000

750 000

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Die HD DVD wurde durch das Advanced Optical Disc-Kon­

umfasste zunächst die 15-GB- und die 30-GB-Variante,

sortium (AOD) spezifiziert, dem u. a. NEC, Microsoft, Toshiba,

wobei für Filme fast immer die zweischichtige 30-GB-Vari­

Intel, IBM und Hewlett-Packard angehörten. Danach haben

ante verwendet wurde.

sich diese Firmen zur HD DVD Promotion Group zusammen­ geschlossen, um die HD DVD effizienter bekannt zu machen.

Im Januar 2008 gab Time Warner bekannt, dass seine

Das DVD-Forum hatte im November 2003 die HD DVD als

Studios Warner Bros. und New Line Cinema zukünftig keine

HD-Nachfolger der DVD nach den HD-DVD-Spezifikationen

weiteren Filme für die HD DVD veröffentlichen werden, son­

für Read-Only-Discs verabschiedet. Für die HD DVD wurde

dern ausschließlich auf die Blu-ray Disc setzen. Dies wurde

der Kopierschutz Advanced Access Content System (AACS)

von einigen Medien als Entscheidung des Formatkrieges

aus dem Bereich des Digital Rights Management (DRM)

bezeichnet. In den darauffolgenden nächsten Tagen folgten

vorgesehen.

weitere Anbieter, so am 10. Januar der große europäische Filmverleih Constantin Film, am 12. Januar der US-Pornoan­

Im März 2006 kam mit dem HD-XA1 von Toshiba der erste

bieter Digital Playground und die deutsche Senator Film.

HD-DVD-Player in Japan auf den Markt. Im August 2006

Die US-Anbieter Universal Studios und Paramount Pictures

erschien mit Elephants Dream die erste HD DVD in deut­

dementierten hingegen Gerüchte, ihre Verträge mit HD DVD

scher Sprache.

aufzugeben, sie gelten als die letzten verbliebenen großen Anbieter. Nachdem Toshiba, von denen ein Großteil der HD-

Im Februar 2008 erklärte Toshiba, dass man die Entwicklung,

DVD-Player stammt, am 15. Januar die Preise der Geräte in

Herstellung und Vermarktung der Technologie Ende März

den USA teilweise drastisch reduziert hatte, sprachen einige

2008 einstellen werde.

Medien von einem „Ausverkauf“. Auf der anderen Seite nahm der Druck auf die HD DVD weiter zu: Anfang 2008 nahmen

Die HD DVD basierte auf einem blau-violetten Laser mit

Märkte der Media-Saturn-Holding beim Kauf eines Blu-ray-

405 nm Wellenlänge. Die Dicke der Trägerschicht ist mit

Abspielgerätes den HD-DVD-Player in Zahlung. Weitere

0,6 mm identisch mit der der DVD. Die numerische Apertur

Rückschläge musste das Format im Februar 2008 hinnehmen.

(NA) beträgt dagegen 0,65 im Vergleich zu 0,6 bei der DVD

Die US-Elektronikkette Best Buy teilte am 12. Februar 2008

und 0,85 bei der Blu-ray Disc.

mit, sich zukünftig nur noch auf das Blu-ray-Format zu kon­ zentrieren. Einen Tag zuvor kündigte schon der größte US-

Die HD DVD hatte mit einer Schicht ausgestattet eine Spei­

Online-Videoverleih Netflix an, dass er bis zum Jahresende

cherkapazität von:

die HD DVD aus dem Sortiment nehmen wird. Am 15. Februar 2008 kündigte zudem Wal-Mart, größter Einzelhändler

•• 15 GB (bei HD DVD-ROMs – gepresste Medien) bzw.

der USA, an, HD-DVD-Bestände auszuverkaufen und somit

•• 15 GB (bei HD DVD-R/RWs – einmal und wiederbeschreib-

in Zukunft nur noch auf Blu-ray setzen zu wollen. Am 19.

bare Medien) bzw.

Februar 2008 gab Toshiba eine Pressemitteilung heraus, in

•• 20 GB (bei HD DVD-RAM – wiederbeschreibbare Medien mit wahlfreiem Sektorzugriff)

der bekannt gegeben wurde, dass die Entwicklung, Herstel­ lung und der Vertrieb der HD DVD sowie entsprechender Geräte nicht weiter vorangetrieben wird und Ende März

und bei zwei Schichten eine Speicherkapazität von

2008 endgültig eingestellt wird. Daraufhin gaben die Univer­ sal Studios noch am selben Tag bekannt, von der HD DVD

•• 30 GB (bei HD DVD-ROMs – gepresste Medien).

auf das Blu-ray-Format zu wechseln.

Zusätzlich wurde im August 2007 eine dreilagige Variante durch das DVD-Forum verabschiedet, bei der pro Schicht 17 GB Platz fanden und die somit eine Gesamtkapazität von 51 GB hatte. Der endgültige Standard für Filme auf HD DVD

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

277

Technologie-Anhang

Blu-ray Disc Die Blu-ray Disc (abgekürzt BD oder seltener BRD) ist ein digi­ tales optisches Speichermedium. Sie wurde neben HD DVD und VMD als ein möglicher Nachfolger der DVD beworben. Nachdem Toshiba im Februar 2008 die Einstellung von Produktion und Weiterentwicklung der HD-DVD-Technik – einschließlich der Geräte – für März 2008 angekündigt hatte, gilt die Blu-ray Disc als Sieger im Formatkrieg. Der Name Blu-ray ist englischen Ursprungs. Blue ray bedeutet wörtlich soviel wie „Blauer Lichtstrahl“, was sich auf den verwende­ ten blauen Laser bezieht. Die bewusste Abweichung von der orthografisch korrekten Schreibweise „blue ray disc“ zielt darauf ab, eine Registrierung des Ausdrucks als Marke zu begünstigen. Die neue Phase-Change-Technik soll eine doppelt so hohe Die Spezifikationen für die Blu-ray Disc wurden am 19.

Übertragungsrate (Datentransferrate) von 9,0 MB/s (72 Mbit/s)

Februar 2002 durch die neun Unternehmen der Blu-ray

beim Beschreiben anstatt der ursprünglich maximal spezifi­

Group, Panasonic, Pioneer, Philips, Sony, Thomson, LG

zierten einfachen 4,5 MB/s (36 Mbit/s) ermöglichen. Ein

Electronics, Hitachi, Sharp und Samsung, beschlossen; die­

wichtiger Bestandteil der Spezifikation ist auch ein Kopier­

ser Gruppierung schlossen sich Ende Januar 2004 zusätz­

schutz in Form einer eindeutigen Identifikationsnummer.

lich noch Dell und Hewlett-Packard sowie Mitte März 2005

Außerdem eignen sich Blu-ray Discs besonders gut für Full-

Apple an. Hewlett-Packard trat allerdings 2005 wieder aus

HD-Videos, die dank der hohen Auflösung eine bessere

dem Blu-ray-Konsortium aus, nachdem einige Verbesse­

Qualität als die gängigen Systeme wie PAL und NTSC bieten,

rungsvorschläge abge­wiesen worden waren, und wechselte

aber auch dementsprechend mehr Speicherplatz benötigen.

in das HD-DVD-Lager.

BD-Spieler unterstützen in der Regel das zuerst von Pana­ sonic und Sony eingeführte hochauflösende AVCHD-Format.

Die Blu-ray Disc gibt es in drei Varianten: als nur lesbare BD-ROM (vergleichbar mit DVD-ROM), als einmal

Eine weitere Neuerung gegenüber der DVD ist der verkleinerte

beschreib­bare Variante BD-R (vergleichbar mit DVD±R) und

Abstand des Lasers zum Datenträger sowie die geringere

als wieder­beschreibbare BD-RE (vergleichbar mit DVD±RW).

Wellenlänge (und daher andere Farbe) des Laserstrahls.

Durch den Einsatz eines blau-violetten Lasers und dessen

Weiterhin ist die Schutzschicht auf der Laser-Seite mit 0,1 mm

kurzer Wellenlänge (405 Nanometer) lassen sich höhere

im Vergleich zu 0,6 mm der DVD deutlich kleiner. Aufgrund

Datendichten erreichen als bei einer DVD. Pro Datenschicht

der daraus resultierenden größeren Anfälligkeit gegen

lassen sich 25 GB Daten auf einer BD-ROM speichern,

Kratzer und Staub war zunächst geplant, die Blu-ray Disc

sodass sich bei zweischichtigen Medien eine Kapazität von

nur in einer Cartridge anzubieten. Stattdessen wurde jedoch

bis zu 50 GB ergibt.

eine Beschichtung namens „Durabis“ entwickelt, die den Gebrauch einer Cartridge nicht mehr notwendig macht.

Eine vierlagige Version der Blu-ray Disc, die auf einer Seite um 100 GB fassen soll, wurde von TDK vorgestellt. TDK ist

Wegen des geringeren Abstands zwischen Medium und

es gelungen, auf einer sechslagigen Scheibe 200 GB unter­

Laseroptik sowie der dünneren Schutzschicht kann ein

zubringen. Dabei wurde die Kapazität einer Lage auf 33,3 GB

Objektiv mit günstigerer numerischer Apertur eingesetzt

erhöht. Dies sind jedoch in erster Linie Machbarkeitsstudien.

werden, das den Strahl effizienter bündeln kann. Somit wer­

Von vornherein sind auch beschreibbare Medien vorgesehen,

den Schreibfehler und stärkere Streuungen verringert und

soll die Blu-ray Disc doch vor allem in der Unterhaltungs­

es ist möglich, eine Blu-ray Disc zum Beispiel aus Metall oder

elektronik ihre Heimat finden und als Speichermedium für

anderen stabilen, undurchsichtigen Materialien kombiniert

hochauflösende Filme dienen. Die wiederbeschreibbare Blu-ray Disc arbeitet mit der Phase-Change-Technik.

278

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

mit einer dünnen durchsichtigen Trägerschicht zu bauen,

36 bzw. 72 Mbit/s bei der Blu-ray-Platte. Zudem ist die HVD

die mit erheblich höheren Drehzahlen als eine Scheibe aus

dabei noch lange nicht ausgereizt und es sind neue

Polycarbonat betrieben werden können, woraus dann

Laufwerke mit noch höherer Rotationsgeschwindigkeit

höhere Übertragungsraten resultieren. Zudem erlaubt die

denkbar. Die Spezifikation für die HVD wurde im Dezember

gegenüber der DVD kleinere Wellenlänge des Laserstrahls

2004 durch das TC44 Committee der Ecma International

eine wesentlich höhere Datendichte und damit eine erhöhte

beschlossen. Bereits im Februar 2005 wurde die „HVD

Speicherkapazität.

Alliance“ gegründet, um die Entwicklung der HVD voranzu­ treiben. Inzwischen gehören der Alliance 19 Firmen an:

Die Firma Verbatim stellte auf der IFA 2005 eine „Blu-ray

Alps Electric Corporation, CMC Magnetics, Dainippon Ink

Disc Rewriteable“ vor. Dieses Medium soll laut Hersteller

and Chemicals, EMTEC International, Fuji Photo Film,

eine Speicherkapazität von 25 Gigabyte erlauben (also

Konica Minolta Holdings, LiteOn Technology, Mitsubishi

ca. 135 Minuten Video in MPEG2 HD-Qualität). Außerdem

Kagaku, Nippon Kayaku, Nippon Paint, Optware Corporation,

soll die BD-RE mit einer besonders stoß- und kratzfesten

Pulstec Industrial, Shibaura Mechatronics, Software Archi­

Schutz­schicht versehen sein. Neben der unmittelbaren

tects, Suruga Seiki, Targray Technology, Teijin Chemicals,

Verfügbarkeit von 25-GB-Rohlingen hat TDK für Oktober

Toagosei Company und die Tokiwa Optical Corporation.

2006 auch 50-GB-Discs in Aussicht gestellt. TDK ist eines der Gründungsmitglieder der Blu-ray Disc Association

Zwei überlagerte Laser mit unterschiedlicher Wellenlänge,

(BDA) und war maßgeblich an der Entwicklung beteiligt.

ein blau-grüner Schreib-/Leselaser mit 532 nm und ein roter

Holographic Versatile Disc (HVD)

schiedlichen Lagen in der Platte reflektiert und erzeugen in

Die Holographic Versatile Disc, auch HVD genannt, wird

der photopolymeren Schicht ein Interferenzfeld, ein soge­

bereits heute in Fachkreisen als Nachfolger der heutigen

nanntes Hologramm. In der schematischen Zeichnung sind

HD-DVD- und Blu-ray-Technologie gehandelt. HVDs haben

die beiden Laser zur Vereinfachung nicht überlagert darge­

eine Kapazität von bis zu 3,9 TB und damit um ein Viel­

stellt, um das Prinzip der unterschiedlichen Reflexion besser

faches mehr als die größte heute zur Verfügung stehende

darzustellen.

Positionierungslaser mit 650 nm, werden auf zwei unter­

Blu-ray-Platte mit 200 GB. Auch die Transferrate ist um ein Vielfaches höher und erreicht 1 Gbit/s im Vergleich zu

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

279

Technologie-Anhang

Beim Auslesen liest der blau-grüne Laser das Hologramm der

ist ein Hologramm auch schwer zu fälschen. Die Haltbarkeit

als Laser-Interferenz-Muster codierten Daten in der Polymer­

von Informationen in holografischen Speichern wird heute

schicht im oberen Bereich des Mediums aus, während der

auf etwa 50 Jahre geschätzt.

rote Laser dazu dient, Hilfsinformationen von einer CD-ver­ gleichbaren Aluminiumschicht im unteren Bereich auszulesen.

Flash-Speicher – Kurzgeschichte

Die Hilfsinformationen dienen zur exakten Positionierung, wo

Die Entwicklung des heutzutage bekannten Flash-Speichers

man sich gerade auf der Platte befindet (vergleichbar mit

hat sich erst relativ spät in den 90er-Jahren zugetragen. Die

Sektor-, Kopf- und Segmentinformationen einer Festplatte).

treibende Kraft war die digitale Fotografie. Schließlich ist es

Eine dichroitische Spiegelschicht (Reflexionsschicht), die sich

praktisch unmöglich, in eine kleine Digitalkamera einen CD,

zwischen der Polymerschicht und der Aluminiumschicht

Brenner einzubauen, der die geschossenen Bilder direkt auf

(Basisschicht) befindet, lässt den blau-grünen Laser reflek­

die CD brennt. Ebenso wenig war die Diskette tauglich, da

tieren, während der rote Laser hindurchgeht. Durch diesen

sie einfach zu wenig Daten zu langsam speicherte. Die

Trick wird die Interferenz durch Refraktion des blau-grünen

Ende der 90er-Jahre von IBM entwickelten Microdrives, die

Lasers von den Hilfsdaten-„Pits“ verhindert und beide Infor­

ein paar Jahre zu den Flash-Speicherkarten eine Alternative

mationen (Hologramm und Hilfsdaten) können unabhängig

bildeten, verbrauchten im Einsatz viel Strom, sodass der

voneinander sauber angesteuert werden.

Akku einer Digitalkamera häufig aufgeladen werden musste. Auf Dauer waren deshalb die Microdrives keine sinnvolle

Polymere, also Kunststoffe, sind lange Kettenmoleküle, die

Alternative in der digitalen Fotografie.

aus den immer gleichen Bausteinen bestehen. Sie haben gegenüber Kristallen den Vorteil, nahezu unbegrenzt modifi­

Der erste Flash-Speicher wurde von Sandisk 1994 auf

zierbar zu sein. Polymere sind extrem lichtempfindlich,

den Markt gebracht. Er umfasste damals 4-MB-Speicher.

hoch­transparent und unempfindlich gegen Temperatur­

Mittlerweile ist diese Form der Datensicherung viele Techno­

schwankungen. Sie verändern auch nach häufigem Ausle­

logieschritte weiter, da man mit 4 MB Speicherkapazität

sen ihre Leistungsfähigkeit nicht und sind ideal für die

kaum etwas anfangen konnte. Heutzutage sind USB-

Laserbearbeitung. Nach der Bestrahlung mit Laserlicht ver­

Sticks, die auf dieser Technologie basieren, mit mehreren

ändern die lichtempfindlichen Moleküle im Polymer ihre

Gigabyte erhältlich.

Ausrichtung. An den belichteten Stellen lenkt das Material Licht stärker ab als an den unbelichteten Stellen. In dieser

Die Bezeichnung Flash-Speicher kam in den Laboren von

als Interferenzfeld gezielten Veränderung der molekularen

Toshiba zustande, wo der Forscher Shoji Ariizumi diesen

Ordnung steckt die „holografische“ Information. Da die

Namen vorschlug, da ihn das Löschen der Datenblöcke an

Daten nicht als einzelne Bits, sondern als ganze Bitmuster

ein Blitzlicht (in Englisch: „Flash“) erinnerte.

aufgezeichnet und gelesen werden, lassen sich mit einem einzigen Laser-„Blitz“ extrem viele Bits gleichzeitig abrufen. Je nach Polymerart und Polymerdicke können das mehrere hunderttausend Bits sein. Die Übertragungsraten werden gigantisch. Ein Spielfilm, der heute auf eine DVD passt, könnte in etwa 30 Sekunden ausgelesen werden. Die große Speicherkapazität kommt daher, dass die Hologramme nicht nur auf die Oberfläche eines Speichermaterials geschrieben werden, sondern in das gesamte Volumen. Besonders sensible Daten könnten zusätzlich durch eine spezielle Maske verschlüsselt werden, die zwischen das Speichermaterial gesetzt wird. Im Gegensatz zu Informati­

Flash-Speicher einer Compact-Flash-Speicherkarte (Foto: SANDISK)

onen (z. B. auf Chips), die über eine Software verschlüsselt sind, ließe sich die Hardware-Verschlüsselung von Holo­ grammen prinzipiell nicht knacken. Aus denselben Gründen

280

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Beschreibung und Funktionsweise

Im Gegensatz zu Festplatten haben Flash-Speicher keine

Flash-Speicher basieren auf Halbleitertechnologie und kom­

beweglichen Teile mehr integriert, das heißt mechanische

men in allen heute verbreiteten Speicherkarten vor. Sie wer­

Komponenten einer Festplatte sind ausgeschlossen und

den in Hybrid-Festplatten oder Flash-Festplatten in Personal

werden durch Halbleiter, also von elektrotechnischen Bau­

Computern eingesetzt, aber auch in Speicherkarten für

elementen, bezüglich der Funktionsweise übernommen.

Arbeitsrechner oder in schnellen Zwischenspeichern von

Diese müssen in der Lage sein, Daten dauerhaft und nicht

Großrechnern; darüber hinaus aber vor allem in SIMMs, PC-

flüchtig, also Stromunabhängig, zu speichern. Auch wenn

Cards und PCMCIA-Karten, in Digitalkameras und MP3-Pla­

die Stromversorgung abgebrochen wird, dürfen die Infor­

yern, in USB-Sticks, Camcordern und Druckern, Notebooks

mationen nicht verloren gehen.

und Handhelds. Es gibt spezielle Flash-Module für Note­ books, Laptops, PDAs, Drucker und andere Peripheriege­

Eine Flash-Zelle besteht aus einem modifizierten MOSFET-

räte wie Digitalkameras. Die verschiedenen Ausführungen

Transistor (Metall-Oxid-Feld-Effekt-Transistor), der mit einer

haben eine geschützte Bezeichnung und Schreibweise: Bei­

zusätzlichen Elekrode, dem sogenannten „Floating Gate“,

spiele sind die Compact-Flash-Karte (CF), die Smart Media

ausgestattet ist. Diese Elektrode wird zwischen der Steuer­

Card, Memory Sticks, die Multi Media Card (MMC), die SD-

elektrode (Control Gate) und dem aktiven Transistorkanal

Karte und andere mit Speicherkapazitäten von mehreren

platziert und mit einer dünnen halbdurchlässigen Trenn­

Gigabyte (GB). Das Lesen von Flash Memorys kann in spe­

schicht umgeben. Werden nun freie Elektronen mithilfe von

ziellen Kartenlesegeräten durchgeführt werden, die über ein

höherer Spannung (Schreibspannung) durch die Barriere,

Schnittstellenkabel wie USB mit dem Personal Computer

meist eine Oxidschicht, hindurch auf das Floating Gate

(PC) verbunden sind. Darüber hinaus können die Flash

„gepresst“, ändert sich das Transistorverhalten.

Memorys auch über PC-Card-Adapter betrieben werden. Jeder Transistor kann eine elektrische Ladung in Form von Die prinzipiellen Anforderungen an eine Speicherkarte

Elektronen entweder leiten oder sperren. Dies entspricht

sind neben einer sehr kompakten Bauweise hohe Speicher­

genau den binären Informationszuständen eines Bits, also

kapazitäten, die Wiederbeschreibbarkeit, der Einsatz von

„0“ und „1“. Der Transistor gibt die gespeicherte Information

Strom­unabhängigen Speicherbausteinen sowie eine mög­

dann preis, wenn eine Spannung angelegt wird und je

lichst geringe Störanfälligkeit im mobilen Einsatz. Diese

nachdem, ob Strom fließt oder nicht, besitzt er die logische

Anforderungen waren und sind vor allem durch die digitale

Information „0“ oder „1“.

Fotografie definiert.

Aufbau einer Flash-Speicherzelle mit Floating Gate

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

281

Technologie-Anhang

Das Floating Gate ist elektronisch vollständig von allen

Weitere Überlegungen

anderen Komponenten durch eine Oxydschicht isoliert,

Flash-Speicher sind stromunabhängig und unterscheiden

damit die gespeicherte Ladung, also die Information auf der

sich deshalb grundsätzlich von stromabhängigen (volatile)

Datenzelle darunter, auch wirklich in ihr gespeichert bleibt

RAM-Bausteinen (Random Access Memory), denn die im

und auch über längere Zeit nicht verloren gehen kann.

RAM-Hauptspeicher eines Computers gespeicherte Infor­

Unter normalen Umständen wäre durch diese Isolation eine

mationen bleiben immer nur solange erhalten, wie der

Übertragung nicht möglich, da die Isolation sie blockieren

Computer läuft. Ist der Computer ohne Strom, verlieren

würde. Der Flash-Speicher bedient sich deshalb des soge­

RAM-Module die Fähigkeit, Daten zu speichern.

nannten Tunneleffekts aus der Quantenmechanik, der es ermöglicht, Ladungen auch durch ein nicht-leitendes Mate­

Ein klassich bipolarer Transistor benötigt Strom für mehrere

rial zu übertragen. Das Floating Gate wird je nach Menge

Funktionen. Zum einen werden Elektronen aus Siliziumflä­

der aufgenommenen Elektronen zu einem elektronischen

chen des Transistors herausgelöst, um damit den Schaltzu­

Drosselventil für die Transistorfunktion. Beim Auslesen einer

stand zu verändern. Informationen werden auf diese Weise

Transistor-Speicherzelle wird der resultierende Strom als

gespeichert oder gelöscht. Zum anderen wird der Strom in

Indikator für logisch „0“ (viele Elektronen im Floating Gate)

Form von „Refresh“-Impulsen benötigt, um den erreichten

und logisch „1“ (wenige oder fast keine Elektronen im Floa­

Zustand zu stabilisieren.

ting Gate) ausgewertet. Ein geladenes „Floating Gate“ reflektiert also „0“ und ein ungeladenes wird als „1“ gewer­

MOSFETs hingegen sind in der Lage, mittels einer dünnen

tet. Eine andere Zuordnung wäre möglich, wurde aber nie

Oxidschicht einen kleinen Kondensator aufzubauen, der

angewandt. Jedes einzelne Bit wird damit über das „Floa­

über ein einmal aufgebautes elektrisches Feld Ladungsträ­

ting Gate“ übertragen. Für das erneute Beschreiben einer

ger zwischen den Siliziumschichten transportiert. Dadurch

bereits mit Information bestückten Datenzelle ist das vorher­

baut sich Spannung auf, bis ein Grenzwert erreicht wird. In

gehende Löschen dieser notwendig. Der Grund hierfür ist,

der Folge entsteht ein dünner leitender Kanal, der ohne

dass man die Bits in einem Flash-Speicher immer nur von 1

„Refresh“-Impulse stabil bleibt. MOSFETs benötigen also nur

nach 0 verändern kann. Nur ein Löschvorgang ermöglicht

Strom, um den Kondensator zu laden oder zu entladen,

es, diesen Zustand in die andere Richtung zu ändern.

während im anderen Fall Strom dauerhaft zugeführt werden muss, um die Leitfähigkeit in einem stabilen Zustand zu hal­

Die schematische Abbildung „Aufbau einer Flash-Speicher­

ten und die gespeicherte Information zu erhalten.

zelle mit Floating Gate“ zeigt, wie das Floating Gate eine Ladungsfalle bildet, in der die elektrische Ladung gespei­

NAND-Architektur

chert wird. Es liegt in einer Oxidschicht unterhalb des Con­

Die Bezeichnung NAND, die den NAND-Flash-Speicher

trol Gates und verhindert im Normalfall den Ladungsabfluss

beschreibt, kommt eigentlich aus der Aussagenlogik. Hier

zu den N- und P-Schichten (N = stark negativ dotierte Elek­

wird ein Gatter beschrieben, das eine bestimmte UND-Ver­

troden Drain und Source, P = stark positiv dotiertes Sub­

knüpfung darstellt (Not AND = NAND). In die Welt der Elek­

strat). Die Ladung auf dem Floating Gate bildet über ihr

tronik umgewälzt bedeutet es, dass die Speicherzellen auf

elektrisches Feld einen leitenden Kanal zwischen Drain und

einem Flash-Speicher seriell geschaltet sind, also auf ver­

Source, über den die Ladung ausgelesen wird. Das

schiedenen Datenleitungen hintereinander gereiht sind.

Löschen erfolgt blockweise. Durch Anlegen einer negativen

Dabei werden die Metall-Oxid-Halbleiter-Feldtransistoren

Löschspannung werden die Ladungsträger aus dem Floa­

über ein NAND-Gatter miteinander verbunden. Der große

ting Gate herausgetrieben.

Vorteil dieser Architektur ist, dass nur eine geringe Anzahl an Datenspuren benötigt werden, da eine Spur mehrere Speicherzellen enthält. Im Vergleich zur NOR-Architektur kann somit eine Platzersparnis der Speicherzellen von weit über 50 % erzielt werden.

282

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Die Zugriffszeiten der NAND-Architektur sind relativ hoch,

Generell

da man nicht auf einzelne Speicherzellen zugreifen, sondern

NAND wird in großen Datenspeichern in kommerziellen

immer nur die ganze Leitung herauslesen kann. Man muss

Systemen genutzt, weil damit kompaktere, schnellere und

die Daten also blockweise lesen. Dabei bedient man sich

preiswertere Speichersysteme gebaut werden können. Im

der page- und blockorientierten Arbeitsweise. Eine Page

NOR-Speicher sind die Speicherzellen parallel auslesbar,

besteht aus 512 bzw. 2.048 Bytes, die ihrerseits wieder zu

daher sind solche Speicher bei einem überwiegenden Lese­

Blöcken zusammengefasst werden, die zwischen 16 und

betrieb besonders schnell und z. B. als Programm- oder

128 KB liegen.

Codespeicher sehr gut geeignet. NAND-Speicherzellen kön­ nen dichter gepackt werden. Dabei sind aber viele Spei­

Wie bereits ausgeführt, kann man ein erneutes Beschreiben

cherzellen in Reihe geschaltet. Daher ist der wahlweise

eines Speicherbereichs, also einer Page, nur dann durch­

Lesezugriff langsamer. Löschen und Schreiben gehen bei

führen, wenn man sie zuvor löscht. Da die Datenzellen seri­

NAND-Speichern schneller, wenn blockweise gearbeitet

ell geschaltet sind, muss man gleich den ganzen Block

wird. Die Speicherdichten bei NAND- und NOR-Techniken

löschen, in dem sich die jeweilige Page befindet.

für Einbit-Zellen unterscheiden sich. Üblicherweise verwen­ det NAND Einbit-Zellen und NOR Mehrbit-Zellen. Allerdings

Man verwendet NAND-Flashs in jenen Bereichen, wo

gibt es beide Techniken inzwischen auch in Mehrbit-Varian­

relativ viel Speicher gebraucht wird und das Flash-Module

ten mit zwei, drei oder vier Bits in einer Zelle. Generell sind

klein und sehr kompakt gebaut sein soll. Etwas nachteilig

Mehrbit-Zellen langsamer und störanfälliger als Einbit-Zel­

sind die langsameren Zugriffszeiten im Vergleich zur

len. Mehrbit-Zellen (Multi Level Cell) haben dieselbe Zell­

NOR-Architektur.

größe und die Bits in der Zelle werden durch unterscheid­ bare Spannungspegel definiert. Das erklärt die Kostenreduktion

NAND-Speicher oder auch SLC-Flash genannt (Single Level

von MLC-Speichern gegenüber dem SLC-Speicher (Single

Cell) haben sich aufgrund ihrer hohe Speicherdichte und

Level Cell). Allerdings gibt es immer wieder Schwierigkeiten,

der kostengünstigen Produktionsweise gegenüber NOR-

die geringen Spannungsunterschiede präzise auszulesen.

Speichern weitgehend durchgesetzt.

Deshalb sollte beim heutigen Stand der Technik im professio­ nellen IT-Betrieb aus Zuverlässigkeits- und Geschwindig­

NOR-Architektur

keitsgründen SLC-Flash in NAND-Technik eingesetzt werden.

Als Gegenstück zum NAND-Speicher existiert der sogenannte NOR-Speicher. Wie der Name schon vermuten

Lebensdauer

lässt, besteht dieser Speichertyp anstatt aus NAND aus

Aufgrund ihrer Funktionsweise sind FLASH-Speicher nicht

NOR-Gattern (Not OR). Dabei ergibt sich auch der Umstand,

unbegrenzt haltbar. Jeder Schreib- und Löschvorgang ver­

dass die Speicherzellen eines NOR-Flashs parallel zuein­

ursacht einen gewissen Verschleiß in den Oxidschichten

ander geschaltet sind, wodurch ein paralleler und somit

der Zellen, sodass die Hersteller von Flash-Speicherkarten

wahlfreier Zugriff möglich wird. Man muss also beim Lesen

eine Art Mindesthaltbarkeit für ihre Produkte angeben, die

nicht Block für Block vorgehen.

auf der Anzahl der durchgeführten Löschzyklen basiert.

Der parallele NOR-Flash verfügt über geringere Speicher­

Bei NAND (SLC) beträgt dieser Wert 100.000 Zyklen, bei

dichte und ist vergleichsweise teuer, führt aber Abrufvor­

NOR (MLC) nur 10.000 Zyklen. Dabei wird immer ein

gänge wesentlich schneller aus. NOR-Speicher werden

großzügiger Sicherheitspuffer mit einkalkuliert, d. h., NAND-

auch als MLC-Speicher (Multi Level Cell) bezeichnet und

Speicherkarten können in der Regel auch nach einer Million

können aufgrund ihrer „Gitter“-Struktur flexibl angesprochen

und mehr Löschzyklen funktionsfähig sein.

werden. Durch ihren Aufbau verfügen sie verglichen mit NAND-Speichern über relativ wenig Speicherplatz, da durch die Parallelität einfach mehr Platz beansprucht wird.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

283

Technologie-Anhang

Eine Art Defektmanagement erhöht zusätzlich die Lebens­

RAM – Random Access Memory

dauer von Flash-Speicherkarten. Sobald der Verschleiß

RAM ist die Abkürzung für Random Access Memory. RAM

innerhalb eines Blocks die Integrität der Daten beeinträch­

wird auch als Arbeitsspeicher oder Hauptspeicher bezeich­

tigt, wird dieser Block als defekt gekennzeichnet und die

net und ist ein Speichertyp, dessen Speicherzellen über ihre

dort abgelegten Daten auf einen Reserveblock umgelagert.

Speicheradressen direkt angesprochen werden können. In

Diese Blockverwaltung kümmert sich zudem von Anfang an

diesem Zusammenhang wird auch von „wahlfrei“ gespro­

um eine gleichmässige Verteilung der Schreibzugriffe, damit

chen, was sich auf „random“ bezieht und nichts mit „Zufall“

die Blöcke möglichst gleichmässig und einheitlich abge­

oder „zufälligem Zugriff“ zu tun hat. In diesem Zusammen­

nutzt werden.

hang spricht man von „Speicher mit wahlfreiem Zugriff“ oder „Direktzugriffsspeicher“.

Steuerung Die Steuerung, die das Defektmanagement durchführt, hat

RAM erlaubt den Zugriff auf jede einzelne Speicherzelle

maßgeblichen Einfluss auf die Leistungsfähigkeit einer

sowohl lesend, wie auch schreibend. RAM Speicher benöti­

Flash- Speicherkarte. Sie kümmert sich neben der Wartung

gen immer Stromzufuhr. Wird die Stromversorgung abge­

der Flash-Zellen vor allem um die Kommunikation der Spei­

schaltet, gehen die Daten im RAM verloren.

cherkarte mit dem Endgerät und ist damit maßgeblich für die Datentransferraten verantwortlich, die beim Lesen von

RAM wird in Computer- und Mikrocontroller-Systemen als

und beim Schreiben auf eine Flash-Zelle erreicht werden.

Arbeitsspeicher eingesetzt. In diesen Arbeitsspeichern wer­

Die Zugriffszeiten liegen bei etwa 100 µs, die Lesege­

den Programme und Daten von externen Speicherträgern

schwindigkeit liegt bei 25 MB/s und geht bis über 50 MB/s.

und Festplatten geladen. Zur schnellen Verarbeitung kann der Prozessor darauf zugreifen, verarbeiten und danach

Neben der Geschwindigkeit ist auch die Zuverlässigkeit

wieder in den Arbeitsspeicher schreiben.

bei der Datenkommunikation sowie das Protokoll, das für ein reibungsloses An- und Abmelden der Speicherkarte

Kurzgeschichte

beim Betriebssystem sorgt, Sache der Steuerung. Für diese

Die Entstehung des Begriffs geht in die Anfangszeit der

Steuerung werden Controller eingesetzt.

Computer zurück, bei denen alle Daten auf sequenziell zu lesenden Speicherformen wie Lochkarten, magnetischen

Bei den meisten heute verfügbaren Speicherkarten ist der

Trommelspeichern und Magnetbändern vorlagen, die zur

Controller in der Datenträgereinheit integriert, bei einigen

Verarbeitung in schnelle Rechenregister geladen wurden.

Modellen wird er aber auch extern eingesetzt, um eine noch

Um Zwischenergebnisse schneller als diese blockorien­

kompaktere Bauform zu erreichen. Der Nachteil der exter­

tierten Geräte bereitzuhalten, wurden zeitweise Verzöge­

nen Variante liegt darin, dass außen liegende Controller oft­

rungsleitungen (engl. delay line) für Zwischenwerte einge­

mals mehr als ein Kartenmodell verwalten müssen und nicht

setzt, bis dann die Ferritkernspeicher eingeführt wurden.

optimal auf die Anforderung jedes einzelnen abgestimmt

Diese beschreibbaren Speicher hatten schon die gleiche

sind. Leistungsverlust und Kompatibilitätsprobleme können

Form des Matrixzugriffs wie heutige RAMs. Zu jener Zeit

dann die Folge sein.

waren die schnellen Speichertypen alle beschreibbar und die wesentliche Neuerung bestand im wahlfreien Zugriff der

Ausblick

magnetischen Kernspeicher und der dann auf Halbleiter­

Man geht heute von einer Zeitspanne von vier bis fünf Quar­

speichern aufsetzenden RAM-Bausteine.

talen zwischen zwei Flash-Generationen aus, bei der die

284

Kapazität mindestens um 50 % gesteigert oder in vielen

Funktionsweise

Fällen verdoppelt werden kann. Dies kann in den nächsten

RAMs sind Halbleiter-Speicher und es gibt prinzipiell zwei

Generationen ähnlich weitergehen, die Kurve könnte aber

Arten von RAM: SRAM als statisches RAM und DRAM als

stark abflachen! Deshalb wird bereits heute an neuen und

dynamisches RAM. Bei statischen RAMs wird die Informa­

anderen Flash-Speichertechniken gearbeitet. IDC erwartet,

tion in rückgekoppelten Schaltkreisen (sogenannten Flip­

dass der Einsatz von Flash-Speichern in mobilen PCs von

flops) gespeichert, bei dynamischen RAMs in Kondensa­

heute fast 0 auf 20 % im Jahr 2011 steigen wird.

toren, deren Ladung periodisch aufgefrischt wird. Während

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

des Wiederaufladens hat der Prozessor (CPU) keinen Zugriff auf den DRAM. Deswegen arbeiten Computer mit DRAMs oft langsamer als solche mit SRAMs. Die Speicherkapazität der DRAMs liegt jedoch deutlich über den von SRAMs. SRAM ist statisch. Das bedeutet, dass der Speicherinhalt mittels Flipflops gespeichert wird und so nach dem Abruf des Speicherinhalts erhalten bleibt. Dadurch ist der Strom­ verbrauch sehr hoch, was aber zu einem schnellen Arbeiten innerhalb des Speichers führt. Aufgrund seines hohen Preises und des großen Stromverbrauchs wird SRAM nur als Cache- oder Pufferspeicher mit geringen Kapazitäten verwendet (z. B. L1-, L2- und L3-Cache von großen Rechner­­ systemen). Sein Inhalt ist flüchtig (volatile), d. h., die ge­speicherte Information geht bei Abschaltung der Betriebs­

trischen und dann auch optischen Eigenschaften zu unter­

spannung verloren. In Kombination mit einer Pufferbatterie

suchen.

kann aus dem statischen RAM eine spezielle Form von nicht flüchtigen Speicher-NVRAM realisiert werden, da

Chalkogenide sind chemische Verbindungen aus einem

SRAM-Zellen ohne Zugriffzyklen nur einen sehr geringen

oder mehreren Chalkogen-Elementen wie Sauerstoff,

Leistungsbedarf aufweisen und die Pufferbatterie über

Schwefel, Selen und Tellur, die mit anderen Bindungspart­

mehrere Jahre den Dateninhalt im SRAM halten kann.

nern (wie Arsen, Germanium, Phosphor, Blei, Aluminium und andere) Feststoffe mit ionischem oder kovalentem Charakter

DRAM ist im Vergleich einfacher und langsamer. Lange Zeit

bilden. Die Feststoffe treten meist kristallin auf.

war im Computer-Bereich für den Arbeitsspeicher nur dieser eine Speichertyp mit seinen verschiedenen Varianten bekannt.

1968 wurden erstmals Phase Change Memories als mög­ liches Speichermedium in Betracht gezogen. Jedoch war zu

Eine DRAM-Speicherzelle besteht aus einem Transistor und

diesem Zeitpunkt die Technologie noch nicht so weit, um mit

einem Kondensator, der das eigentliche Speicherelement

anderen Speichermedien wie DRAM und SRAM mitzuhalten.

ist. Die Informationen werden in Form des Ladezustands eines Kondensators gespeichert. Dieser sehr einfache

Die Chalkogenide wurden jedoch speziell in der optischen

Aufbau macht die Speicherzelle zwar sehr klein, allerdings

Speicherung weiter erforscht und fanden mit der CD-/DVD-

entlädt sich der Kondensator bei den kleinen möglichen

RW ihren Markt. Dabei wird mit einem Laser ein Punkt auf

Kapazitäten durch die auftretenden Leckströme schnell, und

einer CD erhitzt, sodass dieser seinen Zustand ändert

der Informationsinhalt geht verloren. Daher müssen die

(amorph zu kristallin und wieder zurück).

Speicherzellen regelmäßig wieder aufgefrischt werden. Im Vergleich zum SRAM ist DRAM wesentlich preiswerter.

Erst als im Zuge dieser Entwicklungen Materialien entdeckt

Deshalb verwendet man DRAM vornehmlich für den Arbeits­

wurden, die bezüglich Schreibzeiten und -strömen in inte­

speicher eines PCs.

ressante Regionen kamen, bekam auch die Phase-ChangeRAM-Entwicklung wieder Fahrt.

Phase Change Memories (PCM) – Phasenwechselspeicher Schon in den 1920er-Jahren wurde beobachtet, dass sich

Beim Phase Change Memory wird das Chalkogenid im

die elektrische Leitfähigkeit durch eine Strukturänderung

Gegensatz zur optischen Anwendung mit einem Stromim­

an einem Chalkogenid verändert. In den 1950er-Jahren

puls zur Phasenänderung angeregt. Durch das Wechseln

erforschte man die Halbleitereigenschaften kristalliner und

des Zustands ändert sich der elektrische Widerstand. Dabei

amorpher Chalkogenide. In den 1960er-Jahren fing man an,

kann zwischen zwei oder auch mehr Zuständen unterschie­

reversible phasenwechselnde Materialien auf ihre elek­

den werden und damit noch mehr in einer Zelle gespeichert werden.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

285

Technologie-Anhang

PCM – Funktionsweise

„Gemeinsam ist es uns jetzt gelungen, ein neues Material

Im Inneren eines Phase-Change-Speichers befindet sich

für Phase-Change-Speicher zu entwickeln, das auch

eine winzige Menge einer Halbleiterlegierung, die schnell

bei extremer Miniaturisierung hohe Leistung bietet“, sagt

zwischen einer geordneten kristallinen Phase mit einem

Rolf Allenspach, Leiter der Gruppe Nanophysik am IBM

niedrigeren elektrischen Widerstand und einer ungeord­

Forschungslabor Rüschlikon bei Zürich.

neten amorphen Phase mit einem viel höheren elektrischen Widerstand wechseln kann. Da die Aufrechterhaltung beider

NAND-Flash ist derzeit zwar weiterhin im Kommen, jedoch

Phasenzustände keine Stromzufuhr erfordert, ist der

ist die Technologie noch teuer, die Kapazitäten für einen

Phasenwechselspeicher nicht flüchtig.

alleinigen Einsatz in Computern zu gering und sie machen bereits nach 100.000 Lese- und Schreibzyklen schlapp.

Der Phasenzustand des Materials wird durch die Amplitude

Diese relativ schnelle Materialermüdung ist zwar bei Com­

und Dauer des elektrischen Stromstoßes bestimmt, der für

sumer-Anwendungen unproblematisch, sie disqualifiziert die

die Erwärmung des Materials genutzt wird. Wenn die Tem­

Module jedoch für den Einsatz als Haupt- sowie Pufferspei­

peratur der Legierung bis etwas über den Schmelzpunkt

cher in Network- oder Storagesystemen. Auf den Markt

erhöht wird, verteilen sich die durch Energiezufuhr ange­

drängen auch vermehrt Hybrid-Lösungen, die eine her­

regten Atome in einer zufälligen Anordnung. Wird die Strom­

kömmliche Harddisk mit Flash-Modulen kombinieren, um

zufuhr dann abrupt unterbrochen, erstarren die Atome in

einen schnelleren Datenzugriff zu ermöglichen.

dieser willkürlich angeordneten, amorphen Phase. Wird die Stromzufuhr über einen längeren Zeitraum – ungefähr 10

Die Flash-Memory-Technik dürfte ein künftiges Opfer der

Nanosekunden – reduziert, bleibt den Atomen genug Zeit,

Miniaturisierung werden. Neue Produktionsprozesse

um in die bevorzugte, gut geordnete Struktur der kristallinen

machen in Chips zwar immer kleinere Leiterbahnen möglich,

Phase zurückzukehren.

beim Flash-Speicher ist nach aktuellen Forschungen jedoch bei 45 Nanometer Schluss. Darunter verhindern Streuver­

PCM versus Flash

luste, dass sich ohne Stromzufuhr noch Daten speichern

PCM schließt technologisch dort an, wo NAND-Flash an die

lassen.

Grenzen der Machbarkeit stößt. Nach Ansicht vieler Exper­ ten stehen der Flash-Technologie wegen ihrer beschränkten

Die PCM-Module hingegen soll Produktionsprozesse bis

Skalierbarkeit in naher Zukunft bereits große Probleme

20 Nanometer und sogar darunter ermöglichen. Die theore­

bevor.

tische Grenze der Skalierbarkeit von PCMs liegt bei unter 5 Nanometer. Dabei verwenden die Entwickler für ihre

In den Almaden-Forschungslabors von IBM wurde in

Speicher als neues Material eine Germanium-Legierung.

Ko­operation mit Macronix und Qimoda an neuen Speicher­ techniken gearbeitet, die Flash-Memories ablösen können.

PCM – klein und universell einsetzbar

Die „Phase Change Memory“-Technologie (PCM) ermöglicht

Zusammen mit hoher Leistung und Zuverlässigkeit könnte

bei kleineren Baugrößen deutlich höhere Geschwindig­

PCM daher zur Basistechnologie für Universalspeicher in

keiten. So verbessern sich die Eigenschaften von PCMs mit

mobilen Applikationen werden, denn Phasenwechelspeicher

kleiner werdender Größe. Es wird weniger Strom benötigt,

sind wie Flash nicht flüchtig. Das bedeutet, sie merken sich

da weniger Material erhitzt werden muss, und es erhöht sich

die Informationen auch dann, wenn kein Strom zugeführt

aufgrund der kleinen Wege die Geschwindigkeit. Alles

wird. Darüber hinaus weist der PCM-Prototyp von IBM sehr

Vorteile, die mit dem Kleinerwerden von PCM-Zellen erzielt

vorteilhafte technische Werte auf: Er ist 500 Mal schneller

werden können. Allerdings schrumpft auch der elektrische

beschreibbar und benötigt dabei nur die Hälfte an Energie.

Widerstand mit dem Kleinerwerden der Zellen und es wird dadurch schwieriger, die Zustände voneinander zu unterscheiden. Deshalb ist es wichtig, hier eine gute Balance zu finden.

286

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Zudem seien deutlich mehr Lese- und Schreibzyklen mög­

schied: mithilfe der eingesetzten Technologie lassen sich Bits

lich und die Bauelemente sind mit einem Querschnitt von

löschen und überschreiben. Winzige Hebelchen mit einer

drei mal 20 Nanometer erheblich kleiner als die kleinsten

feinen Spitze aus Silizium schmelzen ebenso winzige Vertie­

heute herstellbaren Flash-Speicher. „Sobald die Skalierbar­

fungen in ein Polymer-Medium, um Bits zu schreiben.

keit von Flash endgültig an ihre Grenzen stößt, wird sich

Diesel­ben Spitzen kann man auch verwenden, um diese Ver­

eine neue Technik wie PCM durchsetzen“, ist Allenspach,

tiefungen nachzuweisen, also die Bits wieder auszulesen.

vom IBM Labor in Zürich, überzeugt. Dies könnte schon

Dazu bringt man die Spitze in die Nähe des Polymerfilms

bald möglich werden.

und erwärmt sie. Taucht die Spitze in einen Bit-Krater, erhöht sich der Wärmeaustausch zwischen ihr und dem Speicher­

Heutige PCMs sind etwa 30 Mal schneller im Vergleich zu

medium, wodurch der elektrische Widerstand des Hebel­

Flash und bewegen sich im Bereich von 100 bis 200

chens, auch Kantilever genannt, abnimmt. Um ein Bit wie­

Nanometer. Betrachtet man aber die schnelle Entwicklung

der zu überschreiben, erzeugt man mit der Spitze auf dem

bzgl. Schreib- und Lesegeschwindigkeit, eignet sich PCM

Kraterrand neue Vertiefungen, deren Ränder die alte Vertie­

auch als Ersatz für heute übliches RAM. Mit PCM als Ersatz

fung überlappen und so das Polymer-Material in Richtung

von RAM würde das bisherige Booten von Computern

Krater drängen.

entfallen, allerdings könnten sich Sicherheitsprobleme ergeben, da die PCMs nicht flüchtig sind (man könnte die

Weil die Löcher so enorm klein sind, kann man sie sehr dicht

vertraulichen Daten im RAM wie z. B. Passwörter etc.

nebeneinandersetzen und so fantastische Datendichten er-

auslesen). Zudem hat PCM viel weniger Abnutzungser­

reichen: Mit revolutionärer Nanotechnologie ist es IBM Wis­

scheinungen, wie sie etwa bei Flash durch den Verschleiß

senschaftlern im Forschungslabor Rüschlikon gelungen, in

der Oxidschicht am Floating Gate auftreten. PCM bietet

den Bereich der Millionstelmillimeter vorzudringen. So konnte

also eine lange Datenhaltbarkeit sowie einen nicht allzu

bei der Speicherung von Daten eine Aufzeichnungsdichte

hohen Energieverbrauch beim Betrieb.

von 1 Terabit pro Quadratzoll überschritten werden – was etwa dem Inhalt von 25 DVDs auf der Fläche einer Briefmarke

Millipede-Nano-Technologie

entspricht. Die Terabit-Dichte wurde mit einer einzelnen Sili­

Mitte der 90er-Jahre wurde im IBM Grundlagenforschungs­

zium-Spitze erreicht, die Vertiefungen mit einem Durchmesser

labor in Rüschlikon das Projekt „Millipede“ gestartet. Das Projekt hatte zum Ziel, Nano-Technologie und Nanospeicher­ architekturen für die Datenspeicherung zu nutzen und in Speichersubsysteme zu integrieren. Projektleiter in Rüschli­ kon war der IBM Mitarbeiter Peter Vettinger und die techno­ logisch treibende Kraft war der IBMer und Nobelpreisträger Gerd Binnig. Die Entwicklung von Millipede brachte IBM viele neue Patente im Bereich der Nano-Technologie und Nano-Mechanik ein und ergab viele neue Erkenntnisse über Polymerstrukturen und die Möglichkeit, Kunststoffe als Datenträger einzusetzen. Die Millipede-Entwicklung ist des­ halb für zukünftige Technologien von maßgeblicher Bedeu­ tung. Deshalb wurde das Projekt Millipede mit großem finanziellem Aufwand bis ins Jahr 2007 aktiv weitergetrieben. Grundprinzip Das Grundprinzip ist simpel und ist mit dem der früheren Lochkarte vergleichbar, nun aber mit Strukturgrößen im Bereich von Nanometern. Ein weiterer entscheidender Unter­

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

287

Technologie-Anhang

von ca. 10 Nanometern erzeugt. Um die Datenrate, also die

jeder „Zunge“ befinden sich ein Sensor zum Lesen und ein

Schreib- und Lesegeschwindigkeit, zu erhöhen, wird nicht

Widerstand oberhalb der Spitze zum Schreiben. Die Spitze ist

nur eine Spitze verwendet, sondern eine ganze Matrix von

knapp 1 Mikrometer lang und der Radius beträgt nur wenige

Hebelchen, die parallel arbeiten. Die neue Version verfügt

Nanometer. Die Zellen mit den Kantilevern sind auf einem

über mehr als 4.000 solcher Spitzen, die in einem kleinen

Kantilever-Array-Chip angeordnet. Der Chip ist 7 x 14 mm

Quadrat von 6,4 Millimetern Seitenlänge angeordnet sind.

groß. Im Zentrum sitzt das Array, das momentan aus insge­

Diese Dimensionen ermöglichen es, ein komplettes Speicher­

samt 4.096 (64 x 64) Kantilevern besteht, die aus dem Sili­

system hoher Kapazität in das kleinste standardisierte Format

zium herausgeätzt sind. Der eigentliche Datenträger besteht

für Flash-Speicher zu packen.

aus einem nur wenige Nanometer dünnen Polymerfilm auf einem Silizium-Substrat. Über Multiplexer einzeln angesteuert

Ein Kantilever im Millipede schreibt und liest aus einer ihm

lesen, schreiben oder löschen die Köpfe das gewünschte

zugeordneten rund 100 mal 100 Mikrometer kleinen Zelle.

Bit. Bis zu 100.000 Schreib- und Überschreib-Zyklen sind

Während sich beispielsweise bei Festplatten der Schreib- und

bisher erfolgreich getestet worden. Obwohl in der Konstruktion

Lesekopf und auch das Speichermedium bewegen, wird beim

Mech­a­nik eingesetzt wird, kann die Übertragungsgeschwin­

Millipede-Speicher nur das Medium bewegt. Zwei winzige

digkeit von bis zu 20 bis 30 Megabit pro Sekunde erreicht

Spulen, die zwischen Magneten platziert sind, treiben die

werden (beim Chip der 2. Generation mit 64 x 64 Tips).

Bewegung des Plättchens an: Der Mikroscanner kann mit einer Genauigkeit von bis zu 2 Nanometern positioniert

Mikroscanner

werden. Aus der überlappenden Fläche von streifenförmigen

Die Bewegung des Speichermediums relativ zu dem

Sensoren kann man die Position jederzeit präzise bestimmen.

Kantilever-Array wird mithilfe des siliziumbasierten x/yMikro­scan­ners realisiert. Der Scanner besteht aus ca.

288

Kantilever-Array

6,8 x 6,8 mm² Scan Table, der das Polymer-Medium und

Kern der Millipede-Technologie ist eine zweidimensionale

zwei elektromagnetische Auslöser trägt. Der Scanner-Chip

Anordnung von v-förmigen Silizium-Federzungen (Kantilever),

wird auf der Siliziumplatte montiert, die als mechanischer

die 70 Mikrometer (Tausendstelmillimeter) lang sind. Am Ende

Grund des Systems dient. Der Abstand zwischen seiner

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Oberfläche und der Oberfläche von beweglichen Teilen des

„Fällt“ nun die Spitze in eine Vertiefung, kühlt sich der Lese-

Scanners beträgt ca. 20 µm. Die Scan Table kann durch

Sensor wegen des geringeren Abstands zum Substrat ge-

Auslöser in x-und y-Richtungen um 120 µm bewegt werden.

ringfügig ab, was aber zu einer messbaren Veränderung

Jeder Auslöser besteht aus zwei Permanentmagneten, die

des Widerstands führt. Um Daten zu überschreiben, setzt

in die Siliziumplatte eingebaut sind, und einer kleinen Spule,

die Spitze Vertiefungen in die Oberfläche. Deren äußere

die sich zwischen den Magneten befindet. Um die Vibratio­

Ränder überlappen die alten Vertiefungen und löschen so

nen von außen zu löschen, wird ein sogenanntes Pivot ver­

die alten Daten. Mehr als 100.000 Schreib- und Überschreib-

wendet, das mit den Auslösern gekoppelt ist.

Zyklen haben den Nachweis erbracht, dass sich das Kon­ zept für einen wiederbeschreibbaren Speichertyp eignet.

Positionsbestimmung Die Informationen über die Positionierung werden durch vier

Um die Daten schneller in den Speicher und wieder hinaus

thermische Sensoren zur Verfügung gestellt. Diese Sensoren

zu bekommen, bearbeitet eine komplette Matrix-Anordnung

befinden sich direkt über der Scan Table, auf dem Kantilever-

an Hebelchen das Medium gleichzeitig. Es stellte sich aller­

Array. Die Sensoren haben thermisch isolierte Erhitzer. Jeder

dings heraus, dass es enorm schwierig ist, Mechanik und

Sensor wird über einen Rand der Scan-Tabelle in Position

Elektronik in einem Stück auf einem Chip zu fertigen. Die

gebracht und wird durch Strom erhitzt. Ein Teil dieser Wärme

Wissenschaftler entschlossen sich also, den Aufbau in zwei

wird durch die Luft auf die Scan Table geleitet, die nun

Stücken zu realisieren:

als Kühler dient. Eine Versetzung der Scan Table verursacht eine Änderung der Effizienz dieses Kühlsystems, was

1. Die Matrix der Mikrospitzen wird mit winzigen Kontaktstif-

zur Änderung der Temperatur des elektrischen Widerstands

ten versehen, die unter dem Elektronenmikroskop ausse-

vom Erhitzer führt.

hen wie die Noppen von Lego-Steinchen. 2. Diese Studs werden dann mit den Gegenstücken auf der

Ein raffiniertes Design gewährleistet die exakte Nivellierung

elektronischen Platine kontaktiert.

der Spitzen über dem Speichermedium und dämpft Vibra­ tionen und Stöße von außen. Zeitmultiplexing-Elektronik, wie

Mit den gezeigten Prototypen wurde unlängst die technische

sie in ähnlicher Art in Speicherchips (DRAM) verwendet wird,

Machbarkeit eines Produktes etwa hinsichtlich Speicher­

ermöglicht die Adressierung jeder einzelnen Spitze im Parallel­

dichte, Leistung und Verlässlichkeit demonstriert. Während

betrieb. Elektromagnetische Aktuation bewegt das Substrat

die heute eingesetzten Speichertechnologien allmählich an

mit dem Speichermedium auf dessen Oberfläche sehr präzise

fundamentale Grenzen stoßen, hat der nanomechanische

in x- und y-Richtung, sodass jede Spitze in ihrem Speicher­

Ansatz ein enormes Entwicklungspotenzial für eine tausend­

feld von 100 Mikrometern Seitenlänge lesen und schreiben

fach höhere Speicherdichte. Dieser nanomechanische Daten­

kann. Die kurzen Distanzen tragen wesentlich zu einem

träger entwickelt nahezu keine Wärme, nimmt nur wenig

geringen Energieverbrauch bei.

Strom auf und ist völlig schockresistent.

Für die Funktionen des Gerätes, d. h. Lesen, Schreiben,

Millipede-Projektphasen

Löschen und Überschreiben, werden die Spitzen mit dem

Während der gesamte Projektlaufzeit wurden Chips in drei

Polymerfilm auf dem Siliziumsubstrat in Kontakt gebracht.

Generationen entwickelt. Der letzte fertiggestellte Chip im Jahr 2007 arbeitet mit 128 x 128 Tips, hat eine kapazitive

Schreibtechnologie

Speichermöglichkeit von 160 Gbytes und eine Datenrate

Das Schreiben von Bits erfolgt durch Aufheizen des in den

von 120 Mbit/s. IBM überlegt derzeit, wie und auf welche

Kantilever integrierten Widerstands auf typischerweise 400

Weise Millipede-Chips sinnvoll zum Einsatz kommen können.

Grad Celsius. Die dadurch ebenfalls aufgeheizte Spitze weicht

Es bleibt also spannend, auf welche Weise Nano-Techno­

das Polymer auf, sinkt ein und hinterlässt eine Vertiefung

logien und Nano-Mechanik in die Welt der Datenspeicherung

von wenigen Nanometern. Zum Lesen wird der Lese-Sensor

Einzug halten werden.

des Kantilevers erhitzt, ohne den Polymerfilm aufzuweichen.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

289

Technologie-Anhang

Revolutionäre Speichertechnologie aus der IBM Forschung rückt

Stuart Parkin war es zu verdanken, dass der GMR-Effekt

näher an die Realisierung

(Plattentechnologie, siehe unter GMR) zu einem Produkt in Form eines GMR-Lesekopfes umgesetzt wurde, und er

„Racetrack Memory“ eröffnet neue Dimensionen in

benötigte sieben Jahre dazu. Ihm und seinem Team ist es

Speicherdichte, Geschwindigkeit und Zuverlässigkeit

zu verdanken, dass die hohen Festplattenkapazitäten heute

11. April 2008: IBM Forscher berichten im renommierten

möglich wurden. Der Autor findet es nicht richtig, dass

Wissenschaftsjournal Science über einen Durchbruch in der

Stuart Parkin bei der Vergabe des Nobelpreies für Physik im

Erforschung einer neuen Speichertechnologie, die unter

Jahr 2007 unberücksichtigt blieb, zumal der Nobelpreis an

dem Namen „Racetrack“ (deutsch: Rennstrecke) bekannt

drei Personen hätte verliehen werden können. Mit Racetrack

geworden ist. Die Technologie könnte eine neue Klasse von

Memories wird er wirkliche Geschichte im Speicher­bereich

Speichern hervorbringen, die die hohe Leistungsfähigkeit

schreiben! Davon ist der Autor überzeugt!

von Flash-Speichern mit der großen Kapazität und den nied­ rigen Kosten von Festplattenspeichern auf sich vereint.

Universalspeicher der Zukunft Das revolutionäre Konzept beruht auf der Speicherung von

In der aktuellen Ausgabe von Science beschreiben IBM

Informationen in Form von winzigen, gegensätzlich magneti­

Fellow Stuart Parkin und seine Kollegen vom IBM Almaden

sierten Regionen (Domänen) in einem Nanodraht. Bei der

Research Center, USA, einen bedeutenden Schritt in der

herkömmlichen als Speichermedium verwendeten Festplatte

Entwicklung von Speicherbausteinen auf Basis des „Race­

werden das Medium und ein Schreib-/Lesekopf bewegt, um

track-Verfahrens“. Innerhalb der nächsten zehn Jahre

Daten zu lesen, zu schreiben oder zu löschen. Anders beim

könnte die Technologie zum Einsatz kommen und neue

„Racetrack-Verfahren“: Hier werden die magnetischen Domä­

Größenordnungen von Speicherkapazitäten eröffnen, ein

nen zu den zentralen Lese- und Schreibeinheiten, die in der

extrem schnelles Einschalten von elektronischen Geräten

Mitte des Nanodrahtes angebracht sind, hin verschoben –

ermöglichen und dabei wesentlich kostengünstiger,

und dies mit extrem hoher Geschwindigkeit. Die gespeicherten

energieeffizienter und robuster als heutige Systeme sein.

Datenbits scheinen durch den Datenleiter zu „rasen“, daher der Name „Racetrack“.

Stuart Parkin, IBM Fellow und einer der größten Speicher-Forscher und Entwickler bei IBM

290

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Da ein einzelner ‘Racetrack’ nur wenige Nanometer groß ist und zwischen 10 und 100 Bits speichern kann, erlaubt die Technologie extrem hohe Speicherdichten. Im Vergleich zu Flash-Speichern könnte ein ‘Racetrack-Speicher’ eine 100mal größere Datenmenge auf derselben Fläche aufzeichnen. Das entspräche rund 500 000 Musiktiteln oder 3 500 Filmen. Durch den minimalen Stromverbrauch eines ‘RacetrackSpeichers’ könnte ein MP3-Gerät zudem wochenlang mit einer einzigen Batterie betrieben werden. Darüber hinaus benötigt das Verfahren keine beweglichen Teile, wodurch nahezu keine Abnutzungs- oder Verschleiß­ erscheinungen auftreten. Das macht den ‘Racetrack-Speicher’ widerstandsfähiger als alle existierenden Speichertechnolo­ gien und verleiht ihm eine quasi unbegrenzte Lebensdauer. „Die Verbindung zwischen der Erforschung von neuen physi­kalischen Phänomenen, die auf der molekularen und ato­ maren Ebene auftreten, und dem Nano-Engineering – der Fähigkeit, gezielt Materialstrukturen aus einzelnen Atomen

Schematische Darstellung der Racetrack-Memory-Speicherung

Da ein einzelner „Racetrack“ nur wenige Nanometer groß ist und zwischen 10 und 100 Bits speichern kann, erlaubt die

Bereits mehrmals in der Geschichte der IBM wurden

Technologie extrem hohe Speicherdichten. Im Vergleich zu

durch radikale technische Innovationen, die in der Grund­

Flash-Speichern könnte ein „Racetrack-Speicher“ eine 100-

lagenforschung ihren Anfang nahmen, neue Märkte und

mal größere Datenmenge auf derselben Fläche aufzeichnen.

Anwendungs­felder erschlossen. Hierzu zählen etwa der

Das entspräche rund 500.000 Musiktiteln oder 3.500 Filmen.

Memory Chip, die relationale Datenbank oder die Festplatte.

Durch den minimalen Stromverbrauch eines „RacetrackSpeichers“ könnte ein MP3-Gerät zudem wochenlang mit

Die „Racetrack-Methode“

einer einzigen Batterie betrieben werden. Seit rund 50 Jahren versuchen Wissenschaftler, digitale Darüber hinaus benötigt das Verfahren keine beweglichen

Informationen durch sogenannte magnetische Domänen­

Teile, wodurch nahezu keine Abnutzungs- oder Verschleiß­

wände – die Grenzflächen zwischen zwei gegensätzlich

erscheinungen auftreten. Das macht den „Racetrack-Speicher“

magnetisierten Regionen in einem magnetischen Material –

widerstandsfähiger als alle existierenden Speichertechnolo­

zu speichern. Bis jetzt war die Manipulation von Domänen­

gien und verleiht ihm eine quasi unbegrenzte Lebensdauer.

wänden nur durch kostspielige, komplexe und energie­ intensive Verfahren möglich.

„Die Verbindung zwischen der Erforschung von neuen physi­kalischen Phänomenen, die auf der molekularen und

In ihrer nun veröffentlichten Arbeit „Current-Controlled

atomaren Ebene auftreten, und dem Nano-Engineering –

Magnetic Domain-Wall Nanowire Shift Register“ demonstrie­

der Fähigkeit, gezielt Materialstrukturen aus einzelnen

ren Parkin und seine Teamkollegen eine neue, sehr effiziente

Atomen und Molekülen zu erschaffen – birgt immer neue,

Methode. Hierbei werden die Domänenwände durch einen

spannende Herausforderungen“, erklärt Stuart Parkin.

spinpolarisierten Strom bewegt, der die Magnetisierung in

Er führt weiter aus:

der Wand drehen kann. Ursache hierfür ist der SpintransferEffekt, der die Speichertechnologie erheblich vereinfacht,

„Ein Ausschöpfen des Potenzials, das in unserer

weil der Strom direkt durch die Domänenwände fließt und

„Racetrack-Technologie“ liegt, könnte zu faszinierenden

keine zusätzlichen Magnetfelder generiert werden müssen.

neuen Anwendungen führen – Anwendungen, die heute noch unvorstellbar sind.“ 1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

291

Technologie-Anhang

In der zweiten Arbeit „Magnetic Domain-Wall Racetrack Memory“ fassen die Forscher die Grundprinzipien der „Racetrack-Technologie“ zusammen. Diese beruht auf der Speicherung von Daten in winzigen magnetischen Regionen innerhalb eines Datenleiters. Als Datenleiter verwenden die Forscher kleine Nanodrähte, die magnetisch mit Informati­ onen beschrieben werden. Diese werden der Länge nach waagerecht oder in Form einer Schlaufe senkrecht auf einer Siliziumfläche angebracht. Wenn eine Spannung angelegt wird, bewegen sich dabei weder die Drähte noch das Silizium, sondern nur die magnetischen Domänenwände, in denen die Information gespeichert wird. Jede magnetische Domäne, die ein Bit repräsentiert, verfügt über einen „Head“, einen magnetischen Nordpol, und einen „Tail“, einen magnetischen Südpol. Die Domänenwände, die sich an den Grenzflächen formen, wechseln sich so im Datenleiter zwischen „Head-to-Head“- und „Tail-to-Tail“Konfigurationen ab. Die Abstände zwischen zwei hinterei­ nander folgenden Domänenwänden gleichen der Bit-Länge und werden durch Markierungen entlang des Nanodrahtes, so genannte Pinningzentren, bestimmt. In ihrem Experiment verwendeten die Forscher Nanodrähte aus Permalloy (einer FeNi-Legierung) und zeigten, wie sie Domänenwände gezielt kreieren, verschieben und aus­ lesen, indem sie Stromimpulse von präzise kontrollierter Dauer im Nanosekundenbereich verwenden. Der Schreibund Verschiebe­zyklus benötigt gerade einmal einige 10 Nanosekunden.

Stuart Parkin darf sich zu Recht freuen, er hat es geschafft und Racetrack kann die Welt verändern

Ziel ist es, viele Tausende dieser Nanodraht-Speicher, die zwischen 10 und 100 Bits speichern können, dicht auf einer Fläche anzuordnen. Die senkrechte Anordnung von Nano­ drähten eröffnet zudem neuartige dreidimensionale Archi­ tekturen – ein Paradigmenwechsel im Vergleich zu derzei­ tigen zweidimensionalen Chip- und Speichertechnologien. Die Ausnutzung der dritten Dimension schafft neue Spiel­ räume für Leistungssteigerungen und Kostenreduktionen, die nicht mehr nur – wie bis jetzt – durch Miniaturisierung erzielt werden.

292

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

IUPAP Magnetism Award und Louis Neel Medaille

wurde. Das RTM wird generell als das Instrument angese­

Am 27 Juli 2009 erhält IBM Fellow Dr. Stuart Parkin eine der

hen, das das Tor zum Nanokosmos öffnete. Das Rasterkraft­

höchsten Auszeichnungen, die auf dem Gebiet der Erfor­

mikroskop (RKM), das eng mit dem RTM verwandt ist,

schung des Magnetismus vergeben werden. Er wird in

wurde 1986 von Gerd Binnig erfunden.

Karlsruhe auf der „International Conference on Magnetism“ mit dem „International Union of Pure and Applied Physics

Das Rastertunnelmikroskop (RTM) wird im Englischen

Magnetism Award (IUPAP) und der Louis Neel Medaille für

als STM (Scanning Tunnelling Microscope) bezeichnet,

seine fundamentalen Erforschungs- und Entwicklungsergeb­

das Rasterkraftmikroskop (RKM) als AFM (Atomic Force

nisse im Bereich des Nano-Magnetismus ausgezeichnet.

Microscope).

Diese Auszeichnung wird durch das IUPAP Magnetism Committee nur alle drei Jahre vergeben. Vor allem wurde

IBM und ETH Zürich gründen neues gemeinsames

er für seine letzten Forschungsergebnisse bezüglich der

Nanotech-Forschungszentrum

Racetrack Memories geehrt. Die Louis Neel Medaille geht

Rund 6.000 Quadratmeter umfasst das neue Nanotech-

zurück auf den Wissenschaftler Louis Eugene Felix Neel,

Forschungszentrum von IBM und ETH Zürich. Die beiden

der 1970 den Nobel-Preis für Physik für die Entdeckung des

Institutionen verbindet eine langjährige Tradition wissen­

Antiferromagnetismus erhielt.

schaftlicher Zusammenarbeit. An einer gemeinsamen Medi­ enkonferenz in Zürich kündigten Ralph Eichler, Präsident der

Nanotechnologie – Schlüsseltechnologie des 21. Jahrhunderts

ETH Zürich, und John E. Kelly, Senior Vice-President und

Nanotechnologie stellt eine neue Technologie dar, die Funk­

Direktor für Forschung bei IBM, die geplante Zusammenarbeit

tionen in einem außerordentlich kleinen Maßstab anwendet.

an. Zentrales Element dieser Zusammenarbeit ist ein neues

Sie konzentriert sich auf Strukturen und Prozesse in Dimen­

Gebäude, das auf dem Gelände des ZRL in Rüschlikon

sionen unter 100 Nanometer – ungefähr 400-mal dünner als

gebaut wird. Die Grundsteinlegung erfolgt im Frühjahr 2009.

ein menschliches Haar. Im Größenbereich der Nanometer spielen sich viele grundlegende Prozesse der Biologie, Che­

Nanoforschung auf dem allerhöchsten Niveau wird das

mie und Physik ab, die in bislang ungekanntem Maß kontrol­

neue Forschungszentrum auf dem Campus der IBM in

liert werden können und neue Perspektiven in vielen

Rüschlikon ermöglichen. Das „Nanoscale Exploratory Tech­

Bereichen eröffnen. Dazu gehören hochentwickelte funktio­

nology Laboratory“ ist Teil einer wichtigen strategischen

nale Materialien, Nanoelektronik, Informations- und Kommu­

Partnerschaft in Nanotechnologie mit der Eidgenössischen

nikationstechnologie, Sensorik, Life Sciences sowie Energie­

Technischen Hochschule Zürich (ETHZ). Die Forschungsak­

technologie. Nanotech-Anwendungen könnten zur

tivitäten werden 2011 aufgenommen.

effizienteren Nutzung von Solarenergie beitragen oder zu neuen Arten der Wasseraufbereitung. Durch die Forschung an der ETH Zürich (Eidgenössische Technische Hochschule) und am IBM Forschungslabor in Rüschlikon ZRL (Zürich Research Laboratory) sind von Zürich immer wieder entscheidende Impulse in der Quan­ tenmechanik und Nanoforschung ausgegangen. Dies sind zum Beispiel die bahnbrechenden Konzepte der Quanten­ mechanik durch den ETH-Physiker und Nobelpreisträger Wolfgang Pauli oder die Entwicklung des Rastertunnelmikro­ skops (RTM) durch Gerd Binnig und Heinrich Rohrer am IBM Forschungslabor in Rüschlikon. Dafür erhielten die Forscher 1986 den Nobelpreis für Physik. Dieses Gerät ermöglichte den ersten Blick in die Welt der Atome. Kurz darauf wurde es möglich, einzelne Atome zu manipulieren,

IBM Forschungsstandort Rüschlikon: neues Labor für Nano-Technologie

wodurch die Tür zur Nanotechnologie weit aufgestoßen

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

293

Technologie-Anhang

Forschungsschwerpunkte der beiden Institutionen reichen

die RKM-Spitze nun sehr nah über der Probe, etwa über

von der Grundlagenforschung bis hin zu angewandter

einem einzelnen Atom, platziert, verändert sich die Reso­

Forschung. Gemeinsam wird in verschiedenen Bereichen

nanzfrequenz der Stimmgabel aufgrund der Kräfte, die zwi­

geforscht, wie zum Beispiel kohlenstoffbasierte Materialien,

schen Probe und Spitze auftreten.

Nano-Photonics, Spintronics, Nanodrähte und Tribologie. Mit dieser Methode und unter extrem stabilen Bedingungen Neuer Durchbruch in der Nanotechnologie –

konnten die IBM Forscher nun die minimalen Unterschiede

IBM Forscher messen den Ladungszustand von einzelnen

in der Kraft messen, die zwischen Spitze und einzelnen,

Atomen mit dem Rasterkraftmikroskop

unterschiedlich geladenen Atomen herrscht. Die Kraftdiffe­

In Zusammenarbeit mit Wissenschaftlern der Universitäten

renz zwischen einem neutralen Goldatom und einem Gold­

Regensburg und Utrecht erzielten im Juni 2009 IBM For­

atom mit einem zusätzlichen Elektron, beträgt nur etwa

scher einen Durchbruch auf dem Gebiet der Nanotechnolo­

11 Piko-Newton, gemessen bei einer minimalen Distanz

gie. Sie konnten zum ersten Mal den Ladungszustand von

zwischen Spitze und Probe von ungefähr einem halben

einzelnen Atomen direkt mittels Rasterkraftmikroskopie

Nanometer. Die Messgenauigkeit dieser Experimente liegt

(RKM) messen. Die Präzision, mit der sie dabei zwischen

im Bereich von 1 Piko-Newton, was der Gravitationskraft

ungeladenen bzw. positiv oder negativ geladenen Atomen

entspricht, die zwei Menschen in einem Abstand von mehr

unterscheiden konnten, betrug eine einzelne Elektronenla­

als einem halben Kilometer aufeinander ausüben. Die

dung bei einer nanometergenauen räumlichen Auflösung.

Forscher bestimmten zudem, wie sich die Kraft mit der

Dies eröffnet neue Möglichkeiten für die Erforschung von

zwischen Spitze und Probe angelegten Spannung ver­

Nanostrukturen und Bausteinen auf atomarer und moleku­

änderte. Dies erlaubte die Unterscheidung, ob das ent­

larer Skala in Anwendungsbereichen wie etwa der moleku­

sprechende Atom negativ oder positiv geladen war.

laren Elektronik, der Katalyse oder der Photovoltaik. Dieser Durchbruch ist ein weiterer, wichtiger Fortschritt auf Für ihre Experimente verwendeten die Forscher eine Kombi­

dem Gebiet der Nanoforschung. Im Gegensatz zum RTM,

nation aus Rastertunnel- (RTM) und Rasterkraftmikroskop

das auf elektrisch leitfähige Proben angewiesen ist, kann

(RKM), betrieben im Ultrahochvakuum und bei tiefen Tem­

das RKM auch für nicht leitende Proben verwendet werden.

peraturen (5 Kelvin), um die für die Messungen notwendige

In der molekularen Elektronik, in der die Verwendung von

Stabilität zu erreichen.

Molekülen als funktionale Bausteine in zukünftigen Schalt­ kreisen und Prozessoren erforscht wird, werden nicht

Ein RKM misst mittels einer atomar feinen Spitze, die auf

leitende Trägersubstanzen (Substrate) benötigt. Deshalb

einem schwingenden Federbalken angebracht ist, die

würde bei solchen Experimenten bevorzugt die Raster­

Kräfte, die zwischen dieser Spitze und den Atomen auf dem

kraftmikroskopie zum Einsatz kommen.

Substrat auftreten. In der vorliegenden Arbeit verwendeten die Forscher einen sogenannten qPlus-Kraftsensor, bei dem

„Das Rasterkraftmikroskop mit einer Messgenauigkeit von

die Spitze auf einem Zinken einer Stimmgabel, wie man sie

einer Elektronenladung ist hervorragend dazu geeignet,

in mechanischen Uhrwerken von Armbanduhren findet,

den Ladungstransfer in Molekülkomplexen zu untersuchen,

angebracht ist, während der andere Zinken fixiert ist. Die

was uns wertvolle, neue Erkenntnisse und physikalische

Stimmgabel wird mechanisch angeregt und schwingt mit

Grundlagen liefern könnte und zudem eines Tages zu neuen

einer Amplitude von 0,02 Nanometer. Dies entspricht nur

Bauelementen in der Informationstechnologie führen könnte“,

etwa einem Zehntel des Durchmessers eines Atoms. Wird

erklärt Gerhard Meyer, der die Forschung im Bereich Raster­ tunnel- und Rasterkraftmikroskopie am IBM Forschungslabor Zürich leitet. Computerbausteine auf der molekularen Skala haben das Potenzial, um Größenordnungen kleiner, schneller und auch energieeffizienter zu sein als heutige Transistoren und Speicherbausteine.

294

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Für zukünftige Experimente können sich die Forscher

In den letzten Jahren wurden in der Charakterisierung von

vorstellen, Verbindungen aus einzelnen metallischen Atomen

Nanostrukturen auf der atomaren Skala mittels Rasterkraft­

und Molekülen herzustellen, diese mit Elektronen zu laden

mikroskopie erstaunliche Fortschritte erzielt. Der Blick auf

und deren Verteilung direkt mit dem RKM zu messen.

die innere Struktur eines Moleküls mit atomarer Auflösung

IBM Forscher Leo Gross weist auch auf die Bedeutung ihrer

blieb der Wissenschaft jedoch bis jetzt verwehrt.

Arbeit für andere Bereiche hin: „Ladungszustand und Ladungsverteilung sind kritische Größen in der Katalyse

In der Ausgabe des Wissenschaftsjournals Science vom

und bei der Umwandlung von Licht in elektrische Energie.

28. August 2009 berichten die IBM Forscher Leo Gross,

Das Abbilden der Ladungsverteilung auf atomarer Skala

Fabian Mohn, Nikolaj Moll und Gerhard Meyer sowie Peter

könnte zu einem besseren Verständnis der grundlegenden

Liljeroth von der Universität in Utrecht, wie sie mithilfe eines

Abläufe auf diesen Gebieten führen.“

RKMs die vollständige, chemische Struktur von PentazenMolekülen (C22H14) mit atomarer Auflösung abbilden konn­

Die jüngsten Ergebnisse schließen sich einer Reihe grund­

ten. Die Experimente wurden im Ultrahochvakuum und bei

legender wissenschaftlicher Durchbrüche an, die IBM

sehr tiefen Temperaturen (5 Kelvin oder –268°C) durchge­

Forschern in den letzten Jahren gelungen sind: 2008 gelang

führt. Die erzielten Abbildungen haben in gewisser Weise

es Wissenschaftlern am IBM Almaden Research Center in

Ähnlichkeit mit Röntgenaufnahmen, die einen Blick ins

Kalifornien, mit einem qPlus-RKM erstmals die Kraft zu

Innere des menschlichen Körpers erlauben. Das „RKM mit

messen, die benötigt wird, um ein Atom auf einer Oberfläche

Röntgenblick“ der IBM Forscher kann durch die Elektronen­

zu verschieben. Dies bahnte den Weg für die aktuellen

wolke schauen, die das Molekül umhüllt, und das atomare

Experimente. 2007 demonstrierte das Team um Gerhard

Rückgrat eines Pentazens abbilden.

Meyer am IBM Forschungslabor Zürich ein Molekül, das kontrolliert zwischen zwei Zuständen geschaltet werden

Diese Publikation folgt nur gerade zwei Monate nach einer

konnte, ohne Veränderung seiner äußeren Form. Schon

weiteren Arbeit der gleichen Gruppe, die am 12. Juni 2009

2004 war der gleichen Gruppe ein Experiment gelungen,

in Science veröffentlicht wurde. In dieser wurde die

in dem sie gezielt den Ladungszustand eines einzelnen

Ladungsmessung einzelner Atome mittels RKM beschrie­

Goldatoms mit einem RTM manipulieren konnte. Indem sie

ben. „Rastersondentechnologien bieten ein unvergleich­

Spannungspulse an die RTM-Spitze anlegten, konnten die

liches Potenzial, um auf der atomaren Skala Prototypen

Forscher ein zusätzliches Elektron auf ein einzelnes Atom,

komplexer funktionaler Strukturen zu bauen und damit deren

das sich auf einem isolierenden Substrat befand, aufbringen.

elektronischen und chemischen Eigenschaften gezielt maß­

Dieses negativ geladene Atom blieb stabil, bis mittels

zuschneidern und zu untersuchen“, erklärt Gerhard Meyer,

der RTM-Spitze ein entsprechender Spannungspuls mit

der die Forschung im Bereich Rastertunnelmikroskopie und

umgekehrtem Vorzeichen erfolgte. Diese Methode verwen­

Rasterkraftmikroskopie bei IBM in Rüschlikon leitet.

deten die Forscher auch in ihren aktuellen Experimenten, um die einzelnen Atome zu laden.

Die Ergebnisse der beiden Forschungsarbeiten eröffnen neue Möglichkeiten, um die Ladungsverteilung in spezi­

IBM Forscher zeigen erstmals die innere Struktur von

fischen Molekülen oder Molekülnetzwerken zu untersuchen.

Molekülen mit atomarer Auflösung

Das Wissen um diese Vorgänge ist generell sehr wichtig

IBM Forscher im IBM ZRL Rüschlikon gelang es im August

für die Entwicklung von elektronischen Bauelementen auf

2009, erstmals die vollständige chemische Struktur eines

der atomaren und molekularen Skala. Solche Bauelemente

Moleküls mit einem Rasterkraftmikroskop atomar aufzulösen.

könnten in der Zukunft schnellere, leistungsfähigere

Den Wissenschaftlern gelang damit ein Durchbruch auf dem

und energieeffizientere Prozessoren und Speicherchips

Gebiet der Nanowissenschaften, der auch der Erforschung

ermöglichen, wenn die Grenzen heutiger Chiptechnologien

neuartiger elektronischer Bauelemente auf der atomaren

ausgereizt sind.

und molekularen Skala neue Möglichkeiten eröffnen könnte.

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

295

Technologie-Anhang

Das RKM verwendet eine winzige, sehr scharfe Metallspitze,

Den Wissenschaftern gelang es außerdem, eine

um die minimalen Kräfte zu messen, die auftreten, wenn

vollständige dreidimensionale, topografische Abbildung der

diese Spitze sehr nah an eine Probe, wie etwa ein Molekül,

Kräfte über dem Molekül zu erstellen. „Die Datenerhebung

herangeführt wird. Mit einer Punkt-für-Punkt-Messung dieser

beanspruchte mehr als 20 Stunden. Dies stellte höchste

Kräfte kann daraus ein Abbild der Oberfläche erstellt

Ansprüche an die thermische und mechanische Stabilität

werden. Die Pentazen-Moleküle, die die IBM Forscher in der

unseres Systems, um zu gewährleisten, dass die Spitze

vorliegenden Arbeit verwendeten, bestehen aus 22 Kohlen­

und das Molekül während der gesamten Zeit unverändert

stoffatomen und 14 Wasserstoffatomen und haben eine

blieben“, beschreibt Fabian Mohn, Doktorand bei IBM

Länge von nur 1,4 Nanometern (Millionstelmillimeter).

Research in Rüschlikon.

Die Abstände der in Sechsecken angeordneten Kohlenstoff­ atome sind dabei noch rund zehnmal kleiner. Auf den

Theoretische Rechnungen, durchgeführt von IBM Forscher

RKM-Aufnahmen sind diese hexagonalen Kohlenstoffringe

Nikolaj Moll, bestätigten die experimentellen Ergebnisse

be­stechend klar aufgelöst und selbst die Positionen der

und gaben Aufschluss über die genaue Natur des Abbil­

Wasserstoffatome können eindeutig identifiziert werden.

dungsmechanismus. Nikolaj Moll erklärt hierzu: „Die Berech­ nungen zeigen, dass die sogenannte Pauli-Abstoßung

IBM Forscher Leo Gross betont: „Ausschlaggebend für

zwischen dem CO-Molekül an der Spitze und dem Pentazen

die Auflösung waren eine atomar scharfe Spitze mit einem

für den atomaren Kontrast verantwortlich ist.“ Diese absto­

definierten Aufbau sowie eine sehr hohe Stabilität des

ßende Kraft geht auf einen quantenmechanischen Effekt

Gesamtsystems.“ Damit die chemische Struktur eines

zurück, der verhindert, dass sich zwei identische Elektronen

Moleküls sichtbar wird, ist es notwendig, die Spitze äußerst

zu stark aneinander annähern.

nah – weniger als einen Nanometer – an das Molekül heranzuführen. Nur in diesem Bereich treten Kräfte auf, die

Für die Leser, die noch mehr über die beiden Experimente

maßgeblich durch chemische Wechselwirkung bestimmt

und Forschungsarbeiten wissen möchten, ist die wissen­

werden. Um dies zu erreichen, mussten die Forscher die

schaftliche Arbeit von L. Gross, F. Mohn, N. Moll, P. Liljeroth

Empfindlichkeit der Spitze verbessern und eine große Hürde

und G. Meyer mit dem Titel „The Chemical Structure of a

überwinden: Ähnlich wie zwei nebeneinander liegende

Molecule Resolved by Atomic Force Microscopy”, erschie­

Magnete, die sich anziehen oder abstoßen, verschiebt sich

nen in Science, Vol. 325, Nr. 5944, S. 1110 – 1114

das Molekül oder heftet sich an die Spitze, wenn diese

(28. August 2009) zu empfehlen.

zu nahe kommt. Geschieht dies, können keine weiteren Messungen durchgeführt werden.

Nanotechnologien werden in großem Maße in den nächsten Jahren in der Speichertechnologie ihren Einzug halten und

Beide Probleme konnten durch die Wahl eines geeigneten

Speicherchips ermöglichen, die die Grenzen heutiger Chip­

Atoms oder Moleküls an der RKM-Spitze gelöst werden.

technologien sprengen – davon ist der Autor überzeugt!

„Um unsere Spitze zu schärfen, haben wir gezielt Atome und Moleküle durch Manipulationstechniken an die Spitze angefügt. Unsere Messungen mit unterschiedlich präpa­ rierten Spitzen zeigen deutlich, dass das vorderste Atom oder Molekül der Spitze die Auflösung entscheidend beein­ flusst“, konstatiert Leo Gross. Ein KohlenstoffmonoxidMolekül (CO) an der Spitze brachte den Durchbruch und sorgte, bei einem Abstand von etwa einem halben Nano­ meter zum Pentazen, für optimale Auflösung der einzelnen Atompositionen und deren chemische Verbindungen.

296

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

297

Ein ganz herzlicher Dank gilt auch den Sponsoren dieses IBM System Storage Kompendiums, welche die Druckauflage unterstützt haben:

298

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

299

Ein ganz herzlicher Dank gilt auch den Sponsoren dieses IBM System Storage Kompendiums, welche die Druckauflage unterstützt haben:

300

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

301

Ein ganz herzlicher Dank gilt auch den Sponsoren dieses IBM System Storage Kompendiums, welche die Druckauflage unterstützt haben:

302

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

303

Ein ganz herzlicher Dank gilt auch den Sponsoren dieses IBM System Storage Kompendiums, welche die Druckauflage unterstützt haben:

304

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

Bechtle – Ihr starker It-Partner. heute und morgen.

INteLLIgeNte uNd INtegRAtIve LöSuNgeN füR IhR RecheNzeNtRuM Storage- und Servervirtualisierung

skalierbares Storage Networking

Backup- und Recovery-Lösungen

gesetzeskonforme Archivierung

Information Lifecycle Management

hierarchische Storagekonzepte

die Bechtle Ag ist mit einem umsatz von rund 1,43 Mrd. € und rund 4.400 Mitarbeitern führendes deutsches Systemhaus. An über 50 Standorten in deutschland, österreich und der Schweiz bieten wir unseren Kunden herstellerübergreifend ein lückenloses Angebot rund um It-Infrastruktur und It-Betrieb aus einer hand.

Kontakt: Bechtle Ag Bechtle Platz 1, 74172 Neckarsulm www.bechtle.com

1952 – 1961

1962 – 1974

1975 – 1993

Martin Schneider telefon: +49 7132 981-3676 e-Mail: [email protected]

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

305

Ein ganz herzlicher Dank gilt auch den Sponsoren dieses IBM System Storage Kompendiums, welche die Druckauflage unterstützt haben:

306

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

307

Ein ganz herzlicher Dank gilt auch den Sponsoren dieses IBM System Storage Kompendiums, welche die Druckauflage unterstützt haben:

308

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

309

Ein ganz herzlicher Dank gilt auch den Sponsoren dieses IBM System Storage Kompendiums, welche die Druckauflage unterstützt haben:

310

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

311

Ein ganz herzlicher Dank gilt auch den Sponsoren dieses IBM System Storage Kompendiums, welche die Druckauflage unterstützt haben:

312

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

313

Ein ganz herzlicher Dank gilt auch den Sponsoren dieses IBM System Storage Kompendiums, welche die Druckauflage unterstützt haben:

314

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

315

Ein ganz herzlicher Dank gilt auch den Sponsoren dieses IBM System Storage Kompendiums, welche die Druckauflage unterstützt haben:

316

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

317

Ein ganz herzlicher Dank gilt auch den Sponsoren dieses IBM System Storage Kompendiums, welche die Druckauflage unterstützt haben:

318

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

1952 – 1961

1962 – 1974

1975 – 1993

1994 – 1998

1999 – 2005

2006 – 2010

Software

Anhang

319

IBM Systems and Technology Group

IBM Österreich Obere Donaustraße 95 1020 Wien ibm.com/at IBM Schweiz Vulkanstrasse 106 8010 Zürich ibm.com/ch Die IBM Homepage finden Sie unter: ibm.com IBM, das IBM Logo und ibm.com sind eingetragene Marken der IBM Corporation. Weitere Unternehmens-, Produkt- oder Servicenamen können Marken anderer Hersteller sein. Java und alle Java-basierenden Marken und Logos sind Marken von Sun Microsystems, Inc. in den USA und/oder anderen Ländern. Microsoft, Windows, Windows NT und das Windows-Logo sind Marken der Microsoft Corporation in den USA und/oder anderen Ländern. Intel, Intel logo, Intel Inside, Intel Inside logo, Intel Centrino, Intel Centrino logo, Celeron, Intel Xeon, Intel SpeedStep, Itanium, and Pentium sind Marken der Intel Corporation in den USA und/oder anderen Ländern. UNIX ist eine eingetragene Marke von The Open Group in den USA und anderen Ländern. Linux ist eine Marke von Linus Torvalds in den USA und/oder anderen Ländern. Gedruckt in Deutschland. © Copyright IBM Corporation 2010 Alle Rechte vorbehalten.

IBM System Storage-Kompendium 2010

IBM Deutschland GmbH IBM-Allee 1 71139 Ehningen ibm.com/de

100 Jahre IBM Deutschland

IBM System Storage-Kompendium Die IBM Speichergeschichte von 1952 bis 2010

ibm.com/systems/de/storage € 49,90 – unverbindliche Preisempfehlung