Als sich die Mitarbeiter der Bauverwaltung der Stadt St. Gallen am 31. Januar 2001 an ihre PCs setzten, erlebten sie eine böse Überraschung. Ein Server hatte damit begonnen, ihre Anschlüsse zu kappen, weshalb sie keinen Zugriff mehr auf ihre Office-Dateien hatten. Die städtische IT-Abteilung versuchte sofort, den Server neu zu starten. Dieser liess sich jedoch nur unvollständig hochfahren, weshalb man ihn neu formatierte und die Programme wieder auflud. Die Daten glaubte man auf Backup-Bändern gesichert zu haben. Bei der Sichtung der Bänder kam jedoch die nächste Überraschung: Die Backup-Kopien waren unvollständig. Deshalb musste der fragliche Server einer Disaster-Recovery-Firma überstellt werden. Die Spezialisten konnten die Daten, beispielsweise Projektunterlagen des Tiefbauamtes, zwar retten; doch dazu wurde rund ein Monat benötigt, und in dieser Zeit lagen etliche Abteilungen der Bauverwaltung faktisch lahm.
Würde es sich bei der Bauverwaltung der Stadt St. Gallen um ein Unternehmen handeln, liessen sich die Schäden des mangelhaften Backups kaum beziffern. Die IT-Panne hätte sogar lebensbedrohlich werden können. Eine viel beachtete Studie der Universität Texas zeigt auf, dass nur sechs Prozent aller Unternehmen, die einen totalen Datenverlust erleiden, je wieder auf die Beine kommen. Von allen anderen Firmen müssen 43 Prozent sofort schliessen, der Rest meldet innerhalb der nächsten beiden Jahre Konkurs an.
Bislang sind die Amerikaner in den Worst-Case-Szenarien von Schäden nach Feuersbrünsten, Hochwasser und Erdbeben ausgegangen. Seit dem 11. September muss die Palette der möglichen Katastrophen um einen Punkt erweitert werden: Die Attentate haben gezeigt, wie verletzlich Unternehmen in Sachen Datensicherheit sein können. Jedenfalls haben seither die Themen Datenablage und Datensicherung weltweit Hochkonjunktur.
Bei vielen Unternehmen haben die Attentate sogar zu einem Kommunikationsstopp bezüglich der physischen Sicherheit der Daten geführt. Bei Novartis zum Beispiel will man «zum jetzigen Zeitpunkt gar nichts» über die Speicher- und Sicherungsmassnahmen für elektronische Daten sagen. Angesichts der realen Datensicherheitsrisiken scheint diese weit verbreitete, neue Vorsicht allerdings übertrieben, denn absolute Sicherheit, das betonen alle Fachleute, kann es auch im Storage nicht geben. Umso weniger, als bekannt ist, dass die meisten Datenverluste auf menschliches Versagen zurückzuführen sind – vor allem auf Fahrlässigkeit wie im Falle von St. Gallen.
Wer ein Datenmanagementkonzept erarbeitet, tut deshalb gut daran, die betrieblichen und ausserbetrieblichen Risiken nüchtern zu analysieren. Eine Analyse, bei der die reine Sicherung der Daten und Dokumente nicht einmal die Hauptrolle spielt. Der Schlüsselbegriff heisst Verfügbarkeit. Denn selbst wenn die Daten bei einem Crash der produktiven IT-Systeme noch irgendwo vorhanden sind – zum Beispiel in einem Banksafe –, muss es das Ziel eines ausgereiften Sicherheitskonzeptes sein, die so genannte Down-Time möglichst tief zu halten. Tagelange Auszeiten kann sich kein Unternehmen mehr erlauben. Konkret: Es reicht nicht mehr, einfach die Daten zu sichern. Im Schadenfall muss auch dafür gesorgt sein, dass sie schnell wieder verfügbar sind.
Grossfirmen aus datensensiblen Branchen setzen deshalb schon heute auf eine Komplettspiegelung aller geschäftsrelevanten IT-Systeme: Bei den Banken gehören beispielsweise alle Applikationen und Datenbanken dazu, die Kunden- und Konteninformationen verarbeiten. «Wir betreiben de facto zwei gleichwertige IT-Systeme, von denen jedes einzeln den Betrieb gewährleisten kann», erklärt Edgar Ruez, Leiter des Ressorts Systems Management and Technical Support innerhalb der IT der Credit Suisse. Ruez leitet 120 Mitarbeiter, von denen sich 20 ausschliesslich mit Storagemanagement befassen.
Die Grossbank unterhält zwei Datencenter, eines in der Stadt Zürich, eines in einem Vorort, «in einer anderen Geländekammer», wie Ruez erklärt, «damit beispielsweise bei einem Erdbeben nicht beide Center betroffen sind». Die Datenbunker verfügen über eine autarke Wasser- und Stromversorgung und sind über redundante Telekommunikationsleitungen ebenso mit der Umwelt wie miteinander verbunden; wobei das eine System den täglichen IT-Betrieb der Bank aufrechterhält, während das andere als Testumgebung dient. «Dieses Sicherheitsdispositiv garantiert», so Edgar Ruez, «dass wir bei einer Katastrophe in der Grössenordnung der Attentate vom 11. September im schlimmsten Fall vier Stunden Down-Time haben». Laut Ruez ist die CS damit «weltweit Spitze». Denn ein Betrieb mit der Ausfallzeit null sei technisch heute noch nicht realisierbar. Der Grund: Auch die Datenübertragung braucht Zeit, und wenn die Datencenter weiter als einige Kilometer voneinander entfernt sind (was unter Sicherheitsgesichtspunkten notwendig ist), wird es immer Daten geben, die quasi «auf der Reise sind» und deshalb beim Ausfall des operativen Centers verloren gehen. Eine Lösung für dieses Problem kann erst die Entwicklung von neuen, hochleistungsfähigen Glasfaserverbindungen schaffen.
Noch sind deshalb die Pläne der CS, eine so genannte Tandem-Infrastruktur aufzubauen, in der die gesamten IT-Operationen fliegend von einem Datencenter ins andere wechseln können, Zukunftsmusik. Und schon gar nicht in Betracht kommen solche Ambitionen für kleinere Institute wie die Online-Bank Swissquote. CEO und Mitgründer Marc Bürki argumentiert betriebswirtschaftlich: «Jedes Prozent zusätzliche Sicherheit kostet im Bankenumfeld Millionen von Franken.» Und dabei gebe das Unternehmen mit seinen 10 000 Kunden schon heute rund zwei Millionen fürs Storage aus. Zum Vergleich: Die CS mit ihren 2,6 Millionen Kunden investiert jährlich 30 Millionen Franken.
Mit ein Grund für die vergleichsweise hohen Aufwendungen von Swissquote sind die gesetzlichen Vorschriften für das Bankengewerbe. Sie verpflichten auch kleine Institute, ihre Kunden- und Kontendaten so zu sichern, dass sie nach menschlichem Ermessen selbst nach Einwirkungen von höherer Gewalt noch verfügbar sind. Swissquote spiegelt deshalb sämtliche vom Gesetz vorgeschriebenen Daten vom firmeneigenen Datencenter am Hauptsitz in Gland in die Filiale im zürcherischen Schwerzenbach. «Sollte das Datencenter in Gland ausfallen, bedienen wir unsere Kunden am Telefon», versichert Marc Bürki.
160 Terabytes Daten: Das entspricht 160 000 Gigabytes oder dem Festplattenspeicherplatz von 8000 handelsüblichen PCs. Diese Datenmenge liegt zurzeit in den Rechenzentren der Credit Suisse, und täglich werden Backup-Kopien im Umfang von sieben Terabytes erstellt. Solche Speicherbedürfnisse haben momentan vor allem Unternehmen aus Branchen mit besonderen gesetzlichen Vorschriften oder Firmen aus speziell datenintensiven Wirtschaftszweigen wie der grafischen Industrie, wo täglich terabyteschwere Bildinformationen gespeichert und gesichert werden müssen. Der mehrjährige Trend spricht jedoch dafür, dass das Thema Storage bald auch in anderen Branchen zu einer geschäftskritischen Herausforderung wird.
Treibende Kraft ist die Dynamik zweier sich gegenseitig verstärkender Faktoren. Einerseits implementieren immer mehr Unternehmen Businesssoftware-Lösungen mit grossen Datenbanken (Stichwort: Enterprise-Resource-Planning und Customer-Relationship-Management). Anderseits werden diese Tools für E-Commerce-Anwendungen genutzt, die nach einer so genannten 7x24-Verfügbarkeit rufen. Ein Unternehmen, das seine Kunden via Web bedient, darf sich keine Datenverluste und Auszeiten leisten.
Ein typisches Beispiel dafür ist der Callcenter-Betreiber The Bee Company aus dem thurgauischen Tägerwilen. Die Firma von Gründer Dieter Trissler, dem diesjährigen «Enterpreneur of the Year» von Ernst & Young, zählt Firmen wie Hewlett-Packard, Sony und Nokia zu ihren Kunden und besorgt für sie den nationalen oder internationalen First-Level-Kundensupport. Die Bee Company verwaltet momentan rund 800 Gigabytes Daten, vor allem Kundeninformationen und Produktunterlagen. Täglich kommen Dutzende von Megabytes hinzu, Tendenz steigend.
«An unserem neuen Standort im niedersächsischen Peine richten wir ein Storage Area-Network (SAN) ein», erläutert Bertrand Grichting. Der Bee-IT-Chef setzt damit auf die aktuelle Standardtechnologie für das Halten und Sichern von grossen Datenbanken. Dabei liegen die Daten nicht mehr auf den Applikationsservern, auf welche die Mitarbeiter von ihren PCs aus zugreifen, sondern in grossen «Datenkübeln», in so genannten Multiuser-Speichern, aus denen sich wiederum die Applikationen bedienen. Der Clou dabei: Den Datenaustausch zwischen den verschiedenen Standorten besorgt nicht mehr das Local-Area-Network (LAN), sondern eben das logisch abgetrennte Storagenetzwerk. Das SAN ist ein eigentliches Datenlasttier und kann seine Aufgaben auch dann versehen, wenn das LAN an seiner Leistungsgrenze steht, zum Beispiel wenn alle angeschlossenen Arbeitsplätze besetzt sind.
Einen weiteren Vorteil verdanken professionelle Speicherlösungen dem Konzept des virtuellen Speichers. Praktisch alle Storagesysteme – auch das Network-attached Storage (NAS), bei dem die Multiuser-Speicher direkt am LAN hängen – verfügen über die Möglichkeit, den Platz in den Datenkübeln dynamisch zu verteilen. Wer an seinem Bildschirm eine Datei sichert, braucht nicht mehr zu wissen, ob sein lokaler Speicherplatz ausreicht. Im Netz ist immer genügend Speicherplatz vorhanden. Fest am Arbeitsplatz ist bei diesem System nur noch der chipbasierte Arbeitsspeicher (RAM).
Billig sind solche Storagesysteme nicht. Doch klug eingesetzt, sorgen sie nicht nur für Sicherheit, sondern auch für teilweise markante Einsparungen. Bei der CS ist die Storagesoftware so programmiert, dass Dateien, die 35 Tage nicht mehr berührt werden, automatisch von einer Harddisc auf Tape umgeschrieben werden. Dies wirkt sich insofern Kosten senkend aus, als der Speicherplatz auf einem Tape um den Faktor vier bis fünf günstiger ist als der Platz auf einer Harddisc. Zudem bieten Storagesysteme die Möglichkeit, neue Programme oder Updates unter Echtbedingungen und ohne Unterbrüche bei den operativen Systemen zu testen. «Die Einführung eines Enterprise-Resource-Planning-Systems lässt sich mit einem klugen Storagesystem erfahrungsgemäss um rund ein Drittel der Zeit verkürzen», weiss Ralf Damerau, Geschäftsführer der Rotkreuzer Dicom Security.
Die Dicom Security ist ein Spin-off der in London kotierten Datenerfassungsspezialistin Dicom und hat sich auf das Datastorage fokussiert. Die Loslösung von der Dicom sei sinnvoll gewesen, so Damerau, weil sich rund um das Thema Storage ein eigenständiger Markt entwickelt habe. Momentan peilt Damerau die Betreiber der zukünftigen Schweizer Spielkasinos an, denn die haben auf Grund des Spielbankengesetzes die Pflicht, das Grand Jeu mit Kameras zu überwachen und die Bilddaten einige Wochen zu archivieren. «Da entstehen Terabytes von Daten, und die müssen effizient verwaltet werden», freut sich Damerau.
Damerau ist nicht der Einzige, der sich mit der Suche nach neuer Kundschaft beschäftigt. Der Storagemarkt ist generell in Bewegung. Es herrscht Aufbruchstimmung, die Mitspieler stecken ihre Geschäftsfelder ab. Motiviert von Marktanalysen, laut denen bereits im übernächsten Jahr drei Viertel der IT-Infrastrukturausgaben ins Storage fliessen, bringen sich Anbieter wie Legato und Veritas (Software) sowie EMC, Storagetek und sämtliche grossen PC-Hersteller (Hardware) schon heute in Stellung. Compaq als Marktführer bei den Harddisc-Systemen hat beispielsweise ein internationales SAN-Zertifizierungsprogramm für IT-Unternehmen aufgelegt. «Die Grossfirmen betreuen wir selber, aber für die Eroberung des unteren und mittleren Segments bauen wir jetzt einen Kanal auf», heisst es dazu bei Compaq Schweiz. Für Jürg Schwarzenbach, CEO des Berner IT-Generalunternehmens Delec, ist das Angebot genau zur richtigen Zeit gekommen: «Heute hat jedes zweite IT-Geschäft einen Storage-anteil.» Einen sechsstelligen Betrag hat Schwarzenbach in die Business-Unit Storage gesteckt, und er will das Thema Storage in Zukunft «breit kommunizieren». Genauso wie die Zuger RedIT, ein Spaltprodukt der früheren Simultan-Kleeb, die ihre Storage-aktivitäten in einem siebenköpfigen Kompetenzzentrum gebündelt hat. Oder wie die an der Berner Börse kotierte UDT-Gruppe. Der IT-Generalunternehmer hat noch kurz vor seinem Börsengang die Storagespezialistin Tristar sowie die Storage-Distributionsfirma Datastore erworben und beschäftigt heute im Bereich Storage 35 Mitarbeiter. «Es war ein strategischer Entscheid», kommentiert Wenzel Divis, Mitgründer und CEO der Gruppe.
Mit Renommierkunden wie der Genfer Bioinformatik-Firma Geneprot, die gegenwärtig rund 40 Terabytes Daten bewirtschaftet, möchte sich Divis vor allem im Highend-Sektor positionieren. Doch mittelfristig wird das Bedürfnis nach Storagelösungen auch bei vielen Kleinbetrieben stark steigen. Denn in der Branche gilt die Faustregel, dass sich eine Storagelösung bereits für bescheidene Datenmengen im Bereich zwischen 100 und 150 Gigabytes rechtfertigen lässt.
Was bei vielen Kleinfirmen allerdings noch fehlt, ist das Problembewusstsein. «Dabei müssten sich die Unternehmer nur einmal fragen, wie lange sie ohne ihre Daten arbeiten könnten», sagt Thomas Jeker, Geschäftsführer der Solothurner IT-Firma Mühlethaler. Der Drei-Mann-Betrieb konzentriert sich auf Betriebe aus der Region, und Chef Jeker muss nicht selten Überzeugungsarbeit leisten. Aber er nimmt es gelassen: In einem Markt, der trotz allgemeiner Katerstimmung im IT-Geschäft pro Jahr um 50 bis 100 Prozent zulegt, macht auch Missionsarbeit Spass.
Würde es sich bei der Bauverwaltung der Stadt St. Gallen um ein Unternehmen handeln, liessen sich die Schäden des mangelhaften Backups kaum beziffern. Die IT-Panne hätte sogar lebensbedrohlich werden können. Eine viel beachtete Studie der Universität Texas zeigt auf, dass nur sechs Prozent aller Unternehmen, die einen totalen Datenverlust erleiden, je wieder auf die Beine kommen. Von allen anderen Firmen müssen 43 Prozent sofort schliessen, der Rest meldet innerhalb der nächsten beiden Jahre Konkurs an.
Bislang sind die Amerikaner in den Worst-Case-Szenarien von Schäden nach Feuersbrünsten, Hochwasser und Erdbeben ausgegangen. Seit dem 11. September muss die Palette der möglichen Katastrophen um einen Punkt erweitert werden: Die Attentate haben gezeigt, wie verletzlich Unternehmen in Sachen Datensicherheit sein können. Jedenfalls haben seither die Themen Datenablage und Datensicherung weltweit Hochkonjunktur.
Bei vielen Unternehmen haben die Attentate sogar zu einem Kommunikationsstopp bezüglich der physischen Sicherheit der Daten geführt. Bei Novartis zum Beispiel will man «zum jetzigen Zeitpunkt gar nichts» über die Speicher- und Sicherungsmassnahmen für elektronische Daten sagen. Angesichts der realen Datensicherheitsrisiken scheint diese weit verbreitete, neue Vorsicht allerdings übertrieben, denn absolute Sicherheit, das betonen alle Fachleute, kann es auch im Storage nicht geben. Umso weniger, als bekannt ist, dass die meisten Datenverluste auf menschliches Versagen zurückzuführen sind – vor allem auf Fahrlässigkeit wie im Falle von St. Gallen.
Wer ein Datenmanagementkonzept erarbeitet, tut deshalb gut daran, die betrieblichen und ausserbetrieblichen Risiken nüchtern zu analysieren. Eine Analyse, bei der die reine Sicherung der Daten und Dokumente nicht einmal die Hauptrolle spielt. Der Schlüsselbegriff heisst Verfügbarkeit. Denn selbst wenn die Daten bei einem Crash der produktiven IT-Systeme noch irgendwo vorhanden sind – zum Beispiel in einem Banksafe –, muss es das Ziel eines ausgereiften Sicherheitskonzeptes sein, die so genannte Down-Time möglichst tief zu halten. Tagelange Auszeiten kann sich kein Unternehmen mehr erlauben. Konkret: Es reicht nicht mehr, einfach die Daten zu sichern. Im Schadenfall muss auch dafür gesorgt sein, dass sie schnell wieder verfügbar sind.
Grossfirmen aus datensensiblen Branchen setzen deshalb schon heute auf eine Komplettspiegelung aller geschäftsrelevanten IT-Systeme: Bei den Banken gehören beispielsweise alle Applikationen und Datenbanken dazu, die Kunden- und Konteninformationen verarbeiten. «Wir betreiben de facto zwei gleichwertige IT-Systeme, von denen jedes einzeln den Betrieb gewährleisten kann», erklärt Edgar Ruez, Leiter des Ressorts Systems Management and Technical Support innerhalb der IT der Credit Suisse. Ruez leitet 120 Mitarbeiter, von denen sich 20 ausschliesslich mit Storagemanagement befassen.
Die Grossbank unterhält zwei Datencenter, eines in der Stadt Zürich, eines in einem Vorort, «in einer anderen Geländekammer», wie Ruez erklärt, «damit beispielsweise bei einem Erdbeben nicht beide Center betroffen sind». Die Datenbunker verfügen über eine autarke Wasser- und Stromversorgung und sind über redundante Telekommunikationsleitungen ebenso mit der Umwelt wie miteinander verbunden; wobei das eine System den täglichen IT-Betrieb der Bank aufrechterhält, während das andere als Testumgebung dient. «Dieses Sicherheitsdispositiv garantiert», so Edgar Ruez, «dass wir bei einer Katastrophe in der Grössenordnung der Attentate vom 11. September im schlimmsten Fall vier Stunden Down-Time haben». Laut Ruez ist die CS damit «weltweit Spitze». Denn ein Betrieb mit der Ausfallzeit null sei technisch heute noch nicht realisierbar. Der Grund: Auch die Datenübertragung braucht Zeit, und wenn die Datencenter weiter als einige Kilometer voneinander entfernt sind (was unter Sicherheitsgesichtspunkten notwendig ist), wird es immer Daten geben, die quasi «auf der Reise sind» und deshalb beim Ausfall des operativen Centers verloren gehen. Eine Lösung für dieses Problem kann erst die Entwicklung von neuen, hochleistungsfähigen Glasfaserverbindungen schaffen.
Noch sind deshalb die Pläne der CS, eine so genannte Tandem-Infrastruktur aufzubauen, in der die gesamten IT-Operationen fliegend von einem Datencenter ins andere wechseln können, Zukunftsmusik. Und schon gar nicht in Betracht kommen solche Ambitionen für kleinere Institute wie die Online-Bank Swissquote. CEO und Mitgründer Marc Bürki argumentiert betriebswirtschaftlich: «Jedes Prozent zusätzliche Sicherheit kostet im Bankenumfeld Millionen von Franken.» Und dabei gebe das Unternehmen mit seinen 10 000 Kunden schon heute rund zwei Millionen fürs Storage aus. Zum Vergleich: Die CS mit ihren 2,6 Millionen Kunden investiert jährlich 30 Millionen Franken.
Mit ein Grund für die vergleichsweise hohen Aufwendungen von Swissquote sind die gesetzlichen Vorschriften für das Bankengewerbe. Sie verpflichten auch kleine Institute, ihre Kunden- und Kontendaten so zu sichern, dass sie nach menschlichem Ermessen selbst nach Einwirkungen von höherer Gewalt noch verfügbar sind. Swissquote spiegelt deshalb sämtliche vom Gesetz vorgeschriebenen Daten vom firmeneigenen Datencenter am Hauptsitz in Gland in die Filiale im zürcherischen Schwerzenbach. «Sollte das Datencenter in Gland ausfallen, bedienen wir unsere Kunden am Telefon», versichert Marc Bürki.
160 Terabytes Daten: Das entspricht 160 000 Gigabytes oder dem Festplattenspeicherplatz von 8000 handelsüblichen PCs. Diese Datenmenge liegt zurzeit in den Rechenzentren der Credit Suisse, und täglich werden Backup-Kopien im Umfang von sieben Terabytes erstellt. Solche Speicherbedürfnisse haben momentan vor allem Unternehmen aus Branchen mit besonderen gesetzlichen Vorschriften oder Firmen aus speziell datenintensiven Wirtschaftszweigen wie der grafischen Industrie, wo täglich terabyteschwere Bildinformationen gespeichert und gesichert werden müssen. Der mehrjährige Trend spricht jedoch dafür, dass das Thema Storage bald auch in anderen Branchen zu einer geschäftskritischen Herausforderung wird.
Treibende Kraft ist die Dynamik zweier sich gegenseitig verstärkender Faktoren. Einerseits implementieren immer mehr Unternehmen Businesssoftware-Lösungen mit grossen Datenbanken (Stichwort: Enterprise-Resource-Planning und Customer-Relationship-Management). Anderseits werden diese Tools für E-Commerce-Anwendungen genutzt, die nach einer so genannten 7x24-Verfügbarkeit rufen. Ein Unternehmen, das seine Kunden via Web bedient, darf sich keine Datenverluste und Auszeiten leisten.
Ein typisches Beispiel dafür ist der Callcenter-Betreiber The Bee Company aus dem thurgauischen Tägerwilen. Die Firma von Gründer Dieter Trissler, dem diesjährigen «Enterpreneur of the Year» von Ernst & Young, zählt Firmen wie Hewlett-Packard, Sony und Nokia zu ihren Kunden und besorgt für sie den nationalen oder internationalen First-Level-Kundensupport. Die Bee Company verwaltet momentan rund 800 Gigabytes Daten, vor allem Kundeninformationen und Produktunterlagen. Täglich kommen Dutzende von Megabytes hinzu, Tendenz steigend.
«An unserem neuen Standort im niedersächsischen Peine richten wir ein Storage Area-Network (SAN) ein», erläutert Bertrand Grichting. Der Bee-IT-Chef setzt damit auf die aktuelle Standardtechnologie für das Halten und Sichern von grossen Datenbanken. Dabei liegen die Daten nicht mehr auf den Applikationsservern, auf welche die Mitarbeiter von ihren PCs aus zugreifen, sondern in grossen «Datenkübeln», in so genannten Multiuser-Speichern, aus denen sich wiederum die Applikationen bedienen. Der Clou dabei: Den Datenaustausch zwischen den verschiedenen Standorten besorgt nicht mehr das Local-Area-Network (LAN), sondern eben das logisch abgetrennte Storagenetzwerk. Das SAN ist ein eigentliches Datenlasttier und kann seine Aufgaben auch dann versehen, wenn das LAN an seiner Leistungsgrenze steht, zum Beispiel wenn alle angeschlossenen Arbeitsplätze besetzt sind.
Einen weiteren Vorteil verdanken professionelle Speicherlösungen dem Konzept des virtuellen Speichers. Praktisch alle Storagesysteme – auch das Network-attached Storage (NAS), bei dem die Multiuser-Speicher direkt am LAN hängen – verfügen über die Möglichkeit, den Platz in den Datenkübeln dynamisch zu verteilen. Wer an seinem Bildschirm eine Datei sichert, braucht nicht mehr zu wissen, ob sein lokaler Speicherplatz ausreicht. Im Netz ist immer genügend Speicherplatz vorhanden. Fest am Arbeitsplatz ist bei diesem System nur noch der chipbasierte Arbeitsspeicher (RAM).
Billig sind solche Storagesysteme nicht. Doch klug eingesetzt, sorgen sie nicht nur für Sicherheit, sondern auch für teilweise markante Einsparungen. Bei der CS ist die Storagesoftware so programmiert, dass Dateien, die 35 Tage nicht mehr berührt werden, automatisch von einer Harddisc auf Tape umgeschrieben werden. Dies wirkt sich insofern Kosten senkend aus, als der Speicherplatz auf einem Tape um den Faktor vier bis fünf günstiger ist als der Platz auf einer Harddisc. Zudem bieten Storagesysteme die Möglichkeit, neue Programme oder Updates unter Echtbedingungen und ohne Unterbrüche bei den operativen Systemen zu testen. «Die Einführung eines Enterprise-Resource-Planning-Systems lässt sich mit einem klugen Storagesystem erfahrungsgemäss um rund ein Drittel der Zeit verkürzen», weiss Ralf Damerau, Geschäftsführer der Rotkreuzer Dicom Security.
Die Dicom Security ist ein Spin-off der in London kotierten Datenerfassungsspezialistin Dicom und hat sich auf das Datastorage fokussiert. Die Loslösung von der Dicom sei sinnvoll gewesen, so Damerau, weil sich rund um das Thema Storage ein eigenständiger Markt entwickelt habe. Momentan peilt Damerau die Betreiber der zukünftigen Schweizer Spielkasinos an, denn die haben auf Grund des Spielbankengesetzes die Pflicht, das Grand Jeu mit Kameras zu überwachen und die Bilddaten einige Wochen zu archivieren. «Da entstehen Terabytes von Daten, und die müssen effizient verwaltet werden», freut sich Damerau.
Damerau ist nicht der Einzige, der sich mit der Suche nach neuer Kundschaft beschäftigt. Der Storagemarkt ist generell in Bewegung. Es herrscht Aufbruchstimmung, die Mitspieler stecken ihre Geschäftsfelder ab. Motiviert von Marktanalysen, laut denen bereits im übernächsten Jahr drei Viertel der IT-Infrastrukturausgaben ins Storage fliessen, bringen sich Anbieter wie Legato und Veritas (Software) sowie EMC, Storagetek und sämtliche grossen PC-Hersteller (Hardware) schon heute in Stellung. Compaq als Marktführer bei den Harddisc-Systemen hat beispielsweise ein internationales SAN-Zertifizierungsprogramm für IT-Unternehmen aufgelegt. «Die Grossfirmen betreuen wir selber, aber für die Eroberung des unteren und mittleren Segments bauen wir jetzt einen Kanal auf», heisst es dazu bei Compaq Schweiz. Für Jürg Schwarzenbach, CEO des Berner IT-Generalunternehmens Delec, ist das Angebot genau zur richtigen Zeit gekommen: «Heute hat jedes zweite IT-Geschäft einen Storage-anteil.» Einen sechsstelligen Betrag hat Schwarzenbach in die Business-Unit Storage gesteckt, und er will das Thema Storage in Zukunft «breit kommunizieren». Genauso wie die Zuger RedIT, ein Spaltprodukt der früheren Simultan-Kleeb, die ihre Storage-aktivitäten in einem siebenköpfigen Kompetenzzentrum gebündelt hat. Oder wie die an der Berner Börse kotierte UDT-Gruppe. Der IT-Generalunternehmer hat noch kurz vor seinem Börsengang die Storagespezialistin Tristar sowie die Storage-Distributionsfirma Datastore erworben und beschäftigt heute im Bereich Storage 35 Mitarbeiter. «Es war ein strategischer Entscheid», kommentiert Wenzel Divis, Mitgründer und CEO der Gruppe.
Mit Renommierkunden wie der Genfer Bioinformatik-Firma Geneprot, die gegenwärtig rund 40 Terabytes Daten bewirtschaftet, möchte sich Divis vor allem im Highend-Sektor positionieren. Doch mittelfristig wird das Bedürfnis nach Storagelösungen auch bei vielen Kleinbetrieben stark steigen. Denn in der Branche gilt die Faustregel, dass sich eine Storagelösung bereits für bescheidene Datenmengen im Bereich zwischen 100 und 150 Gigabytes rechtfertigen lässt.
Was bei vielen Kleinfirmen allerdings noch fehlt, ist das Problembewusstsein. «Dabei müssten sich die Unternehmer nur einmal fragen, wie lange sie ohne ihre Daten arbeiten könnten», sagt Thomas Jeker, Geschäftsführer der Solothurner IT-Firma Mühlethaler. Der Drei-Mann-Betrieb konzentriert sich auf Betriebe aus der Region, und Chef Jeker muss nicht selten Überzeugungsarbeit leisten. Aber er nimmt es gelassen: In einem Markt, der trotz allgemeiner Katerstimmung im IT-Geschäft pro Jahr um 50 bis 100 Prozent zulegt, macht auch Missionsarbeit Spass.
Partner-Inhalte