cio briefing - technologie-update für it-manager

50
Technology-Update für IT-Manager powered by CIOBRIEFING 08/2015 +++ Offloadingstrategien für Mobilfunk +++ Sechs Tipps für die erfolgreiche Migration von Datenbanken +++ Big Data Protection statt Big Data Loss +++ IT-Compliance ist mehr als Datenschutz +++ Das DARZ als Hyperscale-Multi-Cloud-Broker +++ Vermietete Spektren und neue Modulationen sollen 5G antreiben +++ Die Hybrid Cloud ist zum Normalfall geworden +++ So setzen Sie Graphen in Big-Data-Umgebungen ein +++ Lässt sich IT-Sicherheit per Gesetz vorschreiben? +++ Von CoreOS kommt das Betriebssystem für Cloud-Rechenzentren +++ Dateiserver von Windows nach Linux migrieren +++ ISSN 2364-3188 www.ciobriefing.de

Upload: vogel-business-media-gmbh-und-co-kg

Post on 12-Apr-2017

672 views

Category:

Technology


1 download

TRANSCRIPT

Page 1: CIO Briefing - Technologie-Update für IT-Manager

Technology-Update für IT-Manager

powered by

CIOBRIEFING

08/2015+++ Offloadingstrategien für Mobilfunk +++ Sechs Tipps für

die erfolgreiche Migration von Datenbanken +++ Big Data

Protection statt Big Data Loss +++ IT-Compliance ist mehr als

Datenschutz +++ Das DARZ als Hyperscale- Multi-Cloud-Broker

+++ Vermietete Spektren und neue Modulationen sollen 5G

antreiben +++ Die Hybrid Cloud ist zum Normalfall geworden

+++ So setzen Sie Graphen in Big-Data-Umgebungen ein +++

Lässt sich IT-Sicherheit per Gesetz vorschreiben? +++ Von

CoreOS kommt das Betriebssystem für Cloud-Rechenzentren

+++ Dateiserver von Windows nach Linux migrieren +++

ISSN 2364-3188 www.ciobriefing.de

Page 2: CIO Briefing - Technologie-Update für IT-Manager

MANAGEMENT & STRATEGIE

Offloadingstrategien für Mobilfunk ............................................................3

Sechs Tipps für die erfolgreiche Migration von Datenbanken ....................7

Big Data Protection statt Big Data Loss ................................................. 11

IT-Compliance ist mehr als Datenschutz................................................. 14

Das DARZ als Hyperscale- Multi-Cloud-Broker ....................................... 18

TECHNOLOGIE & ZUKUNFT

Vermietete Spektren und neue Modulationen sollen 5G antreiben ..........24

Die Hybrid Cloud ist zum Normalfall geworden .......................................28

So setzen Sie Graphen in Big-Data-Umgebungen ein ............................31

Lässt sich IT-Sicherheit per Gesetz vorschreiben? ..................................35

Von CoreOS kommt das Betriebssystem für Cloud-Rechenzentren ........39

Dateiserver von Windows nach Linux migrieren ......................................44

CIOBRIEFING08/2015

IMPRESSUM:Vogel IT-Medien GmbHAugust-Wessels-Str. 2786156 AugsburgTel.: +49(0)821-2177-0Fax: +49(0)821-2177-150Email: [email protected]: www.vogel-it.de

Handelsregister AugsburgHRB 1 19 43Umsatzsteueridentifikationsnummer: DE 127502716

Geschäftsführer: Werner Nieberle

Inhaltlich Verantwortliche gemäß § 55 Absatz 2 RStV:Nico Litzel, Florian Karlstetter, Ulrike Ostler, Andreas Donner, Peter Schmitz, Rainer Gra efen (Anschrift siehe Verlag)

Vogel IT-MedienDie Vogel IT-Medien GmbH, Augsburg, ist eine 100prozentige Tochtergesellschaft der Vogel Business Media, Würzburg. Seit 1991 gibt der Verlag Fachmedien für Entscheider heraus, die mit der Produktion, der Beschaffung oder dem Einsatz von Informationstech-nologie beruflich befasst sind. Dabei bietet er neben Print- und Online-Medien auch ein breites Veranstaltungsportfolio an. Die wichtigsten Angebote des Verlages sind IT-BUSINESS, eGovernment Computing, BigData-Insider.de, CloudComputing-Insider.de, DataCenter-Insider.de, IP-Insider.de, Security-Insider.de, Storage-Insider.de. Vogel Business MediaDas Fachmedienhaus Vogel Business Media ist einer der führenden deutschen Fachinformationsanbieter mit rund 100 Fachzeitschrif-ten und 60 Webseiten sowie zahlreichen internationalen Aktivitäten. Hauptsitz ist Würzburg. Die Print- und Online-Medien bedienen vor allem die Branchen Industrie, Automobil, Informationstechnologie und Recht/Wirtschaft/Steuern.

Page 3: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 3

Wie WLAN, UMTS und LTE immer weiter zusammenrücken

Offloadingstrategien für MobilfunkTrotz Digitaler Dividende wird es für Mobilfunkprovider eng im Äther. IP-Insider zeigt, welche Strategien und Techniken die rasant steigenden Breitbandanforderun-gen der mobilen Gesellschaft zu verträglichen Kosten meistern sollen.

Nicht mehr als den sprichwörtlichen Tropfen auf heißem Stein dürfte WLAN-Ausrüster Ruckus Wireless (Ruckus) in der ak-tuellen Versteigerung freier Frequenzen durch die Bundesnetz-agentur sehen. Vom Anbieter zitierte Zahlen der Signals Research Group prognostizieren nämlich ein wachsendes „Capacity Gap“; das heißt: die Nachfrage nach mobilen Datendiensten wächst mindestens doppelt so schnell wie neue Basisstationen, Spektren oder Funkstandards diesen Bedarf zu decken vermögen.

Zudem ist der Betrieb von Mobilfunknetzen vergleichsweise teu-er. Das bezieht sich nicht nur auf öffentlichkeitswirksame Fre-quenzversteigerungen – die bei der Bundesnetzagentur eingegan-genen Höchstgebote für „Mobiles Breitband – Projekt 2016“ summierten sich schließlich auf 5,1 Milliarden Euro. Hinzu kom-men beträchtliche Ausgaben für Errichtung und Betrieb entspre-chender Infrastrukturen. Nachfolgend sollen verschiedene An-sätze skizziert werden, die sich eben dieser Problematiken annehmen.

Die Nachfrage an

Datendiensten steigt

schneller als Makro­

zellen skalieren.

Offloading­Strategien

könnten das „Capacity

Gap“ verkleinern.

Bild

: Ruc

kus

MANAGEMENT & STRATEGIE

nicht löschen wird für das automatische Inhaltsverzeichnis benötigt!

Page 4: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 4

Wenig neu, aber für bestimmte Szenarien noch immer aktuell sind Femtozellen – also Mobilfunkbasen mit vergleichsweise wenig Sendeleistung und Reichweite. Die direkt beim Kunden installierten Basisstationen ergänzen Macro-Cell-Funktürme und sollen so die Versorgung mobiler Endgeräte innerhalb von Gebäuden sicherstellen. Die kurze Reichweite der Femtozellen kann dabei als Vorteil gelten, weil damit auch das Störpotenzial sinkt. Somit können knappe Frequenzen also effizient genutzt werden.

WLAN und Mobilfunk nebeneinander...

Mittlerweile gibt es derlei Funkzellen sogar mit eingebauten WLAN-Access-Points. Ein Beispiel hierfür ist der „Nokia Flexi Zone Indoor Pico with Ruckus“. Die Lösung ist jedoch als zwei Geräte in einem Gehäuse zu verstehen und nicht mit dem unter „Hotspot 2.0“ bekannten Roaming zwischen WLAN und Mobil-funk zu verwechseln.

...und miteinander

„Hotspot 2.0“ soll Mobilfunkinfrastrukturen derweil per naht-losem Offloading entlasten. Die auch als „Passport“ bekannte Technik nutzt dabei den Standard 802.11u und erleichtert Mobil-funkkunden die Einwahl in WLANs. Nutzer können sich dabei nicht nur über Name und Passwort oder X.509-Zertifikate au-thentifizieren. Zusätzlich sieht das Verfahren eine nahtlose, SIM-basierende Authentifizierung vor.

Die per Hotspot 2.0 bereitgestellte Infrastruktur muss nicht vom Provider des Endkunden selbst betrieben werden. Mit entspre-chenden Roaming-Abkommen können Mobilfunkanbieter also auf bestehende WLANs anderer Anbieter zurückgreifen und auch Sprachdienste über entsprechende Dienstgüten absichern (QoS Mapping von Differentiated Services Codepoints auf Lay-er-2-Luftschnittstelle). Das spart im Idealfall nicht nur Kosten, sondern verhindert auch redundante und sich womöglich gegen-seitig störende Netze an einem Ort.

Sinnvoll ist eine solche Vorgehensweise an Plätzen mit hoher Personendichte. Ruckus hat zur Fußball-WM 2014 beispielsweise ein Konsortium vier brasilianischer Netzbetreiber mit WiFi-Sys-temen beliefert, die in Turnierstadien installiert wurden. An den Veranstaltungsorten wurde schließlich dreimal mehr Traffic per WLAN abgewickelt als per 3G/4G.

Page 5: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 5

Flexible Datenkanäle für verschiedene TarifeSoftwareanbieter Amdocs bestätigt: 80 Prozent der mobilen Da-tennutzung findet dann statt, wenn Nutzer wenig mobil sind. Mit seinen „Smart Net“-Lösungen hilft der Hersteller Anbietern da-bei, diese Erkenntnisse in passende Geschäftsmodelle umzuset-zen. Auf Smartphones der Endkunden läuft hierfür ein „Smart Net Agent“, der abhängig von Tarif und Netzauslastung die passende Netzanbindung realisiert – also dynamisch zwischen Mobilfunk und in der Umgebung vorhandenen Access Points umschaltet.

WLAN als Femto-ErsatzAuf angepasste Clients setzt auch der britische Provider EE. Der hatte Anfang April ein WiFi-Calling genanntes Angebot gestar-tet. Ein entsprechend angepasstes Smartphone vorausgesetzt, können Anwender damit auch über WLANs telefonieren. Im Gegensatz zu klassischen Over-The-Top-Diensten (OTT) dürfen Anwender dabei die reguläre Telefonieschnittstelle ihres Handys nutzen – müssen also keinen zusätzlichen Messenger starten, wie das bei WhatsApp oder Skype der Fall wäre.Ein von EE vorgeschlagenes Einsatzgebiet ähnelt dabei dem einer Femto-Zelle: In ländlichen Regionen soll WiFi-Calling für zuver-lässige Telefonate per Handy sorgen. Das dürfte freilich nur bei einem entsprechend eng ausgebauten Breitbandnetz funktionieren.Interessanter ist derweil das per Imagefilm dokumentierte Szena-rio per WLAN telefonierender Menschen in der Londoner U-Bahn. Warum EE hier allerdings nicht auf zuverlässige Mobil-funkfrequenzen setzt, wollte uns der Anbieter auf Nachfrage nicht verraten. Schließlich könnte man annehmen, dass die offe-nen WLAN-Frequenzen deutlich störanfälliger sind als exklusiv zugewiesene Mobilfunkbänder. Zudem sollte die Reichweite des 5-GHz-Spektrums kürzer ausfallen als die der niedrigeren Mo-bilfunkfrequenzen. Branchenkenner gehen allerdings davon aus, dass eine WLAN-Infrastruktur deutlich kostengünstiger einzu-führen ist als „echte“ Mobilfunktechnik.

EE launches the UK’s

first WiFi Calling service

YouT

ube

Page 6: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 6

Protokolle gehen fremd

Statt zwischen WiFi und Mobilfunk zu vermitteln, soll LTE-U direkt auf die bislang von WLAN genutzten Frequenzen zugrei-fen. Der aktuell vom 3rd Generation Partnership Project (3GPP) und verschiedenen Herstellern diskutierte Ansatz ist dabei nicht ohne Probleme, denn mit zunehmender Verbreitung von 5-GHz-WLANs dürfte auch das gegenseitige Störpotential ansteigen. Trotz allem hatte Huawei bereits im Vorjahr eine U-LTE genannte Lösung präsentiert, die (kostenpflichtig und exklusiv) lizenzierte Mobilfunkfrequenzen und frei nutzbare Bänder zusammenfasst, um die Nutzererfahrung zu verbessern.

Ob und wann LTE-U tatsächlich auf den Markt kommt, ist aber noch nicht abzusehen. Bislang ist sogar noch unklar, ob inwie-weit klassische Terminals für das Verfahren taugen. Amdocs geht davon aus, dass sich zumindest einige der derzeit erhältli-chen Smartphones per Software-Update nachrüsten lassen; laut Ruckus brauche es hierfür eine neue Hardware. Die Chipherstel-ler Intel und Broadcom wollten uns auf Nachfrage nichts über ihre Pläne zu möglichen LTE-U-Chipsets verraten; Qualcomm ignorierte unsere diesbezügliche Anfrage ohne jegliche Reakti-on. ■ Dirk Srocke

Mehr zum Thema Netzwerke finden Sie auf www.ip-insider.de

Technology-Update für IT-Manager

CIOBRIEFING

Page 7: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 7

Ab in die Cloud, aber mit Bodenhaftung!

Sechs Tipps für die erfolgreiche Migration von DatenbankenHeutzutage scheint jedes Unternehmen zu prüfen, was es in die Cloud verlagern kann – oder muss. Dabei ist die Cloud gar nicht für alle Anwendungen geeignet: Wie bei jeder anderen Technologie müssen auch hier die Vor- und Nachteile jeweils sorgfältig abgewogen werden.

IT-Profis müssen also erst einmal herausfinden, in welchen Fällen die Cloud auf welche Weise für ihre Anwendungen vorteilhaft ist. Datenbanken stellen bei der Bewertung der Cloud-Eignung und der Migrationsplanung in der Regel das am schwersten ein-zuschätzende Element dar. Jeder Anwendung liegen aber nun einmal Daten zugrunde. Daher muss unbedingt sichergestellt werden, dass Datenbanken sich gut in die Cloud integrieren. Nachfolgend stellen wir einige Konzepte und Empfehlungen vor, die bei der Migration von Datenbanken in die Cloud beachtet werden sollten.

1. Leistung – eine Sorge weniger

Es sind hauptsächlich Leistungsbedenken, die IT-Profis davon ab-halten, Datenbanken in virtuelle Umgebungen oder die Cloud zu verlagern. Allerdings sind sie oft unbegründet, da die Leistungs-anforderungen vieler Anwendungen von vielen Cloud-Architek-turen mehr als erfüllt werden. In den vergangenen drei Jahren

Mit entsprechender

Vorbereitung ist der

Sprung – sprich die

Migration – ganzer

Datenbanken in die

Cloud kein gefährliches

Wagnis.

Bild

: Gre

g E

pp

erso

n, F

otol

ia

Page 8: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 8

hat die Cloud-Technologie große Fortschritte gemacht und unter-stützt jetzt mehrere teils hochleistungsfähige Bereitstellungsop-tionen für Datenbanken.

2. Transparenz – besser entscheiden

Leistungsprobleme werden häufig auf dem einfachsten Weg ge-löst, nämlich indem die Hardware aufgestockt wird. Doch ist diese Vorgehensweise nicht der Weisheit letzter Schluss – insbesondere nicht aus Kostenperspektive. Sinnvoller ist eher ein umfassendes Monitoring. Mithilfe eines Tools für die Datenbanküberwachung werden die tatsächlichen Datenbank- und Ressourcenanforderun-gen einer Anwendung erfasst. Dazu zählen: CPU, Storage, Ar-beitsspeicher, Latenz und Storage-Durchsatz (IOPS ist eine mit-unter trügerische Messgröße); das geplante Storage-Wachstum und Backup-Anforderungen; Ressourcenfluktuation auf Grund-lage der Anwendungsauslastung in Spitzenzeiten oder bei Batch-Prozessen; und nicht zuletzt Datenverbindungsabhängigkeiten – denn neben den Verbindungen zu den eigentlichen Anwendun-gen können noch weitere Anforderungen hinsichtlich Datenaus-tausch, Backups und eingehender Daten bestehen.

Zu den Vorteilen der Cloud gehört die Möglichkeit, Ressourcen bei Mehr- und Minderbedarf dynamisch zu skalieren. Eine Cloud-Bereitstellung muss also nicht nur keine Leistungsbedenken aus-lösen, sondern kann im Gegenteil die Anwendungsverantwortli-chen mit der Tatsache beruhigen, dass sich jeder Anwendung die den Leistungsanforderungen entsprechende Ressourcenkapazität zuweisen lässt. Voraussetzung hierfür ist allerdings, dass diese Anforderungen bekannt sind.

3. Testen – nicht vergessen!

Weitere Vorteile der Cloud – und zwei der offensichtlichsten – sind die geringen Kosten und die vielfältigen Zugriffsmöglich-keiten, die mit ihr einhergehen. Selbst wenn ein Unternehmen noch nicht an einem Migrationsplan arbeitet, sollte es sich bereits mit Cloud-Datenbanken vertraut machen. Hier hilft experimen-tieren – und die gesammelten Eindrücke für die Migrationsiniti-ative zu nutzen. Es dauert nur etwa eine Stunde, eine Datenbank in der Cloud einzurichten. Daher sollten interessierte Unterneh-men das also einfach einmal ausprobieren, testen und anschlie-ßend löschen. Die Kosten sind minimal. Mit etwas mehr Zeit und Geld können sie auch die Kopie einer Produktionsdatenbank in

Page 9: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 9

die Cloud verschieben, um dort die Bereitstellungsoptionen zu testen und herauszufinden, wie sich speziell ihre Anwendung und Datenbank in der Cloud verhalten werden.

4. Bereitstellung – das Modell sorgfältig planen

Die Bereitstellung kann in der Cloud auf verschiedene Weise er-folgen. Daher müssen Verantwortliche alle diesbezüglichen Opti-onen prüfen. So bietet DBaaS („Database as a Service“) als Ma-naged Service eine einfache Bereitstellung und Automatisierung. IaaS („Infrastructure as a Service“) dagegen bietet für Admi-nistratoren mehr Steuerungsoptionen beim Ausführen von Da-tenbankinstanzen auf Cloud-Servern. Gleichzeitig bleibt auch die Oberfläche und Funktionsweise des herkömmlichen On-Premise-Deployments erhalten. Darüber hinaus gibt es mehrere Storage-Optionen, zum Beispiel Block-Storage, SSDs, garantierte IOPS-Werte, dedizierte Verbindungen und für Datenbanken optimierte Instanzen. Da Unternehmen sich Cloud-Ressourcen meist mit anderen Nutzern teilen, ist es außerdem notwendig, neben der theoretischen Spitzenleistung auch die Konsistenz und Variabili-tät der Leistung zu testen.

5. Migration – den Sprung wagen

Kein Migrationsplan kann alle Anwendungsfälle abdecken. Es empfiehlt sich daher, dem Cloud-Anbieter einfach die Unterneh-mensumgebung zu erklären und ihn um seinen Rat zu bitten, an-statt sich anhand einer Standardstrategie in die Cloud zu wagen. Am besten duplizieren die Verantwortlichen die eigentliche Um-gebung in der Cloud, um die Ausführung zu testen. Erst wenn alles reibungslos läuft, sollten Sie auf die Produktionsanwendung umstellen. Zudem ist es ratsam, über die Maßnahmen zur Erfül-lung der Datenwiederherstellungs- und Backup-Anforderungen hinaus darauf zu achten, dass sich Replikations- oder Standby-Server nicht in derselben Region wie die primären Server befin-den.

6. Überwachen und optimieren

Ebenso wie On-Premise-Deployments müssen auch Cloud-Um-gebungen im Betrieb überwacht und optimiert werden. Tools für die Datenbankoptimierung analysieren die Wartezeit und beschleunigen Datenbankvorgänge durch Ressourcenkorrelati-on erheblich. Außerdem melden sie Fehler, ehe diese zu Proble-men werden, steigern die Anwendungsleistung und überwachen

Page 10: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 10

Ressourcen zur Unterstützung der Planung. Ebenfalls hilfreich ist ein Tool für die Leistungsanalyse: Es erlaubt Datenbankad-ministratoren, Entwicklern und dem IT-Betriebsteam, sauber zu programmieren und die Ursache bei Leistungsproblemen einer Datenbank zu identifizieren (z. B. Abfragen, Storage-Ereignisse, Serverressourcen).

Der neue Weg

Die Cloud entwickelt sich schnell weiter. Sie wird ständig attrak-tiver, zuverlässiger und flexibler. Noch vor fünf Jahren konnten sich die meisten IT-Spezialisten nicht vorstellen, welche Verän-derungen die Cloud bewirken würde. Und es ist anzunehmen, dass sie sich in derselben Geschwindigkeit auch über die nächs-ten fünf Jahre weiterentwickeln wird. Dies ist also nur ein wei-terer Grund, sich so bald wie möglich mit der Cloud vertraut zu machen. Auf dem Weg in die Cloud werden Verantwortliche alte Maximen und Konzepte über Bord werfen müssen, doch am Ende erwarten sie und ihre Anwendungen signifikante Vorteile. ■ Gerardo Dada

Mehr zum Thema Cloud Computing finden Sie auf www.cloudcomputing-insider.de

Technology-Update für IT-Manager

CIOBRIEFING

Page 11: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 11

Datenverfügbarkeit bei Big Data

Big Data Protection statt Big Data LossNeben der Verschlüsselung und der Integritätskontrolle ist es die Gewährleistung der Verfügbarkeit, die die Da-tensicherheit bei Big Data ausmacht. Spezielle Backup-Lösungen helfen dabei, große Datenverluste zu vermei-den.Nicht nur die Datenberge in Unternehmen wachsen beständig, auch die Datenverluste werden immer größer. So ist die Daten-verlustrate seit 2012 um 400 Prozent gestiegen. In nur einem Jahr haben Unternehmen in Deutschland durch Datenverluste ganze 33,6 Milliarden Euro verloren, so der EMC Data Protection In-dex. Rund Dreiviertel der befragten Unternehmen können nicht zuverlässig sagen, ob sie Daten nach einem Ausfall wiederher-stellen könnten.

Die Probleme mit Backup und Recovery werden durch Big Data nicht kleiner, im Gegenteil: 43 Prozent der befragten Unterneh-men in Deutschland haben noch keinen Disaster-Recovery-Plan für Big Data. 53 Prozent halten den Datenschutz und die Daten-sicherung bei Big Data für schwierig. Bei der Bedeutung, die Big Data für viele geschäftliche Bereiche erlangt, muss die Lücke bei der Verfügbarkeit von Big Data dringend geschlossen werden, sonst drohen noch massivere Datenverluste als bisher.

Der Mittelstand hat besonders Probleme bei BackupsWie eine Umfrage von NetApp ergab, ist sich nur ein Drittel der mittelständischen Unternehmen sicher, dass sie ihre Daten wie-

Zu den Hauptfragen,

die sich Unternehmen

bei Big Data stellen,

gehört die Frage nach

Backup und Recovery

in aller Regel dazu.

Bild

: Asi

gra

Page 12: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 12

derherstellen können. Zwei Drittel führen keine Tests im Bereich Recovery durch, bei zehn Prozent fehlen sogar grundlegende Backup-Prozesse. Gleichzeitig sehen 95 Prozent eine starke Ab-hängigkeit von der Verfügbarkeit ihrer Daten, 51 Prozent fürch-ten einen Stillstand ihrer Systeme bei Datenverlust. 47 Prozent der befragten Mittelständler machen (lediglich) täglich eine Voll-sicherung. Durch die Entwicklung hin zu immer größeren Daten-mengen und die hohe Dynamik in der Datenverarbeitung könnte dieses Zeitfenster bald jedoch unzureichend sein.

Big Data stellt hohe Anforderungen an Backup und Recovery

Welche Herausforderungen bei Backup und Recovery von Big Data bestehen, ergibt sich aus den Besonderheiten von Big-Da-ta-Verfahren: Bei Big Data werden große Mengen unterschied-licher Datenarten verarbeitet, wobei die Ergebnisse sehr schnell vorliegen sollen (Echtzeit-Anwendungen). Für eine Backup- und Recovery-Lösung bedeutet dies, dass sie sich durch hohe Flexi-bilität, hohe Speicherkapazität, hohe Skalierbarkeit und eine sehr schnelle Reaktionszeit auszeichnen muss. Die Frequenz der Da-tensicherungen muss deutlich höher liegen können als bei her-kömmlichen Backup-Szenarien.

Deshalb muss zum Beispiel der RTO-Wert (Recovery Time Ob-jective), also die Zeitspanne vom Schaden bis zur völligen Wie-derherstellung, deutlich besser sein als bei einer herkömmlichen Recovery-Lösung. Andernfalls sind die negativen Auswirkungen bei den Echtzeit-Anwendungen zu hoch. Der RPO-Wert (Reco-very Point Objective), also die Zeitspanne zwischen der letzten Datensicherung und dem Systemausfall, muss bei Big Data sehr klein sein, um die möglichen, großen Datenverluste vermeiden zu können.

Backup-Lösungsanbieter haben auf Big Data reagiert

Ein Blick auf den Markt für Backup- und Recovery-Lösungen zeigt, dass es bereits eine Reihe von Angeboten speziell für die Sicherung und Wiederherstellung großer Datenmengen gibt. HP StoreOnce Backup zum Beispiel bietet eine schnelle Sicherung und Wiederherstellung, eine flexible Erweiterbarkeit, eine zent-rale Administration auch für verteilte Daten sowie eine spezielle Ausfallsicherheit. Die Symantec NetBackup Platform nimmt sich ebenfalls der Besonderheiten von Big Data an, ist also laut An-bieter schnell, skalierbar und flexibel einsetzbar.

Page 13: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 13

Die Lösung von Sepaton (mittlerweile von Hitachi Data Systems übernommen) hat ebenso Big-Data-Umgebungen im Fokus und berücksichtigt das stetige Datenwachstum bei gleichzeitig immer kürzeren Backup-Zyklen. Laut Anbieter liegt die Backup-Perfor-mance bei bis zu 80 Terabyte pro Stunde. Die Wiederherstellung des letzten Backups soll in Minutenschnelle erfolgen.

Commvault Simpana

Simpana OnePass bietet Funktionen für Archivierung, Backup und Berichterstattung, eine zentrale Administration, verkürzt die Backup-Zeiten und unterstützt bei der Erfüllung von Com-pliance-Vorgaben. Der Simpana ContentStore bildet eine zentrale Stelle für die Sicherung und fristgerechte Löschung der Daten.

Die EMC-Isilon-Archivierungslösung für Big Data ist Teil des EMC-Isilon-Scale-out-Speichers und skaliert auf bis zu 20 Peta-byte für Datensicherungen auf Vier-Terabyte-Laufwerken. Neben der Skalierbarkeit ist es das einfache Speichermanagement und die Unterstützung von Compliance-Vorgaben, die diese Lösung zur Big-Data-Lösung machen. Für die Funktionen im Bereich Backup und Disaster Recovery steht die EMC Isilon SnapshotIQ- und SyncIQ-Software zur Verfügung.

Ein weiteres Beispiel ist die Cloudian Object Storage Software for Enterprise Backup. Die Lösung verspricht schnelle Backups, eine hohe Skalierbarkeit in den Bereich von mehreren Hundert Petabyte und eine automatische Behandlung von Hardware- und Netzwerkfehlern.

Fazit

Backup und Recovery für Big-Data-Umgebungen sind anspruchs-voll, aber durchaus technisch realisierbar. Der große Datenverlust kann nicht nur vermieden werden, er muss es auch. ■ Oliver Schonschek

Page 14: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 14

Haftungsrisiken

IT-Compliance ist mehr als DatenschutzSo wichtig das Thema Datenschutz auch ist: Es gibt weit-aus mehr gesetzliche Compliance-Vorgaben und Bran-chenstandards, die die Informationssicherheit betreffen. Angesichts der Haftungsrisiken sollten sich Führungs-kräfte dessen stets bewusst sein.

Die Zeiten, in denen der Datenschutz ein Schattendasein fristete, sind lange vorbei. Inzwischen sind die Schlagzeilen ebenso ge-füllt mit Themen rund um den Datenschutz wie die politischen Diskussionen und die IT-Sicherheitskonferenzen.

Laut dem aktuellem eco Report „IT Sicherheit 2015“ sehen 88 Prozent der befragten Sicherheitsexperten den „Datenschutz“ als das wichtigste Sicherheitsthema für 2015 an. Es besteht kein Zweifel, dass noch zahlreiche Aufgaben zu bewältigen sind, da-mit die Mehrzahl der Unternehmen die Vorgaben des Datenschut-zes tatsächlich umgesetzt hat.

Es kommt nicht von ungefähr, dass die Tätigkeitsberichte der Aufsichtsbehörden für den Datenschutz regelmäßig Mängelbe-richte über den Datenschutz in Unternehmen enthalten. Aller-dings wäre es auch verfehlt, wenn sich die Geschäftsleitung eines Unternehmens ganz auf die Fragen des Datenschutzes konzent-riert, wenn es um die rechtlichen und vertraglichen Forderungen zur IT-Sicherheit geht.

IT-Sicherheit muss vielen Forderungen gerecht werdenOftmals ist sich das Management der Vielfalt der IT-Sicherheits-anforderungen und der damit verbundenen Risiken nicht bewusst

In Deutschland rücken

Cyberrisiken unter die

Top 10 Unternehmens­

risiken, wie das Allianz

Risk Barometer 2015

zeigt.

Bild

: A

llian

z G

lob

al C

orp

orat

e &

Sp

ecia

lty

Page 15: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 15

genug. Einer der Gründe dafür ist die mangelnde Kommunika-tion zwischen den IT-Sicherheitsverantwortlichen und den Ver-tretern der Geschäftsleitung, wie eine Ponemon-Studie deutlich gemacht hat.

Weitere Probleme bereitet die Komplexität der rechtlichen Vorga-ben für die IT-Sicherheit. Ein ganzes Bündel an Gesetzen, Ver-ordnungen, Richtlinien und vertraglichen Vereinbarungen kann zur sogenannten IT-Compliance gezählt werden, die erreicht wer-den muss. Fehlt ein Prozess zur Erreichung der IT-Compliance, ist der Prozess und der Status nicht ausreichend dokumentiert oder wird die IT-Compliance insgesamt nicht erreicht, kann dies spürbare Folgen haben.

Dies gilt insbesondere für die Geschäftsleitung, die sowohl beim Datenschutz als auch bei den anderen Compliance-Vorgaben als die verantwortliche Stelle betrachtet wird. Compliance-Verstöße können je nach rechtlichem Bereich zu Vertragsstrafen, Bußgel-dern und sogar zur persönlichen Haftung der Unternehmenslei-tung führen.

Compliance-Verstöße und Haftungsrisiken vermeiden

Jedes Unternehmen sollte für sich prüfen, welche rechtlichen An-forderungen hinsichtlich IT-Compliance für die eigene Branche und das eigene Unternehmen bestehen. Dabei sollte man auch die einzelvertraglichen Pflichten nicht vergessen, denn in Kun-denverträgen können ebenfalls konkrete Forderungen an die IT-Sicherheit zu finden sein.

Im Fall einer Auftragsdatenverarbeitung ist dies sogar Pflichtbe-standteil der Verträge. Zusätzliche Verpflichtungen ergeben sich aus internen IT-Sicherheitsrichtlinien und einzuhaltenden SLAs (Service Level Agreements).

Die Geschäftsleitung muss die IT-Compliance sehr ernst nehmen, um (teilweise persönliche) Konsequenzen zu vermeiden. Die Be-nennung eines Compliance-Beauftragten oder zum Beispiel ei-nes Datenschutzbeauftragten (DSB) entbindet das Management nicht von der eigenen Verantwortung.

Trotzdem ist die Beauftragung einer speziell zuständigen Person sehr sinnvoll, teilweise auch rechtlich gefordert. Hinzu kommt, dass die IT selbst ihren Beitrag leisten kann, um den Prozess und die Einhaltung der IT-Compliance besser in den Griff zu bekom-men.

Page 16: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 16

Compliance-Tools helfen bei der Übersicht und Dokumenta-tion

Eine Reihe von Speziallösungen können Unternehmen dabei un-terstützen, die jeweiligen IT-Risiken zu identifizieren und zu be-werten, Gegenmaßnahmen zu definieren und zu dokumentieren und den Umsetzungsstand mit verschiedenen Compliance-Vorga-ben abzugleichen.

Beispiele für solche Lösungen sind die IT-Sicherheitsdatenbank SAVe der INFODAS GmbH, DocSetMinder der GRC Partner GmbH, die Agiliance RiskVision Platform, die MetricStream Compliance Management Solution, verinice und die RSA Archer GRC Suite. Je nach Lösung sind bereits umfangreiche Compli-ance-Kataloge integriert, in aller Regel können auch eigene An-forderungen definiert oder importiert werden.

Ganz gleich, mit welcher Lösung oder Methode ein Unternehmen den Überblick zur IT-Compliance behält: das Risiko einer Haf-tung oder von Vertragsstrafen sollte keiner unbeantwortet lassen, weder im Datenschutz noch in einem anderen Bereich der IT-Compliance.

Ergänzendes zum Thema

Sicherheitsrelevante Compliance-Vorgaben

Die folgenden Beispiele für Compliance-Vorgaben mit Bezug zur IT-Sicherheit sind teilweise branchenabhängig und/oder Gegen-stand vertraglicher Vereinbarungen.

● Bundesdatenschutzgesetz (BDSG)

● Empfehlungen zur ärztlichen Schweigepflicht, Datenschutz und Datenverarbeitung in der Arztpraxis

● EU-Datenschutzgrundverordnung (Entwurf)

● Grundsätze zur ordnungsmäßigen Führung und Aufbewah-rung von Büchern, Aufzeichnungen und Unterlagen in elekt-ronischer Form sowie zum Datenzugriff (GoBD)

● HIPAA

● Interne IT-Sicherheitsrichtlinien (individuell)

● ISO/IEC 27001:2013

● IT-Grundschutz-Kataloge

● IT-Grundschutz-Standards

● IT-Sicherheitsgesetz (Kabinettsentwurf)

Page 17: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 17

● Landesdatenschutzgesetze

● Mindestanforderungen an das Risikomanagement – MaRisk

● Payment Card Industry Data Security Standard

● Richtlinie für Netzwerk- und Informationssicherheit (NIS) (Entwurf)

● Sarbanes-Oxley Act

● Service Level Agreements (SLA, individuell)

● Telekommunikationsgesetz (TKG)

● Telemediengesetz (TMG)

■ Oliver Schonschek

Mehr zum Thema Security finden Sie auf www.security-insider.de

Technology-Update für IT-Manager

CIOBRIEFING

Page 18: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 18

Die erste echte Hybrid-Cloud, jubeln die Partner

Das DARZ als Hyperscale- Multi-Cloud-BrokerDas Darmstädter Rechenzentrum, kurz DARZ, Netapp und Helpium sind die Partner, die für Kunden ein Com-pute-Sourcing in multiple Hyperscale-Clouds ermögli-chen. Die eigene IT, mit privater Cloud und den Dimensi-onen von AWS, Azure und Softlayer verheiraten, soll nun möglich sein – mit „Netapp Private Storage as a Service“ beim DARZ als Grundlage. Helpium ist der erste Kunde.

Nein, eigentlich ist Helpium kein Netapp-Kunde. Das Startup, das im November 2014 online ging, ist ein Cloud-Native und will keine IT im Haus. Und eigentlich ist die Storage-Infrastruktur egal. Das Unternehmen vermittelt Privat-Kunden und kleinen Unternehmen, die ohne IT-Service-Verträge auskommen wollen, Support für ihre Alltagsprobleme.

Dafür vermittelt Helpium unabhängige Experten, die sich auf der von dem Unternehmen entwickelten Internet-Plattform registrie-ren, mit Hilfesuchenden. Falls ein Problem den Zugriff auf den Computer des Anwenders erfordert, lassen sich die Computer des Experten und des Hilfesuchenden mithilfe einer eigens von Hel-pium entwickelten Software verbinden.

Klar, dass sobald sich die Spezialisten über die Plattform auf die Computer ihrer Kunden einloggen, hochsensible Kundendaten übertragen und gespeichert werden. Helpium zeichnet etwa die Sreenshots auf, um nachvollziehen zu können, dass tatsächlich Hil-fe geleistet und kein Unfug betrieben wurde. Für die Vermittlung kassiert das Unternehmen 20 Prozent der erfolgten Dienstleistung.

Hier soll die erste

richtige Hybrid Cloud

wohnen – im DARZ.

Bild

: DA

RZ

Page 19: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 19

Die Anforderungen des Kunden an eine hybride Infra-struktur

Ein Public-Cloud-Angebot kommt für Holger Kärcher, den Grün-der und Geschäftsführer von Helpium, nicht in Frage. Er braucht den Schutz und die Sicherheit einer Private Cloud, beziehungs-weise das Hosting seiner Server auf dedizierten Kapazitäten in einem deutschen Rechenzentrum. Denn selbst wenn etwa US-Unternehmen hierzulande eigene Rechenzentrumsinfrastruktu-ren aufbauten oder mieteten, unterlägen sie dem Patriot Act, der sie gegebenenfalls zur Weitergabe von Kundeninformationen an die US-Behörden verpflichte, macht Sebastian Zilch aufmerk-sam, Initiator von „Freunde der Cloud“ und zwischen 2012-2015 als Head of Business Development maßgeblich für die Konzepti-on und Entwicklung des Marktplatzes der Deutsche Börse Cloud Exchange zuständig.

Das DARZ wiederum liefert Shared und Dedicated Hybrid-Cloud-Services und war unter anderem mit Netapp Teilnehmer des internationalen Early Adopter Programm dieses Marktplat-zes, für das Zilch verantwortlich war. Er berät derzeit das DARZ bei der Konzeption und Umsetzung von Netapp Private Storage as a Service. Das „Feature-Set“ dieses Angebots, wie Helpium-Chef Kärcher es nennt, sei für ihn ausschlaggebend gewesen, um das DARZ als Geschäftspartner zu wählen.

Netapp Private Storage as a Service erlaubt Kunden eine hybride-Storage-Architektur und damit eine simultane Nutzung von siche-rem (Private) Enterprise Storage und Public-Cloud-Ressourcen. Dank einheitlicher Schnittstellen können versierte Anwender das Netapp-Management-Tool nutzen, um übergreifend on- und off-premise ein Storage-Tiering zur betreiben, um beispielsweise verschiedene Sicherheitsstufen einzuziehen oder für bestimmte Bereiche All-Flash-Umgebungen zu nutzen. DARZ bietet seinen Kunden aber auch einen Vollservice an, der sie von der Einarbei-tung ins Netapp-Tuning entbindet.

Das DARZ und Netapp

Zu den DARZ-Angeboten gehört somit ein Self Managed Service mit Netapp Private Storage as a Service: Das Unternehmen stellt dafür in seinem Rechenzentrum Racks für das unternehmensei-gene Storage-System zur Verfügung. Außerdem kümmert sich der Datacenter-Betreiber um die Anbindung an alle Cloud-Provi-der, die der Kunde wünscht.

Page 20: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 20

Lars Göbel, Leiter Vertrieb und IT Services bei der DARZ GmbH, erläutert: „Bisher war es ein Qua-litätskriterium für Co-Locator, wenn sie Carrier-neutral waren, also viele Anbindungen an ver-schiedene Kommunikations- be-ziehungsweise Internet-Provider bieten konnten. Wir bieten neut-ral den Zugang zu verschiedenen Cloud-Providern.“

Beim Self Managed Service übernehmen die Kunden selbst den Betrieb und die Verwaltung sämtlicher Ressourcen sowie der Storage-Systeme.

Daneben gibt es die Möglichkeit zum Managed Netapp Private Storage as a Service. Je nach Wunsch beziehen die Kunden von DARZ ein dediziertes oder shared Storage-System. Während der Dienstleister dabei die Anbindung an alle am Standort Frankfurt verfügbaren Hyperscaler übernimmt, kümmern sie sich um Kon-figuration und Betrieb des Storage-Systems und den Bezug der Ressourcen bei den Hyperscalern.

Unendliche Skalierbarkeit

Die dritte Möglichkeit ist ein Full Service. Hierbei erhalten die Kunden den kompletten Service aus einer Hand. Auf Wunsch kümmern sich DARZ-Mitarbeiter um die Bereitstellung der benö-tigten Ressourcen von den Hyperscalern. Dies schließt auch den Abrechnungsprozess der Drittanbieter ein, so dass der Dienst-leister als alleiniger Lieferant des Services agiert, als einziger Kontaktpunkt in allen Belangen der Hybrid-Cloud.

Darüber hinaus lässt sich Netapp Private Storage as a Service auch in bestehende Co-Location- und Private- sowie Shared-Cloud-Lösungen integrieren. Zudem ist die Migration auf ein de-diziertes oder Shared Netapp Storage-System möglich. Für Back-up-Szenarien bietet DARZ beispielsweise die Unterbringung der Storage-Systeme in einem anderen Brandabschnitt oder Partner-rechenzentrum in Frankfurt an, etwa bei euNetworks, Global Switch und Equinix. Frankfurt ist etwa 30 Kilometer entfernt und DARZ besitzt eine eigene Glasfaserleitung zu dem dortigen Hochgeschwindigkeitsring.

Lars Göbel, Leiter Ver­

trieb und IT­Services

beim DARZ, befasst sich

seit mehr als einem Jahr­

zehnt mit IT­ Services und

Cloud. Der Wirtschaftsin­

formatiker begann seine

berufliche Laufbahn bei

einem IT­Dienstleister

aus dem Bankenumfeld,

bevor er als IT­Projekt­

Manager & Consultant die

erste VMware basierte

Public­Cloud­Infrastruktur

Deutschlands aufbaute,

weiterentwickelte und ver­

marktete. Bild

: DA

RZ

Page 21: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 21

Doch zu einer „echten Hybrid Cloud“ wird das DARZ–Spekt-rum erst durch die Direct-Connect-Partnerschaften mit den so genannten Hyperscalern, wie AWS, Softlayer und VMware. So können Kunden beispielsweise für eine Datenverteilung über mehrere Standorte auf die Schnittstellen-Anbindung S3 as a Ser-vice zugreifen. Das gilt auch dann, wenn die Lösung global sein soll.

Die Public-Cloud-Geißel

DARZ-Vertriebsleiter Göbel er-läutert: „Wie sprechen mit den Kunden darüber, welchen Hyper-scaler sie bevorzugen. Denn tat-sächlich unterscheiden sich die Angebote von AWS, Azure, Soft-layer … stark voneinander. Die Vergleichbarkeit aber Restriktio-nen und die tatsächlichen Kosten sind für die Kunden oftmals völ-lig intransparent.“ Zudem seien in den Angeboten Computing-Power und Storage nicht vonein-ander getrennt, so dass nur kom-plette Pakete eingekauft werden könnten.

Berater Zilch bezeichnet die Kunden von Hyperscalern gar als „gegeißelt“; wenn einmal die eigene IT und die Daten mit einem der Angebote verknüpft seien, bekämen die Kunden ihre Daten aus der jeweiligen Cloud einfach nicht mehr hinaus. Peter Wüst, Director Cloud & Allian-ces CEMA bei Netapp, erläutert das wie folgt: „Die Partnerschaft mit DARZ ist ein echter Gewinn für unsere Kunden. Diese be-ziehen nun alle Leistungen zum Aufbau und Betrieb einer hyb-riden Cloud-Infrastruktur aus einer Hand. Gleichzeitig behalten unsere Kunden weiterhin die volle Kontrolle über ihre Daten,

Peter Wüst ist Director

Cloud & Alliances CEMA

bei Netapp für die Regionen

Deutschland, Österreich,

Schweiz, Osteuropa, Russ­

land und die GUS sowie den

Mittleren Osten und Afrika:

„Aus unserer Sicht entwi­

ckelt sich die hybride Cloud

zum führenden Ansatz für

die IT­Leistungserbringung.

Wer unternehmenskritische

Daten außerhalb der Fir­

mengrenzen nutzt, benötigt

jedoch eine angepasste

Strategie für das Daten­

Management.“Bild

: Net

app

Anfang 2001 gründe­

te Sebastian Zilch sein

eigenes Start­up, erwarb

2004 in Frankfurt am Main

den Abschluss zum Dipl.

Informatik­Betriebswirt

(VWA) und arbeite­

te anschließend unter

anderem bei McKinsey &

Company und Siemens

Global Procurement

Services.

Bild

: Zilc

h

Page 22: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 22

können diese also beliebig zwischen den Cloud-Plattformen und ihrer On-Premise-Umgebung hin- und herschieben.“

Die Partner räumen jedoch auch ein, dass es noch zu den abso-luten Ausnahmen gehört, die Hyperscale-Anbieter schneller als die Unterwäsche zu wechseln. Im Prinzip wäre das mit einem Angebotsmodell a la DARZ möglich; Kunden könnten etwa Ta-gespreise ausnutzen oder für einzelne Aufgaben andere Ressour-cen dazu schalten. Zilch sagt: „ Heute gehört das noch nicht zum Tagesgeschäft eines IT-Einkäufers. Doch die Aufgaben und die Position der Einkäufer wird sich schon in den kommenden drei Jahren ändern.“

Schutz und Kontrolle trotz Flexibilität

Dem Anwender Helpium ist zu diesem Zeitpunkt wichtig, dass der Vertragspartner DARZ die Anforderungen an Sicherheit, Fle-xibilität und Skalierbarkeit erfüllt, die der Umgang mit sensiblen Daten erfordert, bestätigt Helium-Chef Kärcher, und das trotz ei-nes Shared-Hybrid-Cloud-Modells, allerdings mit den Qualitäts-klassen eines dedizierten Enterprise-Storage-Systems und ska-lierbarer Rechenleistung.

Das DARZ wurde im August des vergangenen Jahres eröffnet, Baukosten rund 35 Millionen Euro. Das Rechenzentrum befindet sich im ehemaligen Tresorgebäude der Hessischen Landeszentral-bank und kann damit vermutlich als das sicherstes Datacenter in Deutschland gelten – „mit Panzerglas, Auffahrschutzrampe und allem Pi-Pa-Po“, so Göbel. Das Rechenzentrum in Darmstadt hat die höchste Sicherheitsstufe, die derzeit nur vergleichbar ist mit Hochsicherheitsrechenzentren wie in der Schweiz.

Derzeit befinden sich 150 Racks auf 2.400 Quadratmetern IT-Fläche, die etwa 1.000 Server-Schränke fassen würde. „Bei ei-nem Füllstand von 75 Prozent“, so DARZ-Vertriebsmann Göbel, „würden wir ein zweites Rechenzentrum bauen.“

Neben dem Angebot einer Hybrid-Storage-Architektur, das eine simultane Nutzung von Private Enterprise Storage und Public-Cloud-Ressourcen erlaubt, offeriert das DARZ auch Co-Location und bietet dem Marktplatz Deutsche Börse Cloud Exchange eine Heimat. Während hier die Public-Cloud-Infrastruktur aus einem Fujitsu-Paket aus Hardware („Eternus CD10000“) und Software besteht, das sich mithilfe der Open-Source-Software „Ceph“ zen-tral managen lässt (siehe auch Kasten in Artikel „Stickstoff im Tresor,Maßgeschneiderter Brandschutz für Hochsicherheits-Re-

Page 23: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 23

chenzentrum“ , ist die Grundlage für das Hybrid-Modell Netapp Private Storage as a Service. Realisiert wurde das Projekt in gut fünf Monaten.

Cloud-Brokerage

Nutzen Kunden dieses DARZ-Angebot, wird der Dienstleister quasi zum Cloud-Broker. Die Kunden können anders als bislang gleichzeitig an verschiedene Anbieter angebunden sein. Denn bisherige Lösungen bestehen nur aus verschiedenen Private- und Public-Cloud-Angeboten, die einem die Nutzung der einen oder anderen Welt ermöglicht, aber nicht simultan. Darüber hinaus be-rücksichtigen aktuelle Markt-Angebote nicht den möglichen Co-Location-Anteil eines Unternehmens.

Trotzdem sind die Services schnell, manchmal schneller als di-rekt beim Hyperscaler. „Unser Storage-System“, erläutert FARZ-Mann Göbel, antwortet unter 0,1 Millisekunden. Bei AWS direkt ist keine Antwort unter 0,2 Millisekunden möglich. Die Round-Trip-Zeit beläuft sich auf 0,4 Millisekunden. Die Abrechnung er-folgt nutzungs- und leistungsabhängig.

Trotz der Verknüpfung mit verschiedenen Public-Cloud-Anbie-tern befinden sich alle Daten in einem ausschließlich vom Kun-den kontrollierten Bereich. Außerdem unterliegt das DARZ dem deutschen Datenschutz. Im Unterschied zu Anbietern mit Haupt-sitz in den USA greift für das DARZ daher auch kein Patriot Act. ■ Ulrike Ostler

Page 24: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 24

QoSMOS-Partner forschen weiter an Zukunft des Mobilfunks

Vermietete Spektren und neue Modulationen sollen 5G antreibenNaturgemäß soll der kommende Mobilfunkstandard 5G deutlich leistungsfähiger werden als der Vorgänger LTE. Ermöglichen könnten das kurzfristig vermietete Spekt-ren und neue Modulationsverfahren.

Etwas verspätet wirkte es schon, als die Europäische Union Ende Mai eine Mitteilung zum bereits 2013 abgeschlossenen Projekt QoSMOS herausgab. Dabei haben die Akteure des „Quality of Ser-vice and MObility driven cognitive radio Systems“ nicht nur einen Grundstein für die kommende Mobilfunkgeneration 5G gelegt, sondern arbeiten noch immer an einem praktikablen Standard.

Hintergrund: QoSMOS

Das Anliegen des QoSMOS-Projekts klingt vertraut: Begrenzte Funkspektren sollen effizienter genutzt werden, um auf wachsen-de Datenmengen und einem zunehmenden Preisdruck reagieren zu können. Die EU hat das Unterfangen mit 9,4 Millionen Euro aus dem 7. Rahmenprogramm gefördert. Am QoSMOS-Konsor-tium beteiligten sich 15 – fast ausschließlich europäische – For-schungseinrichtungen und Unternehmenspartner. Koordiniert wurde das Projekt von British Telecommunications (BT).

Bandbreite ist nicht

alles. Das 5G Lab

untersucht auch

An wendungen, bei

denen es auf geringe

Latenzen ankommt.

Bild

: D

. Öhm

ann,

5G

Lab

Ger

man

yTECHNOLOGIE & ZUKUNFT

nicht löschen wird für das automatische Inhaltsverzeichnis benötigt!

Page 25: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 25

Projektkoordinator Michael Fitch von BT erklärte: „Das Ziel ist es, isoliert genutzte Bereiche abzubauen [...] Jeder neue Dienst und jede neue Technologie benötigt einen neuen Frequenzbereich, und wenn viele verschiedene Geräte jeweils über ihren eigenen Bereich verfügen, entstehen solche isoliert genutzten Bereiche.“

Vision vom Mikro-Handel mit Frequenzbereichen

Diese Bereiche sollen künftig deutlich flexibler als bisher genutzt werden. Das könne sogar soweit gehen, dass Besitzer von Fre-quenzbereichen diese Spektrumressourcen für kurze Zeiträume an andere Teilnehmer vermieten.

Hierfür hat QoSMOS folgende technische Grundlagen entwi-ckelt:● einen zentralen Manager, der das „Portfolio“ des Spektrums

einer Region oder eines Landes in Echtzeit steuert,● eine Ressourcenverwaltung, die das Spektrum einzelnen Sys-

temen zuweist und die Umgebung überprüft,● ein Terminal für kognitiven Funk.

Zudem ist dem Projekt der Prototyp eines Sende-Empfängers entsprungen, der FBMC-Wellenformen (Filter Bank Multicarrier) erzeugt. Begründung: FMBC teile das Spektrum so in rechtecki-ge Blöcke ein, dass es dicht gepackt ist und effizienter genutzt werden könne. Damit sei das Verfahren der aktuell weit verbrei-teten, und für LTE-Netze verwendeten OFDM-Technologie (Or-thogonal Frequency Division Multiplexing) überlegen und werde diese ersetzen.

Ausgangspunkt für weitere Forschungen

Das französische Commissariat à l’Energie Atomique führt ak-tuell die Entwicklung des FBMC-Sende-Empfängers weiter. Zudem prognostiziert die oben erwähnte Mitteilung: „Mehrere Konsortiumsmitglieder werden die Technologie für das Spekt-rummanagement wahrscheinlich vermarkten. Darüber hinaus ist die britische Behörde Ofcom laut Fitch bereit, die TV-White Spaces ab 2015 zu kommerzialisieren.“

Lage in Deutschland

Die Bundesnetzagentur (BNetzA) bremst die vollmundigen An-kündigungen derweil etwas aus. Bevor für Mobilfunk in Frage kommende Spektren für eine parallele Nutzung durch mehrere

Page 26: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 26

Teilnehmer freigegeben und lizenziert werden könnten, müsste die Internationale Fernmeldeunion (ITU) zunächst einmal den Frequenznutzungsplan für die Region 1 anpassen – und davon hat die BNetzA bislang keine Kenntnis.

Auch das als OFDM-Nachfolger gesetzte Modulationsverfah-ren FMBC ist keineswegs ohne Konkurrenz. QoSMOS-Partner Alcatel-Lucent präsentierte kürzlich etwa die Wellenform Uni-versal Filter Orthagonal Frequency Division Multiplexing (UF-OFDM) als „führende[n] Anwärter für die Standardisierung“ von 5G-Netzen. Die Funkwellenform sei ideal für die Kombination von Datenverkehr von Smartphones und dem hohen Volumen von Daten, die von Sensoren erzeugt werden.

Am Potenzial der Luftschnittstelle wollen die zu Alcatel-Lucent gehörenden Bell Labs künftig mit dem 5G Lab Germany for-schen, das an der TU Dresden angesiedelt ist. Die TU-Dresden war übrigens ebenfalls am QoSMOS-Projekt beteiligt und koor-diniert ein Mobilfunk-Testbed im Rahmen des CREW-Projekts.

Steffen Watzek, Programm-Manager am Vodafone Stiftungs-lehrstuhl Mobile Nachrichtensysteme der TU Dresden, gibt zu bedenken: „Funksysteme der Zukunft müssen flexibel sein, um unterschiedlichste Übertragungssituationen zu erfüllen.“ Watzek skizziert dabei folgende drei Szenarien:● Mobile Breitbandkommunikation mit sehr hohem Datendurch-

satz, beispielsweise für HD-Video;● M2M-Kommunikation mit kurzen Datenpaketen und sehr vie-

len Teilnehmern, etwa für autonome Verkehrsmittel;● Echtzeit-Anwendungen (Taktiles Internet) mit geringen Laten-

zen, etwa für telemedizinische Einsatzgebiete.

Pro und Kontra einzelner Modulationsverfahren

Gerade für die zuletzt genannten Anwendungen dürfte FBMC kaum die erste Wahl darstellen. Watzek erklärt: „FBMC (Filter-bank Based Multi Carrier) wendet einen Pulsformungsfilter auf jeden einzelnen Unterträger an. Die Außerbandstrahlung wird dadurch erheblich reduziert. Je nach Wahl des Filters, verlän-gert sich die zeitliche Länge eines Datenpaketes. Um eine mög-lichst niedrige Außerbandstrahlung zu erreichen, muss das Filter zeitlich sehr lang ein- und ausschwingen. Scharfe Filterflanken und ein Abstand von mindestens einem Unterträger zwischen verschiedenen Nutzern erlauben nicht-synchronisierte Übertra-gungen zwischen mehreren Teilnehmern. FBMC eignet sich für

Page 27: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 27

Mobile Breitband Kommunikation, da lange, kontinuierliche Da-tenströme zu erwarten sind. Latenzkritische oder Datenübertra-gungen mit kurzen Paketen werden durch die Filter verlangsamt. FBMC ist nicht kompatibel zu OFDM basierenden Systemen, denn die Daten werden ohne zyklisches Präfix, Streaming-artig übermittelt.“

Bei UF-OFDM/UFMC (Universal-Filtered Multi-Carrier) werde ein Pulsformungsfilter derweil auf mehrere Unterträger angewen-det. Die – verglichen zu FBMC – höhere Filterbandbreite führe zu kürzeren Auf- und Abschwingzeiten. Damit ließen sich auch kürzere Datenpaketen effizient übertragen. Um zeitliche Über-schneidungen zu vermeiden, müsse allerdings Synchronisation zwischen mehreren Teilnehmern beachtet werden. Ähnlich wie bei FBMC werde kein zyklisches Präfix verwendet.

Möglicher Mittelweg

GFDM (Generalized Frequency Domain Multiplexing) bildet laut Watzek einen Mittelweg zwischen OFDM und FBMC. Jeder Unterträger wird gefiltert, um die Außerbandstrahlung zu redu-zieren, das zyklische Präfix werde allerdings beibehalten. Je nach Wahl des Pulsformungsfilters und anderer Parameter könne eine OFDM oder FBMC-kompatible Wellenform erzeugt werden. ■ Dirk Srocke

Page 28: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 28

Hybride IT-Infrastrukturen

Die Hybrid Cloud ist zum Normalfall geworden„Hybride Infrastrukturen“ legen gerade einen rasanten Siegeszug hin, wie Zahlen aus diesem und dem vergan-genen Jahr belegen.

Noch vor kurzer Zeit galt die Private Cloud als State-of-the-Art in Unternehmen. Mittlerweile haben diese jedoch ihre Fühler ausgestreckt und der Hybrid Cloud zum Siegeszug verholfen. Das belegen aktuelle Zahlen von IDG Connect. Befragte wur-den 625 IT-Entscheider in mittelständischen und großen europäi-schen Unternehmen zu ihrer aktuellen IT-Umgebung sowie ihren mittel- bis langfristigen Infrastrukturplänen.Die Zahlen sind sogar so überzeugend, dass die Marktforscher nicht mehr von einer „Hybrid Cloud“ sondern von einer „Hybrid IT“ beziehungsweise „Hybrid Infrastructure“ spricht – wiewohl zwischen beiden ein kleiner, aber feiner Unterschied existiert: Eine Hybride IT setzt nicht zwingend eine Private Cloud voraus.

Die im März vorgelegten Zahlen belegen, dass die Hybrid IT sowohl heute als auch in der mittel- bis langfristigen Zukunft die bevorzugte Strategie darstellen. 45 Prozent der europäischen Unternehmen nutzen bereits hybride IT-Lösungen, die Daten aus verschiedenen Quellen wie On-Premise-Rechenzentren sowie ausgelagerten Public und Private Clouds verarbeiten. In Deutsch-land sind es 58 Prozent. So setzen deutsche Firmen heute bereits hybride Konzepte intensiver ein als der europäische Durchschnitt.

Immer mehr Unter­

nehmen beziehen

Teile ihrer IT aus der

Hybrid Cloud, wie

aktuelle Zahlen zeigen.

Bild

: ©

blu

ebay

2014

- F

otol

ia.c

om

Page 29: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 29

Auch im kommenden Jahr werden Unternehmen hierzulande die-sen Vorsprung noch deutlich ausbauen. 98 Prozent (!) der deut-schen Unternehmen schätzen, dass sie 2016 hybride IT-Lösungen nutzen werden, im europäischen Durchschnitt sind es 80 Prozent.

Akzeptanz von Private und Public Clouds

Die Hälfte der europäischen und 58 Prozent der deutschen Unter-nehmen verwenden Private-Cloud-Umgebungen. Public Cloud-Services haben sich europaweit bei den Befragten mit 38 Prozent, in Deutschland mit 55 Prozent durchgesetzt. 51 Prozent der Stu-dienteilnehmer in Europa erwarten, dass sie innerhalb der nächs-ten fünf Jahre mehr Workloads in die Public Cloud verschieben. Dennoch bleiben eigene Rechenzentren für 44 Prozent weiterhin eine sehr wichtige Komponente bei geschäftskritischen, sensib-len Daten, unabhängig davon, ob diese intern oder von einem Service-Provider verwaltet werden.

Treiber für die Datenmigration in die Cloud

Die Studie zeigt auch, dass eine hohe Konnektivität zwischen den verschiedenen Quellen ein Treiber für die weitere Migration der Daten in die Cloud ist. Die wichtigsten Hürden für die Cloud-Nutzung bilden Zweifel bei Sicherheit (53 Prozent) und Netzwerk-Performance (47 Prozent). In Deutschland besitzt die Hälfte der Befragten Sicherheitsbedenken gegenüber dem Cloud-Modell, 42 Prozent halten die Umsetzung von Datenschutz- und Corporate Governance-Regeln in der Cloud für schwierig. An dritter Stelle nannten die Unternehmen die Netzwerkleistung als Barriere für den Cloud-Einstieg (32 Prozent).

Gäbe es keine Netzwerkprobleme, würden 89 Prozent der befrag-ten Unternehmen in Deutschland Workloads in die Cloud verla-gern, im europäischen Durchschnitt wären dies nur 77 Prozent. In diesem Fall würden sich die Workloads in der Cloud von heute 25 auf 42 Prozent erhöhen. Bereits jetzt möchten 41 Prozent der Stu-dienteilnehmer das Internet für Unternehmenslösungen umgehen und sich über eine WAN-Verbindung oder Direktverbindungslö-sung (Direct Connect) mit der Cloud vernetzen. In Deutschland liegt hier die Rate mit 36 Prozent etwas niedriger.

Wie rasant der Siegeszug der Hybrid Infrastructure verläuft, lässt sich anhand von Zahlen für das vergangene Jahr von IDC able-sen. Auch das Analystenhaus fand heraus, dass deutsche Unter-nehmen in den kommenden 24 Monaten die Verknüpfung ihrer bestehenden IT-Umgebung mit Cloud Services planen.

Page 30: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 30

Vielfältige Herausforderungen

Ziel der im August 2014 durchgeführten Befragung unter 200 IT-Entscheidern aus Unternehmen in Deutschland mit mindes-tens 100 Mitarbeitern war es, die aktuellen Trends und Pläne hin-sichtlich Aufbau und Nutzung von hybriden Cloud-Umgebungen zu ermitteln. Im Mittelpunkt der Studie stehen die Motive und die Lösung der vielfältigen Herausforderungen beim Aufbau von hybriden Cloud-Umgebungen. IDC versteht unter Hybrid Clouds die Verknüpfung der unternehmenseigenen, herkömmlichen IT-Umgebung mit Private, Hosted oder Public Cloud Services.

Nach Angaben der IT-Entscheider nutzte oder implementierte im vergangenen Jahr fast die Hälfte (45 Prozent) der deutschen Unternehmen Cloud Services, weitere 36 Prozent befanden sich in der Planungsphase. Und klar: Private Cloud-Umgebungen wa-ren 2014 mit 66 Prozent noch die mit Abstand bevorzugte Cloud-Variante. Aber auch schon da braute sich hybrides zusammen:, 35 Prozent nutzen 2014 bereits eine Hosted Private Cloud oder bezogen Lösungen aus der Public Cloud (24 Prozent). Aber erst 15 Prozent der befragten IT-Entscheider gaben zu Protokoll, eine oder mehrere dieser Cloud-Services auch mit ihrer herkömmli-chen IT-Umgebung zu einer Hybrid Cloud verknüpft zu haben.

Bedarf nach hybriden Cloud-Umgebungen steigt

IDC sagte bereits im vergangenen Jahr voraus, dass der Bedarf nach hybriden Cloud-Umgebungen zunehmend steigen wird, denn die befragten Organisationen planen die verstärkte Nutzung von Hosted Clouds (39 Prozent) und Public Clouds (32 Prozent). Diese Cloud Services sollten mit der herkömmlichen IT-Land-schaft integriert werden, ganz wie nun von der Studie von IDG Connect bestätigt. Die IDC-Befragung vom vergangenen Jahr sagte zudem richtig voraus, dass mehr als die Hälfte (54 Prozent) der IT-Entscheider – und hier vor allem aus mittelständischen Unternehmen - in den kommenden 12 bis 24 Monate den Aufbau hybrider Cloud-Umgebungen plant. ■ Dr. Dietmar Müller

Page 31: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 31

Apache Giraph für Hadoop und HDInsight

So setzen Sie Graphen in Big-Data-Umgebungen einApache Giraph ermöglicht die Verarbeitung von Graphen in Hadoop und damit auch in Microsoft Azure HDInsight. Graphen stellen Beziehungen zwischen zwei Objekten dar, zum Beispiel Beziehungen in sozialen Netzwerken, aber auch Routen in Netzwerken. Aus diesem Grund ist die Verarbeitung solcher Daten in Big-Data-Umgebun-gen besonders interessant.

Wer sich mit Big Data bereits etwas auseinandergesetzt hat und Lösungen in diesem Bereich produktiv einsetzt, kann die Umge-bung mit zusätzlichen Möglichkeiten zur Datenauswertung er-weitern. Auch hier steht eine Vielzahl an Open-Source-Produk-ten zur Verfügung, zum Beispiel Apache Giraph. Das Apache-Top-Level-Produkt eignet sich vor allem für Big-Data-Umgebungen, in denen soziale Beziehungen und Netzwerke ana-lysiert werden müssen. Entwickelt wurde die Umgebung ur-sprünglich auf Basis von Java.

Grundlage von Apache Giraph ist ein Hadoop-Cluster. Da es sich bei Giraph um eine Erweiterung des MapReduce-Algorithmus handelt, werden auch die Giraph-Jobs auf die einzelnen Knoten im Cluster verteilt. Die zu verarbeitenden Daten sind also im be-reits installierten Hadoop-Cluster vorhanden und werden zusam-men mit Hadoop verarbeitet.

Apache Giraph bietet

Datenverarbeitung mit

Vertices, Edges und

Supersteps.

Bild: The Apache Software Foundation

Page 32: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 32

Optimale und effiziente Analyse

Giraph verbessert die Analyse von verbundenen Strukturen und von sozialen Graphen und ist daher eine ideale Ergänzung, will man in der Big-Data-Lösung auch Daten aus sozialen Netzwer-ken analysieren. Das ist auch einer der Gründe warum Facebook, PayPal, Twitter, Yahoo und auch LinkedIn auf Giraph setzen.Die Lösung kann extrem große Datenmengen effizient und schnell verarbeiten und über Hadoop zur Verfügung stellen. In einem Blogbeitrag informiert Facebook, dass mit Giraph Milliar-den von Beziehungen in wenigen Minuten analysiert werden kön-nen. Auch Universitäten wie die TU Berlin arbeiten seit Jahren mit den Möglichkeiten von Giraph. Neben Hadoop unterstützt Giraph auch Apache Accumulo, Apache HBase, Apache Hive und Cloudera Impala.

Unterstützung für Cluster und Mehrkern-ProzessorenGiraph orientiert sich an den Möglichkeiten von Bulk Synchro-nous Parallel (BSP) und Google Pregel (PDF). Vorteil gegenüber diesen Lösungen ist aber der offene Quellcode, die Kompatibili-tät mit Hadoop und die höhere Verfügbarkeit, da es keinen Single Point of Failure gibt. Die aktuelle Version arbeitet effizient be-züglich der Speichernutzung und bietet byteweise Serialisierung. Das Produkt ist zudem Cluster-fähig. Das heißt, Unternehmen können Giraph auch auf Clustern mit tausenden Knoten betrei-ben. In den meisten Fällen wird das Produkt parallel zu Hadoop eingesetzt, aber erst dann, wenn die Verarbeitung der Daten über Hadoop nicht mehr ausreicht.Zur besseren Berechnung lassen sich mit Giraph auch Mehrkern-Prozessoren ansprechen und dadurch die Berechnungen deutlich beschleunigen. Berücksichtigen lassen sich neben gewichteten und ungewichteten Graphen auch gerichtete und ungerichtete Graphen sowie sogenannte Multigraphen.Giraph unterstützt auch YARN. Einfach ausgedrückt handelt es sich dabei um eine Cluster-Verwaltungs-Technologie für Hadoop. YARN stellt sozusagen den Ressourcen-Manager dar. Viele Big-Data-Profis bezeichnen YARN auch als „MapReduce 2“.YARN schreibt das Ressourcenmanagement und die Zeitpla-nungsfunktionen um und entkoppelt MapReduce von der Da-tenverarbeitungskomponente. Dadurch kann Hadoop mehr Be-arbeitungsansätze und eine breitere Palette von Anwendungen unterstützen. Wer sich in Giraph einarbeiten will, sollten sich die Einarbeitungsseite des Projektes genauer ansehen.

Page 33: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 33

Bessere Analyse von Netzwerken und WebseitenMithilfe von Graphen und Giraph ist es also möglich, potenzielle Beziehungen in sozialen Netzwerken zu ermitteln oder in großen Netzwerken das Routing zu verbessern, vor allem wenn zahlrei-che Hops genutzt werden. Auch Website-Rankings lassen sich mit Graphen besser analysieren.Um Giraph zu testen, können Entwickler zum Beispiel auch HDIn-sight in Microsoft Azure testen. Microsoft stellt ein Skript zur Ver-fügung, mit dem sich Giraph in einen HDInsight-Cluster integ-rieren lässt, auch in einer Testversion von Microsoft Azure. Eine ausführlichere Anleitung dazu ist in der Azure-Hilfe zu finden.Durch die enorme Erweiterung von Big-Data-Funktionen in Mi-crosoft Azure lässt sich auch Giraph künftig wesentlich besser in HDInsight nutzen. Azure Data Lake erlaubt in Zukunft zum Beispiel die Speicherung beliebiger Daten in sehr hoher Menge direkt in der Cloud. Microsoft verspricht eine nahezu unbegrenz-te Datenspeicherung. Hier hat Microsoft auch ganz klar Big-Da-ta-Szenarien im Hinterkopf, denn Data Lake ist kompatibel zum Hadoop File System (HDFS) und lässt sich daher optimal mit Hadoop und der Microsoft-Lösung HDInsight nutzen.In diesem Zusammenhang wird auch die Weiterverarbeitung mit Giraph in HDInsight interessant. Um die Authentifizierung der Daten sicherzustellen, unterstützt Azure Data Lake auch die An-bindung an Azure Active Directory. Das ist vor allem bei der Ana-lyse von Daten in sozialen Medien enorm wichtig. Die Daten wer-den zentral in Azure Data Lake gespeichert und sind dann auch von verschiedenen Anwendungen in Azure gleichzeitig abrufbar.

So läuft die Berechnung in GiraphGiraph behandelt Eingabedaten als Graphen und kann Vertices und Edges nativ darstellen. Dabei weist Giraph den Vertices auch Klassen oder Modelle zu. Berechnet werden die Daten mit Su-persteps. Dazu werden die Giraph-Jobs in einen MapReduce/YARN-Job umgewandelt, damit er kompatibel mit Hadoop ist und im Cluster ausgeführt werden kann. Alle Funktionen in ei-nem Giraph-Job sind benutzerdefinierbar. Zur Implementierung verwenden Entwickler Java. Vorlagen für die Verwendung wer-den auch von Apache zur Verfügung gestellt.Während der Berechnung tauschen die Vertices Werte unterein-ander aus. Am Anfang eines jeden Supersteps analysiert Giraph die Informationen des vorhergehenden Supersteps. Dazu haben die einzelnen Vertices auch eigene Speicher.

Page 34: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 34

Fazit

Apache Giraph ist ein sehr effizientes und fehlertolerantes Ana-lyse-System für soziale Graphen. Das Produkt ist stark skalier-bar und sehr flexibel steuerbar. Da Apache Giraph kostenlos zur Verfügung steht, müssen Unternehmen zunächst keine Investiti-onen tätigen. Giraph ist allerdings ein sehr kompliziertes System und ist nur sinnvoll, wenn Hadoop bereits im Einsatz ist und im Unternehmen auch entsprechendes Know-how bezüglich Java, Hadoop und Big Data vorhanden ist. Erst wenn die Datenverar-beitung über Hadoop und die bekannten Zusatzwerkzeuge nicht mehr ausreichen, lohnt es sich, Giraph zusätzlich zu integrieren. ■ Thomas Joos

Mehr zum Thema Big Data finden Sie auf www.bigdata-insider.de

Technology-Update für IT-Manager

CIOBRIEFING

Page 35: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 35

Compliance

Lässt sich IT-Sicherheit per Gesetz vorschreiben?Das IT-Sicherheitsgesetz kommt. Zwei Jahre nach dem ersten Entwurf des Bundesinnenministeriums wurde das „Gesetz zur Erhöhung der Sicherheit informationstech-nischer Dienste“ durch die große Koalition verabschie-det. Vor allem auf Betreiber sogenannter Kritischer Infra-strukturen kommen nun einige Pflichten zu.

Die IT-Sicherheitslage in Deutschland sei weiterhin angespannt, heißt es im Gesetzentwurf (Drucksache 18/4096, IT-Sicherheits-gesetz). Dieser beruft sich dabei auf Angaben des Bundesamtes für Sicherheit in der Informationstechnik (BSI). Die Cyber-An-griffe würden in hoher Zahl stattfinden, wären zunehmend ziel-gerichtet, technologisch ausgereifter und komplexer.

Das Gesetz soll die IT-Sicherheit in Deutschland verbessern und erntete in der Vergangenheit trotz dieses hehren Zieles viel Kritik. Fünf Jahre zu spät und nicht weitreichend genug, beanstandete die Opposition, konnte den Beschluss aber nicht mehr verhindern.

Das Ziel des IT-Sicherheitsgesetzes klingt weitreichend: Es soll die IT-Sicherheit in Unternehmen, den Schutz der Bürgerinnen und Bürger im Internet und das BSI sowie das Bundeskriminal-amt (BKA) stärken. Dennoch konzentrieren sich die Regelungen auf die Betreiber Kritischer Infrastrukturen (Kritis) wie z. B. Energieversorger und Telekommunikationsanbieter.

Zwei Jahre lang haben

Unternehmen wie

beispielsweise Telekom­

munikationsanbieter

Zeit, ihre IT­Sicherheit

an bestehenden

Standards auszurichten.

Page 36: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 36

Was steckt im IT-Sicherheitsgesetz? Und was nicht?

Kurzum: Vor allem Betreiber von Infrastrukturen, von denen das Funktionieren unserer Gesellschaft in besonderem Maße abhängt, müssen ab sofort mehr für ihre IT-Sicherheit tun. Das IT-Sicherheitsgesetz verpflichtet sie dazu, „ein Mindestniveau an IT-Sicherheit einzuhalten und dem BSI IT-Sicherheitsvorfälle zu melden“.

Zwei Jahre bleiben den Betreibern kritischer Infrastrukturen nun noch Zeit, organisatorische und technische Vorkehrungen zu treffen, um Störungen zu vermeiden. Mit Störungen meint der Gesetzgeber jeden negativen Einfluss auf die Verfügbarkeit, die Integrität, die Authentizität und die Vertraulichkeit der IT-Syste-me und Daten.

In regelmäßigen Sicherheitsaudits muss das IT-Sicherheitsniveau nachgewiesen werden. Darüber hinaus sind die Unternehmen nun verpflichtet, Störfälle an das BSI zu melden und eine sogenannte Kontaktstelle einzurichten. Die Informationen laufen schließlich beim BSI zusammen, werden dort ausgewertet und den Betrei-bern wieder zur Verfügung gestellt.

Dass für die Einrichtung neuer Prozesse, für neue Technik und einen Mitarbeiter als Ansprechpartner Kosten entstehen, wird in der Erläuterung zum Gesetzentwurf lapidar so angekündigt: „Die Verpflichtung zur Einhaltung eines Mindestniveaus an IT-Sicher-heit wird dort zu Mehrkosten führen, wo kein hinreichendes IT-Sicherheitsniveau vorhanden ist.“ Der anfallende Aufwand könne im Vorfeld jedoch nicht quantifiziert werden.

Die Rolle der Telko-Anbieter und BehördenDas IT-Sicherheitsgesetz geht auch auf die Rolle der Telekom-munikationsanbieter ein, sie sei-en in besonderem Maße für die Sicherheit im Cyberraum verant-wortlich. Um die Bürgerinnen und Bürger besser zu schützen, verlangt das Gesetz IT-Sicherheit „nach dem Stand der Technik“.

Ziel ist es, dass das Fernmelde-geheimnis gewahrt bleibt, perso-nenbezogene Daten sicher sind und die Systeme zuverlässig zur

Lutz Kolmey: „Krisen­

pläne, Krisenstäbe,

Eskalationsprozesse und

ähnliches funktionieren

nur, wenn sie vor der

Krise in Ruhe durchdacht,

abgestimmt und fixiert

werden.“

Bild

: mod

IT S

ervi

ces

Page 37: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 37

Verfügung stehen. Die Anbieter müssen zudem ihre Kunden warnen, wenn ihnen Angriffe auf die Anschlüsse der Nutzer auf-fallen. Natürlich sind sie auch verpflichtet, dies der Bundesnetz-agentur und dem BSI zu melden.

Kritikern genügt das nicht

Vor allem der Opposition im Deutschen Bundestag und Daten-schutzrechtlern geht das neue IT-Sicherheitsgesetz nicht weit ge-nug. Angesichts der massiven Sicherheitslücken im IT-Bereich kritisierte die Fraktion Bündnis 90/Die Grünen, dass der Ent-wurf nicht bereits viel früher vorgelegt worden sei und dass das Gesetz sich nun weitestgehend auf die Betreiber Kritischer Infra-strukturen beschränke, die nicht einmal klar benannt seien.

Die Meldepflichten der öffentlichen Behörden empfinden die Oppositionspolitiker als unzureichend geregelt. Darüber hinaus stellen die Grünen die künftige Rolle des BSI in Frage. Das Mi-nisterium soll künftig zur internationalen Zentralstelle für IT-Sicherheit ausgebaut werden und enger mit dem Bundeskriminal-amt zusammenarbeiten.

Für beide Behörden sind zusätzliche Stellen geplant. Allerdings vertraue die Industrie dem BSI nicht im notwendigen Maße, son-dern betrachte es mehr als Anhängsel des Bundesinnenministe-riums, sagen die Oppositionspolitiker. Sie plädieren für eine un-abhängige Behörde.

Und dann wäre da noch das Problem der Vorratsdatenspeiche-rung: Damit die Telekommunikationsanbieter ihrer Pflicht nach-kommen können, die Nutzer über etwaige Angriffe zu informie-ren, speichern sie Daten auf Vorrat für die Dauer von wenigen Tagen bis zu sechs Monaten. Das IT-Sicherheitsgesetz weitet damit sogar das gültige Telekommunikationsgesetz (TKG) aus, welches bereits eine begrenzte Befugnis zur Vorratsdatenspei-cherung zur Störungsabwehr enthält.

Nun sollen auch Angriffe über Botnetze und Spam besser ab-gewehrt werden können. Diese „freiwillige Vorratsdatenspeiche-rung“ hatten sowohl Bürgerrechtler als auch der Bundesrat im Vorfeld kritisiert, trotzdem wurde hier nicht nachgebessert.

Was Unternehmen jetzt konkret tun müssen

Da das IT-Sicherheitsgesetz für das geforderte „Mindestmaß an IT-Sicherheit“ nur den Rahmen definiert, müssen nun die betrof-fenen Firmen gemeinsam mit dem BSI und den verschiedenen

Page 38: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 38

Verbänden die Details aushandeln. Zwei Jahre bleiben insgesamt Zeit, bis die entsprechenden Maßnahmen umgesetzt sein sollen.

Im Kern geht es für Unternehmen darum, ihre IT-Sicherheit auf den neuesten Stand zu bringen und Prozesse rund um Sicher-heitsaudit, Meldepflichten und Ansprechpartner zu etablieren. Dafür sind einige Analysen und organisatorische Maßnahmen notwendig, die Unternehmen zeitnah einplanen sollten: Eine um-fassende Risikoanalyse klärt, welche Bereiche im Unternehmen als kritisch gelten.

Dabei geht es sowohl um die Sicherheit der eigenen Infrastruktur als auch um die Aufrechterhaltung der Dienste mit besonderem Wert für die Gesellschaft. Es gilt zu klären, was eigentlich genau bei Ausfällen passiert und welche Auswirkungen zu erwarten sind. Die besten Risiken sind die, die gar nicht entstehen.

Vorbeugenden Maßnahmen und Strategien kommt hier eine be-sondere Bedeutung zu: Wie lassen sich Risiken vermeiden oder wenigstens mindern? Und wie lässt sich dies im Rahmen von Si-cherheitsaudits regelmäßig überprüfen? Schließlich sollten Un-ternehmen ihr bestehendes Krisenmanagement prüfen oder ein neues aufbauen. Krisenpläne, Krisenstäbe, Eskalationsprozesse und ähnliches funktionieren nur, wenn sie vor der Krise in Ruhe durchdacht, abgestimmt und fixiert werden.

Wie es weiter geht

In vier Jahren soll das IT-Sicherheitsgesetz evaluiert werden. Da auch auf europäischer Ebene an einer Richtlinie zur IT-Sicherheit (NIS) gearbeitet wird, könnte es schon vor Ablauf dieser Frist notwendig werden, das IT-Sicherheitsgesetz nachzubessern.

Die Sprecher der Koalition werteten den Gesetzesbeschluss als wichtigen Schritt zur Stärkung der IT-Systeme in Deutschland. Und wie wichtig die Debatte um die IT-Sicherheit auf hoher Ebe-ne ist, zeigen nicht zuletzt die jüngsten Hackerangriffe auf den Bundestag. ■ Lutz Kolmey

Page 39: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 39

Datacenter-Revolution im Kellerloch

Von CoreOS kommt das Betriebssystem für Cloud-RechenzentrenDie großen Cloud-Rechenzentren scheinen derzeit den Weg in die IT-Zukunft zu weisen. Das Startup CoreOS hat sich auf Software für diese hochstandardisierten und –flexiblen Umgebungen spezialisiert. Google ist einer der Investoren.Hochflexible und –skalierbare Cloud-Rechenzentren funktionie-ren nach anderen Regeln als Unternehmensrechenzentren bisher. In ihnen soll es möglich sein, Lasten in Sekundenbruchteilen in-nerhalb der Infrastruktur zu verschieben, möglichst schnell neue Services informationstechnisch zusammenzubauen, die man dann den Kunden anbieten kann.Sie sollen am besten einen extrem hohen Sicherheitsstandard realisieren. Und sie brauchen, um den Flächenbedarf gering zu halten, eine hohe Auslastung. Außerdem soll ihre Hardware am besten von A bis Z aus durchstandardisierten Komponenten be-stehen, die ohne Betriebsunterbrechung und mit wenig techni-schem Wissen auswechselbar sind.Für all das eignen sich die gängigen Betriebssysteme und Hyper-visoren, egal, von wem sie stammen, kaum. Sie sind zu träge und zu komplex, bei der konventionellen, funktionsüberladenen Hardware ist es dasselbe. Die Folge: Es entstehen aus den Anfor-derungen der Cloud-Welt heraus neue Produkte und Standards. Das lässt sich besonders gut am Open Compute Project und ähn-lichen Vorhaben demonstrieren.

Schlagkraftig: CoreOS,

das in einem Souterrain

von San Franzisko

residiert, will bisherige

Betriebssysteme

wegräumen und

bekommt dazu viel

Unterstützung, unter

anderem von Google.

Bild

: igo

r /

Foto

lia.c

om

Page 40: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 40

Open Source funktioniert einfach

Sie alle funktionieren nach dem Motto: Wenn wir es nicht haben, entwickeln wir es einfach, und zwar offen, mehr oder minder zur gemeinsamen Nutzung und ohne die etablierten Hersteller um Erlaubnis zu bitten. Wenn sie wollen, können sie ja mittun, wenn nicht, kommen wir auch ohne sie aus. Die Open-Source-Bewegung hat durch das Cloud-Paradigma gewaltigen Anschub erhalten. Aus ihr entsteht nun wieder eine neue Gründungswelle, die die nächsten Jahrzehnte der IT prägen könnte.

Ein Beispiel für derartige Neugründungen ist CoreOS, ein Star-tup, das gerade neue Büros in unmittelbarer Nähe der Cesar Chavez Street im Lationo-dominierten Mission-District von San Francisco bezogen hat. Cesar Chavez, so die Kurzbezeichnung der Straße, heißt nach einem frühen US-amerikanischen Gewerk-schaftsführer. Er trat den Großunternehmen seiner Zeit mit revo-lutionärem Elan entgegen und setzte Arbeitnehmerrechte durch.

Insofern ist die Gegend kein schlechter Standort für CoreOS: Das Unternehmen will mit seinen Open-Source-basierenden Produk-ten die verkrusteten Verhältnisse in der Betriebssystem- und Hy-pervisoren-Branche nachhaltig zum Tanzen bringen. Derzeit vor allem in den größeren Cloud-Rechenzentren. Und irgendwann später vielleicht auch in anderen Rechenzentren, denen von Un-ternehmen.

Gründerspirit und große Pläne

Im Keller des Hauses, in dem die rasch wachsende Firma ausbrei-tet, stehen ein paar alte Sofas um einen klapprigen Tisch herum, vorn ein Flipchart, in der Ecke der Kühlschrank mit Cola und allerlei Biodrinks. „Hier verbringen wir viel von unserer Zeit und brüten neue Ideen aus“, erklärt PR-Managerin Kelly Tenn. Das Gründungsdomizil war stilecht eine der berühmten Garagen, in denen viele der großen und spannenden IT-Geschichten der USA beginnen.

Der Boss der gerade einmal zwei Jahre alten Firma mit inzwi-schen 40 Mitarbeitern hält sich nicht mit Kleinigkeiten auf. „Wir bauen das sichere Betriebssystem für das Container-Zeitalter“, sagt CEO Alex Polvi vollmundig. Er ist 28 Jahre jung, mit ath-letischer Statur und brennenden Augen. Man ist geneigt, ihm zu glauben.

Das tun schließlich auch namhafte Investoren, die bereits 20 Mil-lionen Dollar in CoreOS gesteckt haben. Einer davon ist Google.

Page 41: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 41

Polvi hat sich seine Sporen und die erste Million bereits verdient: er hat mit „Cloud Kick“ schon einmal einen Startup gegründet, der 2010 für 40 Millionen Dollar an Rackspace ging.

CoreOS patcht wie Mobiltelefone

Doch was hat CoreOS nun anzubieten? „Wegen Update- und Patching-Problemen fehlt es der Server-Infrastruktur in Rechen-zentren heute grundsätzlich an Sicherheit“, sagt Polvi. Also habe man ein abgespecktes Linux entwickelt, CoreOS eben, das opti-miert für verteilte Systeme, standardisierte Hardware und Appli-kationscontainer sei, erläutert Polvi.

Der Update-Mechanismus CoreUpdate ermöglicht jederzeit Überblick darüber, wo welche Systemvarianten von CoreOS laufen. Maschinen können gruppenweise aktualisiert oder auch von Update-Läufen systematisch ausgeschlossen werden. All das wird über eine übersichtliche Web-Benutzerschnittstelle gesteu-ert und in einem Dashboard grafisch und in Zahlen dargestellt (siehe: Abbildung).

Gehört Containern die Zukunft?

Den Containern gehöre, so Polvi, wegen ihrer Flexibilität, ihrer Ressourcensparsamkeit und der Möglichkeit, sie unabhängig von Hypervisoren zu verwenden, die Zukunft. Sie steigerten die Aus-lastung der Server-Hardware gegenüber virtuellen Maschinen um das Zehnfache, behauptet Polvi. Legt man aktuelle Auslas-tungsschätzungen für Rechenzentren zugrunde – 30 Prozent sind hier schon ein guter Wert – ist dieses Argument sicherlich für viele scharf kalkulierende Betreiber von Cloud-Dienstleistungs-rechenzentren reizvoll.

Eine Professional-Variante von CoreOS ist kostenpflichtig, für monatliche Pauschalkosten, die sich nach der Zahl der Server richten, erhalten Anwender Wartung, Support und Updates. Hin-ter der Lösung steht eine mehrhundertköpfige Entwickler-Com-munity. Sie entwickelt das Betriebssystem stetig weiter. Gegen-über vergleichbaren Projekten und Produkten wie DCOS oder MesOS hebe sich CoreOS vor allem durch mehr Sicherheitsfea-tures ab, sagt Polvi.

Im April machte CoreOS „Tectonic“ kommerziell verfügbar. Das Projekt kombiniert die Container-Management-Umgebung mit dem CoreOS-Stack, woraus sich eine Google-ähnlich funktio-nierende Infrastruktur bauen lässt. Dazu kommen Funktionen,

Page 42: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 42

die für kommerzielle RZ-Umgebungen wichtig sind, etwa eine Management-Konsole für Workflows und Dashboards, eine inte-grierte Registry, um Linux-Container zu bauen und gemeinsam zu nutzen und Tools für automatisiertes Deployment oder die Au-tomatisierung von Updates.

Die Docker-Alternative

Ein weiteres Open-Produkt, an dem CoreOS kontinuierlich ar-beitet, ist „rkt“ (sprich: Rock it), laut Polvi das erste Container-format, das der Application Content Specification des Open Con-tainer Project entspricht. Es ist eine Alternative zur gegenwärtig gehypten, proprietären Containertechnik Docker.

Mit rkt-Containern lassen sich flexibel Mikroservices bereitstel-len und zu immer neuen Services für Kunden zusammensetzen. Das entspreche der Philosophie des Cloud-Zeitalters, in der es nicht mehr um die Compute-Leistung gehe, sondern vor allem um die der Applikationen, sagt Polvi.

Entscheidungsmechanismen für unsichere Situationen

Schließlich steckt CoreOS maßgeblich hinter dem Open-Source-Projekt „etcd“, einem verteilten Key-Value-Speicher , der in der Sprache „Go“ geschrieben ist und mit dem sich verteilte Systeme konsistent halten lassen. Ziel von etcd ist es, möglichst kleine Datenbits extrem hochverfügbar zu machen.

Das andere Zookeeper

etcd steckt in „Pivotal Cloud Foundry“ genau wie in Googles Container-Management-Software „Kubernetes“. Die Anwendung verwendet so genannte Kohäsionsalgorithmen. Diese ermögli-chen bessere, sicherere Entscheidungen bei unsicheren Entschei-dungssituationen, wie sie etwa in der Echtzeitsteuerung von Ma-schinen auftauchen können.

Rund 500 auf GitHub gelistete Projekte nutzen etcd bereits. Eine Alternative zu etcd ist das Apache-Projekt „Zookeeper“, das al-lerdings auf Hadoop-Umgebungen beschränkt ist.

Sein bisheriger Erfolg scheint CEO Polvi nicht sonderlich zu kümmern. Gefragt, warum man in einem, nun ja, Rattenloch re-sidiere, beantwortet der Manager mit überzeugender Schlichtheit: In dem frühen Stadium, in dem sich sein Unternehmen befinde, sei es ganz einfach angemessen, auf Luxus zu verzichten und alle Mittel in die Produktentwicklung zu stecken.

Page 43: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 43

Wer weiß, was geschähe, wenn sich die heutigen Giganten der IT-Branche einmal auf diese Devise zurückbesinnen würden. Doch damit ist wohl kaum zu rechnen. ■ Ariane Rüdiger

Mehr zum Thema Data Center finden Sie auf www.datacenter-insider.de

Technology-Update für IT-Manager

CIOBRIEFING

Page 44: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 44

Berechtigungen, Datensicherheit und Verwaltung bei Fileservices

Dateiserver von Windows nach Linux migrierenViele Unternehmen wechseln derzeit von Windows zu Linux. Das liegt vor allem an dem Support-Ende von Windows Server 2003/2003 R2 und SBS 2003/2003 R2. Anstatt alte Windows-Versionen zu erneuern, wechseln immer mehr Unternehmen lieber auf das Opensource-Betriebssystem. Hier muss aber einiges beachten wer-den.

Linux-Server sind auch für Windows-Administratoren mit ge-ringen Linux-Kenntnissen schnell aufgesetzt und betriebsbereit. Von vielen Herstellern gibt es assistentengestützte Systeme, die über eine Weboberfläche verwaltet werden. An dieser Hürde scheitern Migrationsobjekte daher selten. Die Haken liegen an anderer Stelle.

Um auch in kleinen Unternehmen Daten zentral abzulegen, E-Mails zu senden und andere Funktionen der Gruppenarbeit zu nutzen, ist nicht immer ein Windows-Server notwendig. Es gibt einige Linux-Distributionen die ähnlichen Funktionsumfang bieten und schnell und einfach zu installieren und zu verwalten sind.

Vorteil dabei ist, dass diese meistens kostenlos zur Verfügung stehen. Allerdings müssen Administratoren vorher gut planen und keine Schnellschüsse bei der Migration durchführen.

Auch für Linux gibt es

angepasste Sicherungs­

Lösungen. Diese müssen

aber an die eigenen

Bedürfnisse angepasst

werden.

Bild

: Tho

mas

Joo

s

Page 45: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 45

Auswahl der optimalen Distribution

Bevor Unternehmen zu Linux wechseln, muss erst geklärt wer-den, welche Distribution zum Einsatz kommen soll. Auf dem Markt gibt es neben SUSE, Ubuntu, Debian und Red Hat, dut-zende weitere Distributionen in verschiedenen Formen und De-rivaten.

Wichtig ist an dieser Stelle die Kompatibilität mit den Dateien, die auf den Servern gespeichert werden sollen. Außerdem muss entschieden werden, ob die Client-Rechner der Anwender wei-terhin mit Windows betrieben werden sollen. Wenn ja, muss die Distribution natürlich kompatibel mit Windows sein und auch die Anmeldung von Windows-Rechnern erlauben. Hier wird oft mit Samba gearbeitet.

Aber auch mit nachträglich installierter grafischer Oberfläche werden viele Einstellungen und Konfiguration in Linux mit Konfi-gurationsdateien und in der Shell durchgeführt. Außnahmen sind natürlich spezielle Server, die neben Dateidienste noch weitere Funktionen zur Verfügung stellen, zum Beispiel DNS, DHCP, Mail und mehr. Hier werden die Einstellungen in den meisten Fällen in einer webbasierten Oberfläche durchgeführt.

Wenn es um die Authentifizierung von Benutzer und der Absi-cherung von Daten in Netzwerken geht, kommen Administrato-ren kaum um eine Windows-Domäne, seit Windows 2000 auch Active Directory genannt herum. Administratoren, die auf Linux setzen wollen, können eine Windows-Domäne auch mit einem kostenlosen Samba-Server auf Basis von Linux darstellen.

Samba 4 steht auf verschiedenen Wegen als Linux-Distribution zur Verfügung. Auch Univention Corporate Server bietet eine Linux-Distribution mit Samba 4 und zusätzlich eine webbasierte Verwaltungsoberfläche.

Server-Versionen verwenden, keine Desktop-Linux-Varianten

Administratoren sollten beim Betrieb von Linux-Servern darauf achten, eine echte Server-Version zu installieren, nicht die Desk-top-Version der entsprechenden Distribution. Denn nur diese bie-ten optimale Möglichkeiten für die von Client-Rechnern und dem Aufbauen von Server-Infrastrukturen.

Der Nachteil der Server-Versionen ist das Fehlen der grafischen Oberfläche, was für Linux-Admins kein Problem darstellt, für Windows-Administratoren allerdings etwas komplizierter ist.

Page 46: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 46

Administratoren haben aber die Möglichkeit, zum Beispiel nach der Installation eines Ubuntu-Servers, eine eingeschränkte grafi-sche Oberfläche zu installieren.

Wenn keine spezielle Version, wie UCS zum Einsatz kommt, ge-staltet sich nach der Installation auch die Verwaltung der Berech-tigungen etwas komplizierter. Denn hier fehlen unterstützende Assistenten, und Administratoren müssen sehr sorgfältig vorge-hen, wenn es um die Erteilung von Rechten auf Verzeichnisse und Freigaben geht.

Berechtigungen der Verzeichnisse beachten

In den meisten Firmen liegen für Verzeichnisse und Freigaben komplexe und verschachtelte Strukturen vor. Die Berechtigungen der Verzeichnisse und Freigaben sind außerdem in den seltensten Fällen dokumentiert.

Das heißt, bei einem Wechsel der Verzeichnisse und Freigabe auf Linux-Systeme lässt sich schwer mit Tools und Anwendungen ar-beiten, sondern Administratoren müssen die Verzeichnisstruktur neu aufbauen. Das liegt nicht zuletzt daran, dass Windows-Ser-ver meistens mit NTFS arbeiten, während auf Linux-Servern das ext3/4-System zum Einsatz kommt.

Hier muss also sehr gut geplant werden, welche Verzeichnisse/Freigaben übernommen werden, und wie die neue Rechtestruk-tur aussehen soll. Bevor die Verzeichnisse und Freigaben sowie deren Daten übernommen werden können, müssen sich Verant-wortliche zunächst genau darüber im Klaren sein, wie die Benut-zerkonten von Windows zu Linux übernommen werden sollen.

Hier stehen zwar Migrationstools zur Verfügung, allerdings ar-beiten Windows und Linux in diesem Bereich nicht ideal zusam-men. Sobald die Benutzer und Gruppen übernommen oder neu angelegt wurden, müssen Rechte und Freigaben neu erstellt und konfiguriert werden. Außerdem müssen in den meisten Fällen die Daten manuell übernommen werden.

Während der Migration wird es also in vielen Fällen zu Paral-lel-Installationen von Windows und Linux kommen. Am besten werden hier einzelne Verzeichnisse und Freigaben hintereinan-der migriert. Das hat den Vorteil, dass die neue Struktur getestet werden kann, bevor alle Benutzer umgezogen werden. Funktio-niert etwas nicht, lassen sich immer noch die alten Daten auf dem Windows-Server nutzen.

Page 47: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 47

Speicher-Hardware beachten

Viele Unternehmen nutzen für die Datenablage auch externe Plattensysteme. Hier muss darauf geachtet werden, dass diese optimal mit der entsprechenden Linux-Distribution zusammen-arbeiten kannund auch die notwendigen Treiber zur Verfügung gestellt werden.

Bei der Anbindung sollten natürlich keine Daten verloren gehen und die Geschwindigkeit der Anbindung sollte möglichst nicht abnehmen. Außerdem muss der stabile Betrieb gewährleistet wer-den. Arbeiten Unternehmen mit NAS-Systemen zur Datenspei-cherung, sollten sich die Probleme in Grenzen halten. Aber auch hier sollten Administratoren darauf achten, dass NAS- und Linux-Server sowie die erstellten Freigaben problemlos funktionieren.

Die Herausforderung an dieser Stelle ist, dass nicht einfach das System mit Linux verbunden werden kann, da die Freigaben und Verzeichnisse auf dem Gerät mit den entsprechenden Berechti-gungen konfiguriert werden müssen.

Datensicherheit und Datensicherung beachten

Wenn die Daten erfolgreich übernommen worden sind, und die Berechtigungen funktionieren, muss auch das Thema Datensi-cherheit und Datensicherung berücksichtigt werden. Auch auf Linux-Servern und auf Dateien auf Linux-Servern können sich Viren einschleichen.

Daher ist auch auf diesen Servern ein Virenscanner notwendig. Im Opensource-Bereich gibt es sehr viele Alternativen. Aller-dings müssen auch diese erst gefunden, installiert und auch ein-gerichtet werden. Außerdem müssen sich Administratoren in die Verwaltung dieser neuen Lösungen einarbeiten.

Neben dem Virenschutz spielt natürlich auch das Thema Datensi-cherung eine wichtige Rolle. Ist im Unternehmen bereits eine Da-tensicherungs-Lösung im Einsatz, muss überprüft werden, ob Li-nux in der eingesetzten Distribution überhaupt unterstützt wird. Außerdem muss der Client eingerichtet und der Linux-Server an die Sicherung angebunden werden.

Soll der Datensicherungs-Server ebenfalls zu Linux gewechselt werden, müssen Verantwortliche entscheiden welche Sicherungs-lösung zum Einsatz kommen soll. Auch hier gibt es einige sehr gute Lösungen, die aber ebenfalls eingerichtet und verwaltet wer-den wollen.

Page 48: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 48

Datensicherung auf Linux-NAS-System

Sollen nicht die Dateiserver komplett auf Linux umgestellt wer-den, die Daten aber auf einem Linuxbasierten NAS-System ge-sichert werden, müssen Administratoren auch hier einiges be-achten. Wichtig ist auch hier, dass die Sicherungs-Software auf den Windows-Servern das NAS-System als Sicherungsmedium unterstützt. Wird mit Tools wie Robocopy gearbeitet, müssen Administratoren darauf achten, dass Replikationsmechanismen funktionieren.

Denn nicht bei allen Linux-NAS-Systemen lässt sich Robocopy für die Replikation nutzen. Die replizierten Dateien werden nicht erkannt, und Robocopy und Co beginnen bei jeder Sicherung von vorne, anstatt nur die geänderten Dateien zu übertragen. Das be-lastet das Netzwerk, die beteiligten Server und erhöht den Siche-rungsaufwand und -Zeitraum enorm.

Hier sollte vor der Umstellung als ausführlich getestet werden. Auch auf NAS-Systemen müssen Administratoren Rechte konfi-gurieren und die Datensicherung anpassen. Sollen die Daten zu-sätzlich noch vom NAS-System gesichert werden, muss auch das angepasst und zusammen mit der Server-Sicherung koordiniert werden.

Auf der anderen Seite eignen sich die meisten professionellen NAS-Systeme auch als Dateiablage. Benutzer lassen sich auf den meisten Systemen genauso anlegen, wie auf Linux-Servern. Das liegt nicht zuletzt daran, dass viele NAS-Systeme ein angepass-tes Linux-System verwenden.

Schattenkopien und Dateiversionen berücksichtigen

Windows-Server bieten mit dem Schattenkopiedienst die Möglich-keit auch Versionen von Dateien auf den Dateiservern zu sichern. Anwender können auf diesem Weg selbst ältere Versionen ihrer Dateien wiederherstellen, wenn zum Beispiel fehlerhafte Ände-rungen seit der letzten Datensicherung vorgenommen wurden.

Diese Technik funktioniert in Zusammenarbeit von Windows und Linux nicht mehr. Das heißt, Administratoren müssen in diesem Fall darauf achten, dass es auf den Linux-Servern entsprechend Ersatz gibt, damit Anwender weiterhin Dokumente herstellen können.

Mit Windows 8 hat Microsoft den Dateiversionsverlauf zur Ver-fügung gestellt. Dieser kann Versionen von Dateien wiederum

Page 49: CIO Briefing - Technologie-Update für IT-Manager

CIOBRIEFING 08/2015

Seite 49

auf Linux-NAS-Systemen verfügbar machen. Anwender können mit dem Dateiversionsverlauf ältere Versionen von Dokumenten wiederherstellen, auch dann wenn die Sicherung auf NAS-Sys-temen auf Basis von Linux installiert ist. Der Dateiversionsver-lauf ist der Nachfolger der Schattenkopien in Windows 8/8.1 und Windows 10.

Der Dateiversionsverlauf hat allerdings nichts mit Schattenkopien auf Windows-Servern zu tun. Aber auch Linux kann im Grunde genommen im laufenden Betrieb Versionen von Dateien sichern. Dazu werden Snapshots genutzt. Hier sollten Administratoren also vor der Migration vorarbeiten und die Funktion einrichten, damit Anwender diese weiter nutzen können.

Desaster-Recovery beachten

Fallen Linux-Server aus, sind diese in den meisten Fällen schwe-rer wiederherzustellen, als Windows-Server. Wenn genügend Linux-Wissen im eigenen Unternehmen vorhanden ist, lässt sich dieses Problem häufig umgehen, sobald aber das Wissen nicht ausreicht, wird es schwerer.

Durch die enorme Vielzahl an verschiedenen Distributionen und Versionen ist es schwer kompetente Hilfe zu finden, die bei einem Ausfall helfen kann. Hier sollte also schon im Vorfeld gut über-legt werden, wie eine eventuelle Wiederherstellung durchgeführt werden soll. Es gibt aber auch im Linux-Bereich einige Werkzeu-ge, die bei Wiederherstellungen helfen, vor allem wenn komplette Images erstellt wurden.

Eine Alternative für Windows-Administratoren kann die Virtua-lisierung von Linux-Servern auf Basis einer kostenlosen Lösung wie Microsoft Hyper-V Server 2012 R2 oder VMware Hyper-visor sein. Der Vorteil dabei ist, dass die VMs auf den Servern recht leicht gesichert und wiederhergestellt werden können.

Der Nachteil ist, dass die Leistung teilweise etwas eingeschränkt sein kann. Da durch die Virtualisierung aber die Ausfallsicher-heit des Dateiservers gegeben ist, sollten sich Verantwortliche diesen Schritt überlegen. ■ Thomas Joos

Page 50: CIO Briefing - Technologie-Update für IT-Manager

Regelmäßig kostenlos lesen?Die Ausgabe 09/2015 erscheint am 01.09.2015

+++ Jetzt anmelden auf +++

www.ip-insider.de/cio www.security-insider.de/cio

www.cloudcomputing-insider.de/ciowww.bigdata-insider.de/cio www.datacenter-insider.de/cio

www.storage-insider.de/cio

Technology-Update für IT-Manager

CIOBRIEFING