Netværk og software er kritisk for oppetiden i dit datacenter

Få ting kan sætte en virksomhed i stå som et it-nedbrud. I stadig flere virksomheder er forretningen dybt afhængig af, at it-systemerne kører, og derfor er oppetid ikke blot noget, der handler om, at it-afdelingen kan holde weekend uden at blive forstyrret af vagttelefonen. Det handler i sidste ende også om virksomhedens forretning.


Der er mange overvejelser, når man bygger et datacenter, f.eks. fysiske forhold og netværket. Men applikationerne er også vigtige, påpeger konceptchef Thomas Hejgaard fra Axcess: »Man skal sørge for at have fat i hele fødekæden i modsætning til bare at ofre penge på oppetid.«

Læs også: To datacentre skal sikre Rockwool mod totalt nedbrud

Høje krav til oppetid har eksisteret, siden computerne første gang fik en central rolle i virksomhederne, men i dag er mange arbejdsgange helt umulige, hvis systemerne er utilgængelige. Samtidig er it-systemerne på flere punkter mere komplekse end nogensinde før, og derfor skal der også tænkes flere elementer ind, når oppetiden i datacentret skal sikres.

»Det handler også om at afstemme forventningerne med resten af organisationen om, hvor meget man kan tåle at være nede, før man kaster sig over det tekniske,« siger konceptchef Thomas Hejgaard fra Axcess til Version2.

Ofte vil afdelingernes tilgang til, hvilke krav der skal stilles til datacentre, afhænge deres synsvinkel, og derfor er det ikke nok kun at se på de ønsker, som en enkelt gren af organisationen har til et nyt datacenter.

»Hvad der ligger dem på sinde, afhænger af, hvem man taler med i organisationen. En CIO har fokus på hurtigere innovation: It må ikke være en flaskehals. For datacenterchefen er det ultimative mål derimod en platform, der altid er tilgængelig,« siger markedsdirektør Christian Hjortgaard fra Conscia til Version2.

Virtualisering og de teknologier, som i dag er fundamentet for at opbygge en privat sky, er nøglerne til at få en infrastruktur, hvor man kan øge den tid, som it-afdelingen kan bruge på it-dreven innovation frem for blot drift.

»De fleste ønsker i dag at opbygge en privat sky. De har meget af det i dag, men det er bare manuelt. Hvis man bygger en infrastruktur, som er klar til skyen, kan man lægge en serviceportal oven på. Men du er nødt til at vurdere, hvor cloud-ready dit datacenter er,« påpeger Christian Hjortgaard.

Data ud af huset

Cloud-tjenester, hvor det eksempelvis er lettere for udviklingsafdelingen at oprette en ny testserver i virksomhedens eget datacenter, og hvor it-afdelingen bruger mindre tid på at holde datacentret kørende, forudsætter, at datacentret i sig selv er stabilt. Et ekstra datacenter hos en ekstern housing- eller co-location-udbyder kan både være billigere og betyde mindre arbejde end at have to datacentre internt. Men det er også en model, der kræver planlægning af mere end blot datacentret.

»Man glemmer let, at firmaets afdelinger skal have den samme adgang til applikationerne. Datacentret i kælderen har jeg en 10 gigabit/s forbindelse til, men har de forskellige afdelinger også det til datacentret ude i byen? Så i stedet kan du koble dine to datacentre op, som om de begge stod uden for huset, og så vil du også være fri til at placere applikationerne hvor som helst,« siger Thomas Hejgaard.

Netværksforbindelserne spiller i det hele taget en stor rolle for det moderne datacenter. Hvis man har to datacentre med mindre end 10 kilometers afstand, kan man købe sig til billigere fiberforbindelser. Det kræver dog, at man ikke har applikationer, der af compliance-grunde skal køre redundant i datacentre med en større afstand.

Læs også: Menneskelige fejl oftest skyld i nedbrud i datacentre

I det hele taget kan man hurtigt drukne i de mange overvejelser, som man skal gøre sig, når man skal opføre et nyt datacenter. Der findes eksempelvis anbefalinger i forhold til skiltning på bygningen eller placering i forhold til hovedfærdselsårer. Derfor er det også vigtigt at fokusere det, det i sidste ende drejer sig om.

»Alt afhængig af, hvem der bygger datacentret, kan man fokusere på de fysiske forhold, eller måske på netværket, men man tænker måske ikke på de applikationer, der skal ligge oven på. Man skal sørge for at have fat i hele fødekæden i modsætning til bare at ofre penge på oppetid,« siger Thomas Hejgaard.

Fejl på netværket skal forebygges

Gennem de seneste mange år er der sket tekniske forbedringer og blevet lagt mere sikre designplaner for meget af infrastrukturen i datacentrene, når det gælder redundans. Datacentret kan stadig gå ned på grund af en nødgenerator, som ikke starter, men mange nedbrud rammer i dag netværksudstyret på grund af menneskelige fejl.

»Vi har set alvorlige nedbrud i it-branchen, og meget ofte er der en menneskelig faktor. Selv om man bygger et solidt design, kan man komme til at gøre ting i den forkerte rækkefølge. Det mangler vi stadig at finde de vises sten for at undgå,« siger teknisk direktør Henrik Stæhr fra Cisco til Version2.

Cisco, som de seneste år har bredt sig fra blot at levere netværket til datacentrene og til også at være én af de top-fem største serverproducenter, har længe haft en tilgang til datacentret, hvor netværket skulle være det samlende element. En af de ting, som Cisco arbejder på, er at gøre netværket bevidst om, hvilke applikationer der kører i datacentret, og hvilke krav de stiller til netværket.

Tanken er, at hvis netværket kender applikationens behov, kan man eliminere fejl, der opstår, fordi en server er blevet konfigureret forkert til en bestemt applikation.


Mange virksomheder ønsker at opbygge en privat sky. »Men du er først nødt til at vurdere, hvor cloud-ready dit datacenter er,« påpeger Christian Hjortgaard, markedsdirektør i Conscia.

I det hele taget spiller netværk og software en større rolle, når det gælder om at sikre oppetiden i det moderne datacenter.

»Vores tilgang er at begrænse fejldomænerne. En fejl på ét niveau kan sprede sig, så redundansen ikke virker i praksis,« siger Christian Hjortgaard.

Det kan eksempelvis være en netværksfejl på grund af forkert design eller konfiguration, som er skyld i, at data ikke bliver replikeret 100 procent mellem to datacentre, der ellers skulle tjene som backup for hinanden.

En del af disse problemer kan afhjælpes ved at tage mere styring med netværket og eksempelvis går fra at have en blanding af applikationer, som benytter Layer 2, og andre, som benytter Layer 3. Her kan man eksempelvis benytte sig af Overlay Transport Virtualization, OTV, for at få bedre kontrol med Layer 2-trafikken.

»Den del skal laves rigtigt, for at datacenteret kan køre videre, og en fejl ikke kan sprede sig,« siger Christian Hjortgaard.

Denne artikel har været bragt i Version2 download-magasin Version2 Insight om DDOS angreb. Find dette og flere Insights og whitepapers her

Posted in computer.

Leave a Reply

Your email address will not be published. Required fields are marked *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>