Category Archives: computer

Britisk pornofilter blokerer for spilopdatering

Det omdiskuterede britiske pornofilter viser sig igen at være en anelse for finmasket. En opdatering til det populære online-spil League of Legends blev ved en fejl bortcensureret, fordi web-adressen indeholdt bogstavskombinationenen ‘s-e-x’. Det skriver The Guardian.

Den britiske regering indførte sidste år et omstridt filter på pornografisk materiale, som skal beskytte børn mod internettets mindre flatterende sider, men har ad flere omgange blokeret for ikke-pornografisk indhold ved en fejl.

Læs også: Britiske pornofiltre rammer nødstedte kvinder og oplysningsprojekter

Problemet med spilopdateringen blev først opdaget af en bruger på Reddit, der havde gennemskuet, at filnavnene VarusExpirationTimer.luaobj og XerathMageChainsExtended.luaobj (fed markering er tilføjet) var nok til at filteret standsede opdateringen.

Filteret er en såkaldt ‘opt-out’-løsning, der kræver, at brugerne selv kontakter sin udbyder, hvis de ønsker ufiltreret adgang til nettet. I øjeblikket findes der ikke en anden måde at få opdateringen på, hvis man har sagt ja til beskyttelse af det britiske pornofilter.

Læs også: Nu kommer det britiske porno-filter på nettet

Posted in computer.

Ondsindede exit-servere saboterer Tor-netværket

Tor-netværket har siden NSA-afsløringerne set en kæmpe stigning i aktivitet fra folk, der ønsker at skjule deres færden på internettet. Men en gruppe svenske forskere kan nu afsløre, at ikke alle frivillige bidragydere til netværkets servere har lige gode intentioner, skriver Ars Technica.

Forskerne har kunnet identificere 22 ondsindede servere, der optrådte som udgangs-servere (kaldet exit nodes), hvilket gjorde dem i stand til at udføre såkaldte man-in-the-middle-angreb. Exit-nodes er det vigtige punkt mellem Tor-netværket og resten af internettet, hvor trafikken dekrypteres og sendes til destinationen.

Ved at gøre brug af falske certifikater og et særligt værktøj kaldet SSLstrip havde de ukendte gerningsmænd held til at narre både webservere og brugere til at tro, at forbindelsen mellem dem var krypteret og sikker, mens hele datastrømmen i virkeligheden har været tilgængelig for serveren i klartekst.

Selvom forskerne mener at kunne sandsynliggøre, at serverne stammer fra samme sted, slår de dog fast, at det er højst usandsynligt, at den kontroversielle efterretningstjeneste NSA skulle stå bag opsætningen af serverne,

»Organisationer som NSA har læse/skrive-adgang til store dele af internettets backbone. De behøver simpelthen ikke at opstille Tor-servere. Vi tror, at de angreb vi opdagede, mest bliver gjort af uafhængige individer, som gerne vil eksperimentere,« skriver én af forskerne bag, Philipp Winter, i en e-mail til Ars Technica.

Posted in computer.

Ny kortlægning: 70 procent af danskerne kan få internet med 100 megabit/s

Der er store problemer med kortlægningen, og vi ved reelt ikke, om den er ganske misvisende.

Man bruger en metodik, hvor det er de dækkede, der opgøres. Herefter sammenregnes forskellige teknologiers dækning. Det vil under alle forhold give stor usikkerhed på det samlede resultat, hvis man ikke har klippefaste tal og metoder til rådighed.

Man har i år ændret metoden, så det alene er de to mest udbredte teknologier i hvert område under 30 Mbit/s, der sammenlægges på ovennævnte måde. Men hvem siger, at det er netop disse, der supplerer hinanden bedst? Det er uden teoretisk grundlag og stadig misvisende – især for de laveste hastigheder. Og så tager man lige mobil med for 2 Mbit/s og 10 Mbit/s. Med forudsætningen om uafhængighed spiller det ikke nogen rolle, at man kun har de 3 mest udbredte teknologier med. Det ses da også af resultatet.

Eksempel: Dækninger på 95,50,90 giver 99,75 samlet med metoden. 95,50,90,40 giver 99,85.

Og så rundede man tidligere optimistiske resultater ned til 99,9. Dermed bliver resultatet for 2 Mbit/s stort set uændret.

Så man siger stadig, at mindre end 10.000 ikke kan få 2 Mbit/s. Det er åbenlyst forkert. Og så svarer det ikke til 0,1 %, men næsten 0,4 %.

Måske synes nogen, at der ikke er større forskel på 99,6 og 96 % kan få 2 Mbit/s. Herregud. Det er jo alligevel langt de fleste.

Men det er samtidig en forskel på ca. 10.000 eller ca. 100.000 udækkede uden mulighed for 2 Mbit/s.

Så med for stor usikkerhed bliver resultatet stokastisk og valget at det resulterende resultat reelt et politisk valg af embedsværket i ”tågen”.
For heldigvis kan ingen umiddelbart kontrollere det.

Der er to kilder til usikkerheden.

Indrapporterede tal
Teleselskaberne indrapporterer pr. postnummer ud fra foreliggende oplysninger. Men de har ikke selv en klar oversigt, da dækning i praksis kun kan afgøres ved en direkte kundehenvendelse.
Målte liniedæmpninger på de enkelte trådpar siger ikke noget præcist om mulighederne for XDSL. De siger ikke hvordan det vil virke med det elektriske miljø, der er i kablet, når der også er andre brugere. De siger ikke, hvordan hastighederne vil ændre sig, når miljøet ændrer sig med flere kunder og nye teknologier.

For kabel-tv siger hastighederne ikke, at de også i praksis er opnåelige. Hvis 200 kunder deler 200Mbit/s fra en ø i DOCSIS er det nonsens at sige, at alle kan få 100 Mbit/s. Det kan de måske få med yderligere investeringer. Men det er jo ikke klar.

Fiber inden for 100 meter eller så er ingen garanti. For er det nu også fibre, der kan bruges til kunder på alle de passerede ejendomme ? Eller er det primært backboneegnede fibre, der stryger forbi som en motorvej uden afkørselsmulighed til alle passerede.

Teleselskaberne indrapporterer efter ret firkantede præmisser, og de tager deres forbehold i ledsagende tekst.

Det er jo umuligt at arbejde med.

Telebranchen burde tage et større ansvar for, at deres indrapporteringer er reelt retvisende, så alt ansvar ikke kastes over på styrelsen.

Sjovt nok glemmer de alle forbeholdene, når de senere henviser til styrelsens statistik.

Sammenlægning af teknologier

Styrelsen har siden 2009 brugt en metode, hvor man antog, at dækningen med forskellige teknologier er indbyrdes uafhængige.

Det betyder, at den samlede dækning automatisk stiger, når der i et postnummer er flere teknologier i brug.

Det er jo åbenlyst forkert.

Mange steder er det med stor sandsynlighed kunder, der i forvejen kan få XDSL, som også kan få kabel-tv og/eller fiber.

For den urbane faktor er afgørende for alle teknologier. Også mobil.

Det giver en systematisk undervurdering af restgruppen, der hverken har det ene eller det andet.

Det indså styrelsen endelig i sidste års kortlægning, og de varslede pilotprojekter i 2013, som skulle give et fingerpeg om størrelsen af dobbeltdækningsproblemet, og dermed en revision af restgruppens størrelse.
Men selv om problemet er åbenlyst og erkendt, er man ikke kommet en opklaring et skridt nærmere.

Det er sørgeligt.

Hvis man ikke kan finde det endelige svar på grund af datamangel, må man da kunne finde et tilnærmet svar. Et fingerpeg i det mindste.

Men nej. Man kører bare videre som hidtil – stort set.

Det er mildt sagt uvidenskabeligt og i strid med helt grundlæggende kvaliteter, der bør præge embedsværket.

Og hvad burde man så gøre i stedet

Desværre tror jeg ikke, at det kan rettes op. Når først det ærligt søgende er forladt, kan man ikke ændre det.

Så glem alt om mere retvisende resultater de næste mange år.

I stedet bør kommunerne af egen interesse danne sig et reelt overblik i tillæg til resultaterne af den landsdækkende dataindsamling. Med deres detajlkendskab og dialog med borgere og virksomheder, vil de langt nemmere finde de ømme punkter end en skrivebordskarrusel i København.

Og hvorfor skal det også være staten, der afgør, om der er god infrastruktur på drosselvej i en bestemt kommune.

For alle andre infrastrukturer henhører sådanne specifikke spørgsmål under kommunerne.

Til udvikling af metoder og redskaber kan kommunerne skabe et fælles ”laboratorium”, som man vist gør på andre områder.

Den statslige kortlægning kommer aldrig længere end ekspertisen i at modtage regneark og bearbejde dem til nye regneark uden den kontakt med den virkelige verden, som uundgåeligt vil være kommunernes primære grundlag.

Posted in computer.

Edward Snowden holder åben spørgetime

Torsdag aften har du mulighed for at stille spørgsmål direkte til en af verdens mest utilgængelige personer. Edward Snowden afholder en online spørgetime fra klokken 9 torsdag aften, hvor det vil være muligt at stille ham spørgsmål på Twitter via hashtagget #AskSnowden. Det skriver The Verge.

Svarene vil efterfølgende dukke op på Edward Snowdens officielle støtteside. På støttesiden fremgår det, at der vil være tale om en live chat, men spørgsmål kan stilles dagen igennem op til eventen, der varer en time.

Ifølge støttesiden forventes det, at hovedpersonen i NSA-lækket blandt andet vil komme med sin reaktion på præsident Barack Obamas tale om Snowden-afsløringerne i sidste uge.

Det er første gang siden juni 2013, kort efter de første afsløringer, at offentligheden har mulighed for at chatte med den berømte whistleblower.

Posted in computer.

Pengene kan tage livet af Moores Lov

Chipindustriens fremtid afhænger ikke kun af at kunne gøre mikroprocessorerne hurtigere og kraftigere. Omkostningerne skal også følge med, ellers går udviklingen i stå. Det vurderer analysefirmaet McKinsey i en artikel fra december.

Chipindustrien har siden 1960′erne levet op til en observation og strategi om at fordoble antallet af transistorer på en chip til samme pris i løbet af to år. Det er kendt som Moores Lov, som hidtil har holdt stik, men den ser nu ud til at være på vej mod enden.

Det skyldes hovedsageligt de fysiske problemer, der opstår, når man forsøger at skrumpe de nuværende teknologier. Men selvom chipproducenterne fortsat holder liv i Moores Lov, så stritter økonomien også imod.

Læs også: Moores Lov lever på lånt tid: Hvad sker der efter 2020?

»Industrien har holdt sig til Moores Lov, og det har ført til faldende chippriser. Prisen pr. bit for RAM-kredse er eksempelvis faldet med 30 til 35 procent om året i flere årtier. Resultatet har været, at Moores Lov har trukket meget af den moderne verden med sig. Ifølge visse estimater kan 40 procent af væksten i den globale produktivitet tilskrives udviklingen i it-teknologi, som er gjort mulig af forbedringer og lavere priser på chips,« skriver Mckinsey-analytikerne Harald Bauer, Jan Veira og Florian Weig i deres artikel.

Men lige nu ser det ikke ud til at fortsætte efter 2020, medmindre der sker noget drastisk. Det er et velkendt problem inden for produktion, som er drevet af produktudvikling.

»Udviklingen følger som regel en S-kurve, hvor det starter langsomt, så går det stærkt, og så begynder det at gå langsomt mod et teoretisk maksimum. Det har vi eksempelvis set i bilindustrien med udviklingen af bildæk, hvor der blev brugt forskellige materialer til at forbedre, hvor mange kilometer man kunne køre på dækket,« forklarer professor i innovation og strategi Christer Karlsson fra CBS til Version2.

Lige nu er vi på den stejle del af S-kurven med eksponentiel udvikling, men meget peger på, at kurven snart vil begynde at flade ud. Hvad der så vil ske, er imidlertid ikke let at forudsige.

»Hvis der kommer en ny teknologi, så får vi en ny S-kurve, men det er svært at forudsige, hvornår det vil ske,« siger Christer Karlsson.

De førende chipproducenter som Intel og Samsung arbejder både på at forbedre den nuværende teknologi og på nye teknologier, som kan overtage. Men hvornår gennembruddet kommer for nye teknologier, afhænger i høj grad af de markedsledende producenters strategi.

»Når kurven er truet, så vil producenterne investere endnu mere. Det kan gøre det sværere for en ny teknologi at bryde igennem. Men før eller siden, sker det. Det så vi med radiorør og transistorer,« siger Christer Karlsson.

Afhængig af to teknologier

Meget afhænger af i hvor høj grad de førende producenter vil forsvare den nuværende teknologi. De vil ofte sidde inde med en stor del af den nødvendige viden, som skal til for at bringe en helt ny teknologi i spil, men det er ikke sikkert, at de selv er villige til at spille deres kort, før det er absolut nødvendigt.

Ifølge McKinsey-analytikerne er det ikke kun et spørgsmål om, hvorvidt chipproducenterne kan blive ved med at gøre processorerne kraftigere. Prisen skal også holdes nede, og det kan blive et stort problem.

Derfor peger analytikerne på to teknologier, som er afgørende for at holde liv i Moores Lov, nemlig udviklingen af produktion ved hjælp af EVO-litografi (Extreme Ultraviolet) og 450 millimeter wafers.

Ved at mindske bølgelængden på det lys, som bruges til at trække kredsløbene på siliciumskiverne, kan der produceres chip, hvor kredsløbene er endnu mindre. Det forudsætter dog udvikling af nyt produktionsudstyr, ligesom det kan blive svært at holde fejlraten nede.

I dag produceres de fleste processorer på silicium-skiver eller wafers, som har en diameter på 300 millimeter. Næste skridt er wafers med en diameter på 450 millimeter. En wafer er en tynd skive, som skæres ud af en ren blok af siliciumkrystal. Jo større en skive, jo større en ren siliciumblok skal man bruge, og det er lige nu dyrt.

Hvis de to teknologier når til et niveau, hvor det bliver en økonomisk fordel at bruge dem til masseproduktion, så vil Moores Lov kunne forsætte et stykke tid endnu. Hvis det ikke lykkes, så kan vi frem til 2020 begynde at se, at Moores Lov ikke længere holder stik.

Økonomien kan blive enden på Moores Lov

Skulle Moores Lov nå sit endeligt, så vil det betyde, at de nyeste processorer ikke vil kunne opretholde et teknologisk forspring, og det bliver mere trivielt og billigere at producere en processor, der kan måle sig med den nyeste generation.

Det behøver dog ikke være et komplet nedbrud for Moores Lov. Det er også muligt, at vi blot vi se en opbremsning i de forbedringer i enten ydelsen eller prisen, som vi har været vant til. I begge disse scenarier er det dog tvivlsomt, at producenterne vil kunne opretholde efterspørgslen.

Ifølge McKinsey-analytikerne er det mest sandsynlige, at vi først når det punkt, hvor der ikke længere sker forbedringer i produktionsomkostningerne, og det vil være vendepunktet, hvor Moores Lov vil afhænge af EUV-litografi og 450 millimeter wafers.

»Mens der er positive tendenser for den fortsatte gyldighed af Moores Lov ud fra et teknologisk perspektiv, så kan det økonomiske vise sig at blive dens endeligt. Den seneste udvikling tyder på, at økonomien i fortsat at krympe kredsløbene kan bryde sammen i takt med, at prisen pr. transistor vil flade ud for produktionsteknologi til kredsløb med en detaljegrad under 28 nanometer,« skriver McKinsey-analytikerne.

Lige nu kan de mest avancerede chipproduktionsanlæg fremstille mikroprocessorer, hvor de mindste detaljer i kredsløbene er 22 nanometer. I år ventes Intel at begynde produktion ved 14 nanometer.

Der er helt frem til 5 nanometer-produktionsteknologier på tegnebrættet, men det er altså uvist, hvorvidt omkostningerne er for store til at gøre det rentabelt at fremstille mikroprocessorer med denne teknologi.

Posted in computer.

Printere melder systematisk om fejl – men virker fint

Mange printere bliver smidt, ud fordi de tilsyneladende ikke virker længere. Men kigger man nærmere på dem, skal de blot nulstilles eller på anden måde lokkes til at tro, at de er helt nye apparater, der ikke har printet en side.

Det viste DR’s magasin Kontant tirsdag aften, blandt andet med et eksempel, hvor ti tilfældige printere fundet på genbrugspladsen blev sendt til en reparatør, som nemt fik otte af dem til at virke igen.

Antallet af printede sider bliver tilsyneladende registreret, og når printerproducenten så forventer, at for eksempel en pude til overskydende blæk må være fyldt op og bør skiftes, stopper printeren og giver en uforståelig fejlmeddelelse, selvom der i praksis intet er galt med printeren, forklarede reparatøren.

Samme problem gælder blækpatronerne, som via en indbygget chip kan give besked om blækniveau. Men for at fastholde salget af dyrt, originalt blæk, vil blækpatronerne også melde fejl og fejlmelde printeren, hvis der ifølge chippens beregninger er printet for meget med én blækpatron, uanset om der stadig er blæk i patronen, eller den er blevet genopfyldt. En hurtig nulstilling af chippen kan således også få ’død’ printer til at fungere normalt igen.

Ingen af printerproducenterne ville i et interview svare Kontant på, hvad der sker, eller hvorfor det sker, men overlod kommunikationen til foreningen IT-Branchen, der heller ikke ville stille op til interview, men sendte en skriftlig besked.

Meldingen herfra var, at ingen producenter arbejder med ’planlagt forældelse’ af produkterne. Fejlmeddelelserne er en service for kunderne, så de får besked om, at der er mulighed for fejl, for eksempel at blæk løber over, hvis blækopsamlingspuden bliver fyldt, lød meldingen. På samme måde er en fejlmeddelelse om lav blækbeholdning en service, så man ikke går i gang med et stort printjob, der senere må kasseres, lyder branchens forklaring.

Læs svarene fra producenter og IT-Branchen.

Posted in computer.

Backupfirma: Her er de harddiske, der holder bedst

Selvom man selvfølgelig altid har taget backup af alle sine data, er et harddisk-nedbrud aldrig særlig sjovt. Men de fleste råd om, hvilke mærker der holder bedst, læner sig op ad mavefornemmelser, typisk ud fra en dårlig oplevelse i 1992, hvor en død harddisk kostede to ugers ekstra specialearbejde.

Men nu har backupfirmaet Backblaze offentliggjort de interne logs over levetiden for de harddiske, der bliver brugt af firmaet selv. Og det er ikke dyre enterprise-harddiske, der bliver brugt, for indkøbsstrategien har været at gå efter det billigste, som kan holde i noget tid, og så have nok RAID-redundans, når et drev stiller træskoene.

Ved udgangen af 2013 var der 27.134 harddiske i brug hos Backblaze, så analysen hviler på et nogenlunde stort datagrundlag, med primært diske fra Seagate og Hitachi, samt lidt færre styk fra Western Digital. Et lille antal diske fra Toshiba og Samsung er ikke taget med i undersøgelsen. To særlige modeller med lavt energiforbrug har haft så mange fejl, at de heller ikke er taget med, fordi tanken er, at de simpelthen ikke passer ind i produktionsmiljøet hos Backblaze, men derudover godt kan være gode nok.

Resultatet er ret klart: Hitachi lammetæver Seagate, der har en fejlrate, som er mellem 3 og 14 gange så høj som på Hitachi-diskene. Western Digital klarer sig pænt, men ikke lige så godt som Hitachi.

Det er især Seagates Barracuda 7200-model på 1,5 terabyte, der har drillet, med en årlig fejlrate på 25 procent, og så nogle Barracuda Green-diske, der blev sendt fra Seagate som erstatning for drev, der fejlede under garantien. Green-diskene har voldsomt høje årlige fejlrater på 120 procent, men de var måske også brugt, da Backblaze modtog dem, lyder rationalet.

Hitachi-drevene klarer sig altså klart bedst, men er svære at finde til samme lave pris som de andre. Så indkøberne hos Backblaze køber lige nu Seagate Desktop HDD.15 på 4 terabyte og Western Digital 3TB Red – og så må de bare holde lidt øje med dem, lyder konklusionen på analysen.

Se alle data fra analysen i blogindlægget fra Backblaze.

Posted in computer.

16 mio. tyske e-mail-passwords stjålet

De tyske myndigheder har opdaget, at millioner af computere er inficeret med et program, der finder e-mail-passwords og sender dem videre via et netværk af inficerede computere. Det skriver BBC.

Hovedparten af de omkring 16 mio. mailadresser lader til at tilhøre tyskere, da omkring halvdelen af dem ender på .de. Hvis alle 16 mio. adresser tilhører tyskere, svarer det til, at hver femte tysker rammes af angrebet.

Angrebet har stået på over længere tid, fortæller de tyske myndigheder til Financial Times. Myndighederne har nu lavet en onlinetjeneste, hvor man kan se, om ens e-mail-adresse er ramt. Tjenesten har, siden den blev oprettet, været hårdt presset af store trafikmængder.

I Tyskland opblusser sagen debatten om it-sikkerhed, som senest kom på den offentlige dagsorden i forbindelse med Snowdens afsløringer og særligt i forlængelse af, at kansler Angela Merkels telefon var blevet hacket.

Posted in computer.

Google Glass-bruger afhørt på biograftur

En Google Glass-bruger fra Ohio havde i weekenden sine briller på under et besøg i biografen. Det resulterede i et tre timer langt forhør af statslige agenter, der mistænkte ham for at optage film fra biografen. Det forklarer manden selv i en mail bragt på websitet The Gadgeteer.

Manden, som har fået indbygget styrke i sine Google Glass og derfor også bruger dem når han bliver nødt til at have dem slukket, blev ifølge sit eget udsagn ført ud af biografen af agenter fra det amerikanske immigrations- og toldagentur, ICE og derefter afhørt i over tre timer.

Først efter afhøringen kiggede agenterne på indholdet af mandens Google Glass og konkluderede, at han var uskyldig og kunne løslades. Ifølge ICE var der dog tale om et kort interview. En talsperson fra ICE skriver i en udtalelse:

»Den 18. januar afhørte ICE’s Homeland Security-afdeling sammen med lokale myndigheder kortvarigt en mand under mistanke for at bruge en elektronisk optager til at optage en film i AMC-biografen i Columbus,« skriver talspersonen, Khaalid Walls.

»Manden, som frivilligt besvarede spørgsmål, gjorde over for myndighederne opmærksom på, at den mistænkte optager også var et par lægeordinerede briller, hvori optagefunktionen havde været inaktiv. Der blev ikke gjort mere i sagen,« afslutter han.

Posted in computer.

Private it-leverandører skal ikke certificeres efter statens nye sikkerhedsstandard

Den snart ni år gamle standard for informationssikkerhed, DS484, er nu formelt på vej ud ad døren hos statens myndigheder, der inden længe skal begynde overgangen til den nyreviderede internationale standard ISO 27001, der udkom på engelsk i slutningen af november sidste år.

Læs også: Statens nye standard for it-sikkerhed er klar til brug

Den nye standard er i skrivende stund ved at blive oversat hos Dansk Standard, og ifølge Digitaliseringsstyrelsen lyder den seneste melding fra standardiseringsorganisationen, at der vil gå tre-fire uger, før den danske oversættelse er færdig. Derefter begynder hele det danske statsapparat at pløje sig igennem de nye krav til informationssikkerheden.

Men selvom den nye standard er til for blandt andet at sikre borgernes følsomme personoplysninger, skal myndighederne ikke gennemgå en certificeringsproces, men blot sørge for at leve op til forskrifterne i standarden.

»De offentlige myndigheder skal ikke certificeres – vi skal bare overgå til den nye standard. Der er ikke noget krav om certificering,« siger Cecile Christensen, der er kontorchef for it-standardisering og sikkerhed hos Digitaliseringsstyrelsen, til Version2.

Det samme gælder teknisk set også for de private it-leverandører, myndighederne måtte gøre brug af. Myndigheden er dog ansvarlig for at sikre sig, at leverandøren ligeledes lever op til kravene.

»Der er ikke krav til, at din leverandør skal være ISO-certificeret. Myndigheden kan jo godt selvstændigt stille krav i kontrakten til sin leverandør om, at de skal sørge for, at alle relevante forhold i ISO 27001 er overholdt, uden at leverandøren nødvendigvis er certificeret,« siger Cecile Christensen til Version2.

KMD og CSC er to af Danmarks største private driftsleverandører af offentlig it, og af deres respektive hjemmesider fremgår det, hvilke internationale standarder, de to virksomheder er certificeret til. CSC er således certificeret til ISO 27001, mens KMD ‘blot’ har et DS484-certifikat. (Rettelse: KMD har efter artiklens offentliggørelse oplyst Version2 om, at de i december sidste år blev ISO 27001-certificeret, men at hjemmesiden endnu ikke er opdateret.)

Læs også: It-sikkerheden skal ikke godkendes, når staten outsourcer følsomme data

Myndigheden skal selv sørge for teknisk indsigt

Cecile Christensen understreger, at Rigsrevisionen løbende fører opsyn med, om myndighederne blandt andet har foretaget den risikovurdering, der er et centralt element i standarden. Den skal være på plads, uanset om myndigheden gør brug af en privat databehandler eller ej.

»Det er myndighedens ansvar, at leverandøren lever op til standarden. Her er det jo vigtigt med det her risikovurderingselement, for man skal ikke ind og stille de samme krav til alle systemer. Man skal netop kigge på hvilke data, der skal behandles, hvor kritisk løsningen er, og så sørge for, at sikkerhedsniveauet matcher det niveau af sikkerhed, der er behov for i den konkrete løsning,« siger hun.

Det lyder jo meget teknisk. Har myndighederne kompetencer til selv at foretage sådan en vurdering?

»Der er både tekniske krav og mere forretningsmæssige krav. Overordnet handler standarden meget om, at man forretningsmæssigt skal forholde sig til, hvad det er for data, man behandler, og hvordan man bedst passer på dem,« siger Cecile Christensen til Version2.

»Der kommer så et lag nedenunder, når du har identificeret de kritiske data, der skal passes virkelig godt på, hvor du er nødt til at kigge på, hvordan du rent teknisk får løst den opgave. De krav skal vi selvfølgelig også stille til vores leverandører,« siger hun.

Hvordan har den enkelte myndighed mulighed for at løse den opgave, hvis den ikke har de store it-kompetencer?

»Det er jo op til den enkelte myndighed at stille de rigtige krav. Jeg har for eksempel en tekniker siddende her i forhold til NemID, som kan kommunikere med teknikerne hos Nets og vurdere, om det, vi får, er noget, vi er tilfredse med. Og har man ikke de kompetencer in-house, så kan man blive nødt til at købe en konsulent, der kan hjælpe en med at stille de rigtige krav til leverandøren,« siger Cecile Christensen til Version2.

Lars Stig Jørgensen er it-sikkerhedschef i Region Sjælland og sidder som næstformand i Rådet for Digital Sikkerhed. Han mener, at det ville være en gevinst for alle parter, hvis myndighederne ikke selv behøvede at formulere de omfattende krav.

»Det ville da være en rigtig god idé, hvis det er sådan, at man hos de her leverandører kan sikre, at de enten er certificerede eller på anden vis garanterer et vist niveau, så det ikke er den enkelte kunde, der skal ind og stille krav, hver gang,« siger Lars Stig Jørgensen til Version2.

»Det ville da også være rart for leverandøren at kunne sige, at man har det niveau, som er krævet rent sikkerhedsmæssigt, så jeg tror da egentlig, det er en gevinst for alle parter,« siger han.

Posted in computer.