Category Archives: computer

Feltet indsnævres til fem kandidater: Elop er stadig i spil som topchef for Microsoft

Jagten på afløseren til Steve Ballmers stilling som topchef i Microsoft er ifølge kilder tæt på processen blevet snævret ind til fem eksterne kandidater. Det skriver Reuters.

På den hemmelige liste, der oprindelig startede med omkring 40 mulige kandidater, finder man ifølge kilderne stadig Nokias tidligere topchef Stephen Elop, der under et konspiratorisk stormvejr forlod Nokia kort efter Microsofts opkøb af virksomhedens mobilforretning tidligere i år og blev ansat som executive vice president i Microsoft. Før Elop kom til Nokia i 2010, var han også ansat i Microsoft som chef for Business-divisionen, der blandt andet udvikler Microsoft Office og ERP-systemerne Dynamics.

Men investorerne bag Microsoft har den seneste tid presset på for at finde en chef, der tidligere har vist evner for at vende skuden i kriseramte virksomheder. Derfor har Microsoft også øjenene på eksterne folk som Fords direktør, Alan Mulally, der formåede at skabe store kulturelle ændringer hos den amerikanske bilproducent, som fjernede de røde tal på bundlinjen.

I den forbindelse har investorerne også anbefalet, at Microsofts grundlægger og tidligere topchef Bill Gates træder tilbage som bestyrelsesformand, da man er bange for, at en ny chef ellers ikke vil kunne opnå frihed til at gennemføre eventuelle radikale reformer.

Foruden kandidaterne på den eksterne liste har softwaregiganten yderligere tre interne kandidater, der blandt andet tæller chefen for forretningsudvikling, Tony Bates, som tidligere var øverste chef for Skype.

Selvom Stephen Elop siden september formelt har været Microsoft-ansat, bliver han altså stadig sat på listen over eksterne kandidater.

Posted in computer.

Se Dynamics AX styre ekstrem sorteringsfabrik i Lego

Posted in computer.

Sikkerhedsekspert: Lavabits sikre e-mail var ikke så sikker igen

E-mail-tjenesten Lavabit blev i august måned lukket ned af stifteren Ladar Levison for at forhindre, at den amerikanske regering kunne få held med at kræve brugernes data udleveret.

Tjenesten havde ellers promoveret sig selv som et meget sikkert mailsystem. Så sikkert, at end ikke tjenestens it-administratorer – og dermed slet ikke myndighederne – havde adgang til brugernes e-mail-data.

De to forhold har fået Moxie Marlinspike, der er kryptograf, udvikler, sikkerhedsekspert og et kendt ansigt på konferencen Black Hat, til at undre sig. For hvorfor var det overhovedet nødvendigt at lukke for tjenesten for at undgå at skulle udlevere brugerdata, hvis folkene bag slet ikke havde mulighed for at tilgå dem?

Ifølge Moxie Marlinspike viser det sig, at tjenesten ikke var så sikker, som den selv gav udtryk for. Ifølge Marlinspike kunne tjenestens faktiske sikkerhed direkte sammenlignes med en hvilken som helst anden ukrypteret mailudbyders.

Det skyldes flere tekniske årsager. Marlinspike begynder med at forklare den måde, som systemet lagrede sine data på:

Når brugeren oprettede en konto hos Lavabit, skulle vedkommende vælge et kodeord, som blev lagret på systemets server. Herefter ville systemet generere et nøglesæt til brugeren, som bruges til at kryptere de indkomne mails. Både brugerens kodeord, nøglesættet og de krypterede mails blev altså lagret på den samme server.

Efterfølgende, når brugeren ville læse en e-mail, ville vedkommende sende sit kodeord til serveren i ren tekst, hvorefter e-mailen blev dekrypteret inde på serveren, som sendte indholdet tilbage til brugeren i klartekst.

Det betød med andre ord, at systemet i teknisk forstand blot lovede, at det ikke vil læse den klartekst, som blev sendt ind og ud af serveren. Men det var teknisk muligt, hvis Lavabit-folkene eller NSA skulle få lyst.

Desuden gjorde opbygningen det blandt andet muligt for en hacker enten at logge det kodeord, som brugeren sender til serveren, eller opsnappe den ukrypterede kommunikation til serveren, som både vil give hackeren adgang til kodeord og mails – hvilket som nævnt også ville være muligt med enhver anden ukrypteret mailudbyder.

Læs flere detaljer om Moxie Marlinspikes tekniske kritik her.

Posted in computer.

Blog: New Public Managment er gift for universiteterne

En artikel i Version2′s søsterblad Ingeniøren citerer forskning, der påpeger, at brug af performancemål m.m. (som ellers er god latin i “New Public Management”) er decideret hindrende for vækst og innovation. Forskningen omhandler ingeniørvirksomheder, men der bruges også eksempler fra landspolitik, og der er ikke noget umiddelbart, der tyder på, at situationen er væsentligt anderledes i andre offentlige eller private institutioner, specielt videnstunge institutioner såsom universiteter.

Specielt citatet »Når der er skarpt fokus på performancetænkning, kommer virksomhederne nemt til at belønne noget, der ligner en løsning – fremfor at belønne den rigtige løsning« kan jeg nikke genkendende til.

Problemet opstår blandt andet fordi kvalitet er ualmindeligt svært at måle, så da man partout vil måle på et eller andet i “New Public Management”s hellige navn, så måler man på alt muligt andet — ofte kvantitet. Men målene bliver i traditionen fra Orwells Newspeak alligevel kaldt “kvalitetsmål”, for det lyder finere. Specielt kan det ses i uddannelsesverdenen, hvor uddannelsesinstitutionerne bliver belønnet for hvor mange studerende, der kan klemmes igennem uddannelserne hurtigts muligt, mens der ikke er noget reelt krav om kvalitet. Selv uddannelsesakkrediteringer fokuserer mere på procedurer for “kvalitetssikring” end på det faktiske niveau og indhold af uddannelserne. Der er heldigvis tegn på opvågnen fra ministerens side, men selv her er der tale om en art performancemåling, blot af en anden art: I stedet for at måle på antallet af uddannede, måles på beskæftigelsen af de færdiguddannede. Plus ça change

I stedet bør ministerier og andre politikere holde sig fra performancemålinger og dekreter og give mere frihed til universiteterne til selv at administrere uddannelsesforløb og krav (eller mangel på samme) til studerendes gennemførsel. Og på samme måde bør universitetsledelserne give mere selvbestemmelse til de enkelte uddannelser, og uddannelserne mere selvbestemmelse til de enkelte undervisere.

Det samme gælder også forskning: Målinger af antal publikationer og citater er ikke et kvalitetsmål men blot endnu et kvantitetsmål, som endda har den negative effekt, at der publiceres tusindvis af artikler om ganske små fremskridt og delresultater, hvor det fagligt giver mere mening at samle dem i større artikler eller afhandlinger. Men det tynger jo ikke så meget på den vægtskål, som forskerne bedømmes med. Målene belønner endvidere forskning i felter, hvor der i forvejen er mange andre forskere — for det giver alt andet lige flere citater. Men det er måske netop ikke der, at der er mest behov for en øget forskningsindsats?

Jo, manglende styring kan misbruges. Men det kan performancemål så sandelig også. Det ser man for eksempel i sager om forskningsfusk, hvor forskere snyder med de performanceindikatorer, de bliver målt på for at jagte forfremmelser og forskningsmidler. Misbrug af manglende styring opdages som regel hurtigt af kolleger og de nærmeste ledelseslag helt uden brug af mål og vægt, hvor misbrug af mål og vægt kan være langt sværere at opdage.

Vinderne i performancekulturen er de folk, der ansættes til at måle og kontrollere, men taberne er alle os andre.

Posted in computer.

Danskudviklet Dynamics AX kommer i skyen til april 2014

BARCELONA Fra april 2014 får også virksomheder i enterprise-klassen mulighed for at få deres ERP-system hostet i skyen.

Det bekræfter Microsofts øverste chef for forretningsløsninger Kirill Tatarinov i et interview med Version2.


Kirill Tatarinov demonstrerer alvoren bag “Devices & Services”-strategien fra Microsoft. Det eneste stykke papir i hans mappe er en backup-udskrift af hans flybillet, som ellers ligger som QR-kode på telefonen.

»Dynamics AX kommer til at køre på Microsoft Azure i første kvartal af 2014, nærmere betegnet april,« siger Kirill Tatarinov

Dermed går Dynamics AX 2012 fra R2 til R3.

»Du kan godt sige, at R3 svarer til R2 ‘done right’,« siger Kirill Tatarinov til Version2.

Hostet løsning i Azure

I lighed med Dynamics NAV, der allerede er kommet i cloud-udgave, er der ikke tale om et helt nyt produkt, hvor koden er genskrevet specifikt til at blive afviklet i skyen. I stedet har Microsoft valgt at lade installationerne køre i virtuelle maskiner, der så bliver hostet i Azure-skyen.

»I første omgang går vi efter en model, hvor partnerne kan flytte AX-installationen ud i skyen. Men arbejdet med at få AX fuldt og helt som Platform-as-a-Service fortsætter, og vi regner med at have det klar i 2015,« siger Kirill Tatarinov til Version2.

Læs også: Microsoft rykker Dynamics CRM ud på “any device”

Store dele af arbejdet med at udvikle Dynamics AX 2012 R3 er lavet i Microsofts udviklingscenter i Vedbæk nord for København, og både Kirill Tatarinov og Microsofts øverste ERP-chef Hal Howard tager efter Convergence-konferencen i Barcelona flyet til København for at mødes med de vigtige Dynamics-udviklere.

Men rent faktisk er Vedbæk-udviklerne angiveligt ved at lægge allersidste hånd på Dynamics AX 2012 R3

AX 2012 R3 så godt som færdig – og dog


Hal Howard, Corporate Vice President for Microsoft Dynamics ERP Foto: Morten K. Thomsen

»Produktet er så godt som færdigt. vi sender en release ud om to uger, der er fuldt funktionsdygtig. Resten af tiden frem til april kommer blandt andet til at gå med test og integrationer,« siger Hal Howard i et interview med Version2.

Version2 erfarer dog fra kilder tæt på processen, at en fuldt funktionsdygtig release inden for 14 dage nok er et idealiseret billede, der ikke helt stemmer overens med virkeligheden.

Hal Howard er heller ikke meget for at løfte sløret for, hvad de næste udfordringer for udviklerholdet i Vedbæk så er, ud over, at man næppe skyder helt forbi, hvis man gætter på “noget med cloud”.

»Det ligger naturligvis helt i tråd med vores transformation på vejen til at blive en devices & services-virksomhed,« siger Hal Howard og nævner det andet Dynamics-produkt med danske rødder, NAV:

»Vi kan se på NAV-siden, hvor vilde kunderne er med at deploye direkte som Infrastructure as a service (Iaas) på Azure. Infrastruktur er bare bøvl for kunderne, og så behøver de heller ikke bekymre sig om backup og den slags,« siger Hal Howard til Version2.

Version2 er inviteret til Concergence-konferencen af Microsoft.

Posted in computer.

Blog: Så er der fest!

Kære Dagbogslæsere -

Da vi i sin tid (november 2000) startede Miracle lavede vi en fest som noget af det første. Et stort telt, der fyldte hele min have, med trægulv og varme, masser af sjove øl indkøbt i Tyskland (og kørt ind i teltet på trillebører efterhånden, som de blev drukket), og varme pølser med brød – det var alt, hvad der skulle til. Der kom 2-300 mennesker helt ud til 2760 Målløs, hvor jeg bor, og de fik sig en øl eller to, fik set Garagen, hvor Miracle havde hovedkvarter, og fik snakket med både os og andre IT-folk.

Samlet budget dengang var vist 17K til teltet og 2-3K til resten. Effektivt og billigt, og vi fik møder og ordrer med det samme, og havde positivt cashflow allerede den første måned, selvom vi startede med syv-otte folk.

Der er ingen grund til ikke at bruge det startup-trick igen, så her er en invitation, som Ole og jeg her til morgen har spredt via Facebook, LinkedIn, Twitter og Google+.

I er hermed alle sammen inviterede. Smid en mail til mig eller Ole, hvis I kommer. Har I et sjovt nano-foredrag I kunne tænke jer at holde, så skriv til mig.

Hvis man ind i mellem bliver nervøs for, om der kommer for mange mennesker til et arrangement, så husk én af mine grundsætninger og én af min tidligere makker Lasses grundsætninger:

Min grundsætning om for mange deltagere: Man kan ALTID håndtere en overvældende succes. At finde på noget i sidste øjeblik, fordi man bliver væltet af tilmeldinger er fedt og nemt og sjovt.

Lasses grundsætning om fester, events og arrangementer: Hvis der ikke er sat stole nok op synes folk det er en succes. Hvis al maden bliver spist synes folk det er en succes. Hvis man løber tør for drikkevarer synes folk det er en fiasko.

Nå, til sagen:

======================================================================================
Så er FAIR & SQUARE etableret – Kom til housewarming & reception den 21. November

Vi har et råt slumstormerkontor med wifi, de første medarbejdere er ansat, og vi skal i de kommende år erobre Verden, eller ihvertfald noget af den danske IT-Verden :-).

Det markerer vi med en nano-konference kombineret med reception og housewarming torsdag den 21. november fra kl. 13.00 til kl. 23.42.

Programmet er:

13.00-1500: Nano-foredrag af kendte og ukendte mennesker om bl.a. Big Data- og NoSQL-teknologier, gennemsigtighed på outsourcing-markedet, en vanvittig cloud, applikationsudvikling på 25% af den normale tid, m.m.

15.00-23.42: Reception og housewarming, inkl. vores berømte Team Chili-chili, og måske et par enkelte øl og lidt champagne.

Sådan finder I os:

Find Titangade nr. 1 og gå ind igennem den hvide port og fortsæt om til den store, grå bygning i baggården, op ad jerntrappen til 2. sal og ind ad døren. Der står PT på muren, fordi det forrige firma hed ADEPT, og de kan ikke nå de sidst to bogstaver fra trappen.

Parkering på Ydre Nørrebro er i øvrigt gratis. Ellers går f.eks. bus 6A fra Nørreport Station og Bispebjerg Station, og bus 42 stopper naturligvis også i nærheden.

Giv os gerne besked om, hvornår du/I kommer, hvor mange I er – og om I er allergiske overfor chili :-)

Vi glæder os til at se jer. Alle er velkomne.

Venlig Hilsen,

FAIR & SQUARE
Mogens Nørgaard & Ole Erecius
Rådmandsgade 55, 2. sal
2200 København N

Ring til os på: 53747100 & 28142882

http://Facebook.com/FairAndSquare.dk

Følg os på: Facebook & LinkedIn

Posted in computer.

Fiber til alle: Los Angeles vil rulle lynhurtigt internet ud

OPDATERET: Byrådet i Los Angeles arbejder i øjeblikket på en ambitiøs plan om at få bredt fibernet ud til alle byens borgere, virksomheder og offentlige organer inden for byens grænser.

Foreløbig har byrådet enstemmigt givet grønt lys til, at der kan udvikles en udførlig skitse over projektet, der ventes at koste mellem 16 og 28 milliarder kroner, udgifter som det teleselskab, der vinder opgaven, selv skal dække.

Skitsen ventes af være færdig inden for få uger, hvor rådet igen vil stemme om, hvorvidt planerne kan sættes i gang. Det skriver Ars Technica.

Hvis projektet bliver en realitet, vil borgerne i Los Angeles blive tilbudt gratis internetadgang med hastigheder på 2-5 megabit pr. sekund, som sandsynligvis vil blive finansieret af reklamer. Hvis man er villig til at betale, kan man dog få reklamefri adgang med hastigheder på op imod 1 gigabit pr. sekund.

Det nye fibernetværk vil ikke kun betyde kablet internetforbindelser til alle. Netværket vil også skulle levere wi-fi hotspots forskellige steder på offentlige områder i byen. Den menige borger i LA kan i dag typisk købe sig til bredbåndsforbindelser på mellem 5 og 50 megabit pr. sekund hos de gængse internetudbydere. Men det er kun virksomheder, der i dag har adgang til internetforbindelser i gigabitklassen, og prisen er høj – og højere end andre steder i USA.

Ved at finde en leverandør, der skal lægge fiber ud til hele byen, forventer byrådet, at leverandøren kan tjene investeringen hjem ved at tilbyde andre tjenester over fiber, for eksempel kabel-tv.

I Danmark har Folketinget vedtaget at støtte udrulning af hurtigere internet på Bornholm med 60 millioner kroner, mens flere kommuners ønsker om at tilbyde gratis wifi i bymidten er blevet skudt ned af reglerne på området.

Læs også: Bornholmere får 60 millioner i gave til hurtigere internet

Det fremgik tidligere af artiklen, at bystyret i Los Angeles ville finansiere udrulningen af fibernetværket, hvilket var en fejl.

Posted in computer.

Kæmpe kriseøvelse: Danmark under massivt cyber-angreb

I disse NSA-tider står det efterhånden klart for enhver, at allestedsnærværende it-systemer ikke nødvendigvis er ufejlbarlige og uigennemtrængelige. De kan hackes, DDoS’es og overtages, så kritisk infrastruktur pludselig ikke længere er tilgængelig.

Danske myndigheder skal være i stand til at samarbejde professionelt under de værst tænkelige forhold, når for eksempel kommunikationsnettet er under angreb, og fundamentale it-systemer holder op med at virke. Derfor afholder Beredskabsstyrelsen en omfattende øvelse, hvor netop det er hovedscenariet.

Øvelsen hedder KRISØV 2013 og afvikles i et samarbejde mellem Beredskabsstyrelsen og Rigspolitiet. Det er en tilbagevendende begivenhed, der hvert andet år tester beredskabet på tværs af Danmarks kritiske infrastruktur, og i år er det ubestridelige tema ‘cyber-angreb’.

Formålet er ikke at teste, hvor hurtigt teknikere kan redde kompromitterede it-systemer, men snarere at øve myndighederne i at håndtere konsekvenserne af de opstillede hændelser og kommunikere vigtige beredskabsmeldinger ud til befolkningen.

Øvelsen består af en øvelsesledelse, der udsender hændelserne til de myndigheder, de umiddelbart berører. Et fiktivt nyhedsbureau er oprettet til lejligheden og har på forhånd fået udleveret drejebogen for kriseøvelsen og ud fra den skrevet en række nyhedstelegrammer, der bliver sendt i omløb i løbet af de to dage, det fiktive cyberangreb varer.

Version2 deltager som medie i kriseøvelsen sammen med DR og Computerworld og skal agere som i enhver anden situation på de nyheder, der kommer ud. Myndighederne stiller således med medarbejdere, der kan kommunikere med pressen, da det blandt andet er krisekommunikation, der er i fokus under øvelsen. Samtidig vil der komme indspil fra borgere via et Twitter-lignende socialt medie. Her kan medierne opsnappe historierne fra første hånd, mens de sker. Alle nyheder vil dog kun publiceres ‘inde i spillet’, og deltagerne – herunder Version2 – må ikke efterfølgende fortælle offentligheden, hvordan kriseøvelsen forløb bag kulisserne.

Øvelsen forløber over to dage fra i dag onsdag til og med torsdag eftermiddag.

Posted in computer.

Gartner til større virksomheder: Maks 2 datacentre per kontinent!

Globale virksomheder har generelt for mange datacentre i for mange forskellige lande. Det er typisk et naturligt resultat af virksomhedernes årevise vækst, men set fra et forretningsmæssigt synspunkt er det en meget ineffektivt model.

I stedet bør virksomhederne begrænse og konsolidere sine datacentre, så de maksimalt har to datacentre for hvert kontinent, den er tilstede i. Det skriver Gartner i en pressemeddelelse.

Hvis en virksomhed har mange datacentre under vingerne, har den nemlig sværere ved at reagere hurtigt på forretningsmæssige ændringer på grund af de mange administrative lag og dyre designændringer, som ændringerne vil kræve.

Derfor mener Gartner, at det især for større virksomheder vil give god mening at ændre sin datacenter-topologi til en dual-site tankegang, som blandt andet gør det muligt at streamline sin forretningsudvidelse og datacenterarkitektur. Men det kan også give mening for i forhold til it-sikkerhed og drift.

»Twillinge-datacenter topologien giver mange fordele, såsom at give mulighed for at lave et fornuftigt disaster revovery-niveau. Det kan ske via en aktiv konfiguration, hvor hvert datacenter opdeler produktions- og udviklingsarbejdet og kan overlade arbejdsbelastningen til det ene datacenter i tilfældet af nedbrud,« udtaler Gartners underdirektør for research, Rakesh Kumar i pressemeddelelsen.

Dog fortæller han, at det ikke er alle virksomheder, hvor den model vil være fordelagtig. Denne type vil nemlig kræve, at de to datacentre ikke har en afstand på mere end 160 kilometer, hvilket for visse industrier som banker og regeringsaparater vil være for risikabelt, hvorfor det kan være nødvendigt med et tredje datacenter.

Gartner skriver også, at det for visse virksomheder vil give bedre mening i første omgang at leje sig ind hos en host. Det kan eksempelvis være tilfældet, hvis man er på vej ind på et nyt marked i lande som Indien og Kina.

Gartner Recommends Limiting Data Centers to Two Per Continent of Major Business Activity
Analysts to Discuss Infrastructure and Operations Transformation at Gartner Data Center Summit 2013, November 25-26 in London and Gartner Data Center Conference 2013, December 9-12 in Las Vegas

Most global organizations have too many data centers in too many countries, according to Gartner, Inc. Gartner said that in order for enterprises to save costs and optimize service delivery, they need a twin data center topology for each continent of major business activity.
“It’s a fact that most global organizations run too many data centers in too many countries. This is normally the result of business expansion, either organically or through acquisition over many years,” said Rakesh Kumar, research vice president at Gartner. “While the logic of business growth makes sense, having too many data centers results in excessive capital and operational costs, an overly complex architecture and, in many cases, a lack of business-IT agility.”
Many companies have stated that having too many data centers inhibits their ability to respond quickly to business changes. This is because of too many organizational layers signing off on decisions, and because solutions designed for one data center may have to be completely redesigned for another site. Moreover, because of the significant cost involved (often hundreds of millions of dollars) and the possible savings through a more streamlined architecture, there is a huge financial incentive to change the topology to that of a dual data center.
For most organizations, it will mean two sites each for North America, South America, Europe, Africa and the Asia/Pacific region.
Although many global organizations will typically own all of the sites, in some cases it makes sense to use a hosted site that provides the physical building, power and cooling, while the global organization owns the IT assets. This has been the case for many organizations entering regions such as India and China. In other cases, a service management contract may be appropriate where no assets are owned and a third party will provide IT services through two data centers in a region. The details of how the sites are owned and managed are important but should not be confused with topology of the data center architecture.
“The twin data center topology provides many benefits, such as allowing for an adequate level of disaster recovery. This can be through an active/active configuration where each data center splits the production and development work and can fail over the load of the other site in the event of a disaster,” said Mr. Kumar. “However, this presupposes a synchronous copy of data and, so, a physical separation of about 60 to 100 miles. This may be too risky for certain industries, such as banking and government security, and so a third site may be required.”
The twin-site approach also allows the central IT organization to better manage data center operations because the number of sites is limited and each is of a significant size, and so will be able to negotiate well with suppliers and attract good skills.
A further benefit of the twin data center approach is that it allows companies to have a streamlined approach to business expansion. As the business grows, it is well-understood that increased IT needs will come from existing sites, so remote sites are closed as part of the initial acquisition process and not deferred because of complexity, lack of decision making or organizational politics.
While a twin data center topology per continent of major business activity is an ideal model, and should be pursued, there will always be some variation. Disaster recovery and business continuity driven by industry-specific compliance reasons (banking) or local specific risk assessment (risk of problems in a major city) may force the need to have a third site much farther away. For example, many banking clients will augment a twin data center strategy with one or more remote data centers that will typically be smaller and/or lower level. These additional data centers act as a data repository with some production capabilities, and as a final defense in the event of catastrophe.
Other variations exist where cultural or language differences exist. For example, many global companies will have a specific data center in China even though they may have a regional hub in Singapore. Another example is where closing down a site in one country and moving everything to another site is too difficult. Further variations come about because the cost of changing from a multi-data center topology to a twin data center topology per major geography is too much, or the resulting cost structure actually does not justify the change.
“While these variations are logical and need to be incorporated into the decision process, they should be viewed as exceptions to the ideal model of a twin data center topology per continent of major business activity, rather than an accepted IT expansion cost,” said Mr. Kumar. “By adopting this dual center approach wherever possible, the whole growth strategy will incorporate a belief system that will help to create an optimum data center topology.”
Additional information is available in the report “Save Costs and Optimize Service Delivery by Limiting Your Data Center Topology to Two per Continent.” The full report can be found on the Gartner website at http://www.gartner.com/resId=2603915.
About Gartner Data Center Conferences

Posted in computer.

Java-opdatering gav bøvl med Skats told-system i tre uger

Sjældent er en Java-opdatering blevet så berømt i Danmark, som da Java 7 update 45 landede tirsdag den 15. oktober – og alle, der opdaterede, ikke længere kunne bruge NemID. Tre døgn senere havde Nets en løsning klar.

Læs også: Nets om Java-problemer: Vi har måske ikke testet godt nok

Læs også: Nets brugte 3 døgn på at tilføje 2 linjer kode til NemID

Men hos Skat tog det tre uger at få et Java-baseret system til angivelse af told for import og eksport til at virke sammen med den nye Java-opdatering. Det fremgår af en meddelelse fra Skat.

Tirsdag den 5. november var en ny udgave af Toldsystemet klar, så brugerne igen kunne få lov at bruge den nyeste version af Java. Alle, der loggede på Toldsystemet tirsdag middag og frem, fik automatisk den nye version af Skats it-system, mens den nye Java-opdatering skal hentes manuelt, hvis man først har været nødt til at skifte tilbage til en ældre version og afinstallere den nye.

Den manglende mulighed for at opdatere Java mødte meget kritik, da det var alle NemID-brugerne, det drejede sig om, i de tre dage i oktober. Opdatering 45 lappede nemlig hele 51 sikkerhedshuller, hvoraf flere var alvorlige.

Disse sikkerhedshuller har danske firmaer, som importerer eller eksporterer varer til lande uden for EU, altså været nødt til at leve med i tre uger.

Læs også: NemID’s akilleshæl: Adgangen går via Californien

Posted in computer.