Daily Archives: November 20, 2013

Blog: Undgå evalg: Find den bedste algoritme til optælling af papirstemmer

En exit-poll blandt vælgere i Region Hovedstaden efter valget i tirsdags ville med stor sandsynlighed have vist et flertal for at stemme elektronisk. Og blandt de valgtilforordnede ville resultatet nok være omkring 101,2% for elektroniske stemmesedler (fintælling mangler).

For dem, der tirsdag besøgte en stemmeboks uden for Region Hovedstaden, er det nok lige på sin plads med en forklaring. Vælgerne i regionen skulle nemlig slås med et stort gult uhyre af en stemmeseddel, hvor der var så mange partier, at der ikke var bogstaver nok i alfabetet (X er åbenbart ikke gyldigt som listebogstav).

Resultatet var en stemmeseddel, som var en meter lang og så bred, at den kun lige akkurat kunne lirkes ned i stemmeurnerne på det afstemningssted, hvor jeg var valgtilforordnet. Kandidaterne var fordelt på tre spalter, og det gik ud over overblikket.

De enorme stemmesedler var en udfordring i løbet af dagen, når vælgerne kæmpede med dem i stemmeboksene og med at få dem ned i de propfyldte valgurner, men den største var optællingen.

Stemmesedlerne til kommunalvalget blev hurtigt fordelt i partibunker og talt op. Den algoritme viste sig imidlertid ikke at skalere effektivt til regionsrådsvalgssedlerme.

Jeg forsøgte at udtænke en god algoritme, men nu vil jeg lægge opgaven ud til crowd-sourcing blandt Version2-læsere, som uden tvivl har mere erfaring med at designe sådanne systemer.

Krav til algoritmen

Det skal være muligt at lave en efterfølgende omtælling, hvis antallet af optalte stemmer ikke svarer til antallet af udleverede stemmesedler.

Det skal være muligt at få antallet af stemmer på hvert parti, og det skal være muligt at få antallet af personlige stemmer på hver kandidat.

Der skal tages hensyn til optælling af blanke og ugyldige stemmer.

Sådan foregår optællingen i dag

Valgurnen tømmes på et bord. De valgtilforordnede folder stemmesedlerne ud og lægger dem i bunker for hvert parti, blanke stemmer og ugyldige stemmer. Derefter bliver bunkerne optalt hver for sig.

Når antallet af optalte stemmer er inden for en tolerabel margin i forhold til antallet af udleverede stemmesedler, bliver stemmesedlerne pakket og forseglet. Stemmesedlerne bliver dagen efter optalt igen på rådhuset, hvor de personlige stemmer optælles.

Udfordringer

Metoden har nogle begrænsninger, som ikke er helt ulig dem, man kan finde, når man skal skalere et it-system.

Stemmesedlernes størrelse: Jo større sedler, jo mere bordplads kræver det at sortere dem. Jo større bord, jo større fysisk afstand er der mellem bunkerne, så hvis en tilfordnet skal lægge først én seddel på liste A og derefter én på liste Å, så skal der tages adskillige skridt.

Antallet af partier: Antallet af bunker, der skal sorteres til, svarer til antallet af partier. Det lyder til forladeligt med en lineær skalering, men det tager tid for et menneske at lokalisere den rigtige bunke. Især når der er så mange bunker, at man er nødt til at have flere borde i brug.

Vi havde bunkerne i alfabetisk orden, hvilket ikke nødvendigvis var den optimale fremgangsmåde.

Finde krydset: Med en stor stemmeseddel med mange kandidater er der også mange steder, der kan sættes kryds. Selvom der var en firkant, hvor man ideelt skulle sætte sit kryds, var der desuden mange, som satte et utvetydigt og dermed gyldigt kryds på linjen med partinavnet.

I praksis tog det lang tid at verificere, at en stemme var blank. Til regionsrådsvalget var der et forholdsvis højt antal blanke stemmer. Da man minutiøst måtte se på alle kandidater for at se, om der var et kryds, kunne det tage to tilfordnede op til ét minut at verificere en blank stemmeseddel.

Begrænsninger

Der findes selvsagt kun ét eksemplar af hver stemmeseddel. Vi havde cirka 2.200 stemmer til hvert af de to valg.

Der er et begrænset antal tilforordnede. Vi var i alt cirka 15, som skulle optælle begge valg.

En tilforordnet, som er kandidat, må desuden ikke optælle stemmer for sit eget parti.

Vores ad hoc-løsning

Vi havde begrænset bordplads, og opgaven med at folde de store stemmesedler ud var en opgave i sig selv. Derfor lod vi én gruppe folde stemmesedler ud og lægge dem i bunker til efterfølgende sortering.

Da vi kunne se en tendens i stemmerne, lod vi den samme gruppe foretage en grovsortering, hvor de så stemmesedlerne igennem for krydser ved de tre største partier, mens resten blev afleveret til finsortering.

Først da alle stemmer var sorteret, talte vi dem op. Samtidig blev stemmesedlerne bundtet i bundter på 25, som blev samlet i større bundter på 100 stemmesedler.

Selvom antallet af stemmesedler var det samme for regionsrådsvalget og kommunalvalget, så tog optællingen af regionsrådsstemmerne mere end dobbelt så lang tid. Formentligt undtagen i Københavns Kommune, hvor stemmesedlen til kommunalvalget var endnu mere omfattende end regionsrådsvalgsedlen.

Hvordan kunne vi have gjort det bedre?

Posted in computer.

Drømmen om den virtuelle fabrik rykker nærmere

Én fælles pulje af produktdata i stedet for en masse små øer af data og integration på tværs af softwareplatforme. Det er den store tendens inden for produktudviklingssoftware og Life Cycle Engineering i disse år, lyder det fra flere leverandører af industriel it.

»Vi bevæger os væk fra en mailkultur, hvor man mailer konstruktionsdata rundt på kryds og tværs. Man arbejder meget parallelt og sætter emner i produktion, som måske er afhængige af andre emner, man stadig udvikler på. Så det er vigtigt med en platform, der kan håndtere mekanik, elektronik, software m.m.,« lyder det fra Jess Frandsen, hvis firma, PLM Group, leverer systemer til Product Lifecycle Management (PLM) og CAD-software til over 3.500 kunder i Skandinavien og Baltikum.

Senest har PLM Group ifølge Jess Frandsen haft stor succes med sin cloud-baserede PLM-tjeneste, HostPLM, som lader virksomheder dele produktdata ikke bare internt, men også eksternt med kunder og leverandører.

Store softwareleverandører som SolidWorks og AutoDesk er så småt begyndt at røre på sig med cloud-baserede platforme, og Jess Frandsen forventer klart, at hosting-ydelser bliver den næste bølge inden for PLM.

Servicetjek og konfliktmineraler

Også fra den amerikanske softwareleverandør PTC, der har leveret det PLM-program, som Bang & Olufsen benytter i sin produktion, lyder det, at horisontal integration og migration af data – hvad enten det er CAD-tegninger, printkortdesign eller komponentdata – er noget, som kunderne efterspørger mere og mere på grund af pressede udviklingsafdelinger.

»Ja, det er helt klart. Det ses på kravene fra stort set alle vores kunder i forhold til integration med ERP-programmerne. P.t. diskuterer man ude i industrien også, hvordan man kan bruge de eksisterende produktdata i PLM-systemet til senere vedligehold og servicetjek af den enkelte maskine,« forklarer Per-Johan Lundin, PTC’s markedsføringschef for Nordeuropa.

Drømmen begyndte i 1980’erne

Et PLM-system er ét værktøj til at nedbringe time-to-market. Men også hvis vi springer et stadie frem frem og kigger på de færdigudviklede produkters rolle i et produk­tionsapparat, er integration af data nøglen i Life Cycle Engineering, lyder det fra en leverandør som Siemens, der er kendt for enginee­ring-værktøjet TIA (Totally Integrated Automation).


Frank Faurholt.

»Den virtuelle fabrik er en drøm, branchen har haft siden 1980’erne, men den kommer tættere og tættere på at kunne realiseres på grund af øget processorkraft, bedre software til håndtering af store datamængder og bedre infrastruktur,« lyder det fra Siemens Industrys salgsdirektør, Frank Faurholt.

I den seneste TIA-platform, V12, kan brugerne, blandt andet på baggrund af data fra PLM-systemet og Life Cycle Engineering-softwaren, konfigurere virtuelle modeller af eksempelvis en frekvensomformer eller motor, så data for det enkelte objekt er kendt hele vejen gennem automationslaget ned til PLC- og SCADA-niveau.

»Det nye er portaltankegangen, hvor du har samme brugerinterface, uanset om du er udviklingsingeniør eller operatør, og uanset om det er en frekvensomformer eller en netværkskomponent,« forklarer Frank Faurholt og tilføjer, at man ganske vist har kunnet gøre noget af det i et stykke tid, men at der hele tiden blive føjet nye funktioner til platformen.

Posted in computer.

Intel gør supercomputer-CPU med 60 kerner til en ægte serverprocessor

Intel er på vej til at forfremme specialprocessoren Xeon Phi, som har op til 60 kerner, til at være en rigtig serverprocessor, som kan køre uden hjælp fra en almindelig Xeon-processor. Det oplyser Intel ifølge en pressemeddelelse.

I dag fungerer Xeon Phi på samme måde som specielle udvidelseskort baseret på grafikprocessorer fra Nvidia og AMD, der sidder i supercomputere og bruges til regneopgaver, der kan udnytte de specielle processorers store regnekraft til parallelle udregninger.

Læs også: Indstikskort med 50 kerner presser én teraflops ned i en server

Udfordringen er imidlertid, at man som programmør skal kunne opdele sin udregning i flere parallelle tråde og sende dem til udvidelseskortet i serveren.

Det har også betydet, at der i en supercomputer, hvor udvidelseskortene har trukket det tunge læs, har siddet et antal almindelige serverprocessorer til at køre styresystemet og andre opgaver.

Det trin vil Intel eliminere i den nye ‘Knights Landing’ af Xeon Phi, som vil kunne sidde direkte på serverens bundkort i stedet for en almindelig Xeon-processor. Den vil også kunne køre styresystemet og være i stand til ikke blot at håndtere parallelle udregninger, men også enkelttrådede regneopgaver oplyste Intel i forbindelse med en supercomputerkonference i Denver ifølge eWeek.

Posted in computer.

Nordjyder vil skære halvdelen af datacenterets køleregning


Foto: Morten K. Thomsen

Der bliver hamret og svejset, og CNC-fræseren sprøjter spåner ud til alle sider. Ovre i hjørnet står en robot, der skiller og samler to konnektorer i en uendelighed for at teste holdbarheden

Udviklingsdirektør i nordjyske Asetek Ole Madsen viser rundt i produktionshallen og forklarer, at travlheden skyldes, at man om kort tid skal levere vandkøling til en helt ny supercomputer fra Cray.

»Vi er i fuld gang med den første ordre til Cray, der skal levere en supercomputer til Missisippi State University. Vores løsning er i første omgang meget rettet mod HPC (High Performance Computing, red.), og Mississippi får en clusterløsning, hvor det er bygget ind fra starten af,« siger Ole Madsen til Version2.

Cray oplyser, at Aseteks vandkøling i supercomputeren giver en energibesparelse på 300 procent i forhold til traditionel luftkøling.


Ole Madsen, Asetek. Foto: Morten K. Thomsen

Så langt vil Ole Madsen, ikke strække sig, men han vil godt garantere, at vandkøling kan reducere køleomkostningerne med mere end 50 procent. Samtidig peger han på, at traditionel luftkøling ofte betyder, at rackskabene ikke kan fyldes helt op, og at den traditionelle indretning med hot aisle og cold aisle fylder uforholdsmæssigt meget.

»Vi kan øge densiteten i datacenteret med alt fra en faktor 2,5 til en faktor 5. Et rackskab bliver i dag typisk kun fyldt halvt op, før man får problemer med at fjerne varmen,« siger Ole Madsen til Version2.

Så hvis vandkøling er så fantastisk, hvorfor er alle datacentre og supercomputere ikke udstyret med pumper og slanger i stedet for heat sinks og blæsere?

NNIT’s datacenterspecialist Mads Claus Henriksen fortæller, at vandkøling er voldsomt interessant, men at der er flere årsager til, at det ikke er den primære køleteknologi i NNIT’s datacentre.

»Som udgangspunkt er det kritisk at have vand tæt på elektriciteten, hvis noget skulle springe læk. Det er der en concern omkring. Og så er luft stadig standardmediet til at fjerne varme i datacentre, så det vil blive svært at implementere i heterogene miljøer,« siger Mads Claus Henriksen til Version2.

Læs også: Her er hemmelighederne bag NNIT’s nye datacenter

Om bekymringen for en læk, når man fører vandslanger helt ind på CPU’en i serveren ligefrem kan være en showstopper, afhænger ifølge Mads Claus Henriksen af flere ting.

»Det kommer an på, hvilket miljø vi taler om, og tid er også en faktor. Jeg forudser at det er den rigtige vej at gå rent teknisk, men der er en lang modning, før det bliver mainstream. Med den renewal-rate, der er på hardware, kan der nemt gå fem-otte år, før det er lige så almindeligt som luftkøling,« siger Mads Claus Henriksen.

Ole Madsen har dog svar på rede hånd:

»Vi ved godt, det er et paradigmeskifte at overbevise CIO’erne om, at de skal have vand så tæt på serveren. De bliver typisk målt på oppetider, ikke på hvor meget strøm de sparer. Men når nu løsningen er sikker, kan man jo lige så godt tage besparelsen med,« siger Ole Madsen til Version2 og fortsætter:

»Du ser aldrig noget vand. Vi leverer det fyldt og færdigt, slangerne skal bare klikkes fast. Konnektorererne er drypfri og kan på- og afmonteres, uden at der kommer vand nogen steder.« lyder det fra Ole Madsen, der sætter trumf på med avancerede leak detection systemer, der kan indarbejdes i bundkortet, så systemet automatisk alarmerer og lukker ned, hvis det usandsynlige skulle ske.

Alligevel er det ikke lige op over med at få indført vandkøling i NNIT’s datacentre.

Læs også: Størrelse er ikke alt: NNIT’s topsikre sky fylder en kvart kvadratmeter

»Vandkøling er bestemt på radaren, men ikke i pipeline. Det er altid svært at være de første, der skifter til ny teknologi, men til HPC eller en stor, privat sky vil vandkøling helt sikkert være interessant,« siger Mads Claus Henriksen til Version2.

Version2 var inviteret til Aalborg af BrainsBusiness-netværket.

Posted in computer.

Smart-tv fra LG sladrer om dine tv-vaner

Tv-apparater med internetadgang og indbyggede browsere er ét af de seneste års store hit blandt tv-producenterne. Men internetadgangen kan også bruges til at sladre om tv-vanerne hos seerne.

En britisk blogger opdagede en funktion til indsamling af information om det, der blev vist på tv’et, da han gennemgik indstillingerne på sit smart-tv fra LG. Han satte sig for at undersøge, hvad der blev sendt fra tv’et.

Funktionen var slået til som standard på tv’et, men ifølge bloggeren, viste det sig, at der blev sendt information til en webserver, selvom funktionen blev slået fra.

Informationen blev sendt uden kryptering og indeholdt blandt andet navnet på den tv-kanal, som blev vist. Hver gang der blev skiftet kanal, blev information om den nye kanal sendt til serveren. Det samme var tilfældet for videofiler, som blev afspillet fra usb-lagermedier, der blev tilsluttet til tv’et.

Ifølge bloggeren fandtes den URL på webserveren, som tv’et kommunikerede med, ikke på det tidspunkt, hvor han undersøgte trafikken fra tv’et, men LG ville have mulighed for at aktivere den, hvis de ønskede at udnytte de data, som tv-apparaterne sender.

Posted in computer.

Kina vinder igen supercomputer-kapløbet stort: 3,1 millioner kerner og 34 petaflops

Der er ikke længere meget spænding i toppen af top-500-listen over verdens hurtigste computere, for Kina har beholdt det forspring, som blev afsløret i juni-udgaven af top-500-listen.

Monstercomputeren Tianhe-2 er så kraftig, at den nærmeste konkurrent, USA’s Titan-computer, kun er godt halvt så hurtig. Det viser den halvårlige opdatering af hitlisten på top500.org.
Tianhe-2 har hele 3,1 millioner processorkerner til regnearbejdet, hvilket sammen med én petabyte RAM (en million gigabyte) giver en hastighed på 33,8 petaflops, altså 33,8 millioner milliarder floating point-regneoperationer i sekundet.

Læs også: Kina indtager supercomputer-tronen med 3,1 millioner kerner og 33.862 teraflops

Når maskinen kører på fuld kraft, skal kineserne bruge en strømforsyning på 17,8 megawatt, samt, må man formode, et heftigt køleanlæg. Til sammenligning kan H.C. Ørstedsværket i København maksimalt spytte 185 megawatt ud i elnettet.

Hardwaren i Tianhe-2, som står hos Kinas ministerium for forsvarsteknologi, er fra Intel. Den er fordelt ud på 16.000 enkeltcomputere, som hver indeholder to Xeon-processorer og tre Xeon Phi-coprocessorer. Xeon Phi er en særlig processor fra Intel med op til 61 kerner, som netop er designet til supercomputere.

I Danmark er det stadig Vestas, der har den klart hurtigste computer, Firestorm, der i den nye udgave af top-500-listen får en 271. plads, mod en 212. plads for et halvt år siden. Vestas’ regnemaskine har 15.672 kerner og kan prale af 162 teraflops. Da den blev taget i brug i foråret 2011, var den nummer 53 på top-500-listen.

Top-500-listen består af supercomputere, der er offentligt kendte. NSA og andre efterretningstjenester kan dermed godt have meget kraftige computere stående, som ikke optræder på listen.

Posted in computer.

Blog: Retten til privatliv i den digitale alder

Den masive overvågning og logning på internettet er en krænkelse af menneskerettighederne. Det er den korte udgave af et beslutningsforslag til FN’s generalforsamling stillet af Brasillien og Tyskland. I forslaget indgår også en opfordring til alle lande om at gennemgå lovgivning og processer vedrørende overvågningn med henblik på at sikre at det overholder retten til privatliv og menneskerettighederne.

I det lys kunne det være interessant at høre hvad de danske politikkere mener om overvågningen og menneskerettigheder.

Det er en sag med mange kokke: IT-politik hører under Finansministeren, regulering af internettet hører under Erhvervs- og Økonomiministeren, menneskerettigheder hører under Justitsministeren, alt hvad der vedrører FN hører under Udenrigsministeren, men varatages i øjeblikket af Udviklingsministeren. Alle partierne undtagen Venstre og Dansk Folkeparti har en menneskerettighedsordfører og der er et stort overlap med retsordførerne. Endelig er det da en indlysende sag for en IT-ordfører?

23 politikkere. Forhåbentlig er der et par stykker der finder sagen relevant nok til at svare på min mail…

Posted in computer.

Google får endnu en millionbøde for at sætte cookies uden tilladelse

Det var ikke i orden, at Google placerede cookies fra reklamefirmaet Doubleclick hos Safari-brugerne, når Apples browser specifikt spærrede for tredjeparts-cookies.

Sådan lyder det nu igen i endnu en sag mod Google for cookie-overtrædelsen, der denne gang udløser en bøde på 94 millioner kroner, som skal fordeles mellem 37 amerikanske stater. Det skriver The Register.

Læs også: Google snyder Apple-browsers indstillinger for privatliv

Sagen er blevet afgjort i et forlig, hvor Google har gjort sig umage med ikke at erkende, at firmaet gjorde noget galt. Tværtimod værner Google meget om brugernes privatliv, lader firmaet omverdenen forstå i den officielle reaktion på forliget og bøden.

Men det var ikke bare en smutter, da Google mellem juni 2011 og februar 2012 sneg tredjeparts-cookies ned på Safari-brugernes computere, for det krævede en del fiksfakserier.

Safari blokerede som standard for denne slags cookies, så Google måtte udnytte et smuthul, hvor et skjult element på en webside kunne få lov at liste cookie’en igennem Safaris blokade.

Google har tidligere fået en bøde på 137 millioner kroner af de amerikanske handelsmyndigheder, FTC, for cookie-overtrædelsen.

Læs også: Google får rekordbøde for at liste reklame-cookies forbi Safari

Posted in computer.

To år med rejsekort: Elendig brugervenlighed er kommet for at blive

Selvom rejsekort nu har været i brug i hovedstadsområdet siden december 2011, har brugerne stadig svært ved at gennemskue billetsystemet. Det viser en ny undersøgelse fra DTU.

Samlet får rejsekort en karakter på 57 i den internationalt anerkendte test System Usability Scale, hvilket svarer nogenlunde til et amerikansk F, altså dumpegrænsen, og hvad der kan oversættes til et 02 på en dansk karakterskala. Det fortæller Ali Gürcan Özkil, adjunkt på DTU Mekanik (Konstruktion & Produktudvikling), som sammen med sine studerende fra Design & Innovation stod bag undersøgelsen.

»Vi har lavet en spørgeskemaundersøgelse med 442 deltagere, der alle bruger rejsekortet. Det er, så vidt jeg ved, den største undersøgelse om brugervenlighed, der er lavet af et transportsystem i Danmark,« siger Ali Gürcan Özkil til Version2.

System Usability Scale-testen bliver brugt til at måle på alverdens forskellige systemer, alt fra kaffemaskiner til online-booking. Deltagerne skal svare på ti forskellige spørgsmål, for eksempel om de er trygge ved at bruge systemet, og resultatet kan sammenlignes direkte med alle andre, der har været testet på samme måde.

»Testen viser folks opfattelse af rejsekort. En score på 57 viser, at folk er utilfredse,« forklarer adjunkten, som for to år siden begyndte at inddrage rejsekort i sin undervisning om usability.

Det er blevet til to større undersøgelser, hvor de studerende bad folk, som ikke havde prøvet rejsekort før, om at gennemføre for eksempel en optankning af kortet i en stander på stationen. De sidste to år var cirka 150 deltagere med i undersøgelsen og tog en test-tur med rejsekort.

Læs også: Rejsekort dumper usability-test med kæmpe brag

Men én ting er, hvor nemt eller svært førstegangsbrugere har det, for de fleste lærer hurtigt at bruge et system, de er afhængige af. I år ville Ali Gürcan Özkil derfor undersøge, hvad daglige rejsekort-brugere oplevede.

»Vi samlede de over 50 forskellige problemer, vi har afdækket i de tidligere undersøgelser, og analyserede dem, og så lavede vi spørgeskemaet ud fra det. Vi ville se, om problemerne stadig var valide,« siger han.

Ud over at brugerne selv dumpede rejsekortet i den internationale standardtest, var der også spørgsmål om for eksempel, hvor mange gange folk havde glemt at checke ud efter en rejse. Dermed kunne DTU-forskeren også se, om folk faktisk havde problemer, eller om de bare var utilfredse. Når der har været skrevet negativt om rejsekort i medierne, kan det nemlig smitte af på folks vurdering.

»Det er ikke mediernes skyld, når så mange stadig glemmer at checke ud. Så er det systemet i sig selv, der er hovedproblemet,« siger Ali Gürcan Özkil.

Undersøgelsen viste, at tre ud af fire af deltagere havde glemt at checke ud mindst én gang. Knap hver femte havde mere end fire gange glemt at checke ud efter en togrejse. Og faktisk var kvinder bedre til at huske det end mænd.

»Der var en signifikant forskel. Blandt kvinderne havde 29 procent aldrig glemt at checke ud, mens det var 19 procent af mændene. Det overraskede mig,« siger Ali Gürcan Özkil.

Mange af de problemer, som undersøgelsen påviste, er ikke nye, men blev blot bekræftet blandt daglige rejsekort-brugere. De var allerede med Version2’s artikel om DTU-adjunktens første undersøgelse i december 2011. Men hvorfor er der så ikke rettet op på dem?

»Det er for sent at ændre på de store designbeslutninger. Hvis man skulle gå fra to forskellige standere til én stander, der både kan bruges til check-in og check-ud, ligesom de gør i Holland, ville det koste det hvide ud af øjnene,« siger Ali Gürcan Özkil.

I stedet skulle en så stor ændring af hele landets billetsystem til offentlig transport have været meget bedre forberedt, mener adjunkten.

»Hvis rejsekort havde lavet flere usability-test tidligere i forløbet, kunne vi måske have undgået nogle af de problemer, vi står med i dag. Men det er meget dyrt at lave user-testing med mange deltagere kommercielt. Derfor går man måske ikke så meget i detaljer,« forklarer han.

Når man omvendt har et universitet i ryggen og ’arbejdskraft’ fra studerende, kan det lade sig gøre at få mange hundrede igennem en brugertest i den virkelige verden.

»De studerende lærer meget af det, fordi de kan teste noget, de også selv bruger,« siger Ali Gürcan Özkil.

Posted in computer.

Ballade: Er populær it-tjeneste for usikker til netbank?

Der er ballade i Linux-land.

Ubuntu-udvikler Oliver Grawert siger nu, at den populære og Ubuntu-baserede distribution Linux Mint er for sårbar til at bruge sammen med netbanken.

Det skriver netstedet muktware.com.

Årsagen er, at sikkerhedsopdateringerne fra Ubuntu ikke nødvendigvis følger med over i Mint-regi, eftersom ændringer i de centrale komponenter som X.org, Firefox, Grub og selve Linux-kernen ikke automatisk opdateres i Mint.

“Når der er en sårbar kerne, browser eller X.org, der ikke automatisk forsynes med sikkerhedsopdateringer, bliver installationen et sårbart system. Personligt vil jeg ikke bruge det til netbank,” skriver Oliver Grawert.

Og den kritik står han ikke alene med.

“Jeg kan fortælle, at det tog dem [Mint-udviklerne, red.] mange måneder at få en fejlrettet Firefox, mens Ubuntu og Debian allerede havde disse sikkerhedsrettelser i deres udgaver. Det udsætter Linux Mint-brugerne for en sikkerhedsrisiko, og jeg vil aldrig anbefale Mint som et alternativ til Ubuntu,” skriver Benjamin Kerensa, der også er Linux-udvikler.

Læs også: De 29 bedste open source-programmer i 2013

Holdninger, ikke fakta
Projektleder for Linux Mint Clement Lefebvre har svaret på kritikken på distributionens webside.

Han mener, at kritikken er baseret på holdninger fremfor viden og kundskaber.

Han er knotten over, at Mint-udviklerne skal bruge dyrebar udviklertid på at svare på spørgsmål fra bekymrede brugere.

“Jeg interesserer mig ikke for, hvad Canonical-folkene forstår eller ikke forstår om os. Jeg kan også konstatere, at pressen og medierne bare er interesseret i konflikten, men jeg vil ikke bruge mere tid på det,” skriver han.

Han giver dog en forklaring på, hvad det er Ubuntu-udviklerne har misforstået.

“Opdateringspakker til kernen er tilgængelige som ‘usikre pakker’, som brugerne kan vælge at aktivere gennem værktøjet Update manager. For god orden skyld betyder usikre pakker i denne sammenhæng pakker, som Mint-teamet endnu ikke har gennemgået til distributionen,” skriver han.

Clement Lefebvre påpeger også, at Linux Mint bruger det samme pakkearkiv som Ubuntu til Firefox, og at disse bliver opdateret automatisk.

Og han er godt gal i skralden over kritikken fra Ubuntu.

“Det vi har tænkt os at gøre, når vi er færdige med at svare på spørgsmål om hvordan en fyr, der aldrig har kørt Mint, udpeger den som sårbar, er at gå tilbage og rette kode, så den næste udgave bliver bedre,” skriver han.

Linux Mint topper i øvrigt listen over de mest populære Linux-distributioner i øjeblikket på distrowatch.com.

Læs også:
Galleri: 10 gratis open source-værktøjer til dit firma

Linus Torvalds: Sådan bliver den næste Linux-kerne

Så mange udviklere er med til at bygge Linux

Posted in computer.