Daily Archives: February 5, 2014

Nasa vil studere universets koldeste atomer på rumstationen

I 2016 vil der efter planen blive installeret et Cold Atom Laboratory i det amerikanske Destiny-modul på Den Internationale Rumstation.


Rumstationen vil fra og med 2016 huse et eksperiment, der har de laveste temperaturer i universet. (Foto: Nasa)

Her er det forskernes forventning at skabe de laveste temperaturer i universet ned til omkring 100 picokelvin.

Med Cold Atom Laboratory bliver det muligt at studere ultrakolde kvantegasser bestående af rubidiumatomer eller kaliumatomer, som ved meget lave temperaturer befinder sig i en tilstand, som kaldes et Bose-Einstein-kondensat.

Bose-Einstein-kondensater blev, som navnet antyder, forudsagt af Albert Einstein og den indiske fysiker Satyendra Nath Bose for 90 år siden. Først i 1995 lykkedes det forskere ved University of Boulder i Colorado, USA, at frembringe det første Bose-Einstein-kondensat ved en temperatur på 170 nanokelvin. De to forskere Eric Cornell og Carl Wieman fra University of Colorado modtog sammen med Wolfgang Ketterle fra Massachusetts Institute of Technology Nobelprisen i fysik i 2001 for denne præstation.

Læs også: Nobelpris til atomfysikere

Fra 500 picokelvin og nedefter

Allerede i 2003 lykkedes det at komme ned på en temperatur på 500 pK i et Bose-Einstein-kondensat i laboratorier.

Et Bose-Einstein-kondensat skal holdes frit svævende i et vakuumkammer, for at det ikke udveksler varme med omgivelserne. Det gøres med brug af magnetfelter. Ved at fremstille et Bose-Einstein-kondensat på rumstationen undgår man effekten af tyngdekraften, og det bliver lettere med svage magnetfelter at holde gasskyen samlet. Ron Thompson fra Nasas Jet Propulsion Laboratory forventer, at det bliver muligt i rummet at udvide gasskyen, så den fylder mere.

Udvidelsen af gasskyen vil betyde en sænkning af temperaturen, så temperaturen uden de helt store problemer burde komme ned på 100 picokelvin. Det vil ikke være muligt i laboratorier på Jorden. På projektets hjemmeside skriver forskerne, at det endda burde være muligt at komme helt ned på 1 picokelvin.

Under disse betingelser vil forskerne studere en lang række kvantefænomener, som eventuelt kan bane vejen for nye kvantesensorer. Syv konkrete projekter har modtaget bevillinger på omkring 70 mio. kr. Nobelpristageren Eric Cornell står eksempelvis i spidsen for projektet ‘Zero-G Studies of Few-Body and Many-Body Physics’.

Atomchip er nøglekomponenten


Cold Atom Laboraory (Grafik: Nasa)

Når først laboratoriet er installeret på rumstationen, vil det bliver fjernstyret fra Jet Propulsion Laboratory. Der bliver ingen opgaver at udføre for astronauter eller kosmonauter på rumstationen.

Modulet er forsynet med elektronik og laser, der anvendes til at køle atomskyen ud fra velkendte principper om laserkøling. Denne del benytter kommercielt udstyr.


Principperne for laserkøling. (Grafik: Nasa)

Nøglekomponenten i det videnskabelige modul er en atomchip, hvor Bose-Einstein-kondensatet vil befinde sig. Det kan dog også overføres til en magnetisk fælde uden for chippen eller til et optisk gitter.

Atomchippen indeholder ledninger på et siliciumsubstrat, så man med strøm gennem ledningerne kan danne et magnetfelt, der holder atomskyen, der befinder sig ca. 100 mikrometer borte, samlet i mere end 10 sekunder ad gangen.


Det videnskabelige modul i Cold Atom Laboratory (Grafik: Nasa)

Tyskerne bruger et faldtårn til eksperimenter

Det er dog ikke kun på rumstationen, at forskere vil studere Bose-Einstein-kondensater uden påvirkning fra tyngdekraften.

En tysk forskningsgruppe ved Humboldt-Universität Berlin har arbejdet med mikrogravitationseksperimenter med Bose-Einstein-kondensater ved at udsætte dem for et frit fald i et faldtårn i Bremen.

Sidste år rapporterede de om de første interferometriske målinger under mikrogravitation, hvor Bose-Einstein-kondensatet havde en temperatur på 1 nK.

Nasas video, der forklarer om Cold Atom Laboratory:

Posted in computer.

Avanceret mikrobølgedetektor kan udkonkurrere CCD-kameraer

Hos Fermilab i USA er ingeniører og forskere for tiden ved at udvikle en ny detektor til astronomiske teleskoper, der vil være mange gange bedre end de bedste nuværende CCD-kameraer.

Helt konkret arbejder Juan Estradas gruppe hen mod at lave en prototype af en detektor kaldet MKID, som på sigt kan erstatte verdens største CCD-kamera på 570 megapixel, der er placeret ved Victor M. Blanco Teleskopet i Chile.

Læs også: Verdens største CCD-kamera skal observere Universets mørke energi

Det 570 megapixel store CCD-kamera ved Victor M. Blanco Teleskopet i Chile består af i alt 74 CCD-elementer. Det er forsynet med fem optiske filtre, som dækker det synlige og nærinfrarøde område fra 400 nm til 1000 nm.

Det vil i løbet af fem år foretage en meget detaljeret kortlægning af en ottendedel af himlen. Teleskopet vil observere 300 millioner galakser og 100.000 galaksehobe og skønnes at opdage 4.000 supernovaer. Dataopsamlingen begyndte 31. august 2013.

Ud fra disse observationer kan astronomerne bestemme, hvordan universet udvider sig, og ikke mindst få en bedre bestemmelse af den accelererende udvidelse, som langt hovedparten af astrofysikere mener skyldes en ukendt form for mørk energi.

MKID står for mikrobølge kinetisk induktans detektor. Det er et nyt princip, der oprindelig er udviklet af Ben Mazin fra California Institute of Technology (Caltech) i 2003, hvor han beskrev det i en artikel i Nature.

Til trods for de enorme fremskridt, der er sket inden for CCD-teknologi, lider dette princip under, at det ikke muligt at lave en direkte måling af farven af det lys, som rammer detektoren. Derfor er man nødt til at forsyne CCD-kameraer med farvefiltre.


To forskere holder øje med temperaturen på den kryostat, som indeholder en MKID-prototype. (Foto:Reidar Hahn, Fermilab)

En MKID indeholder en superledende film ved lave temperaturer under en 1 kelvin – hos Fermilab arbejder de med temperaturer ned til 33 millikelvin.

MKID slår CCD på flere parametre

Når en foton rammer den superledende film, vil den bryde elektronpar (Cooper-par), der giver anledning til superledning. Det fører til dannelse af eksitationer eller kvasipartikler i den superledende film, der ‘forstyrrer’ den superledende strøm. Dette er nærmere beskrevet på hjemmesiden for Mazin Lab. Denne ændring kan måles med et mikrobølgekredsløb.

Det betyder, at det i princippet er muligt at detektere en foton af gangen, hvad der ikke er muligt med et CCD-kamera, og samtidig bestemme dens energi og dermed dens farve. Energien for en foton er direkte proportional med frekvensen (og dermed farven).

Ben Mazin beskriver, at MKID har den yderligere fordel, at det er muligt at detektere fortoner fra den ultraviolette område (100 nm) til det midt i det infrarøde område (5 mikrometer), mens CCD-kameraer er begrænset til området 300-1000 nanometer.

Fra småt til stort

Caltech-gruppen har arbejdet med flere MKID-projekter til astronomiske teleskoper, men der har hidtil været tale om små detektorer.

Hos Fermilab ønsker man at udvikle en stort instrument, der er velegnet til kosmologi. Til laboratoriets eget tidsskrift, Fermilab Today, siger Juan Enstrada, at der er lang vej, til et fuldt færdigt instrument kan tages i brug. Det vil bl.a. kræve undersøgelser af, hvordan man indbygger detektoren i en mekanisk konstruktion og får den til at spille sammen med et digitalt processeringssystem.

»Men vi har taget det første skridt, som bringer os nærmere dette ambitiøse mål,« siger han.

I første omgang satser de på inden for nogle år at installere en MKID-prototype ved siden af det nuværende CCD-kamera ved Victor M. Blanco Teleskopet.

Posted in computer.

Forsvaret Efterretningstjeneste: NSA spionerede ikke mod danskerne ved klimatopmøde

Da verdens topledere mødtes i Bella Center i december 2009 til klimatopmødet COP15, var de amerikanske agenter fra NSA lutter øre og fik for eksempel adgang til de danske værters ’plan B’, et hemmeligt kompromisforslag, hvis forhandlingerne gik i hårdknude. Det afslørede Information i sidste uge.

Læs også: NSA spionerede mod klimatopmødet i København

Men der var ingen spionage mod danske politikere og diplomater, melder Forsvarets Efterretningstjeneste efter at have undersøgt sagen. Det skriver Politiken.

At NSA fik fat i det hemmelige forhandlingsoplæg, som den amerikanske efterretningstjeneste har skrevet om internt i papirer, Edward Snowden har lækket, må der være en anden forklaring på, for eksempel at NSA overvågede andre landes delegationer, lyder meldingen.

Lederen af Forsvarets Efterretningstjeneste, Thomas Ahrenkiel, understreger, at udmeldingen ikke bare er en bevidstløs gentagelse af tidligere benægtelser. FE følger løbende med og undersøger de afsløringer, der kommer i pressen, og har løbende en ’god og tæt’ dialog med efterretningstjenester i andre lande om, hvad der er sket.

»Det er på baggrund af den dialog, at vi fra tjenesternes og regeringens side kan fastholde de udtalelser – nemlig at vi ikke har grundlag for at antage, at der foregår ulovlige amerikanske efterretningsaktiviteter rettet mod Danmark,« siger han til Politiken.

’Rettet mod Danmark’ er af FE defineret som direkte spionage mod danske politikere og embedsmænd og altså ikke mere bredt spionage, der skader danske interesser.

At det er Forsvarets Efterretningstjeneste og forsvarsminister Nicolai Wammen, som fra regeringens side forholder sig til afsløringerne, er bemærkelsesværdigt, skriver tre journalister på Information. Det er nemlig Politiets Efterretningstjeneste, som har ansvaret for landets kontraspionage, altså at forhindre spionage i Danmark.

Informations journalister blev henvist fra Statsministeriet til Forsvarsministeriet, da de bad om kommentarer til afsløringerne, og dermed blev det Nicolai Wammen, som udtalte sig. Forsvarets Efterretningstjeneste samarbejder med NSA om indsamling af information i udlandet, hvilket stiller ministeren i en slags dobbeltrolle.

Posted in computer.

Siri-området producerer olie igen efter halvt års pause

Efter et halvt års pause flyder olien igen fra Dong Energys Siri-område. Feltet har ligget stille siden juli, hvor man fandt en ny revne i en opsamlingstank under Siri-platformen, hvor olien fra områdets tre satellitfelter ellers opsamles.

For at undgå den revne-ramte tank sender de tre satellitfelter Cecilie, Nini og Nini Øst i stedet olien direkte ind i et olietankskib, Siri Knutsen, som torsdag blev koblet sammen med de tre satellit-felter. Den allerførste olie til tankskibet kommer fra Nini Øst-feltet.

Læs også: Dong finder endnu en revne i Siri-platformens understel

Sideløbende fortsætter arbejdet med at forstærke selve Siri-platformen. Reparationen skal være færdig til sommer.


Revnerne blev fundet i tanknæsen længst til venstre. De røde rør er en del af reparationen.

»Vi har arbejdet målrettet på at få Siris satellit-felter tilbage i produktion, så vi skaber værdi, samtidig med at vi reparerer Siri-platformen. På platformen har vi stadig et stort arbejde foran os, før vi kan producere fra selve Siri-feltet,« siger Flemming Horn Nielsen, landeansvarlig for Dong Energys danske olie- og gasforretning i en pressemeddelelse.

Siri-feltet har kostet Dong Energy dyrt, siden selskabet under en rutinemæssig inspektion i august 2009 opdagede revner i næsen af den undersøisk olielagertank under Siri-platformen.

Af sikkerhedsmæssige hensyn blev produktionen indstillet i fem måneder og genoptaget i januar 2010 efter installationen af en midlertidig løsning. Men efter fundet af endnu en revne i juli 2013 blev produktionen fra området atter standset.

Læs også: Todelt løsning skal sikre Siri-platformen

Selve reparationen koster 3,5 mia. kroner, og i forbindelse med regnskabet for først halvår 2013 nedskrev Dong Energy værdien af Siri-feltet med 900 mio. kroner.

At der er tale om en kedelig sag for selskabet, fremgår også af aktstykket omkring kapitaludvidelse i Dong Energy. Her står der, at de nye investorer skal holdes skadesløse ‘i tilfælde af en negativ udvikling som følge af Siri-platformens fysiske tilstand i forhold til det af selskabet forudsatte.’

Posted in computer.

Professor: Energiforbrug til træpillefremstilling har marginal betydning

Selvom det koster store mængder energi og CO2-udledning at producere og transportere træpiller til Danmark, spiller det ikke nogen stor rolle i det samlede CO2-regnskab for biomasse, hvis man sammenligner med den CO2-udledning, som ikke-bæredygtig skovdrift ellers kan forårsage.

Det mener professor og livscyklusekspert Henrik Wenzel fra SDU i en kommentar til nye beregninger, som Ingeniøren omtalte forleden.

Beregningerne viser, at tørring, presning og transport af træpiller er årsag til et energiforbrug, der svarer til en femtedel af træpillens energiindhold – og til udledning af en kvart mio. ton CO2 – eller 10 gram pr. MJ.

Læs også: Stort energitab ved at fremstille træpiller

Henrik Wenzel er medforfatter til en kommende rapport om emission af drivhusgasser fra biomasse, som politikerne forventer sig meget af, men som endnu ikke er blevet offentliggjort.

»Min pointe er, at biomassens oprindelse betyder alt. Hvis der er tale om træpiller lavet af for eksempel udtyndingstræ fra produktion af tømmer, der ellers blot ville være efterladt i skoven og rådne med årene, så betyder 10-15 pct. ekstra biomasseforbrug til tørring og transport ikke noget,« siger han.

»Men hvis produktionen af træpiller fører til afskovning eller væsentlig reduktion af den stående biomasse i skoven, så fører det til stor CO2-udledning,« forklarer Henrik Wenzel og tilføjer, at der i øvrigt er gode muligheder for at effektivisere tørringsprocessen.

Professoren peger også på, at det derfor heller ikke giver nogen mening at skelne ukritisk mellem indenlandsk og udenlandsk biomasse, for begge kan være tilvejebragt både bæredygtigt og ikke-bæredygtigt.

»Ifølge vores beregninger giver det en udledning på bare to gram CO2 pr. MJ at sejle biomasse fra Sydamerika. Det svarer til højst en procent af den samlede udledning, hvis biomassen tilvejebringes på den værst tænkelige måde, så det er ikke transporten, der er afgørende,« siger han.

Mulighed for mere biomasse

Ifølge Wenzel har research blandt forskere verden over vist, at der er mulighed for at dyrke mere klimavenlig biomasse, uden at det reducerer den stående mængde biomasse.

For det første ved at optimere eksisterende skovdrift, så man også får udnyttet spildprodukterne i skovbruget effektivt. For det andet ved at tilplante kulstoffattige arealer med ny biomasse, således at man dermed øger den stående biomasse. Først når den er vokset op, kan man høste den og dermed være sikker på, at den stående biomasse ikke reduceres.

»De to muligheder er reelle nok i den nærmeste fremtid,« siger han.

CO2-gæld for snævert

Professor Wenzel er ikke særlig begejstret for diskussionen om biomassens såkaldte CO2-gæld, som han mener er umulig at håndtere professionelt i en livscyklussammenhæng (LCA), fordi begrebet ikke opererer med en klar reference.

Læs også: Norsk klimaøkonom: Træpiller er først CO2-neutrale efter 500 år

I stedet arbejder han og hans team med en såkaldt konsekvens-LCA. Det betyder, at de altid sammenligner med en reference. Så hvis man for eksempel anvender biomasse, der ellers ville ligge ubenyttet hen i skoven og nedbrydes over tid, så vil udnyttelsen til træpiller ikke give anledning til væsentligt øget udledning i forhold til denne reference.

»Vi vil i dette tilfælde betragte biomassen som stort set CO2-neutral, og derfor synes jeg ikke, at begrebet CO2-gæld dækker problemstillingen godt,« siger han.

Dyrk ekstra biomasse forud

En mulighed for at tilvejebringe træ til energiformål uden CO2-udledning er som nævnt at tilplante kulstoffattige arealer, for eksempel visse typer græsland, og efterfølgende høste herfra.

I den situation trækkes CO2 ud af atmosfæren, inden træpillerne produceres, og begrebet kulstofgæld bliver derfor for snævert.

»Vi mener, at det er mere nuanceret og fremadrettet at se på disse muligheder end at fokusere på CO2-gæld,« siger han.

Og så vil Henrik Wenzel ellers ikke sige så meget mere, før rapporten udkommer, hvilket ifølge Ingeniørens oplysninger sker om tre ugers tid.

Posted in computer.

Kun otte erstattede deres Fluence med en anden elbil fra Renault

Da Better Place gik konkurs sidste år, stod 268 elbilejere, som havde købt en Renault Fluence ZE, uden mulighed for at skifte batteri på langture. Det var de ellers blevet lovet ved hjælp af 17 skiftestationer over det ganske land. Derfor tilbød Renault at købe bilerne tilbage, hvis ejerne besluttede sig inden den 1. januar 2014:


Da Better Place gik konkurs, stod 268 ejere af Fluence ZE uden mulighed for at skifte batteri til langture. Nu har 153 af dem solgt deres elbil tilbage til Renault.

»Det er der 153 ejere, som har benyttet,« fortæller pressechef hos Renault Danmark Søren Hyltoft.

Tilbagekøbsprisen blev beregnet ud fra en afskrivning på 1,8 procent per måned, som kunden havde ejet bilen, dog med en mindstepris på 115.000 kroner. Det højest udbetalte beløb lød på 177.446 kroner.

»Vi havde en god dialog med Forenede Danske Elbillister og vilkårene for tilbagekøbet. Der var et par ting, som de gerne ville have haft med i aftalen, men som vi ikke kunne gå ind på. Det drejede sig for eksempel om, at vi til enhver tid skulle tilbyde Fluence-ejere at købe deres bil tilbage, og at vi skulle installere hurtigladeteknologi i bilerne,« fortæller Søren Hyltoft.

Renault tilbød oven i tilbagekøbsprisen en rabat på en anden bil. For eksempel kunne man få elbilen Zoe 20.000 kroner billigere. Det samme gjaldt for en Renault Megane eller Scenic, mens man fik 15.000 i rabat, hvis man købte de mindre biler Clio eller Captur.

Men kun otte af de tidligere Fluence-ejere har valgt at skifte til en anden elbil, tre har købt en Captur, og en enkelt en Clio. Resten har taget pengene.

»Heldigvis ser vi, at en stor del af Fluence-ejerne har fundet ud af, at deres kørselsmønster faktisk passer fint til en elbil, selvom de ikke kan skifte batteri,« siger Søren Hyltoft.

Lige nu står de tilbagekøbte biler rundt om hos Renaults forhandlere. Søren Hyltoft ved endnu ikke, hvad der skal ske med dem, men han forventer, at de på et tidspunkt skal sendes til Frankrig.

De tilbageværende ejere af Fluence-elbiler kan sove roligt om natten, da Renault har forpligtet sig til at servicere dem i minimum 10 år.

Hos Renault havde man dog helst købt alle bilerne tilbage:

»Det havde været rart at kunne lukke det kapitel,« siger Søren Hyltoft.

Posted in computer.

Nu er det officielt: Microsoft udnævner Satya Nadella til ny topchef

Rygtet løb i forvejen, men nu er det helt officielt. Steve Ballmer bliver afløst af Satya Nadella som Microsofts øverste chef. Det oplyser Microsoft.

I dag er 46-årige Satya Nadella leder af Microsofts Cloud og Enterprise-division, og med sine indtil videre 22 år hos Microsoft er han i den grad en intern kandidat. Han har tidligere stået i spidsen for Microsofts satsning på cloud-teknologi, for søgemaskinen Bing og for Server og Tools-divisionen.

I jagten på en afløser for Steve Ballmer i løbet af efteråret og vinteren var der flere eksterne kandidater i spil, især den succesfulde topchef hos Ford, Alan Mulally, som dog endte med at takke nej.

Læs også: Jagten på ny Microsoft-topchef spidser til – Ford-direktør er favorit

Også den tidligere topchef for Nokia, Stephen Elop, blev i lang tid nævnt som et varmt bud. Men jobbet endte altså hos Satya Nadella, som ud over at kende de fleste kroge i Microsoft også kan byde på en stærk teknisk baggrund.

Som rygterne også talte om træder Bill Gates tilbage som formand for Microsofts bestyrelse. Det er dog ikke for at få mere tid til det filantropiske arbejde, for Microsofts grundlægger og topchef frem til år 2000 skal faktisk nu bruge flere timer hos Microsoft. Han får en rolle som teknisk rådgiver for Satya Nadella.

Læs også: Medie: Gates på vej ud af Microsoft

»Microsoft er et af de sjældne firmaer, som rent faktisk har revolutioneret verden med teknologi, og jeg kunne ikke være mere beæret over at være blevet udvalgt til at lede firmaet. Mulighederne for Microsoft fremadrettet er enorme, men for at gribe dem skal vi fokusere klart, rykke hurtigere og fortsætte med at forandre. En stor del af mit job vil være at sætte mere fart på vores evne til at bringe innovative produkter til vores kunder hurtigt,« udtaler den nyudnævnte topchef.

Ifølge Wired er hans stærke sider hans tekniske baggrund, hans evne til at skabe ændringer hos Microsoft, som han gjorde det med med cloud-tjenesten Azure, hvor open source-teknologier nu er en del af produktet, og hans lederstil. Omvendt har han ikke samme stærke forretningsbaggrund som andre kandidater eller som Steve Ballmer, han afløser, og har heller ikke som Stephen Elop erfaring med mobilmarkedet, som fremover bliver en af Microsofts helt store udfordringer. Samlet set er Satya Nadella dog et helt oplagt valg, lyder vurderingen fra Wired.

Posted in computer.

Offentlige myndigheder betaler dobbelt for dårlige testkrav

Det offentlige er ikke kompetent nok til at stille test-krav til leverandøren, når der skal sættes it-projekter i søen. Det resulterer i løsninger, der ikke fungerer optimalt samt i store ekstraregninger.

Pia Fagerlund Vøgg er testleder hos Sogeti med mange års erfaring i at bistå offentlige myndigheder i forbindelse med it-projekter og har blandt andet regioner og sygehuse på kundelisten.

Version2 møder hende til TestExpo 2014 i Bella Center på Amager, og ifølge hende er der foruroligende tendenser, når offentlige institutioner indgår it-kontrakter med private leverandører.

»Der er en stigende tendens til, at man lader leverandøren varetage hele testfasen. Og det svarer altså til, at man lader ulven vogte fårene«, siger Pia Fagerlund Vøgg og forklarer, at den omtalte praksis giver leverandører alle muligheder for at leve op til den indgåede kontrakt, selvom produktet ikke nødvendigvis er det, kunden havde håbet på.

»Når leverandøren selv får lov at styre testen, modellerer man bare sine testcases sådan, at man ved, at man består. Og de testcases, man frygter ikke at kunne bestå – de kommer bare ikke med«.

Dobbeltbetaling

Fortællingen om mangelfulde testfaser bakkes op af Anders Wernblad, der er it-jurist og har erfaring med at rådgive både kunder og leverandører i forbindelse med større offentlige it-projekter. Ifølge ham er det ikke den bedste idé, at overlade hele testfasen til en leverandør.

»Det man ofte ser er, at myndigheden ikke har kompetencerne og ressourcerne til at varetage test. Men når man lægger det hele over til en leverandør, så kan de jo have en tendens til at forme testen på en måde, så man ved, at produktet består«, siger Anders Wernblad til Version2.

Pia Fagerlund Vøgg forklarer, at det offentliges meget tillidsfulde ageren over for sine it-leverandører, både skyldes manglende kompetencer i forhold til test, men også, at det er svært at få flere penge op af det offentliges slunkne kasser.

Det giver ringe muligheder for at stille kvalificerede krav til, hvordan en given it-løsning skal testes. Og det er dyrt at hente ekstern hjælp.

»Når man ikke har test-kompetencen i huset, så skal man jo hyre den ind udefra. Og det koster penge, der ikke er en del af udbudet. Og det er besværligt at bede om flere penge i det offentlige. Det er meget nemmere at lægge det over til leverandøren«, siger Pia Fagerlund Vøgg, og understreger, at det i sidste ende er en dyr løsning for det offentlige, da man ofte ender med alligevel at skulle betale for eksterne hjælp senere hen.

»Resultatet er, at man får produkter, der ikke fungerer optimalt. Og når man så skal rette det, så ender man altså med at betale for test to gange«.

Pia Fagerlund Vøgg har bedt Version2 om ikke at navngive relevante myndigheder, men hun insisterer på, at praksis med at lade it-leverandører godkende deres egne produkter finder sted i store statslige institutioner.

Posted in computer.

Blog: Opbyg domæneviden på dit team, selvom du outsourcer din softwareudvikling!

Domæneviden er viden om anvendelsen af den software, du udvikler: Hvem der skal bruge den, hvad deres behov er, hvad de gerne vil opnå med softwaren m.m. Det betyder også, at det stort set er umuligt at udvikle den helt rigtige løsning, hvis man ikke har adgang til domæneviden, eller som minimum at udviklingsprocessen bliver væsentlig langsommere, fordi man hele tiden skal spørge andre til råds.

Hvis du skal opbygge domæneviden, er det en fordel at være tæt på ”kilden” til viden, og af den grund er der mange, der tror, at man ikke kan opbygge domæneviden, når man som virksomhed outsourcer sin softwareudvikling. Og det kan jeg godt forstå, for hvis man ser helt sort/hvidt på det, er grundlaget for at opbygge domæneviden på et udviklingsteam ikke optimalt, når man outsourcer.

For det første sidder de sourcede udviklere ikke fysisk hos dig, og de har derfor måske sværere ved at opbygge en relation til din virksomhed og til de personer, de arbejder sammen med på distancen. For det andet kender de sourcede udviklere ikke nødvendigvis den kulturelle kontekst, som den software, de udvikler, skal fungere under. For det tredje er der en tendens til, at sourcede udviklere ikke bliver på opgaver for den samme virksomhed i længere tid ad gangen, og derfor starter du hele tiden forfra med domæneviden på teamet.

Men selvom det måske ikke ligger lige til højrebenet at opbygge domæneviden på et udviklingsteam i forbindelse med outsourcing, er det altså ikke umuligt, så længe du sørger for, at rammerne er på plads.

Opbyg relationer fra første dag

Allerede fra dag ét skal du have fokus på, at de sourcede udviklere skal kende din virksomhed, det team, de skal arbejde sammen med, og ikke mindst hvad softwaren skal udvikles til. Her anbefaler jeg, at du får de sourcede udviklere på besøg i din virksomhed i forbindelse med opstart af udviklingsopgaven. Den personlige relation, de opbygger ved at møde virksomheden og de andre teammedlemmer, er, ud fra min erfaring, i høj grad med til at forbedre samarbejdet om udviklingsopgaverne.

Forstå den kulturelle kontekst

Uanset om dine sourcede ansatte skal udvikle software til virksomhedens egne eller jeres kunders løsninger, er det vigtigt, at de kender til den virkelighed, softwaren skal udvikles til. Hvis udviklerne fx skal udvikle softwareløsninger til sundhedsvæsnet i Danmark, har de behov for at vide, hvordan sundhedsvæsnet arbejder i Danmark. Det er nemlig ikke sikkert, at det billede, de sourcede udviklere har af et ”sundhedsvæsen”, stemmer overens med den måde, sundhedsvæsnet arbejder på i Danmark. Her vil jeg helt klart anbefale, at softwareudviklerne besøger den virksomhed og gerne den afdeling, de skal udvikle software for, så de får en tilbundsgående forståelse af – og viden om – hvordan softwaren skal anvendes.

Fokus på dedikerede teams

Når du outsourcer softwareudvikling, kommer du længst med dedikerede teams, altså teams hvor det er de samme softwareudviklere, der arbejder på din virksomheds opgaver. Jo længere tid teamet bliver sammen, jo mere domæneviden bliver der opbygget, og det betyder, at du får en bedre ROI på dine udviklingsprojekter. Det gør du blandt andet, fordi det er de udviklere, der har lavet løsningen, som også kan stå for løbende vedligehold. Men for at få dedikerede teams kræver det, at dine sourcede udviklere bliver på dit team. Hvordan du får dem til at blive det, kan du læse i mit tidligere blogindlæg om motivation og fastholdelse her på Version2.

Tæt samarbejde på teamet

Din virksomhed er uden tvivl kilden til domæneviden, og derfor kan der godt opstå problemer, hvis jeres udviklere ikke sidder fysisk i virksomheden. Her er det vigtigt, at det danske team og det sourcede team arbejder tæt sammen om de opgaver, de løser. Det danske team er tæt på kilden (virksomheden) og dén viden, de får, skal føres videre til de sourcede udviklere, så de altid har en klar fornemmelse af, hvad der sker i virksomheden i Danmark. Her vil jeg foreslå, at I fx kører udviklingsopgaver som scrum-forløb, hvor teamet har daglige standup meetings via Skype. Her kan I planlægge dagens opgaver, og teamet kan gennemgå, hvad der er gået godt, hvad der er gået skidt, og hvilke udfordringer de måske kan løbe ind i.

Rammerne for domæneviden skal være på plads

Min erfaring er altså kort og godt, at man godt kan opbygge domæneviden, selvom man outsourcer en del af sin udvikling til et andet land. Bare sørg for at have rammerne på plads!

Posted in computer.

Nu åbner Google dørene for udviklerne med Chromecast SDK

For 35 dollars kan man købe et lille fikst stykke hardware, som forbinder dit tv med Netflix, Youtube og andre videotjenester.

Men Googles Chromecast, som dimsen hedder, har indtil nu været helt kontrolleret af Google, og foreløbigt er der kun 14 forskellige applikationer, der kan samarbejde med den. Det ændrer sig nu markant, for Google har netop frigivet et SDK til Chromecast, så alle udviklere nu kan få adgang til Chromecast-streaming. Det skriver Wired, ud fra Googles officielle melding.

Ved at bruge det nye Google Cast Software Development Kit kan apps og websider få tilføjet adgang til Chromecast, så for eksempel musik og video kan blive vist på tv-skærmen. Det kræver ikke en særskilt app, men blot at udviklerne tilføjer Chromecast-opkobling til den eksisterende app eller tjeneste, skriver Google i et mere nørdet blogindlæg til udviklerne. SDK’et kommer til iOS, Android og Chrome-browseren, og konceptet er, at streaming-indholdet bliver sendt direkte fra nettjenesten til en særlig udgave af Chrome-browseren, der kører på Chromecast, mens app’en på for eksempel en telefon fungerer som fjernbetjening.

Med den lave pris for hardwaren – i hvert fald i USA – og understøttelse allerede fra Netflix og andre populære tjenester kan Chromecast ende med at få stor udbredelse, hvis udviklerne kaster sig over muligheden. En konkurrent, Roku, understøtter til sammenligning over tusind applikationer, hvoraf en del dog er værdiløse ifølge Wired. Apple TV er en anden konkurrent, men den er i vanlig Apple-stil under fuld Apple-kontrol og tillader ikke andre end særligt udvalgte partnere at koble sig på.

Høre mere om, hvordan Chromecast bliver understøttet, i videoen herunder.

Posted in computer.