Daily Archives: November 24, 2013

FPGA skal sætte fart på Intels processorer

Intels næste skridt i kampen om kraftigere mikroprocessorer kan meget vel være at lægge FPGA-blokke ned i processoren (Field-Programmable Gate Array, en chip, der indeholder programmerbare logikkomponenter). Det vil give en unik mulighed for at lægge gentagne og beregningstunge algoritmer i FPGA’en frem for i softwaren.

Mange algoritmer vil kunne afvikles 10 eller måske 100 gange hurtigere i en FPGA-blok frem for i software.

»Intels ledelse giver udtryk for, at det er den vej, man vil gå. Der er stor interesse i Intel for at bruge FPGA, men jeg tør ikke garantere, hvornår den kommer,« siger Nikolaj Hanson fra udviklingshuset Prevas.

Han har i flere år fulgt udviklingen af komponenter, blandt andet FPGA-chips og CPU’er, tæt.

»En processor med FPGA vil give meget stor regnekraft. Man kan kun komme en del af vejen med en grafikprocessor. Men med en FPGA kan man få en meget kraftig beregningsenhed,« understreger han.

Den vil ikke mindst være interessant for forskningsverdenen, inden for medicinsk diagnosticering og highspeed-trading:

»Der er sikkert også mange computerspillere, som vil være villige til at betale ekstra for en computer med den kombination. Først i næste række vil det blive brugt af almindelige pc-brugere.«

Opsigtsvækkende alliance

Der har i flere omgange været rygter om, at Intel var ved at købe en FPGA-producent, men det er endnu ikke sket. De mest oplagte opkøbskandidater ville være de to store FPGA-producenter Xilinx og Altera.

I februar indgik Altera og Intel imidlertid en aftale om, at Altera i fremtiden kan producere sine FPGA’er på Intels chip-fabrikker, der er kendt som verdens bedste.

Det er opsigtsvækkende, dels fordi Intel ikke hidtil har åbnet sine fabrikker i nogen nævneværdig grad, dels fordi hverken Altera eller Xilinx hidtil har fået sine chips produceret hos Intel. En enkel forklaring kunne være, at Intel har fået mere overskydende plads på sine chip-støberier.

Nikolaj Hanson ser aftalen som et muligt skridt mod en processor med indbygget FPGA:

»Intel har i mange år været ude efter en FPGA-producent, så de kan lægge FPGA ind i deres processorer. Det kunne tyde på, at Intel er kommet tættere på sådan en alliance.«

Peter Ekner, produktchef hos Napatech, der er storforbruger af højt­ydende CPU’er og FPGA’er, ser også et mønster.

Intel åbner sig om teknologien

»Intel gør nogle ting nu, som vil bringe dem i en situation, hvor det bliver muligt at integrere CPU og FPGA. De får Alteras FPGA’er over på deres egen teknologi. Det viser, at Intel er seriøse med at åbne deres teknologi for andre. Hidtil har det kun være småspillere, som har fået adgang. Når de to parter er blevet enige om, hvilken teknologi de skal bruge, så vil de kunne integrere de to typer chips,« påpeger han

Peter Ekner kunne godt forestille sig, at en stærk kombination af CPU og FPGA kunne være relevant for Napatechs produkter. Firmaet udvikler apparater, som analyserer netværkstrafik i real time.

»Hvis den skal være rigtigt højt­ydende, så kræver det en meget tæt integration mellem CPU og FPGA. Vi har kunder i dag, som laver beregninger over hver eneste datapakke. Det er meget tungt, hvis man bruger CPU’er. De beregninger kunne man godt lægge ind i noget FPGA, som sad tæt på CPU’en,« siger han.

Kunne Intel ikke bare selv lave sin FPGA?

»Nej, der ligger så mange års erfaring hos FPGA-virksomhederne, ikke i at lave selve chippen, men i at udvikle den software, som lægger VHDL-koden ned i FPGA’en. Så det er ikke noget, man kan lave på kort tid,« siger Nikolaj Hanson.

Han er på det rene med, at det ikke nødvendigvis er let at skabe den rigtige kombination af CPU- og FPGA-chips.

»Der er masser af problemer i at skabe et godt samarbejde mellem de to chips. Men til forskel fra tidligere har vi nogle værktøjer, som er ret pålidelige. Og Intel har ikke mere den mulighed at skrue op for clockfrekvensen,« påpeger han.

»Den mulighed bliver sværere og sværere at anvende på grund af effektniveauet og varmeudviklingen. De skal finde på nye måder at imødekomme kravet om bedre performance på. Det ville også være en god måde at imødegå konkurrencen fra eksempelvis Nvidias GPU-processorer på.«

Den amerikanske blogger og softwareingeniør Denton Gentry peger på, at mens netop Xilinx og Altera har udgivet FPGA-chips med en lille CPU tilknyttet, så kunne Intel gøre det modsatte. Intel kunne levere en moderne CPU tilføjet en lille mængde af FPGA-logik.

Nikolaj Hanson tror dog, at en mulig kombichip ville have en tem­melig kraftig FPGA-chip ind­bygget. Han forestiller sig, at en CPU- FPGA-processor kunne bestå af tre nogenlunde lige store dele, nemlig CPU, FPGA og hukommelse (cache):

»Det er bare et gæt, ud fra hvor meget de tre dele typisk fylder.«

Stellarton-chip en prøveballon

Intel lavede allerede i 2010 et design med en Atom-processor og en midrange Altera-FPGA, kaldet Stellarton-processoren.

Stellarton-processoren har senere skiftet navn til det mere tekniske ‘Atom E600C’.

»Den processor opfatter jeg som en prøveballon, Intel sendte op. En prøveballon for CPU-FPGA-teknologien,« siger Nikolaj Hanson:

»Den havde en vis succes, blandt andet til brug i overvågningskameraer og til infotainment i bilindustrien. Chippen var billig og kunne det, man kunne forvente. Jeg vil sige, at Intel til dels havde succes med den.«

Problemet var, at Intel ikke præsenterede et roadmap for processoren.

»Virksomhederne vidste ikke, hvor teknologien bevægede sig hen. Så firmaerne blev bekymrede og holdt op med at bruge den,« forklarer Nikolaj Hanson.

Posted in computer.

Dansk udstyr overvåger partikelacceleratorens enorme strømforbrug

Dansk udstyr overvåger partikelacceleratorens enorme strømforbrug

Det kræver ikke en nobelpris i fysik at kunne forstå, at Cerns nu verdensberømte LHC-partikelaccelerator kræver en hulens masse strøm for at fungere.

Den 27 kilometer lange ring rummer næsten 10.000 superledende magneter, som skal køles ned til -270 grader celsius. Og som om den kølingsproces ikke kræver strøm nok i sig selv, kører magneterne også på el.

Derfor er der behov for konstant at overvåge uregelmæssigheder i strømnettet – ikke kun for at undgå eventuelle sammenbrud, men også for at have retvisende data om overskridelse af grænseværdier, udfald og så videre.

CIM Industrial Systems er langtfra den eneste danske elektronikvirksomhed, som har været leverandør til Cern.

Også BB Electronics, Necas, GPV Electronics og CB Svendsen har kunnet skrive Cern ind i ordrebogen, og Juliette Forneris, daglig leder af Big Science-sekretariatet, anslår, at ca. 35-40 danske virksomheder i alt har leveret ydelser til Cern inden for de seneste tre år, hvor Big Science har eksisteret.

Big Science er et offentligt støttet sekre­tariat under Teknologisk Institut og DTU, der arbejder med brobygning mellem danske virksomheder og de store europæiske forskningsinstitutioner inden for eksempelvis rumfart (ESA), astronomi (ESO) og materialeforskning (ESS m.fl.).

Og det kræver ikke nødvendigvis ISO-certificeringer og stakkevis af dokumentation at blive leverandør til Cern, forsikrer Juliette Forneris. Især ikke hvis der er tale om mindre udbud under 200.000 schweizerfranc, ca. 1,2 millioner kroner.

Hun anbefaler danske elektronikhuse at melde sig ind i Big Science-netværket – det er gratis! – og evt. registrere sig på Cerns hjemmeside.

Og det er såmænd et dansk konsulenthus, CIM Industrial Systems, som er endt med at udvikle softwareapplikationen til det system af måleenheder, som syv forskellige steder i ringen logger strømdata og sender dem retur til en central computer.

En opgave, som CIM Industrial Systems fik dels på grund af sit partnerskab med National Instruments, som har leveret hardwaren til målesystemet, dels fordi danskerne allerede havde udviklet mange af de komponenter – Cern kalder det middleware – som var påkrævet.

»Kommercielle systemer kunne ikke give dem, hvad de havde brug for, hvilket primært vil sige muligheden for udvidelser af såvel hardware som software i årene fremover. Vi havde allerede mange af de her middleware-komponenter, så vi ikke skulle starte helt fra bunden,« forklarer testdirektør Anders Meister, som fik de første specifikationer tilsendt fra Schweiz i januar i år.

Enorme datamængder

Betaversionen blev afleveret i juli – uden ét eneste besøg i Schweiz – og bliver nu testet af Cerns egne folk.

»Sikkerhedsmæssigt er det en kæmpe ting, fordi kontrol baseret på analyse af målingerne er sikkerheden i hele deres system. Så det skal virkelig testes igennem, inden de går videre,« lyder det fra Anders Meister.

Systemet kalder han og CIM Industrial Systems et ‘transient recorder system’, der bedst kan forklares som et intelligent målesystem bestående af i dette tilfælde syv dataopsamlingsstationer, som synkront overvåger strømforbruget.

På grund af de enorme datamængder – hver station skal i realtid behandle og potentielt logge 7.000 hertz på 160 kanaler – som oven i købet skal måles synkront, har udviklingsfolkene måttet tage en FPGA-processor i brug. Ellers ville de enkelte stationer ganske enkelt ikke kunne håndtere datamængderne.

Til big data-opgaver

Anders Meister uddyber, at selv om det umiddelbart kan virke som et meget specifikt system, der kun kan finde anvendelse i en milliarddyr partikelaccelerator i verdens mest anerkendte fysiklaboratorium, så kan CIM Industrial Systems sagtens tage erfaringerne fra dette projekt med over i andre løsninger.

Det meget Cern-specifikke findes mest nede i FPGA’en. Resten er mestendels software, der ville kunne anvendes i andre big data-sammenhænge, pointerer testdirektøren.

Det er nu også meningen, for trods fem måneders udviklingstid er det ikke et projekt, der virkelig batter på bundlinjen her og nu, erkender han.

»Det er en strategisk overvejelse, at vi selvfølgelig gerne vil have Cern som kunde. Det er svært at blive partner hos Cern, og der er ingen tvivl om, at vi ser Cern som en god strategisk kunde. Så fremadrettet skulle det gerne give payback,« siger Anders Meister.

Posted in computer.

Biologer slår alarm: Torskebestanden i Østersøen er tæt på kollaps

Magre og udsultede torsk uden kræfter til at reproducere sig selv var det syn, der mødte danske havbiologer, da de for få uger siden var på togt i Østersøen.

»Vi har aldrig set det så slemt før. Flere torsk er i så kritisk forfatning, at de er ved at dø, fordi de mangler mad, og vi er alvorligt bange for, at bestanden kollapser,« siger Margit Eero, seniorforsker på DTU Aqua.

I øjeblikket er bestanden af torsk i Østersøen langt under 25 procent af, hvad den var for 40 år siden, og selvom bestandene i Østersøen altid har varieret meget fra år til år, så har bestanden generelt ligget et godt stykke under gennemsnit siden 1980’erne.

Kun ét gydested tilbage

DTU Aqua overvåger løbende torskebestandene i vores nærmeste farvande og gennemfører hvert år to undersøgelser i det såkaldte Bornholmerdyb øst for Bornholm, som er det eneste tilbageværende gydested for den østlige østersøtorsk. Tidligere gydede torsken også i to andre områder, Gotlandsdybet og Gdanskdybet.

Bornholmerdybet giver stadig store årgange, men torskene spreder sig ikke nordpå som tidligere. Torskene bliver i området omkring Bornholmerdybet, hvor fødegrundlaget i form af brisling, bunddyr og sild stort set er forsvundet. Torskene er dog ikke alene. Fiskeriet efter brisling og sild er stadig intenst i området, oplyser Margit Eero.

»En begrænsning eller forbud mod fiskeri i det her vigtige yngleområde er en oplagt måde at sikre torskens overlevelse på. Brisling kan f.eks. nemt fiskes længere nordpå, hvor torsken slet ikke opholder sig,« siger hun.

DTU Aqua har også undersøgt torskens gydevandring til Bornholmerdybet, og ved at mærke torskene med en sensor kunne de afgøre, hvor fisken havde opholdt sig og hvornår. Det var tydeligt, at hunnerne søger mod dybere vand, når de skal gyde, og den viden kan bruges til at fiske i højere lag i gydeperioden, mener forsker Jane W. Behrens fra DTU Aqua.

Pause i naturens hjertemassage

Østersøen er et meget særligt farvand, blandt andet fordi strøm og vind med flere års mellemrum kan fungere som hjertemassage på et døende hav. Når naturfænomenet indtræffer, bliver der ledt ilt og salt ind fra Nordsøen, men sidst, fænomenet indtraf, var for 10 år siden, og salt- og iltniveauet er nu faldet til et så lavt niveau, at det skaber problemer.

F.eks. er ilt- og saltniveauet så kritisk flere steder i den finske bugt, at torsken – og især dens æg – har svært ved at holde sig flydende højt i vandmasserne og ender på bunden, hvor iltniveauet er lavest. Menneskelig forurening, der leder til iltsvind, er også en medvirkende grund til, at der kan opstå iltfattige områder på størrelse med Sjælland.

Torskebetanden er ikke kun truet i den østlige østersø. Forskerne er også blevet opmærksomme på meget små årgange i de største gydeområder vest for Bornholm, der findes i Bælthavet og Arkonabassinet. Årsagen er stadig uklar for forskerne, men den vestlige torsk mangler ikke mad, og forskerne er begyndt at se tegn på, at den østlige østersøtosk er begyndt at vandre vestpå i et forsøg på at finde føde.

»Det skaber udfordringer for overvågningen af de to bestande, at de nu begynder at blande sig,« siger Margit Eero.

Forskere fra DTU Aqua fremlagde deres nyeste forskningsresultater om torsk på et stort internationalt symposium i Canada, hvor omkring 100 eksperter i torsk var samlet i sidste måned. Udfordringerne med små torskebestande er nemlig også et stort problem i USA og Canada, hvor det især er stigende bestande af sæler, der skaber problemer.

Torsk eller sæler?

Den samme udfordring gælder for Nordsøen, hvor marsvin, sæler og store torsk er årsag til 30 til 40 procent af dødeligheden blandt et- og to-årige torsk.

»Det er man nødt til at tage højde for, når man forvalter bestandene. F.eks. kan man komme ud i nogle svære afvejninger af, om det er torsk til fiskerne eller sæler, man vil have. Måske er man nødt til at regulere sælbestanden, hvis man vil have en stor torskebestand. Og omvendt: Det er svært at fiske meget på torskens byttedyr, f.eks. sild eller rejer, hvis man vil opretholde en stor torskebestand i samme område«, forklarer seniorforsker Anna Rindorf, DTU Aqua.

Posted in computer.

V6-motor med turbo og nyt hybridsystem skal sætte skub i næste års Formel 1-biler

Hvorfor den vinkel, var det ikke mere naturligt med 60 eller 120?

Posted in computer.

Mini-antenner er nyt trick til at skabe usynlighedskappe

Canadiske forskere melder sig nu med en ny metode til virkeliggørelse af Harry Potters usynlighedskappe. Hvor tidligere principper byggede på tunge og komplicerede metamaterialer, så har canadierne valgt at bruge små antenner til at skabe et elektromagnetisk felt omkring et objekt for at gøre det usynligt, skriver Nature.

Endnu kan usynlighedskappen kun skabes under kontrollerede forhold i et laboratorium, og forskerne har kun bevist, at det virker på radiobølger. Der er i det hele taget masser af åbne spørgsmål, men flere internationale forskere kalder brugen af antenner for simpel og nemmere at overføre til f.eks kampvogne og fly, hvis man vil gøre dem usynlige for en radar. En helt anden gevinst kunne være at bruge antennerne på bygninger eller ting, der forstyrrer kommunikationssignaler. Med antennerne kan signalerne nemlig ledes rundt om objekterne, så signalet kan rejse videre uden at blive kastet tilbage af en forhindring.

Antenner kan ændres til at omdirigere lys

De første ‘usynligheds’-forsøg har forskerne fra Toronto universitet gjort i en forsøgsopstilling, hvor en metalcylinder blev udstyret med et lag antenner. På forhånd var forskerne nødt til at indstille antennerne til at reagere på en bestemt frekvens, men i fremtiden vil forskerne udstyre antennerne med et tuningssystem, der selv reagerer på indkomne signaler og indstiller sig efter deres frekvens, meget lig det system der bruges i støjdæmpende hovedtelefoner.

Ifølge forskerne er det simpelt at lave et antennesystem, der gør objekter usynligt for synligt for lys i stedet for radiosignaler. Men de har valgt at lave forsøg med radiosignaler, fordi de ser flere anvendelsesmuligheder på det område.

»Det er bare et spørgsmål om valg af teknologi. Du kan bruge de samme principper på lys,« siger George Eleftheriades, der er professor på ingeniørafdelingen for elteknik og computerer på Torontos universitet.

Posted in computer.