Category Archives: computer

Blog: Danske politikere er ikke bekymrede over massiv overvågning af dem selv





NSA framework

Circle2


I de to foregående blogs viste jeg hvordan efterretningstjenesterne indsamler enorme mængder personfølsom data og udfører masseovervågning på et niveau der aldrig tidligere er set – eller har været muligt.

Snowdens afsløringer viser helt klart, at danskerne bliver aflyttet og at masseovervågningen ikke drejer sig om terror. Hvis overvågningen drejede sig om at bekæmpe terror var det ikke nødvendigt at aflytte det tyske statsoverhoved, spionere på G20, at hacke EU, hacke FN, bygge endnu et exabyte datacenter osv, osv.

Potentialet for misbrug er enormt stort
Afsløringerne viser, at vi alle bliver passivt overvåget igennem konstant indsamling af enorme mængder ekstrem personfølsom og kritisk data og nogle få personer, som Merkel bliver aktivt angrebet.

Se illustrationen af NSA Frameworket i højre side:

Professor John Naughton (læs originalen her):
“Spol et årti frem og forestil dig en leder af NSA og de øvrige efterretningstjenester, der skal beskytte os imod terrorister og alle øvrige trusler der kan være aktuelle på det tidspunkt.

I NSA alene er der nu over 50.000 ansatte, der har adgang til hver eneste email, log over hver eneste side på internettet, SMS’er, telefonsamtaler og hver eneste post på alle sociale netværk hver eneste politiker nogen siden har lavet.

Lederen af efterretningstjenesten er ét klik fra at tilgå location information der viser hver eneste bevægelse og hver eneste rejse politikeren har lavet siden han/hun fik sin første telefon som teenager, hver eneste kreditkort betaling, hver eneste flyrejse. Alt.

Og fortæl mig så at politikeren ikke vil være lige så bange for efterretningstjenesten, som deres forgængere var for J. Edgar Hoover.”

Se oversigten over NSAs partner cirkler for en oversigt over hvor mange parter der har adgang til overvågningsdata:

Det er vigtigt at forstå, at sagen ikke drejer sig om en efterretningstjenestes aflytning af udvalgte statschefer. Problemet er ikke, at Statsministeren måske er et uinteressant mål, eller om hendes OpSec er så fantastisk, at hun personligt ikke bliver aflyttet.

Der er væsentlig forskel på at en efterretningstjeneste målrettet forsøger indsamle information om mistænkte personer, og på at masseovervåge alle der bruger telefoner eller bruger internettet. Og efterfølgende dele den indsamlede følsomme data med tusindvis af spioner.

På samme måde som der er forskel på at bryde kryptering (efterretningstjenesternes arbejde) og aktivt arbejde på at sprede dårlig kryptering til alle (på ingen måde deres arbejde).

“Bugging, burglary and bribery”  
Det ser ud til vi har givet spioner adgang til fortrolig og følsom dansk data igennem fuld adgang til metadata, lokationsdata og full-content webtrafik. Det er din og min data vi taler om, ikke anti-terror, fokus på statsledere eller “udenlandske efterretninger af den type, som alle lande indsamler“.

Et af af grundene til det er et problem er, at den type efterretningstjeneste udfører en del af deres arbejde igenem pres, trusler og bestikkelse.

Det er farligt for Danmark
Det er klart, at hvis Danmark giver udenlandske efterretningstjenester fri adgang til enorme mængder information om alle danske borgere, så får den danske efterretningstjeneste meget nyttig information retur. Men, uanset hvor effektivt det var, var masseovervågning uacceptabelt i Stasi-tyskland og det burde være uacceptabelt i Danmark i dag.

Videoovervågning i alle rum
Nyt tankeeksperiment. Lad os sige Danmark hjælper USA med at installere kameraer i alle rum i alle danske hjem imod en gang imellem at få adgang til udvalgte billeder.

Den ansvarlige minister forklarer hvorfor det ikke er et problem:

De optager alt der sker i alle rum, men som udgangspunkt er der ingen mennesker der ser optagelserne. Computerprogrammer ser det hele igennem og holder øje med om der er noget der kunne være interessant. Hvis der bliver flagget som interessant ser mennesker det selvfølgelig igennem – sammen med optagelserne af alle dem de kender.

Filmene ligger beskyttet i et kæmpe datacenter i USA, så det kræver at man er en af de ca 50.000 sikkerhedsgodkendte amerikanere, tusindvis af englændere, australiere, new zealændere og canadiere, eller alle ikke-amerikanere over hele verden med mere begrænset adgang at søge i filmene.

Hvis de søger på din adresse (en NSA “strong selector”) kan de alle se alle film optaget i alle rum, og hvis et nøgleord (NSA “soft selector”) matcher noget optaget i dine rum kommer dine film selvfølgelig også med i undersøgelsen.

Men med mindre du er et interessant mål, eller falder inden for et af fokusområderne (international handel, nye teknologier, “økonomisk stabilitet” osv, osv) ser normalt ingen dine film. Så det er jo fint nok at vi har givet USA, England, Canada, New Zealand og Australien og de andre fuld adgang til at filme 24 timer i døgnet i alle rum, ikke?”


Posted in computer.

Blog: S-ordfører: Hypotetisk at svare på e-valgsforslag






Nu nærmer kommunalvalget sig med hastige skridt.

Men som de sidste mere end hundrede år: Uden mulighed for at stemme via e-valg.

Debatten om forsøg med e-valg har dog ikke ligget helt stille i den seneste månedstid, da man blandt andet har prøvet sig frem i Norge.

Faktisk har S-ordfører Karin Gaardsted udtalt sig til SamData-magasinet om netop muligheden for e-valg i Danmark, som hun afviser pt.

Siden skrev hun også på Twitter om samme emne.

Ny S-linie?
Derfor har jeg forsøgt at få afklaret, om der er en ny S-linie på området.

For Socialdemokraterne var jo varme fortalere for forsøg med e-valg i forbindelse med et tidligere lovforslag.

Men det blev som bekendt fjernet af et flertal, som tildelte indenrigsminister Margrethe Vestager (R) en politisk lussing.

Nederlagets bagmænd fik hårde ord med på vejen af den tidligere S-ordfører Trine Bramsen – der kaldte Venstre for Danmarks mest vattede parti – og en stribe radikale politikere, herunder Morten Østergaard.

Blandt andet blev Venstres Michael Aastrup-Jensen skældt ud for ikke at ville fremskridtet.

I dag udtaler Karin Gaardsted, at hun slet ikke kan svare på, hvorvidt hun vil stemme for eller imod lovforslaget fra dengang.

“Forslaget var før min tid som ordfører på området, og som det ser ud, er det ikke kommet videre i behandling – derfor er det et hypotetisk spørgsmål, du stiller mig.”

“Det er ikke muligt at vide, hvordan behandlingen af forslaget ville være endt, og derfor kan jeg ikke svare,” skriver hun i en mail.

Du kan læse spørgsmål og svar stillet og svaret per mail til sidst i artiklen her.

Norske erfaringer
Nu vil Karin Gaardsted se på erfaringerne fra Norge, som du kan læse mere om her.

Der har ikke været nye meldinger om danske lovforslag, der skulle tillade forsøg med e-valg i Danmark.

Hos Venstre tolker man S-svaret i en klar retning.

Hos Venstre tolker it-ordfører Michael Aastrup-Jensen S-ordførerens svar derhen, at Socialdemokraterne er blevet klogere.

“Det lader til, at Socialdemokraterne har fulgt med og kan se, at der fortsat er stor utryghed omkring det her,” siger han.

Han peger på, at der selv i Norge var usikkerhed.

It-fan – men ikke evalg-fan
Han understreger, at Venstres holdning fortsat er, at der på valg-området aldrig må være mistanke om mulig snyd.

“Det nuværende system er gennemprøvet, så hvorfor ændre det,” spørger han.

Michael Aastrup-Jensen pointerer, at han er “digitaliseringsfan”, men det må ikke blive digitalisering for digitaliseringens egen skyld.

Hos de Radikale er Andreas Steenberg blevet ny it-ordfører.

Men han henviser til kommunalordfører, der kører denne sag.

Og hos kommunalordfører Marlene Borst Hansen fra De Radikale henvises til samme holdning, som partiet tidligere har lagt.

“Som du kan læse af den radikale ordførertale til 1. behandlingen i Folketingssalen, så kunne RV støtte forslaget,” lyder det i en mail fra hende.

Påfaldende?
Har S fået en ny linje på e-valgsområdet? Vurderer selv.

I hvert fald er det påfaldende at en S-ordfører ikke vil bakke op om et få måneder gammel lovforslag fremsat af en fra regeringens top: Margrethe Vestager (R).

Primær kilde: Mail fra S-ordfører:

Hej Karin
Jeg kan se, at du ytrer dig en del på blandt andet Twitter om e-valg. Kunne du svare på, hvorvidt du ville stemme for eller imod det lovforslag, der tidligere blev stillet om forsøg med e-valg i Danmark?
Med venlig hilsen
Kristian Hansen
Computerworld

Hej Kristian
Undskyld mit sene svar. Der har ikke været fremsat lovforslag om forsøg med e-valg, og der er heller ikke i dette års lovkatalog forslag om en sådan lovændring. Jeg har understreget betydningen af, at danskerne har tillid til den måde, vi afholder valg på i Danmark. Gennemskuelighed og tillid er altafgørende faktorer. Vi afventer nu erfaringerne fra Norge, hvor man i forbindelse med Stortingsvalget har gjort sig nogle erfaringer med e-valg. Norge har ikke meldt ud endnu, så vidt jeg ved, men jeg forventer, at det sker snart.
Mange hilsner Karin

Hej Karin
Tak for svaret. Kunne du venligst svare på følgende: Ville du have stemmet for eller imod lovforslag L 132? L 132 Forslag til lov om ændring af lov om valg til Folketinget, lov om valg af danske medlemmer til Europa-Parlamentet og lov om kommunale og regionale valg. (Digital stemmeafgivning og stemmeoptælling m.v). Af Økonomi- og indenrigsminister Margrethe Vestager (RV) Kan læses her: http://www.ft.dk/ (…)
Med venlig hilsen
Kristian Hansen
Computerworld

Hej Kristian
Her er mit svar: Forslaget var før min tid som ordfører på området, og som det ser ud, er det ikke kommet videre i behandling – derfor er det et hypotetisk spørgsmål, du stiller mig. Det er ikke muligt at vide, hvordan behandlingen af forslaget ville være endt, og derfor kan jeg ikke svare. Jeg har tidligere udtalt, at det er helt afgørende vigtigt, at der er tillid til valg i Danmark, at vi er sikre på, at valg er retfærdige og uden påvirkning udefra.
Med venlig hilsen
Karin Gaardsted

Skribenten har skrevet flere stribe blogindlæg om e-valg.
De kan læses her.

Posted in computer.

Blog: SAP Teched 2013 – dag 4






Og så blev det sidste dag på SAP Teched. Fjerdedagen er altid lidt mere stenet, fordi næsten alle er på vej hjemad og mange har allerede valgt at tage hjem om torsdagen. Det gør det dog muligt at komme ind på de sessioner, som normalt har været fyldte, så derfor var fokus i dag på Netweaver Cloud Integration og Gateway.

Gateway var igen spændende at høre om, fordi det endelig begynder at give mening. For det første er prismodellen blevet meget mere attraktiv, idet man nu reelt kan få Gateway gratis hvis man allerede har SAP. Dernæst er gateway rigtigt god til at udstille bruger centriske services, idet man let kan lave nogle webservices fra SAP Backend, som man kan udstille via REST og Odata protokollen. Måden det sker på er, at man enten via standard transaktioner i SAP vælger felter, som skal udstilles – eller også vælger man felter i allerede definerede webservices og udstiller kun relevante felter for en bruger centrisk service.

Jeg har i lang tid ikke kunnet se, hvorfor man ikke blot kunne udnytte PO til dette, men hastigheden og bruger scenarierne giver god mening – især fordi behovet for logning oftest er lavere til disse services, og nu vil det reelt være muligt for forretningskonsulenter at lave brugercentriske webservices. Jeg ved faktisk ikke om brugercentrisk er et ord eller om det blot er et fordansket engelsk ord, jeg netop har opfundet, men hvad jeg mener med det er, hvis man skal tilgå SAP data via en Sharepoint portal, mobile applikationer o.l., så er der andre krav end hvis det f.eks. Er maskine-til-maskine kommunikation eller hvis man skal flytte store datamængder.

Gateway er således også det, som benyttes til alle de mobile applikationer, som ligger i SAP Fiori. Fiori bliver i fremtiden nok den indgang, de fleste brugere vil have til SAP, mens man så vil have enkelte super brugere, som skal sidde i backend og håndtere data. Eksempelvis har jeg svært ved at se hvorledes fakturahåndtering kan udstilles som en mobil applikation, fordi man har brug for en masse forskellige data og funktioner, som ikke giver mening at udstille til en mobil grænseflade.

Gateway kan enten installeres lokalt, som en del af SAP ECC eller også kan man få en “Cloud connector” som tilgår Netweaver gateway i skyen, og så har man det der hedder SAP Gateway as a service. Det anbefales ikke at installere gateway som en del af SAP ECC, fordi der er brug for en separat instans, såfremt der kommer opdateringer til Gateway. Det vil ellers være for ofte ens SAP ECC miljø er nede, for at kunne håndtere opdateringer af Gateway. Det er også derfor jeg har svært ved at se værdien i Cloud Connector – fordi den netop kræver at du har installeret Gateway som en del af SAP ECC, og så har du en separat hardware boks til Cloud Connectoren, som sørger for at sende data ud i skyen. Cloud Connector sørger derfor ikke reelt for mindre kompleks landskab, hastigheden bliver ikke bedre (tværtimod) og Gateway as a service giver derfor kun begrænset mening. Det kan være tingene ændrer sig, men umiddelbart tror jeg ikke på Gateway as a Service endnu.

Netweaver Cloud integration (NCI) er et spændende supplement til virksomhedens middleware systemer, og det er dybest set en light version af SAP PO, som ligger i skyen. Skal man således lave cloud-2-cloud integration eller cloud-2-premise integration, vil det give mening at benytte NCI, men det kræver at man har en SAP PO eller en cloud connector, før man kan tilgå data på on-premise systemer. Sammenspillet mellem PO og NCI er rigtigt godt, idet man kan eksportere PO interfaces og integrationsflow til NCI og direkte bruge dem her. Det jeg fik af vide var, at havde man over 10 interfaces til on-premise systemer, så bør man overveje at benytte PO og sikre data til og fra on-premise systemer via dette.

Må hellere stoppe for denne gang, for kan se at indlægget igen er ved at blive for langt – og så må det blive i løbet af næste uge, at jeg vil lave en opdatering om B2B mulighederne med SAP PO (hvor især mulighederne for at lade leverandørerne opdatere egne info om sine integrationspunkter, ser spændende ud) og Solution manager (som bliver mere og mere integreret i SAP landskabet, men nu også kan bruges til non-SAP styring).

Posted in computer.

Blog: SAP Teched 2013 – dag 3






Så blev det tredje dagen på SAP Teched, og folk begynder at se lidt mere trætte ud, men til gengæld bliver underviserne mere og mere friske og veloplagte. Så det går vel meget godt sammen.

Første ting på dagen for mig, var Operational Process Intelligence (OPI), som jeg skrev en smule om først på ugen. Her fik jeg mulighed for at gå i dybden med det, og det ser faktisk rigtig godt ud. Det spændende er, at man prøver at anskue integrationsproblemtik fra en forretningstankegang i stedet for en teknisk tankegang, og det giver rigtigt god mening. Nu har jeg lavet mange integrationer gennem tiden, og lige meget om det er smart SOA, simpel fil transfer eller komplekse BPM workflows, så er det næsten altid forretningen man har brug for, for at håndtere fejl.

Måden OPI fungerer på er, at man definerer sin forretningsprocess, som skal overvåges, og dette gør man dybest set via et proces diagram med forskellige procespunkter. Man har så mulighed for, at allokere tekniske integrationspunkter til de forskellige procespunkter (indgangs- og udgangspunkter), og definere hvorledes man holder styr på separate processer (i.e. ordrenummer, cpr-nummer og lignende). Det gør det muligt ikke kun at overvåge SAP systemer, men hele forretningsprocesser, da der som sagt er tale om integrationspunkter – som altså også kan være mellem ikke-SAP og ikke-SAP systemer. Herefter er det muligt at definere KPI’er for, hvornår det er godt, ikke så godt eller dårligt – eksempelvis går det godt hvis man får en ordrebekræftelse tilbage fra sin leverandør indenfor 1 time, ikke så godt hvis der går op til 1 dag, og derefter er det dårligt – og samtidig kan man også se hvor mange beskeder, der er fejlet.

Dybest set får man så et enkelt skærmbillede, som fortæller hvor mange processer der er i gang i de forskellige trin, og hvor mange der er i hvilken status. Og det er selvfølgelig muligt at bore ned og få specifikke detaljer om de forskellige processer, som er forsinket og/ellerhar fejlet. Det giver ikke mening altid, men har man f.eks. Mange B2B integrationer, så er det faktisk rigtig interessant hurtigt at se, hvor ting fejler og hvilke leverandører reagerer langsomt. Man vil også kunne se hvilke leverandører der ofte laver fejl, har problemer med logon, leverer dårlig datakvalitet o.s.v. Mulighederne er vildt spændende – og det er tydeligt at forretningsviden bliver mere og mere vigtigt for at lave integration, og nu bliver det tydeligt.

OPI kræver SAP HANA, og det er grunden til, at Process Orchestration (PO) fra version 7.4 kan køre på SAP HANA. Således kan man tilgå data direkte i HANA og der er ikke brug for replikering af data. På sigt vil PO også opleve hastighedsforbedringer, men lige nu er det mest i forhold til monitorering, at man oplever denne forbedring. Og selvfølgelig har SAP lavet rigtigt mange standard processer, som man kan bruge direkte i OPI (og tilpasse som man vil), såfremt man kører på PO 7.4.

Dette leder mig til PO 7.31/7.4, for jeg fik deltaget på et seminar om PO’s roadmap i går, og det giver god mening at følge op med info herom. Således kører PO på en java single stack, og det blev slået fast i går, at det er SAP’s strategi at køre single stack og at ABAP stack’en ikke anbefales. Så alle der installerer nye systemer bør slet ikke overveje dual stack, og dem der har dual-stack bør overveje at gå single stack vejen fordi det er billigere hardware omkostninger, mindre kompleks landskab, mere stabilt, hurtigere og al nyudvikling kommer hertil. Så der var ingen tvivl om, at man bør komme af med sin dual-stack. Har man dog mange ccBPM på sit gamle system, så vil man fra SP9 af PO kunne køre med abstrakte interfaces også, hvilket vil lette transitionen til det nye system og så blev det anbefalet at bruge integration patterns, som nu også er en del af PO.

Generelt blev BPM delen af PO pushet meget, og det er også interessante forbedringer med muligheder for substitutioner, understøttelse af komplekse forretningsprocesser, integreret monitorering, simpel interface til såvel mobiler som almindelige browsere o.s.v. Det er bare svært at beskrive det dybere i denne blog, så vil i stedet blot sige, at nu håndterer PO komplekse workflows på tværs af systemer, med simpel og letanvendelig brugergrænseflade og performance er god – derfor bør man overveje at gå den vej i stedet for workflows i separate systemer. Samtidig – kan BPM’er direkte kopieres ind i OPI, og så kan man hurtigt definere KPI’er for sine workflows.

PO er også blevet mere åben, og der er således åbne API’er til at tilgå og opdatere alle data på tværs af platformen. Så man behøver reelt aldrig at logge på PO for at monitorere eller bruge workflows, idet man faktisk kan få det distribueret til de andre systemer man bruger – om det er Sharepoint, Sitecore, Lotus notes eller lignende – så kan PO’s API’er understøtte, så længe der understøttes SOAP. Så PO er reelt blevet en åben platform hvilket passer godt med, at den nu er en ren java applikation.

Nå – allerede ved at blive en lidt for lang blog, så må hellere stoppe for i dag. I morgen er en kort dag og sidste dag, og så regner jeg med at få plads til at beskrive Solution Manager nyhederne, Netweaver Cloud Integration og lidt om B2B mulighederne i SAP PO.

Posted in computer.

Blog: "In touch" med virksomheden






Når vi siger touch, er det ofte synonym med tablets, og i 2016 viser prognoser, at der globalt i alt vil være shippet 375 millioner tablets. Touch har forvandlet den bærbare pc og gjort den endnu mere mobil. Og mens vi alle nok kan være enige om, at touch er utroligt praktisk i hverdagen, er det intet imod, hvad det kan betyde for effektiviteten, arbejdsgangene og produktiviteten på arbejdsmarkedet.

For os, der arbejder på kontor, kan fordelene ved touch være lette at få øje på. Jeg kender det selv, når jeg kan nøjes med at tage min tablet med til møde, illustrere ting direkte på min touch-skærm, notere ned imens og konstant have adgang til alle mine data. Tablets er nu så kraftfulde, at de kan konfigureres til at være medarbejderens primære enhed. Click keyboard med ekstra batteri er ideelt til dem på farten og tilbehør kan transformere enheden til desktop på kontoret via dock, så man ikke går på kompromis med et godt og korrekt arbejdsmiljø.

Som vidensmedarbejdere er vi blevet endnu mere mobile og effektive via den nye teknologi. Men hvad betyder touch for de medarbejdere, der altid har været mobile? Hvis vi vender blikket mod brancher, der defineres af “mobile medarbejdere”, giver det nogle endnu mere håndgribelige fordele. Med Windows 8 og nu 8.1 er det muligt at få både “sædvanlige” Windows-applikationer, samt nye apps designet specifikt til touch-brug. Der hvor vi virkelig ser produktiviteten blive øget ved tabletbrug, er hvor appen er designet til at understøtte brugsscenariet ved hjælp af naturligvis touch, men også andre funktioner fra tabletten, såsom kamera, GPS, mikrofon, højttalere, NFC, etc.

Ser vi eks. på håndværkere, som ofte er på flere forskellige lokationer og projekter hver dag, så kan en lille tablet med touch betyde, at medarbejderen øjeblikkeligt kan registrere timer, sende faktura på færdig gjort arbejde så virksomhedes cash flow forbedres, eller bestille manglende materialer, eller hvad der nu er vigtigt i den pågældendes stilling. En hjemmehjælper kan notere, hvornår personen er hos hvilken ældre, uploade foto eller skrive noter om tilstand til de følgende besøg samt registrere tid. I detailhandlen kan kunder få demonstreret produkter fra en salgsmedarbejder direkte på en tablet, og bestille samtidig – derved kan handler hurtigere afsluttes. Alt i alt betyder det bedre pleje/servicering, højere koncentration og fokusering og dermed øget produktivitet og ROI.

Hvad end det er en “kontor-virksomhed”, en tømrervirksomhed eller et plejecenter, er der selvfølgelig som altid en del overvejelser, når der skal investeres i nye løsninger. Men denne her gang er det ikke blot en softwareupdate, trådløs mus, nye kontorstole eller en ny maskine – det er en helt ny måde at arbejde på, og det er essentielt, at virksomheder forstår og tager hensyn til, at touch virkelig er en måde at opgradere, hvordan medarbejderne fungerer. Derfor er det ligeså meget en strategisk beslutning som en teknologisk beslutning at investere i touch-produkter, og virksomheder skal spørge sig selv “hvordan kan touch øge produktiviteten og simplificere valget af units, samtidig med at vi har øje for sikkerhed, håndterbarhed og ROI?” Hvis alle svarene falder i hak, bør valget være simpelt.

Jeg tror, at spørgsmålet i mange virksomheder omkring investeringer i touch-produkter fremover nok ikke kommer til at være “Har vi råd til det?”, men “Har vi råd til at lade være?”.

Posted in computer.

Blog: RIM: reddet af patenterne






Research In Motion (RIM), selskabet bag Blackberry-telefonerne, har det svært. Deres nye platform har ikke slået an og kunderne er betænkelige ved at købe dets produkter. Selskabet har selv annonceret, at det undersøger strategiske muligheder – mao. opkøb af firmaet. Det er også blevet foreslået, at dele af selskabet kan sælges.

I mellemtiden er der i september lavet et købstilbud for RIM, som lyder på 4,7 mia. USD (eller 9 USD per aktie). Markedsværdien ligger i dag omkring 4,2 mia USD, hvilket sandsynligvis afspejler investorernes usikkerhed om hvorvidt handlen bliver til noget.

Det anslåes, at firmaet har ca. 2,6 mia. USD i likvid kapital og at dets netværkafdeling er knap 1 mia USD værd. Der er således ca. 1 mia. USD tilbage for at nå op til dets markedsværdi.

Det interessante er nu, at firmaets patentportefølje er vurderet til ca. 2,25 mia USD. Der er mange måder at anslå sådan en værdi på, og nogle anslår 5 mia. USD, men lad os være konservative og holde os til lidt over 2 mia. USD.

Hermed er firmaet værdier lige under 6 mia. USD, men er kun vurderet af aktiemarkedet til 4,7 mia. USD. Den forskel må skyldes, at det anslåes at koste penge at overtage resten af biksen (og lukke den ned).

Mao. udgør patentporteføljen ca. havdelen af firmaets markedsværdi, mens den anden halvdel er rede penge. Afhængigt af hvor dyrt det menes at være at overtage hele firmaet, kan aktieprisen falde yderligere, men jeg tror, at kursen ikke kommer meget lavere – alle andre værdier i firmaet er nedskrevet til 0 eller regnes for negative, så de resterende værdier (pengene og patenter) holder hånden under prisen på firmaet.

Det er set før, at patentporteføljen reelt udgør den eneste værdi i et firma, der har oplevet voldsom tilbagegang. Firmaets produkter kan være umulige at sælge, men det ses meget sjældent, at der ikke er nogle aktører, der er interesserede i at overtage firmaets immaterialrettigheder.

Det er muligt, at RIM kan komme stærkt tilbage, men i mellemtiden udgør patentporteføljen (samt rede penge) en nedre værdi for firmaet.

Posted in computer.

Blog: SAP Teched 2013 – dag 2






Så er vi nået til dag 2 på Teched, og nu er vi rigtigt kommet i gang med sessionerne. Jeg valgte i går og her til formiddag at fokusere på Data Services, for at få et større indblik i dens funktionalitet. To ting der var fokus på i år var Geospatial data kvalitet og hvorledes man kan benytte SAP HANA til Data services.

Hvorledes Data Services understøtter spatial data kvalitet var spændende, fordi ikke nok med at man som tidligere kan konvertere fra adresse til geodata og tilbage igen – nu har man også fået Geographic Data Services til at håndtere Location Intelligence. Location Intelligence bygger på standardmetoder til f.eks. Geocoding (gå fra adresse til koordinater), reverse geocoding (finde tættest mulige adresse til et koordinat) og rensning af adresser til at følge danske standarder (ja – Danmark er en af de lande, der er understøttet). Men det er ikke det, jeg synes er mest spændende ved Location Intellegince – det er mere værktøjerne til automatisk at lave adresse korrektioner, samt søge i boundaries og matche adresse og/eller punkter i det man kalder Proximity matching. Reelt betyder det, at skal man lave en forespørgsel efter banker, kan man vælge at søge efter det baseret på:

* Tekstangivelse af område (alle banker i København), 
* Startpunkt og radius (alle banker indenfor 5 km af Kgs. Nytorv)
* Eller blot tegne på et grafisk kort og søge i det definerede område.

Dette giver nogle spændende muligheder for, at stille Data til rådighed samt rense data i forhold til geospatial data, og jeg tror at der er megen værdi i dette – især nu hvor alle kortdata i Danmark er stillet til rådighed. Jeg kunne forestille mig, at har man al denne data til rådighed – kombineret med sine forretningskritiske data, så vil man kunne få et overblik over, hvor der oftest er oversvømmelser (godt til ejendomsvurdering og forsikringsselskaber), lave geografiske ruter til optimering af leverancer for logistik firmaer samt finde “døde zoner” for teleselskaber og dermed sørge for at fjerne flest muligt af disse.

Samtidig er Data Services nu også blevet releaset til SAP HANA – dvs. at den nyeste version kan køre på SAP HANA eller på en almindelig database. Ved at køre på SAP HANA, kan man lave visse forespørgsler direkte på database niveau, og det giver nogle hastighedsforbedringer, som er 3 gange hurtigere end før. Jeg er lidt i tvivl om, hvorvidt man har brug for denne hastighed – og om det derfor giver mening. Data Services bruges ofte til at loade store mængder data og ikke til tidskritiske integrationer, men der er sikkert tilfælde hvor det giver god mening.

Jeg var også på en lidt teknisk session vedrørende hvilken database er bedst, og hvornår i forhold til SAP systemer, og det var bestemt også interessant. Det var faktisk godt objektivt, da jeg havde frygtet at det lidt for meget ville pege på SAP HANA eller Sybase databaser, men det gjorde det bestemt ikke. Det var mere styrke og svagheder på de forskellige databaser. Overordnet var de:

Microsoft SQL Server har ikke referencer på store datamængder, er bundet til Microsoft platformen (med de fordele og ulemper det medfører) og anbefales ikke at køre på VMWare ved store datamængder, men kun på Hyper V virtualiseringssoftware

Oracle
er dyr og samtidig nu også hardware vendor, hvorfor der er tvivl om fremtiden for Oracle (især på HP-UX). Samtidig anbefales det ikke at bruge Vmware til stor mængder data, men i stedet skal bruges OVM eller PowerWM

Sybase
mangler referencer generelt, men har høj performance og konsumerer lav mængde I/O og hukommelse. Kører fint på VMWare, PowerWM og HyperV

DB2
er OS afhængig selvom det ikke er angivet – virker fint på AIX og Linux (Redhat & Suse), men har problemer på Windows og på HP-UX ved store dataloads. Anbefales kun at køre på PowerWM

SAP HANA
kræver ikke specielle appliance boxes (hvilket er en nyhed åbenbart – har ikke fulgt nok med i HANA verdenen) men kun lidt dyre licenser – og her mangler der også referencer

Man kan sikkert finde eksperter, der vil sige andet end ovenstående, men det var nogle gode simplificerede pointer, som jeg bestemt godt kan bruge ved design af system landskaber fremover.

Om eftermiddagen var fokus på Solution Manager, Netweaver Cloud Integration, Gateway og PO’s roadmap – men det kommer der mere om i morgendagens blog

Posted in computer.

Blog: SAP Teched 2013 – dag 1






Så er det blevet tid til SAP Teched i Las Vegas, mens solen skinner udenfor, så sidder vi indenfor i rum med en grad af Air Condition, som sikrer at alle på et eller andet plan bliver forkølet. Forstår ikke hvorfor der skal være så meget drøn på den, men så er det selvfølgelig lettere at have jakkesæt på, fordi man får det helt sikkert ikke for varmt.

Mandag var første session en gæste keynote, hvor der blev snakket Big Data af Nate Silver. Han havde bestemt nogle interessante pointer om big data og hvordan det påvirker os.  En af hans pointer er, at mængden af data tilgængelig gør, at man nogle gange prøver at søge efter datamønstre uden en teori, og her går det galt ved datafortolkning. Et eksempel til at illustrere dette er, at man måske kan finde data der påviser, at hvis der er valg en onsdag, hvor solen skinner, så har Venstre aldrig tabt et valg.

Her er det vigtigt at man ikke lader sig narre af data, men at man skal sørge for også at have en god teori til hvorfor det sker. Derfor vil mængden af data aldrig fjerne behovet for menneskelig analyse, fordi der er brug for en vis skepsis overfor data. Samtidig skal man også være opmærksom på, at samme data kan læses på forskellige måder, og derfor har man en høj grad af bias på data fortolkning. Eksemplet han brugte var NBC (hvor 1% af seerne er republikanere) og Fox News (hvor 5% af seerne er demokrater) – måden de analyserede valgdata på kan være vildt forskellige, selvom de objektivt er de samme data.

Det var faktisk spændende at høre om Big Data og hvad det betyder, om end det ikke var så inspirerende en gæste keynote som den plejer. Kan bare være, at siden gamification gæste keynote, så er det svært at finde nogen, der er bedre.

Idag startede dagen så med SAP’s Keynote, der præsenterede hvad Teched primært handler om i år. Igen i år er HANA i fokus. Det burde ikke overraske.

Næste år kommer en hel ny database, for at gøre hastigheden på HANA bedre. Man har fundet ud af, at man er nået til maksimum performance med nuværende programmel, og derfor starter man forfra med næste version af HANA. Så en af de første ting vi får af vide er, hvad næste års Teched handler om.  Spændende – for der er ingen tvivl om, at HANA har revolutioneret databaser, og den største udfordring ved HANA stadig er prisen (ikke nødvendigvis kun licensen, men også hardware, fordi databasen jo skal ligge i RAM, og det kræver noget dyrere hardware). Jeg henviser til sidste års blog for en lidt mere detaljeret forklaring på HANA, men kort skal man se brugen af HANA som noget, hvor processeringstid ikke reelt er tilstede, fordi den kan hente data utroligt hurtigt. Således kan man bruge den til vejranalyser, overblik over hændelser i et kæmpe lager, børsanalyser o.s.v. Har man megen data, vil man lave komplekse forespørgsler hurtigt, så vil HANA helt klart være noget man kan bruge.

Det næste fokusområde for i år er SAP Fiori. SAP Fiori blev hypet som den nye brugergrænseflade for SAP systemer, og mere end 80% af normale SAP bruger cases kan allerede nu køre via SAP Fiori. Jeg ved ikke helt hvor UI5 og Mobile Portal så ligger, men det finder jeg vel ud af i løbet af de sessioner jeg har om dette. Fiori er i al fald frontenden til applikationer – også i SAP HANA Enterprise Cloud; som er det næste fokusområde for konferencen.

SAP HANA Enterprise Cloud er SAP HANA i skyen, hvor man kan få SAP til at sørge for at drifte sin HANA, mens man stadig selv betaler for sine licenser (også kaldet BYOL – Bring Your Own License). Men det giver god mening at man kan udnytte en public cloud til at køre SAP HANA produkter, og det gælder alt fra mobile løsninger til SaaS produkter og Succesfactors, Arriba etc. Planen er, at man har nogle ting i skyen (fordi det giver mening at have dem der) og andre ting “on premise”, fordi man måske har højere krav til sikkerhed/ejerskab af data. Man bruger så SAP PO eller HANA Cloud Integration til at sikre data kommer fra “on premise” til skyen og tilbage igen, eller også bruger man Data Services og Sybase Replication Server hvis det er store data mængder. Interessant tankegang, og måske noget der vinder ind stille og roligt rundt omkring – der er ingen tvivl om, at f.eks. Succesfactors er populært p.t., og det er fornuftigt, at der er fundet en standardmåde at håndtere dette på. SAP gjorde opmærksom på, at der findes over 200 iFlows (Integrationspakker med standardværdier), som kan installeres i SAP PO, som sikrer, at man kan integrere sin backend løsninger med skyen. Så skal man integrere f.eks. Succesfactors med backenden, er der altså en accelerator til SAP PO, som letter det gevaldigt.

Dernæst blev Operational Intelligence (OPI) vist for at vise, at integration services og overvågning heraf også er en integreret del af HANA. Man tager sin forretnings process (modelleret i BPM) – laver et overbliksbillede af processen, og så markerer hvilken information, man gerne vil have info om. Herved kan man hurtigt lave et Dashboard, der oplyser status i den modellerede proces. Har man designet det smart, vil man kunne proaktivt reagere på fejl, før de opstår.  Det lyder nok lidt for flot – reelt mener jeg, at fordi man ser en fejltype ofte ske baseret på noget i f.eks. trin 6 i processen, så kan man nå at rette denne fejl før alle de beskeder med lignende karakteristika kommer over i trin 6. Så det er reaktion på fejl, men bare lidt hurtigere end man før har kunnet.

Interessant er det også at f.eks. SAS og Qlikview nu også kører på HANA, hvilket giver en nogle spændende muligheder for at lave rapportering på data i SAP skyen og på forretningsprocessen modelleret i OPI.

Sidst i præsentationen blev det gjort opmærksom på, at SAP har det man kalder D-Code, som er noget hvor man vil prøve at involvere “ikke-SAP” udviklere i SAP udvikling, og dermed bruge f.eks. .Net udvikleres kompetencer til at lave bedre mobile og/eller “on premise” løsninger.

Samtidig har de lavet et “HANA Idea Incubator Program”, som reelt er crowd funding af SAP HANA løsninger. Således er der nogen som skal komme med en ide, herefter en kunde som gerne vil betale for det og tilsidst et udviklingshus, som gerne vil udvikle det. Og så går man sammen om et produkt, man så kan sælge til andre via en SAP HANA marketplace. Interessant og ligetil, om end jeg har svært ved at se forretningskritiske løsninger blive udviklet på denne måde. Men små produktivitetsforbedrende løsninger, vil helt sikkert kunne laves her.

Må hellere stoppe for i dag, for kan se jeg måske har skrevet lige lovligt meget. Resten af dagen i dag har stået på Data Services til HANA, Operational Intelligence og så var jeg så heldig at få et privatmøde med nogle af SAPs arkitekter for SAP PO. Det vil jeg skrive mere om i morgen.

Posted in computer.

Blog: ERP-systemer er ikke fleksible – men gør det noget?






Mine kolleger har netop lagt sidste hånd på en undersøgelse, som Computerworld også omtalte for nylig, om ERP-systemer, og hvorvidt de har udtjent deres hidtidige rolle, hvor de skulle supportere alle processer i forretningen. Jeg vil vove den påstand, at ja, ERP-systemerne er ikke længere tilstrækkelige til at understøtte alle slags processer. Mange virksomheder har fundet ud af, at mens ERP-systemer fint kan bruges til at håndtere processer inden for f.eks. HR, finans og supply chain, er ERP-systemernes rolle ikke så klar, når det f.eks. drejer sig om de mere kundeorienterede processer som multikanalsalg, der samler web-, mobile og telefoniplatformene.

Et andet område er Transport Management, hvor det også er early days, før ERP-løsningerne får armene omkring disse processer. Ved at benytte den eksisterende ERP-løsning i kombination med specialiserede it-løsninger kan der hurtigere etableres langt smidigere forretningsprocesser og ofte til lavere omkostninger end ved egenhændigt at bygge videre på ERP-platformen. Men CIOen sidder ofte alt for langt væk fra forretningen og har dermed ikke strategisk indflydelse på, hvordan forskellige kombinationer af ERP-systemer og andre standardsystemer kan gøre en virkelig forskel.

Skal der en helt anden løsning til?
Så CIOen skal kræve sin ret og rådgive forretningen. Fortæl ledelsen, hvor ERP-systemer stadig kan gøre en forskel, og hvor andre systemer langt bedre kan håndtere mere omskiftelige forretningsprocesser. Faktum er, at ERP-systemerne, som vi kender dem, ikke er fleksible nok. I takt med at forretningen hele tiden ændrer sig, ændres kundernes krav, og ERP-systemerne kan ofte ganske enkelt ikke følge med, da de som udgangspunkt er et stykke software, som er baseret på en række standardprocesser og konfigureret, så de passer til forretningen på et givet tidspunkt.

Så hvad gør forretningen, når de konstant skal kunne omstille sig og tilpasse sig nye kundekrav eller nye love og regler fra myndighederne, eller når der opstår behov for helt nye forretningsmodeller? Drop ERP-systemerne til de processer, der kræver en høj grad af omstilling. Find en ‘best-of-breed’-løsning f.eks. leveret som en software-as-a-service – og brug så ERP-systemerne på de mere statiske processer.

Posted in computer.