Daily Archives: November 3, 2013

Blog: "In touch" med virksomheden






Når vi siger touch, er det ofte synonym med tablets, og i 2016 viser prognoser, at der globalt i alt vil være shippet 375 millioner tablets. Touch har forvandlet den bærbare pc og gjort den endnu mere mobil. Og mens vi alle nok kan være enige om, at touch er utroligt praktisk i hverdagen, er det intet imod, hvad det kan betyde for effektiviteten, arbejdsgangene og produktiviteten på arbejdsmarkedet.

For os, der arbejder på kontor, kan fordelene ved touch være lette at få øje på. Jeg kender det selv, når jeg kan nøjes med at tage min tablet med til møde, illustrere ting direkte på min touch-skærm, notere ned imens og konstant have adgang til alle mine data. Tablets er nu så kraftfulde, at de kan konfigureres til at være medarbejderens primære enhed. Click keyboard med ekstra batteri er ideelt til dem på farten og tilbehør kan transformere enheden til desktop på kontoret via dock, så man ikke går på kompromis med et godt og korrekt arbejdsmiljø.

Som vidensmedarbejdere er vi blevet endnu mere mobile og effektive via den nye teknologi. Men hvad betyder touch for de medarbejdere, der altid har været mobile? Hvis vi vender blikket mod brancher, der defineres af “mobile medarbejdere”, giver det nogle endnu mere håndgribelige fordele. Med Windows 8 og nu 8.1 er det muligt at få både “sædvanlige” Windows-applikationer, samt nye apps designet specifikt til touch-brug. Der hvor vi virkelig ser produktiviteten blive øget ved tabletbrug, er hvor appen er designet til at understøtte brugsscenariet ved hjælp af naturligvis touch, men også andre funktioner fra tabletten, såsom kamera, GPS, mikrofon, højttalere, NFC, etc.

Ser vi eks. på håndværkere, som ofte er på flere forskellige lokationer og projekter hver dag, så kan en lille tablet med touch betyde, at medarbejderen øjeblikkeligt kan registrere timer, sende faktura på færdig gjort arbejde så virksomhedes cash flow forbedres, eller bestille manglende materialer, eller hvad der nu er vigtigt i den pågældendes stilling. En hjemmehjælper kan notere, hvornår personen er hos hvilken ældre, uploade foto eller skrive noter om tilstand til de følgende besøg samt registrere tid. I detailhandlen kan kunder få demonstreret produkter fra en salgsmedarbejder direkte på en tablet, og bestille samtidig – derved kan handler hurtigere afsluttes. Alt i alt betyder det bedre pleje/servicering, højere koncentration og fokusering og dermed øget produktivitet og ROI.

Hvad end det er en “kontor-virksomhed”, en tømrervirksomhed eller et plejecenter, er der selvfølgelig som altid en del overvejelser, når der skal investeres i nye løsninger. Men denne her gang er det ikke blot en softwareupdate, trådløs mus, nye kontorstole eller en ny maskine – det er en helt ny måde at arbejde på, og det er essentielt, at virksomheder forstår og tager hensyn til, at touch virkelig er en måde at opgradere, hvordan medarbejderne fungerer. Derfor er det ligeså meget en strategisk beslutning som en teknologisk beslutning at investere i touch-produkter, og virksomheder skal spørge sig selv “hvordan kan touch øge produktiviteten og simplificere valget af units, samtidig med at vi har øje for sikkerhed, håndterbarhed og ROI?” Hvis alle svarene falder i hak, bør valget være simpelt.

Jeg tror, at spørgsmålet i mange virksomheder omkring investeringer i touch-produkter fremover nok ikke kommer til at være “Har vi råd til det?”, men “Har vi råd til at lade være?”.

Posted in computer.

Blog: SAP Teched 2013 – dag 2






Så er vi nået til dag 2 på Teched, og nu er vi rigtigt kommet i gang med sessionerne. Jeg valgte i går og her til formiddag at fokusere på Data Services, for at få et større indblik i dens funktionalitet. To ting der var fokus på i år var Geospatial data kvalitet og hvorledes man kan benytte SAP HANA til Data services.

Hvorledes Data Services understøtter spatial data kvalitet var spændende, fordi ikke nok med at man som tidligere kan konvertere fra adresse til geodata og tilbage igen – nu har man også fået Geographic Data Services til at håndtere Location Intelligence. Location Intelligence bygger på standardmetoder til f.eks. Geocoding (gå fra adresse til koordinater), reverse geocoding (finde tættest mulige adresse til et koordinat) og rensning af adresser til at følge danske standarder (ja – Danmark er en af de lande, der er understøttet). Men det er ikke det, jeg synes er mest spændende ved Location Intellegince – det er mere værktøjerne til automatisk at lave adresse korrektioner, samt søge i boundaries og matche adresse og/eller punkter i det man kalder Proximity matching. Reelt betyder det, at skal man lave en forespørgsel efter banker, kan man vælge at søge efter det baseret på:

* Tekstangivelse af område (alle banker i København), 
* Startpunkt og radius (alle banker indenfor 5 km af Kgs. Nytorv)
* Eller blot tegne på et grafisk kort og søge i det definerede område.

Dette giver nogle spændende muligheder for, at stille Data til rådighed samt rense data i forhold til geospatial data, og jeg tror at der er megen værdi i dette – især nu hvor alle kortdata i Danmark er stillet til rådighed. Jeg kunne forestille mig, at har man al denne data til rådighed – kombineret med sine forretningskritiske data, så vil man kunne få et overblik over, hvor der oftest er oversvømmelser (godt til ejendomsvurdering og forsikringsselskaber), lave geografiske ruter til optimering af leverancer for logistik firmaer samt finde “døde zoner” for teleselskaber og dermed sørge for at fjerne flest muligt af disse.

Samtidig er Data Services nu også blevet releaset til SAP HANA – dvs. at den nyeste version kan køre på SAP HANA eller på en almindelig database. Ved at køre på SAP HANA, kan man lave visse forespørgsler direkte på database niveau, og det giver nogle hastighedsforbedringer, som er 3 gange hurtigere end før. Jeg er lidt i tvivl om, hvorvidt man har brug for denne hastighed – og om det derfor giver mening. Data Services bruges ofte til at loade store mængder data og ikke til tidskritiske integrationer, men der er sikkert tilfælde hvor det giver god mening.

Jeg var også på en lidt teknisk session vedrørende hvilken database er bedst, og hvornår i forhold til SAP systemer, og det var bestemt også interessant. Det var faktisk godt objektivt, da jeg havde frygtet at det lidt for meget ville pege på SAP HANA eller Sybase databaser, men det gjorde det bestemt ikke. Det var mere styrke og svagheder på de forskellige databaser. Overordnet var de:

Microsoft SQL Server har ikke referencer på store datamængder, er bundet til Microsoft platformen (med de fordele og ulemper det medfører) og anbefales ikke at køre på VMWare ved store datamængder, men kun på Hyper V virtualiseringssoftware

Oracle
er dyr og samtidig nu også hardware vendor, hvorfor der er tvivl om fremtiden for Oracle (især på HP-UX). Samtidig anbefales det ikke at bruge Vmware til stor mængder data, men i stedet skal bruges OVM eller PowerWM

Sybase
mangler referencer generelt, men har høj performance og konsumerer lav mængde I/O og hukommelse. Kører fint på VMWare, PowerWM og HyperV

DB2
er OS afhængig selvom det ikke er angivet – virker fint på AIX og Linux (Redhat & Suse), men har problemer på Windows og på HP-UX ved store dataloads. Anbefales kun at køre på PowerWM

SAP HANA
kræver ikke specielle appliance boxes (hvilket er en nyhed åbenbart – har ikke fulgt nok med i HANA verdenen) men kun lidt dyre licenser – og her mangler der også referencer

Man kan sikkert finde eksperter, der vil sige andet end ovenstående, men det var nogle gode simplificerede pointer, som jeg bestemt godt kan bruge ved design af system landskaber fremover.

Om eftermiddagen var fokus på Solution Manager, Netweaver Cloud Integration, Gateway og PO’s roadmap – men det kommer der mere om i morgendagens blog

Posted in computer.

Blog: SAP Teched 2013 – dag 1






Så er det blevet tid til SAP Teched i Las Vegas, mens solen skinner udenfor, så sidder vi indenfor i rum med en grad af Air Condition, som sikrer at alle på et eller andet plan bliver forkølet. Forstår ikke hvorfor der skal være så meget drøn på den, men så er det selvfølgelig lettere at have jakkesæt på, fordi man får det helt sikkert ikke for varmt.

Mandag var første session en gæste keynote, hvor der blev snakket Big Data af Nate Silver. Han havde bestemt nogle interessante pointer om big data og hvordan det påvirker os.  En af hans pointer er, at mængden af data tilgængelig gør, at man nogle gange prøver at søge efter datamønstre uden en teori, og her går det galt ved datafortolkning. Et eksempel til at illustrere dette er, at man måske kan finde data der påviser, at hvis der er valg en onsdag, hvor solen skinner, så har Venstre aldrig tabt et valg.

Her er det vigtigt at man ikke lader sig narre af data, men at man skal sørge for også at have en god teori til hvorfor det sker. Derfor vil mængden af data aldrig fjerne behovet for menneskelig analyse, fordi der er brug for en vis skepsis overfor data. Samtidig skal man også være opmærksom på, at samme data kan læses på forskellige måder, og derfor har man en høj grad af bias på data fortolkning. Eksemplet han brugte var NBC (hvor 1% af seerne er republikanere) og Fox News (hvor 5% af seerne er demokrater) – måden de analyserede valgdata på kan være vildt forskellige, selvom de objektivt er de samme data.

Det var faktisk spændende at høre om Big Data og hvad det betyder, om end det ikke var så inspirerende en gæste keynote som den plejer. Kan bare være, at siden gamification gæste keynote, så er det svært at finde nogen, der er bedre.

Idag startede dagen så med SAP’s Keynote, der præsenterede hvad Teched primært handler om i år. Igen i år er HANA i fokus. Det burde ikke overraske.

Næste år kommer en hel ny database, for at gøre hastigheden på HANA bedre. Man har fundet ud af, at man er nået til maksimum performance med nuværende programmel, og derfor starter man forfra med næste version af HANA. Så en af de første ting vi får af vide er, hvad næste års Teched handler om.  Spændende – for der er ingen tvivl om, at HANA har revolutioneret databaser, og den største udfordring ved HANA stadig er prisen (ikke nødvendigvis kun licensen, men også hardware, fordi databasen jo skal ligge i RAM, og det kræver noget dyrere hardware). Jeg henviser til sidste års blog for en lidt mere detaljeret forklaring på HANA, men kort skal man se brugen af HANA som noget, hvor processeringstid ikke reelt er tilstede, fordi den kan hente data utroligt hurtigt. Således kan man bruge den til vejranalyser, overblik over hændelser i et kæmpe lager, børsanalyser o.s.v. Har man megen data, vil man lave komplekse forespørgsler hurtigt, så vil HANA helt klart være noget man kan bruge.

Det næste fokusområde for i år er SAP Fiori. SAP Fiori blev hypet som den nye brugergrænseflade for SAP systemer, og mere end 80% af normale SAP bruger cases kan allerede nu køre via SAP Fiori. Jeg ved ikke helt hvor UI5 og Mobile Portal så ligger, men det finder jeg vel ud af i løbet af de sessioner jeg har om dette. Fiori er i al fald frontenden til applikationer – også i SAP HANA Enterprise Cloud; som er det næste fokusområde for konferencen.

SAP HANA Enterprise Cloud er SAP HANA i skyen, hvor man kan få SAP til at sørge for at drifte sin HANA, mens man stadig selv betaler for sine licenser (også kaldet BYOL – Bring Your Own License). Men det giver god mening at man kan udnytte en public cloud til at køre SAP HANA produkter, og det gælder alt fra mobile løsninger til SaaS produkter og Succesfactors, Arriba etc. Planen er, at man har nogle ting i skyen (fordi det giver mening at have dem der) og andre ting “on premise”, fordi man måske har højere krav til sikkerhed/ejerskab af data. Man bruger så SAP PO eller HANA Cloud Integration til at sikre data kommer fra “on premise” til skyen og tilbage igen, eller også bruger man Data Services og Sybase Replication Server hvis det er store data mængder. Interessant tankegang, og måske noget der vinder ind stille og roligt rundt omkring – der er ingen tvivl om, at f.eks. Succesfactors er populært p.t., og det er fornuftigt, at der er fundet en standardmåde at håndtere dette på. SAP gjorde opmærksom på, at der findes over 200 iFlows (Integrationspakker med standardværdier), som kan installeres i SAP PO, som sikrer, at man kan integrere sin backend løsninger med skyen. Så skal man integrere f.eks. Succesfactors med backenden, er der altså en accelerator til SAP PO, som letter det gevaldigt.

Dernæst blev Operational Intelligence (OPI) vist for at vise, at integration services og overvågning heraf også er en integreret del af HANA. Man tager sin forretnings process (modelleret i BPM) – laver et overbliksbillede af processen, og så markerer hvilken information, man gerne vil have info om. Herved kan man hurtigt lave et Dashboard, der oplyser status i den modellerede proces. Har man designet det smart, vil man kunne proaktivt reagere på fejl, før de opstår.  Det lyder nok lidt for flot – reelt mener jeg, at fordi man ser en fejltype ofte ske baseret på noget i f.eks. trin 6 i processen, så kan man nå at rette denne fejl før alle de beskeder med lignende karakteristika kommer over i trin 6. Så det er reaktion på fejl, men bare lidt hurtigere end man før har kunnet.

Interessant er det også at f.eks. SAS og Qlikview nu også kører på HANA, hvilket giver en nogle spændende muligheder for at lave rapportering på data i SAP skyen og på forretningsprocessen modelleret i OPI.

Sidst i præsentationen blev det gjort opmærksom på, at SAP har det man kalder D-Code, som er noget hvor man vil prøve at involvere “ikke-SAP” udviklere i SAP udvikling, og dermed bruge f.eks. .Net udvikleres kompetencer til at lave bedre mobile og/eller “on premise” løsninger.

Samtidig har de lavet et “HANA Idea Incubator Program”, som reelt er crowd funding af SAP HANA løsninger. Således er der nogen som skal komme med en ide, herefter en kunde som gerne vil betale for det og tilsidst et udviklingshus, som gerne vil udvikle det. Og så går man sammen om et produkt, man så kan sælge til andre via en SAP HANA marketplace. Interessant og ligetil, om end jeg har svært ved at se forretningskritiske løsninger blive udviklet på denne måde. Men små produktivitetsforbedrende løsninger, vil helt sikkert kunne laves her.

Må hellere stoppe for i dag, for kan se jeg måske har skrevet lige lovligt meget. Resten af dagen i dag har stået på Data Services til HANA, Operational Intelligence og så var jeg så heldig at få et privatmøde med nogle af SAPs arkitekter for SAP PO. Det vil jeg skrive mere om i morgen.

Posted in computer.

Blog: ERP-systemer er ikke fleksible – men gør det noget?






Mine kolleger har netop lagt sidste hånd på en undersøgelse, som Computerworld også omtalte for nylig, om ERP-systemer, og hvorvidt de har udtjent deres hidtidige rolle, hvor de skulle supportere alle processer i forretningen. Jeg vil vove den påstand, at ja, ERP-systemerne er ikke længere tilstrækkelige til at understøtte alle slags processer. Mange virksomheder har fundet ud af, at mens ERP-systemer fint kan bruges til at håndtere processer inden for f.eks. HR, finans og supply chain, er ERP-systemernes rolle ikke så klar, når det f.eks. drejer sig om de mere kundeorienterede processer som multikanalsalg, der samler web-, mobile og telefoniplatformene.

Et andet område er Transport Management, hvor det også er early days, før ERP-løsningerne får armene omkring disse processer. Ved at benytte den eksisterende ERP-løsning i kombination med specialiserede it-løsninger kan der hurtigere etableres langt smidigere forretningsprocesser og ofte til lavere omkostninger end ved egenhændigt at bygge videre på ERP-platformen. Men CIOen sidder ofte alt for langt væk fra forretningen og har dermed ikke strategisk indflydelse på, hvordan forskellige kombinationer af ERP-systemer og andre standardsystemer kan gøre en virkelig forskel.

Skal der en helt anden løsning til?
Så CIOen skal kræve sin ret og rådgive forretningen. Fortæl ledelsen, hvor ERP-systemer stadig kan gøre en forskel, og hvor andre systemer langt bedre kan håndtere mere omskiftelige forretningsprocesser. Faktum er, at ERP-systemerne, som vi kender dem, ikke er fleksible nok. I takt med at forretningen hele tiden ændrer sig, ændres kundernes krav, og ERP-systemerne kan ofte ganske enkelt ikke følge med, da de som udgangspunkt er et stykke software, som er baseret på en række standardprocesser og konfigureret, så de passer til forretningen på et givet tidspunkt.

Så hvad gør forretningen, når de konstant skal kunne omstille sig og tilpasse sig nye kundekrav eller nye love og regler fra myndighederne, eller når der opstår behov for helt nye forretningsmodeller? Drop ERP-systemerne til de processer, der kræver en høj grad af omstilling. Find en ‘best-of-breed’-løsning f.eks. leveret som en software-as-a-service – og brug så ERP-systemerne på de mere statiske processer.

Posted in computer.