Archive for February 19, 2014

Ny trojaner skjult i JPG-bilder


Den beryktede Zeus-trojaneren har kapret millioner av pc-er i botnett og rundstjålet nettbankkunder siden 2007, da den første gang dukket opp.

Skadevaren har vært solgt som en nettjeneste i underverden. Kildekoden lekket ut noen år tilbake og det finnes utallige varianter, både kloner og avarter, inkludert angrep spesielt rettet mot Norge.

Nå er det funnet en ekstra slu Zeus-utgave som tar i bruk steganografi, en form for kryptering, for å skjule seg og gjøre infeksjon vanskeligere å avsløre.

Steganografi er en teknikk for å kamuflere blant annet tekst, som oftest i bilder. Også bilder kan gjemmes i bilder slik at de ikke synes for de som ikke vet hvordan innholdet hentes tilbake.

ZeusVM, som den nye utgaven er døpt, tar i bruk JPG-bilder for å laste ned sin konfigurasjonsfil. Dette er en sentral komponent med instruksjoner for hvilke nettbanker og domener skadevaren skal rettes mot.


Ved å sammenligne originalbildet med det manipulerte bildet fant forskerne steganografisk kode lagt til på slutten av bildefilen.

Det forklarer sikkerhetsekspert Jerome Segura i Malwarebytes i et blogginnlegg. Han gir en fransk kollega, som blogger under pseudonymet Xylitol æren for først å ha oppdaget tilfellet.

– Ved å skjule ondsinnet kode på denne måten kan det være mulig å unngå signaturbasert snokvern (Intrusion Detection Systems, IDS) og selv antivirus. For en webansvarlig vil slike bilder fremstå som harmløse, skriver Segura.

I dette tilfellet skal de manipulerte bildefilene tilsynelatende ha fremstått som uskadede, og dermed kunne vises på vanlig måte, selv om de nødvendigvis var en del større enn originalbildet.

Ble endelig Noark-godkjent


Software Innovation har som første leverandør oppnådd «endelig godkjenning» for et komplett saksbehandling- og arkivsystem etter Noark 5-standarden.

Dette er en status de har jaktet i en årrekke. Med løsningen Public 360 (versjon 4.1 servicepakke 5) har de overbevist Riksarkivaren om at de kan levere godkjente uttrekk.

Konkurrentene som har midlertidig godkjenning er mange, men dette setter 360 et hestehode foran. Iallfall for øyeblikket.

– Kundene etterspør selvfølgelig endelig godkjenning. Å få dette er et kvalitetsstempel, sier produktsjef Knut-Erik Gudim til digi.no. Han vedgår at de har brukt mye tid på å oppfylle de obligatoriske kravene.

Beskjeden fra Riksarkivaren kom fredag i forrige uke. Det er fortsatt noen avvik (pdf), men ikke verre enn at myndighetene sa seg fornøyd.

Ved å oppfylle kravene viser løsningen at den både egner seg som frittstående sakarkivsystem og i integrasjon med ett eller flere fagsystem. digi.no minner for ordens skyld om at det er forskjell på godkjent Noark-kjerne og komplett system. Visma fikk sin kjerne Noark 5-godkjent i 2012.

Selv om det ligger mye arbeid bak, var det ingen champagne-korker som spratt i været før helgen, da meldingen kom, erkjenner Gudim i Software Innovation.

– Vi ønsker å fortelle markedet at vi har klart kravene, men er ydmyke, sier produktsjefen til digi.no.

De har også måttet justere kursen underveis. Noark er en levende standard, og både den og testverktøyene kommer tidvis i nye utgaver. Derfor er det stor forskjell på å være godkjent for tre år siden og nå, mener Gudim.

– Og avvikene Riksarkivaren tar opp?

– De jobber vi kontinuerlig med å rette opp i nye versjoner.

Søk etter kodeforslag rett fra Visual Studio


Det har liten hensikt å finne opp hjulet på nytt når man programmerer. Støter man på et lite problem man ikke umiddelbart vet hvordan man skal løse, kanskje fordi dokumentasjonen man har for hånden ikke er god nok, er det fint å kunne ty til hjelp fra andre som har vært i samme situasjon. Dette kan være kolleger, men like gjerne fremmede utviklere som deler sine kunnskaper i ett eller flere av Internetts mange skattkamre. Svært ofte finnes det svar på problemene i slike fora, men det er ofte ganske vanskelig å finne riktig svar. Det avhenger ofte av hvor god man er til å beskrive problemet ved hjelp av søkeord.

Denne uken kom Microsoft med et tillegg til Visual Studio som skal kunne gjøre det enklere for C#-utviklere å finne kodeeksemplene de leter etter. Det dreier seg om et tillegg til Visual Studio som har fått navnet Bing Code Search for C#.

Via Visual Studios IntelliSense-funksjonalitet skal verktøyet ta utgangspunkt i utviklerens kode og utviklerens egne søkeord. Ved å sende Bing relevant informasjon om konteksten, slik som prosjekttype, semantisk kontekst og annet, skal Bing kunne søke og finne kodeeksempler i samlingene til MSDN, StackOverflow, Dotnetperls og CSharp411. I Bing skal Microsoft ha indeksert, isolert og rangert kodesnutter ved å bruke en rekke syntaktiske og semantiske metoder.

Som videoen på denne siden viser, blir kodeeksemplene vist direkte i Visual Studio. Utvikleren kan bla mellom flere eksempler og lime inn det foretrukne eksempel ved hjelp av et klikk, uten å måtte forlate utviklerverktøyet.

Det nye Visual Studio-tillegget anses foreløpig som et eksperiment som er delvis utviklet av Microsoft Research. I første omgang har målet vært å gjøre teknologien raskt tilgjengelig. Planen framover er å inkludere støtte for flere programmeringsspråk.

Standhaftig iransk kyberangrep


I september i fjor meldte Wall Street Journal og flere andre amerikanske medier, på grunnlag av anonyme interne kilder, at iranske hackere hadde infiltrert et ugradert datanettverk tilhørende det amerikanske sjøforsvaret, Navy Marine Corps Internet. Det ble da hevdet at angrepet var begrenset og at inntrengerne var blitt drevet ut i løpet av kort tid. Det ble også hevdet at iranerne måtte ha fått hjelp fra Russland, noe russiske diplomater avviste.

I en artikkel publisert i natt norsk tid, påstår Wall Street Journal at det iranske angrepet var langt mer omfattende enn de meldte i september, og at det tok fire måneder før de ansvarlige følge seg sikre på at iranerne ikke lenger hadde tilgang. I denne perioden måtte hele nettet stenges ved to anledninger.

I meste parten av denne perioden var de iranske inntrengerne i stand til å overvåke det meste av trafikken i nettet, blant annet ugradert tale, video og datakommunikasjon til 800 000 brukere fordelt på 2 500 steder.

Årsaken til at det nå foreligger mer informasjon, er at president Barack Obama har utnevnt mannen som hadde ansvaret for å renske Navy Marine Corps Internet etter det iranske angrepet, viseadmiral Michael Rogers, til ny direktør for etterretningstjenesten NSA. Før Rogers kan tiltre, må han gjennom en høring i senatet. Under høringen kan han vente nærgående spørsmål om det iranske kyberangrepet, og generelt om kybersikkerhet i USAs forsvarsdepartement og militære. Høringen ventes en gang i mars. Rogers har anledning til å henvise vanskelige spørsmål i den åpne høringen til en lukket og gradert seanse.

Renskningsaksjonen het «Operation Rolling Tide», og ble ledet av Rogers i egenskap av sjef for kybersikkerhet i US Navy.

Det understrekes at Navy Marine Corps Internet er forbeholdt ugradert kommunikasjon, og at inntrengerne ikke har hatt mulighet til å tappe følsom informasjon.

Men det er vanskelig å tro at iranerne ikke har kunnet hente interessant materiale fra sin overvåkning av nettverket og de 800 000 brukerne. Formuleringene som Wall Street Journal er ulne: Kommunikasjon er «kompromittert», men «ingen e-postkontoer er hacket» og «ingen data er stjålet».

Det er på det rene at iranerne utnyttet sårbarheter i nettet, at de fordelte ondsinnet kode i nettet, og at de var i stand til å fjernstyre overvåkningen av det som skjedde i nettet.

Dette er en vesentlig opptrapping fra de omfattende iranske tjenestenektangrepene mot amerikanske banker høsten 2012 og virusangrepet i august 2012 som slo ut 30 000 pc-er i oljeselskapet Saudi Aramco, som siden er antatt å ha stammet fra Iran. Irans økte evne til kyberangrep etter USA og Israels Stuxnet-angrep mot Iran i 2010 må være en tankevekker i Washington. Det er verdt å merke seg at det ikke lenger er snakk om at iranerne må ha fått hjelp fra russerne.

Det er to svar på spørsmålet om hva det iranske kyberangrepet har kostet USA.

Det ene er at de skal ha kostet rundt 10 millioner dollar å stenge de spesifikke sårbarhetene og luke ut alle instanser av ondsinnet kode. Det er ikke spesielt mye: 12,50 dollar per bruker.

Det andre svaret er at det skal ha kostet flere hundre millioner dollar å trappe opp kybersikringen av Navy Marine Corps Internet til et akseptabelt nivå.

Ifølge kildene til Wall Street Journal får viseadmiral Rogers anerkjennelse for å ha satset på det siste, og virkelig ryddet opp framfor å bagatellisere inntrengningen.

E-signatur til Office 365


Microsoft og e-signaturleverandøren DocuSign har ifølge en pressemelding inngått en strategisk avtale som fra mars vil gjøre det mulig å integrere digital underskrift i dokumenter håndtert gjennom bedrifters Office 365-abonnement.

Løsningen betyr at brukere vil kunne underskrive dokumenter direkte i Outlook eller Word.

Løsningen framstår som en applikasjon i Office Store, der den skal gjøres tilgjengelig tidlig i mars. Applikasjonen er integrert i Outlook, Word, SharePoint Online og SharePoint Server 2013. Det skal være enkelt for bedriftsadministratorer av Office 365 og Sharepoint å fordele løsningen til sine brukere. Integrasjon i Azure Active Directory innebærer at det ikke er nødvendig med egen pålogging til DocuSign, det holder at brukeren er pålogget Office 365. For brukere blir det snakk om enkel selvbetjening gjennom Office Store. Dokumenter kan underskrives på pc, brett eller mobiltelefon.

Alle dokumenter som inngår i ordningen lagres i Microsoft-tjenesten OneDrive for Business.

Løsningen innebærer at selskaper og organisasjoner som benytter seg av Office 365 unnslipper utskrift også der det er påkrevet med signerte dokumenter. En utleiemekler kan registrere både utleiere og leietakere med digitale signaturer, og bruke e-post til å distribuere og hente inn dokumenter som skal underskrives.

Referansekunde på ordningen er det globale forsikringsselskapet MetLife med 66 000 ansatte.

DocuSign har virksomhet i 188 land, og opplyser at de gjennomsnittlig får 60 000 flere brukere hver dag. Microsoft har lenge vært kunde hos DocuSign.

Hva er det Evry vil?


DEBATT: Evry stiller spørsmål ved mye i min kronikk, men hva vil de frem til? De tegner et bilde som ikke står overens med virkeligheten til mange offentlige forvaltningsorgan i Norge. Et bilde som inneholder et konkurranseutsatt marked som tar ansvar for å sikre interoperabilitet, en klar melding om at vi ikke behøver å bekymre oss for offentlige data i nettsky, en oppfordring til kommuner om å ikke tenke nytt samt et angrep på Noark 5 som kommer syv år for sent.

Når det gjelder avleveringsformater stiller Noark 5 krav som stadfester at systemet skal kunne lage godkjente uttrekk. Det er underlig da at ePhorte (midlertidig godkjent 05.07.2010) og ESA (midlertidig godkjent 28.04.2011) ennå ikke har klart å oppnå endelig godkjenning. Etter henholdsvis nesten 4 og 3 år har ikke disse systemene klart å lage uttrekk som viser Riksarkivet at systemene klarer det mest fundamentale innen arkivering: å lage godkjente uttrekk.


Thomas Sødring er førsteamanuensis på Høyskolen i Oslo og Akershus med arkiv som spesialitet.

Så langt er det kun Visma som har klart å oppnå endelig godkjenning, og de gjorde det etter kort tid. Det argumenteres for interoperabilitet ved å si at det er mulig å flytte data mellom Noark 5-kjerner ved å bruke standardiserte Noark-uttrekk, men overføring av data fra et Noark-system til et annet skjer ved databasekonverteringer. Dette fordi datakvaliteten på Noark uttrekkene som produseres ikke er gode nok. Produksjon av uttrekk er noe leverandører tar seg godt betalt for. Tallene som ofte blir diskutert, forteller at kostnadene varierer fra 20 000 til over 200 000 kroner per base, for noe som burde være gratis dersom systemene fulgte standarden. Noen kommuner har ikke råd til å lage uttrekk og dette begynner å bli et samfunnsproblem.

Mitt opprinnelig innlegg var en vurdering om en Azure-strategi er bra for forvaltningen. Der argumenterer jeg for at personsensitive data og data av nasjonal interesse ikke bør lagres i en nettsky-infrastruktur som på en eller annen måte er underlagt amerikansk lovgivning. EUs personvernlov og safe harbour-avtaler skal sikre dataene men Snowden-lekkasjene viser at etterretningstjenestene bryr seg lite om disse. Det har kommet flere lekkasjer som peker i en retning av at innsamling av data handler om industrispionasje og samarbeid for å sikre seg tredjelands fortrolige informasjon for å få et overtak i internasjonale forhandlinger. Det spiller ingen rolle om leverandøren heter Microsoft, Google eller noe annet. Det som er viktig er hvilken lovgivning dataene kommer under, dersom et amerikansk selskap er med i bildet så kommer våre data i virkeligheten under amerikansk lovgivning. Nå er også Tyskland på banen med et ønske om at mindre internettrafikk skal gjennom Amerikansk infrastruktur. Hvis noen fortsatt er usikker om dette er et problem, kan lenkene [1] og [2] anbefales (under). Leverandører kan gjerne være slepphendte med egne bedrifts-data, men hold dere unna forvaltningens.

Mitt andre poeng var å spørre om en arkivkjerne utviklet i en proprietær PaaS-løsning (platform as a service, red.anm.) egentlig er en god idé for forvaltningen. Men hva med en åpen en? Hva ville skje hvis kommunene satte seg ned og diskuterte sine behov med et internasjonalt selskap som lever av friprog og som leverer til det norske markedet? Det er nettopp det det kommunale arkivmiljøet har gjort de siste årene og resultatet ble bra. Det kommer en bastant påstand at IKA Kongsberg-prosjektet er kostnadskrevende. Her har man tydeligvis ikke satt seg inn i prosjektet. Dette er en videreutvikling av en eksisterende Noark 5-kjerne i fri programvare som allerede er tatt i bruk i Trondheim kommune. Denne kjernen har midlertidig godkjenning og er godt på vei til å oppnå endelig godkjenning. IKA Kongsberg skal ikke selv utvikle eller drifte noe, men skal stille kravene til systemet, mens programvareutvikling og drift blir overlatt til konkurranseutsatt industri. Installasjonen kan være lokal, mens ansvar for drift ligger hos leverandør. Ettersom det er friprog, så er mye av arbeidet allerede gjort. Kommunene slipper å betale for den samme utviklingen om igjen og om igjen. Kjernen er på plass og kan snart betegnes som en kommunal felleskomponent. Jeg er helt enig at programvareutvikling er meget kostnadskrevende, men dette er et argument for økt bruk av friprog-felleskomponenter og ikke motsatt. Hvorfor skal forvaltningen betale for en videre utvikling og vedlikehold av 10-12 forskjellige Noark 5-kjerner, når det er kun én som har klart å oppnå endelig godkjenning?

Det kommer ofte fram negative kommentarer om Noark fra leverandørsiden, men jeg har aldri sett noen underbygging av påstandene. Det er også merkelig at standarden skulle vise seg å være så dårlig som det hevdes, da de fleste leverandørene deltok i utviklingen av den. Leverandørene oppfordres på det sterkeste til å publisere tekniske beskrivelser på hvordan Noark 5-standarden er et hinder for produktene, samt hva som skal til for å forbedre standarden. Publiser gjerne via SamDok-prosjektet, da dette er noe SamDok bør diskutere inngående. Men hvorfor kom ikke dette fram i høringsuttalelsene i 2007? Det var her leverandører hadde muligheten til å bidra konkret og fortelle Riksarkivet hva de burde gjort annerledes med Noark 5. EDB hadde til og med en representant i arbeidsgruppen, så vidt jeg husker. Hvis det var så fundamentalt galt, så burde det kommet fram da.

Skymodellen som ble presentert av Software Innovation og forsvart av Evry representerer ikke en utvikling som gir bedre produkter og mer konkurranse. Modellen gir mer makt i leverandørs favør og kan gjøre det mye vanskeligere for nye aktører å etablere seg. Her bør Norge se til Storbritannia hvor den britiske regjeringen i langt større grad slipper til mindre aktører på det offentlige markedet med begrunnelsen at de vil ha bedre produkter og mer konkurranse.

Riksrevisjonensrapporten fra 2010 viser at manglende kunnskap er et av de store problemene og dette er spesielt kritisk hos leverandørene. Vi trenger mer kunnskap om hvordan vi kan sikre datakvaliteten på de elektroniske arkivene, øke integriteten og autentisiteten til materialet, sørge for redusert langtidsbevaringkostnader, bedre forståelsen av hvordan arkivet kan være en sentral IKT-komponent og hvordan en arkivkjerne kan legge til rette for økt interoperabilitet for å sikre regjeringens ønske om økt digitalisering. Det er dokumentert av Riksrevisjonen at det norske arkivmarkedet lider på grunn av vanstyre og i denne sammenhengen bør de arkivfaglige være opptatt av å sikre teknisk åpenhet. Å utvikle og låse denne viktige samfunnskomponenten i en lukket arkitektur er ikke den riktige veien å gå.

[1]Cloud Computing in Higher Education and Research Institutions and the USA Patriot Act
[2]The US surveillance programmes and their impact on EU citizens’ fundamental rights (pdf)

Med takk til Disqus-bruker «Naboen til fetter Anton» for lenkene.

Galaxy S5 får fingeravtrykksleser


24. februar er datoen da Samsung ventes å avdekke sitt nye flaggskip innen smartmobiler, Galaxy S5.

Nettstedet SAMmobile.com som har spesialisert seg på Samsungs smartmobiler, melder at de har «drøssevis av informasjon fra innsidere» om Galaxy S5, og at de nå er sikre på at den kommer med innebygget fingeravtrykksleser.

Det dreier seg om en sveipleser, altså der man må dra fingeren i stedet for bare å trykke den. Leseren er lagt inn i hjemknappen på mobilen, som for øvrige holder seg til forgjengernes tradisjon med fysisk knapper framfor for skjermknapper.

Det er ikke opplyst om hvem som leverer fingeravtrykksteknologien.

Det norske utviklingsselskapet Idex satser på fingeravtrykkslesere, men har ikke vært tilgjengelig for kommentar, grunnet forberedelser til Mobile World Congress i Barcelona i neste uke, bransjebegivenheten der Galaxy S5 skal presenteres offentlig for første gang.

Fingeravtrykksleseren på Galaxy S5 ser ut til å få flere bruksmuligheter enn på erkerivalen iPhone 5s. Ifølge SAMmobile vil brukeren kunne registrere opptil åtte fingeravtrykk. Minst ett må brukes til å låse opp enheten. De andre kan tilordnes ulike oppgaver, for eksempel åpne en gitt app.

Andre oppgaver som kan styres av fingeravtrykksleseren er å åpne en privat mappe, «Personal Folder» eller utløse privat modus, «Private mode», der man kan legge apper og tjenester av mer personlig art.

Fingeravtrykk kan også gi tilgang til Samsung-kontoen og styre alt av brukernavn og passord til nettjenester.

I det man sveiper fingeren over leseren, vil en et bilde av fingeravtrykket vises på skjermen.

Lånekassens «digitale» reise


I løpet av kort tid har det nå vært arrangert 3 konferanser om digitaliseringen av offentlig sektor. Konferansene har til sammen samlet 450 deltagere (!) – riktignok noen gjengangere, men allikevel: interessen for temaet er stor.

Et sentralt tema har vært «Hvordan lykkes med digitaliseringen i offentlig sektor?». På Fagforbundets konferanse (Program eForvaltningskonferansen 2014, pdf) ble et meget godt eksempel på vellykket digitalisering av Lånekassen presentert av avdelingsdirektør Ingunn Cowan.

Historien er kort fortalt denne:

I 2003 ble Lånekassens fremtid diskutert i Stortinget. Bakgrunnen var spørsmålet om en ikke heller kunne overlate denne type «bankvirksomhet» til bankene. Satt på spissen fikk Lånekassen beskjed av Stortinget om å modernisere (dvs. effektivisere) eller privatisere. Resultatet ble et moderniseringsprogram.

Stortinget sa selvfølgelig ikke hvordan en skulle effektivisere Lånekassen; det fikk være opp til ledelsen. Men det var klart at IKT var ett av flere virkemidler.


Første oppgave var å finne finansiering til et prosjekt som ble beregnet å koste 800 millioner. Lånekassen ble pålagt å finansiere ca. 40 prosent av det selv gjennom eget driftsbudsjett, og deler av gevinsten, som viste seg å bli 70 millioner per år, skulle gå tilbake til statskassen i form av reduserte bevilgninger til Lånekassen. Dette er en unik måte å finansiere slike prosjekter på i staten; det «normale» er 100 % finansiering over statsbudsjettet, og at gevinsten forble hos etaten. Finansieringsordningen som Lånekassen her ble pålagt, virket imidlertid motiverende for etaten både for gjennomføring og gevinstuttak.

Prosessen videre var både å gå kritisk gjennom prosessene for å finne ut hva som kunne effektiviseres, men også hvilke gevinster en ville kunne oppnå, og når og hvordan skulle de tas ut. Fokus var derfor på gevinstrealisering – og ikke gevinstberegning for å få midler til prosjektet – fra første stund.

Arbeidsprosesser ble endret, samordning og samarbeid mellom ulike miljøer ble prioritert, og innhenting av data fra tredjepart ble en helt sentral oppgave.

Det var altså ikke teknologien som ble styrende for effektiviseringen, men forståelsen av oppgaveløsningen. Faktisk er mye av den teknologiske løsningen, som Lånekassen i dag benytter seg av, «gammel» teknologi fra flere tiår tilbake. Men mye er også nytt.

Resultatet har blitt halvert behandlingstid, 70 prosent reduksjon av inngående telefonsamtaler, 60 årsverk er spart, sykefraværet har gått ned, og altså 70 millioner «tilbake» til statskassen hvert år.

I så henseende ligner dette prosjektet på det Skattedirektoratet oppnådde i sin tid. Da vedtok Stortinget at Skattedirektoratet kunne innhente skatterelaterte data fra bank, forsikring og borettslag. Det utnyttet daværende skattedirektør Bjarne Hope til å lage forhåndsutfylt selvangivelse. Det innebar en kulturendring fra at skatteetaten skulle være kontrollorgan (fortell oss hva dine skatterelaterte data er så skal vi se om du har rett), til et serviceorgan (her er det vi vet om dine skatterelaterte data, er det riktig?). Det var altså først og fremst en endring i kultur og arbeidsprosesser, og ikke i anvendelse av teknologi, som la grunnlaget for skattedirektoratets senere vellykkede «digitalisering».

NAVs «digitale» reise
I samme konferanse orienterte IKT-direktør Nina Aulie om IKT-utviklingen i NAV. Hun hadde fått spørsmålet om det var teknologien som styrte NAV, eller omvendt. Hennes svar var et både/og: NAV var både styrt av teknologien og styrte teknologien.

Utfordringen i NAV er helt annerledes enn i Lånekassen. Etableringen av NAV i 2006 var resultatet av en politisk beslutning om å slå sammen arbeidsmarkedsetaten (Aetat), Rikstrygdeverket (RTV), og den kommunale sosialtjenesten. I tillegg til å få tre ulike organisasjoner og IKT-systemer til å fungere sammen, skulle også den nye organisasjonen utvikle systemer til å håndtere den nye pensjonsreformen fra 1.1 2011, og ny uføretrygd fra 1.1 2015.

NAVs strategi for dette er å rydde opp i de bakenforliggende fagsystemene, sikre stabilitet, men primært å etablere en enklere infrastruktur for at brukergrensesnittet skal bli enklest mulig. «Tre skjermer skal bli til en» – som Nina Aulie spissformulerte det.

Dessverre kom ikke Nina Aulie inn på problemene knyttet til moderniseringsprosjektet som nylig ble stoppet. Dette blir imidlertid tema for en senere artikkel i digi.no.

Styring og utvikling av kompliserte IKT-prosjekter
Professor Margunn Aanestad fra Ifi (Institutt for Informatikk ved Universitetet i Oslo), hadde en interessant gjennomgang av ulike teorier og tilnærminger til styring av kompliserte IKT-prosjekter.

Noen av hennes anbefalinger var:

  • Velg kortsiktige og problemløsende tilnærminger fremfor de store visjonære målsetninger
  • Vær hard og kritisk på prioritering av mål og sekvensiering (rekkefølge) av mål
  • Koble investering og gevinstrealisering tett, og følg opp med fortløpende gevinstrealisering
  • Unngå politisk styring, men oppnå politisk og ledelsesmessig støtte

Dette er en av mange fremgangsmåter, men dette bringer meg til hovedpoenget:

Behovet for en læringsarena for offentlige IKT-prosjekter

Tilsynelatende er det stor forskjell både på forutsetninger, størrelse og kompleksitet på behovet for effektivisering – «digitalisering» som det heter – hos Lånekassen og NAV. Og det er stor forskjell på en kundegruppe som består av unge studenter, og en som består av arbeids- og sosialtrygdesøkende mennesker. Forskerens anbefalte tilnærming vil ikke passe i alle sammenhenger.

Men en kan lære av hverandres prosjekter – både små og store, og det vil ha stor betydning at forskere, som har metode og komparativ analyse i sin «verktøykasse», kan bidra både i evaluering av slike prosjekter og i rådgivningen underveis.

Det offentlige mangler en slik åpen læringsarena hvor en fritt kan formidle sine positive og negative erfaringer og få dem analysert og systematisert for senere anledninger.

(De to øvrige konferansene det vises til er Seminar om europeisk IKT-politikk som Kommunal og moderniseringsdepartementet arrangerte 6, februar, og Samhandlingsarenaen som Semicolon-prosjektet arrangerte 13. februar. Presentasjonene fra eForvaltningskonferansen finner du her).

Whirlpool valgte norsk samarbeidsløsning


Det amerikanske hvitevarekonsernet Whirlpool har valgt norske Symphonical som leverandør av en samhandlingstjeneste for gruppehåndtering av oppgaver som styrker Whirlpools globale produktutvikling. Symphonicals løsning bygger på Google+ Hangouts og består av en tavle som viser informasjon som gule lapper, som kan klassifiseres på en meningsfylt og visuell måte.

Alle deltakerne i samarbeidet gjøre endringer som blir synlige for de andre deltakerne i sanntid. Løsningen synkroniserer med moderne kalendere som Microsoft Outlook og Google Calendar. Dessuten har løsningen innebygd videokonferanse, basert på Hangouts.

Ifølge Symphonical er løsningen populær blant distribuerte grupper, særlig innen teknisk utvikling, prosjektplanlegging og brainstorming. Men avtalen med Whirlpool betegnes som et gjennombrudd for Symphonical, som digi.no omtalte for først gang våren 2012. Whirlpool kunngjorde i fjor en overgang til Google Apps.


Bjørn Haugland, daglig leder i Symphonical, har fått napp hos en virkelig storkunde.

– Whirlpool har valgt vår virtuelle skyløsning, en løsning som gir dem det beste av begge verdener, både en moderne sky­tjeneste og skyhøy enterprise­sikkerhet. Denne avtalen inngås etter at Whirlpool har foretatt en grundig evaluering av tilsvarende applikasjoner fra leverandører over hele verden. Flere og flere globale selskaper velger små, fleksible selskaper som oss. Deres krav til sikkerhet er absolutt, og vi vet nå at vår programvare kan matche selv de mest krevende kunder, sier Bjørn Haugland, daglig leder i Symphonical, i en pressemelding.

– Det betyr jo at vi har fått det definitive gjennombruddet, da dette er et Fortune 500 selskap som har evaluert tilsvarende selskaper over hele verden og hvor vi vant, sier Haugland til digi.no.

På spørsmål om størrelsen på avtalen, forteller Haugland selv om alle de 68 000 ansatte i Whirlpool i utgangspunktet kan bruke løsningen, har Symphonical basert prisingen på at «bare» tusen personer skal bruke det. Det dreier seg derfor om et årlig beløp på flere titusentalls dollar.

–Whirlpool har lett etter et verktøy for våre ingeniører globalt for visuelle planlegging for virtuelle team. Hovedmålet er mer effektivt samarbeid. Symphonical gjøre det mulig for oss å gjøre dette på en enkel og robust måte. Siden vi startet med gratisversjonen for tolv måneder siden, har Symphonical hjulpet oss til å generere et stadig økende antall ideer om hvordan vi både kan forenkle og forsere produktutviklingen, sier Franz Hartman direktør for designkvalitet i Whirlpool, i pressemeldingen.

Solgte Opera-aksjer for 100 millioner


Styremedlem Kari Stautland solgte i går 1.325.000 aksjoner i Opera Software for drøyt 107 millioner kroner. Det fremgår av en børsmelding tirsdag.

Gjennom sitt investeringsselskapet Arepo AS er hun forsatt nettleserbedriftens nest største eier med 8.187.120 aksjer verdsatt til over 660 millioner kroner. Hun har også 30.000 opsjoner i selskapet.


Styremedlem og storeier Kari Stautland i Opera Software.

Kari Stautland er enke etter Operas medgründer Geir Ivarsøy, som døde i 2006. Ivarsøy var pioneren og utvikleren som i sin tid startet Opera Software sammen med kollega Jon Stephenson von Tetzchner.