Archive for February 19, 2014

E-signatur til Office 365


Microsoft og e-signaturleverandøren DocuSign har ifølge en pressemelding inngått en strategisk avtale som fra mars vil gjøre det mulig å integrere digital underskrift i dokumenter håndtert gjennom bedrifters Office 365-abonnement.

Løsningen betyr at brukere vil kunne underskrive dokumenter direkte i Outlook eller Word.

Løsningen framstår som en applikasjon i Office Store, der den skal gjøres tilgjengelig tidlig i mars. Applikasjonen er integrert i Outlook, Word, SharePoint Online og SharePoint Server 2013. Det skal være enkelt for bedriftsadministratorer av Office 365 og Sharepoint å fordele løsningen til sine brukere. Integrasjon i Azure Active Directory innebærer at det ikke er nødvendig med egen pålogging til DocuSign, det holder at brukeren er pålogget Office 365. For brukere blir det snakk om enkel selvbetjening gjennom Office Store. Dokumenter kan underskrives på pc, brett eller mobiltelefon.

Alle dokumenter som inngår i ordningen lagres i Microsoft-tjenesten OneDrive for Business.

Løsningen innebærer at selskaper og organisasjoner som benytter seg av Office 365 unnslipper utskrift også der det er påkrevet med signerte dokumenter. En utleiemekler kan registrere både utleiere og leietakere med digitale signaturer, og bruke e-post til å distribuere og hente inn dokumenter som skal underskrives.

Referansekunde på ordningen er det globale forsikringsselskapet MetLife med 66 000 ansatte.

DocuSign har virksomhet i 188 land, og opplyser at de gjennomsnittlig får 60 000 flere brukere hver dag. Microsoft har lenge vært kunde hos DocuSign.

Hva er det Evry vil?


DEBATT: Evry stiller spørsmål ved mye i min kronikk, men hva vil de frem til? De tegner et bilde som ikke står overens med virkeligheten til mange offentlige forvaltningsorgan i Norge. Et bilde som inneholder et konkurranseutsatt marked som tar ansvar for å sikre interoperabilitet, en klar melding om at vi ikke behøver å bekymre oss for offentlige data i nettsky, en oppfordring til kommuner om å ikke tenke nytt samt et angrep på Noark 5 som kommer syv år for sent.

Når det gjelder avleveringsformater stiller Noark 5 krav som stadfester at systemet skal kunne lage godkjente uttrekk. Det er underlig da at ePhorte (midlertidig godkjent 05.07.2010) og ESA (midlertidig godkjent 28.04.2011) ennå ikke har klart å oppnå endelig godkjenning. Etter henholdsvis nesten 4 og 3 år har ikke disse systemene klart å lage uttrekk som viser Riksarkivet at systemene klarer det mest fundamentale innen arkivering: å lage godkjente uttrekk.


Thomas Sødring er førsteamanuensis på Høyskolen i Oslo og Akershus med arkiv som spesialitet.

Så langt er det kun Visma som har klart å oppnå endelig godkjenning, og de gjorde det etter kort tid. Det argumenteres for interoperabilitet ved å si at det er mulig å flytte data mellom Noark 5-kjerner ved å bruke standardiserte Noark-uttrekk, men overføring av data fra et Noark-system til et annet skjer ved databasekonverteringer. Dette fordi datakvaliteten på Noark uttrekkene som produseres ikke er gode nok. Produksjon av uttrekk er noe leverandører tar seg godt betalt for. Tallene som ofte blir diskutert, forteller at kostnadene varierer fra 20 000 til over 200 000 kroner per base, for noe som burde være gratis dersom systemene fulgte standarden. Noen kommuner har ikke råd til å lage uttrekk og dette begynner å bli et samfunnsproblem.

Mitt opprinnelig innlegg var en vurdering om en Azure-strategi er bra for forvaltningen. Der argumenterer jeg for at personsensitive data og data av nasjonal interesse ikke bør lagres i en nettsky-infrastruktur som på en eller annen måte er underlagt amerikansk lovgivning. EUs personvernlov og safe harbour-avtaler skal sikre dataene men Snowden-lekkasjene viser at etterretningstjenestene bryr seg lite om disse. Det har kommet flere lekkasjer som peker i en retning av at innsamling av data handler om industrispionasje og samarbeid for å sikre seg tredjelands fortrolige informasjon for å få et overtak i internasjonale forhandlinger. Det spiller ingen rolle om leverandøren heter Microsoft, Google eller noe annet. Det som er viktig er hvilken lovgivning dataene kommer under, dersom et amerikansk selskap er med i bildet så kommer våre data i virkeligheten under amerikansk lovgivning. Nå er også Tyskland på banen med et ønske om at mindre internettrafikk skal gjennom Amerikansk infrastruktur. Hvis noen fortsatt er usikker om dette er et problem, kan lenkene [1] og [2] anbefales (under). Leverandører kan gjerne være slepphendte med egne bedrifts-data, men hold dere unna forvaltningens.

Mitt andre poeng var å spørre om en arkivkjerne utviklet i en proprietær PaaS-løsning (platform as a service, red.anm.) egentlig er en god idé for forvaltningen. Men hva med en åpen en? Hva ville skje hvis kommunene satte seg ned og diskuterte sine behov med et internasjonalt selskap som lever av friprog og som leverer til det norske markedet? Det er nettopp det det kommunale arkivmiljøet har gjort de siste årene og resultatet ble bra. Det kommer en bastant påstand at IKA Kongsberg-prosjektet er kostnadskrevende. Her har man tydeligvis ikke satt seg inn i prosjektet. Dette er en videreutvikling av en eksisterende Noark 5-kjerne i fri programvare som allerede er tatt i bruk i Trondheim kommune. Denne kjernen har midlertidig godkjenning og er godt på vei til å oppnå endelig godkjenning. IKA Kongsberg skal ikke selv utvikle eller drifte noe, men skal stille kravene til systemet, mens programvareutvikling og drift blir overlatt til konkurranseutsatt industri. Installasjonen kan være lokal, mens ansvar for drift ligger hos leverandør. Ettersom det er friprog, så er mye av arbeidet allerede gjort. Kommunene slipper å betale for den samme utviklingen om igjen og om igjen. Kjernen er på plass og kan snart betegnes som en kommunal felleskomponent. Jeg er helt enig at programvareutvikling er meget kostnadskrevende, men dette er et argument for økt bruk av friprog-felleskomponenter og ikke motsatt. Hvorfor skal forvaltningen betale for en videre utvikling og vedlikehold av 10-12 forskjellige Noark 5-kjerner, når det er kun én som har klart å oppnå endelig godkjenning?

Det kommer ofte fram negative kommentarer om Noark fra leverandørsiden, men jeg har aldri sett noen underbygging av påstandene. Det er også merkelig at standarden skulle vise seg å være så dårlig som det hevdes, da de fleste leverandørene deltok i utviklingen av den. Leverandørene oppfordres på det sterkeste til å publisere tekniske beskrivelser på hvordan Noark 5-standarden er et hinder for produktene, samt hva som skal til for å forbedre standarden. Publiser gjerne via SamDok-prosjektet, da dette er noe SamDok bør diskutere inngående. Men hvorfor kom ikke dette fram i høringsuttalelsene i 2007? Det var her leverandører hadde muligheten til å bidra konkret og fortelle Riksarkivet hva de burde gjort annerledes med Noark 5. EDB hadde til og med en representant i arbeidsgruppen, så vidt jeg husker. Hvis det var så fundamentalt galt, så burde det kommet fram da.

Skymodellen som ble presentert av Software Innovation og forsvart av Evry representerer ikke en utvikling som gir bedre produkter og mer konkurranse. Modellen gir mer makt i leverandørs favør og kan gjøre det mye vanskeligere for nye aktører å etablere seg. Her bør Norge se til Storbritannia hvor den britiske regjeringen i langt større grad slipper til mindre aktører på det offentlige markedet med begrunnelsen at de vil ha bedre produkter og mer konkurranse.

Riksrevisjonensrapporten fra 2010 viser at manglende kunnskap er et av de store problemene og dette er spesielt kritisk hos leverandørene. Vi trenger mer kunnskap om hvordan vi kan sikre datakvaliteten på de elektroniske arkivene, øke integriteten og autentisiteten til materialet, sørge for redusert langtidsbevaringkostnader, bedre forståelsen av hvordan arkivet kan være en sentral IKT-komponent og hvordan en arkivkjerne kan legge til rette for økt interoperabilitet for å sikre regjeringens ønske om økt digitalisering. Det er dokumentert av Riksrevisjonen at det norske arkivmarkedet lider på grunn av vanstyre og i denne sammenhengen bør de arkivfaglige være opptatt av å sikre teknisk åpenhet. Å utvikle og låse denne viktige samfunnskomponenten i en lukket arkitektur er ikke den riktige veien å gå.

[1]Cloud Computing in Higher Education and Research Institutions and the USA Patriot Act
[2]The US surveillance programmes and their impact on EU citizens’ fundamental rights (pdf)

Med takk til Disqus-bruker «Naboen til fetter Anton» for lenkene.

Galaxy S5 får fingeravtrykksleser


24. februar er datoen da Samsung ventes å avdekke sitt nye flaggskip innen smartmobiler, Galaxy S5.

Nettstedet SAMmobile.com som har spesialisert seg på Samsungs smartmobiler, melder at de har «drøssevis av informasjon fra innsidere» om Galaxy S5, og at de nå er sikre på at den kommer med innebygget fingeravtrykksleser.

Det dreier seg om en sveipleser, altså der man må dra fingeren i stedet for bare å trykke den. Leseren er lagt inn i hjemknappen på mobilen, som for øvrige holder seg til forgjengernes tradisjon med fysisk knapper framfor for skjermknapper.

Det er ikke opplyst om hvem som leverer fingeravtrykksteknologien.

Det norske utviklingsselskapet Idex satser på fingeravtrykkslesere, men har ikke vært tilgjengelig for kommentar, grunnet forberedelser til Mobile World Congress i Barcelona i neste uke, bransjebegivenheten der Galaxy S5 skal presenteres offentlig for første gang.

Fingeravtrykksleseren på Galaxy S5 ser ut til å få flere bruksmuligheter enn på erkerivalen iPhone 5s. Ifølge SAMmobile vil brukeren kunne registrere opptil åtte fingeravtrykk. Minst ett må brukes til å låse opp enheten. De andre kan tilordnes ulike oppgaver, for eksempel åpne en gitt app.

Andre oppgaver som kan styres av fingeravtrykksleseren er å åpne en privat mappe, «Personal Folder» eller utløse privat modus, «Private mode», der man kan legge apper og tjenester av mer personlig art.

Fingeravtrykk kan også gi tilgang til Samsung-kontoen og styre alt av brukernavn og passord til nettjenester.

I det man sveiper fingeren over leseren, vil en et bilde av fingeravtrykket vises på skjermen.

Lånekassens «digitale» reise


I løpet av kort tid har det nå vært arrangert 3 konferanser om digitaliseringen av offentlig sektor. Konferansene har til sammen samlet 450 deltagere (!) – riktignok noen gjengangere, men allikevel: interessen for temaet er stor.

Et sentralt tema har vært «Hvordan lykkes med digitaliseringen i offentlig sektor?». På Fagforbundets konferanse (Program eForvaltningskonferansen 2014, pdf) ble et meget godt eksempel på vellykket digitalisering av Lånekassen presentert av avdelingsdirektør Ingunn Cowan.

Historien er kort fortalt denne:

I 2003 ble Lånekassens fremtid diskutert i Stortinget. Bakgrunnen var spørsmålet om en ikke heller kunne overlate denne type «bankvirksomhet» til bankene. Satt på spissen fikk Lånekassen beskjed av Stortinget om å modernisere (dvs. effektivisere) eller privatisere. Resultatet ble et moderniseringsprogram.

Stortinget sa selvfølgelig ikke hvordan en skulle effektivisere Lånekassen; det fikk være opp til ledelsen. Men det var klart at IKT var ett av flere virkemidler.


Første oppgave var å finne finansiering til et prosjekt som ble beregnet å koste 800 millioner. Lånekassen ble pålagt å finansiere ca. 40 prosent av det selv gjennom eget driftsbudsjett, og deler av gevinsten, som viste seg å bli 70 millioner per år, skulle gå tilbake til statskassen i form av reduserte bevilgninger til Lånekassen. Dette er en unik måte å finansiere slike prosjekter på i staten; det «normale» er 100 % finansiering over statsbudsjettet, og at gevinsten forble hos etaten. Finansieringsordningen som Lånekassen her ble pålagt, virket imidlertid motiverende for etaten både for gjennomføring og gevinstuttak.

Prosessen videre var både å gå kritisk gjennom prosessene for å finne ut hva som kunne effektiviseres, men også hvilke gevinster en ville kunne oppnå, og når og hvordan skulle de tas ut. Fokus var derfor på gevinstrealisering – og ikke gevinstberegning for å få midler til prosjektet – fra første stund.

Arbeidsprosesser ble endret, samordning og samarbeid mellom ulike miljøer ble prioritert, og innhenting av data fra tredjepart ble en helt sentral oppgave.

Det var altså ikke teknologien som ble styrende for effektiviseringen, men forståelsen av oppgaveløsningen. Faktisk er mye av den teknologiske løsningen, som Lånekassen i dag benytter seg av, «gammel» teknologi fra flere tiår tilbake. Men mye er også nytt.

Resultatet har blitt halvert behandlingstid, 70 prosent reduksjon av inngående telefonsamtaler, 60 årsverk er spart, sykefraværet har gått ned, og altså 70 millioner «tilbake» til statskassen hvert år.

I så henseende ligner dette prosjektet på det Skattedirektoratet oppnådde i sin tid. Da vedtok Stortinget at Skattedirektoratet kunne innhente skatterelaterte data fra bank, forsikring og borettslag. Det utnyttet daværende skattedirektør Bjarne Hope til å lage forhåndsutfylt selvangivelse. Det innebar en kulturendring fra at skatteetaten skulle være kontrollorgan (fortell oss hva dine skatterelaterte data er så skal vi se om du har rett), til et serviceorgan (her er det vi vet om dine skatterelaterte data, er det riktig?). Det var altså først og fremst en endring i kultur og arbeidsprosesser, og ikke i anvendelse av teknologi, som la grunnlaget for skattedirektoratets senere vellykkede «digitalisering».

NAVs «digitale» reise
I samme konferanse orienterte IKT-direktør Nina Aulie om IKT-utviklingen i NAV. Hun hadde fått spørsmålet om det var teknologien som styrte NAV, eller omvendt. Hennes svar var et både/og: NAV var både styrt av teknologien og styrte teknologien.

Utfordringen i NAV er helt annerledes enn i Lånekassen. Etableringen av NAV i 2006 var resultatet av en politisk beslutning om å slå sammen arbeidsmarkedsetaten (Aetat), Rikstrygdeverket (RTV), og den kommunale sosialtjenesten. I tillegg til å få tre ulike organisasjoner og IKT-systemer til å fungere sammen, skulle også den nye organisasjonen utvikle systemer til å håndtere den nye pensjonsreformen fra 1.1 2011, og ny uføretrygd fra 1.1 2015.

NAVs strategi for dette er å rydde opp i de bakenforliggende fagsystemene, sikre stabilitet, men primært å etablere en enklere infrastruktur for at brukergrensesnittet skal bli enklest mulig. «Tre skjermer skal bli til en» – som Nina Aulie spissformulerte det.

Dessverre kom ikke Nina Aulie inn på problemene knyttet til moderniseringsprosjektet som nylig ble stoppet. Dette blir imidlertid tema for en senere artikkel i digi.no.

Styring og utvikling av kompliserte IKT-prosjekter
Professor Margunn Aanestad fra Ifi (Institutt for Informatikk ved Universitetet i Oslo), hadde en interessant gjennomgang av ulike teorier og tilnærminger til styring av kompliserte IKT-prosjekter.

Noen av hennes anbefalinger var:

  • Velg kortsiktige og problemløsende tilnærminger fremfor de store visjonære målsetninger
  • Vær hard og kritisk på prioritering av mål og sekvensiering (rekkefølge) av mål
  • Koble investering og gevinstrealisering tett, og følg opp med fortløpende gevinstrealisering
  • Unngå politisk styring, men oppnå politisk og ledelsesmessig støtte

Dette er en av mange fremgangsmåter, men dette bringer meg til hovedpoenget:

Behovet for en læringsarena for offentlige IKT-prosjekter

Tilsynelatende er det stor forskjell både på forutsetninger, størrelse og kompleksitet på behovet for effektivisering – «digitalisering» som det heter – hos Lånekassen og NAV. Og det er stor forskjell på en kundegruppe som består av unge studenter, og en som består av arbeids- og sosialtrygdesøkende mennesker. Forskerens anbefalte tilnærming vil ikke passe i alle sammenhenger.

Men en kan lære av hverandres prosjekter – både små og store, og det vil ha stor betydning at forskere, som har metode og komparativ analyse i sin «verktøykasse», kan bidra både i evaluering av slike prosjekter og i rådgivningen underveis.

Det offentlige mangler en slik åpen læringsarena hvor en fritt kan formidle sine positive og negative erfaringer og få dem analysert og systematisert for senere anledninger.

(De to øvrige konferansene det vises til er Seminar om europeisk IKT-politikk som Kommunal og moderniseringsdepartementet arrangerte 6, februar, og Samhandlingsarenaen som Semicolon-prosjektet arrangerte 13. februar. Presentasjonene fra eForvaltningskonferansen finner du her).