Archive for January 9, 2015

Stor forskjell på nedetid i nettskyen

Tilgjengelighet er for mange en viktig faktor når man skal velge en offentlig nettskytjeneste. Gigaom omtaler i en artikkel en tjeneste fra CloudHarmony som har registrert tilgjengeligheten til ulike deler av nettskytjenestene til en rekke leverandører det siste året. Dette inkluder også tjenestene til Amazon, Google og Microsoft.

Sammenligner man oppetidstallene for tjenestene til de tre nevnte selskapene, ser man er det er klare forskjeller i hvor tilgjengelige de ulike tjenestene er. Samtidig understrekes det at undersøkelsen har visse svakheter eller forbehold som gjør at noen typer nedetid ikke har blitt registrert, samt nedetid som ikke er representativ for alle deler av tjenesten. Men hvordan dette henger sammen, ser man tydelig dersom man studerer de detaljerte tallene.

Vi har valgt å fokusere på to typer nettsky-tjenester som tilbys av alle de tre nevne selskapene, nemlig IaaS (Infrastructure as a Service) og lagring. CloudHarmony måler også oppetid for andre tjenester, inkludert PaaS (Platform as a Service), DNS og CDN (Content Delivery Network). Av de tre er det bare Googles PaaS-tjeneste, AppEngine, som er registrert, mens DNS og CDN er litt på sidelinjen i denne sammenheng.

IaaS
Innen IaaS, som i de fleste tilfeller omfatter virtuelle servere, er det helt klart Amazons EC2 som har minst nedetid. Totalt for de ni regionene hadde tjenesten en nedetid på 1,99 timer, eller i gjennomsnitt 13,28 minutter for den enkelte region. Flere av regionene hadde ikke nedetid i det hele tatt, mens den mest utsatte regionen var utilgjengelig i 23,5 minutter, fordelt på seks tilfeller. Totalt opplevde de ni regionene elleve tilfeller av nedetid.

Hos Google, som bare har tre regioner med Google Compute Engine, var den totale nedetiden på 2,74 timer. Mens én av de tre regionene, den amerikanske, ikke hadde nedetid i det hele tatt, var det til sammen 53 tilfeller av nedetid ved de to andre regionene. I gjennomsnitt var nedetiden per region på 54,7 minutter.

Microsoft Azure Virtual Machines kommer ikke spesielt heldig ut i denne målingen. Selskapets 13 regioner opplevde til sammen 101 tilfeller av nedetid, senest i går. I alt var én eller flere av regionene nede i 42,65 timer, i gjennomsnitt 3,28 timer. Samtlige regioner hadde nedetid, og minimum 48,35 minutter. Én av regionene var nede i hele 13,16 timer, fordelt på elleve tilfeller.


Den registrerte nedetiden til de nettskybaserte infrastruktur-tjenestene til Amazon, Google og Microsoft de siste 365 dagene.

Lagring
Ser man på de rene lagringstjenestene til de tre selskapene, er det Google Cloud Storage som kommer best ut. Selskapets ti regioner hadde til sammen fem tilfeller av nedetid, totalt på 5,73 minutter og i gjennomsnitt 34,4 sekunder. Bare tre av de ti regionene var berørt av nedetiden, og regionen med mest nedetid var utilgjengelig i 3,5 minutter det siste året.

Amazons ni S3-regioner opplevde til sammen 22 tilfeller av nedetid. Totalt varte dette i 2,67 timer, i gjennomsnitt 17,81 minutter per region. Seks av regionene hadde ingen nedetid, men én var utilgjengelig i til sammen 2,6 timer fordelt på 20 tilfeller. De to andre regionene var nede maksimalt 2,25 minutter det siste året.

Selv om to av Microsofts 13 Azure Object Storage-regioner ikke hadde noen nedetid, så er det flere som hadde nedetid på over to timer. Verstingen var nede i 2,21 timer, fordelt på 76 tilfeller. Totalt opplevde lagringstjenesten 136 avbrudd, i gjennomsnitt 50,05 minutter per region og til sammen 10,85 timer.


Den registrerte nedetiden til de nettskybaserte lagringstjenestene til Amazon, Google og Microsoft de siste 365 dagene.

Merk at tallene som er oppgitt over, er et oppdatert øyeblikksbilde for de siste 365 dagene, så oversikten til CloudHarmony kan ha endret seg betydelig etter at denne artikkelen ble skrevet.

Som nevnt har CloudHarmony målt tilgjengeligheten til en mengde andre offentlige nettskytjenester, hvorav i alle fall noen IaaS-tilbydere har hatt betydelig mindre nedetid enn de tre nevnte. Det er både fordeler og ulemper med å velge en stor leverandør, framfor en liten, så målingen gir alene ikke noe svar på hvilken leverandør man bør velge.

God Difi-analyse, feil konklusjon!

«Difi har hovedsakelig kun pedagogiske virkemidler som grunnlag for å øve innflytelse i forvaltningen». (Evalueringsrapporten side 100)

KRONIKK: Dersom en leser omtalen og konklusjonen i rapporten som evaluerer Difi, kan en få inntrykk av at bare Difi får sterkere virkemidler vil alt bli så mye bedre. Så enkelt er det ikke.

Hovedbudskapet i rapporten er at Direktoratet for forvaltning og IKT (Difi) har levert på de konkrete oppgavene de har fått, men ikke har klart å leve opp til forventningene om å være strategisk pådriver av effektiviseringen av forvaltningen.

Dette skyldes i første rekke, sier rapporten, at Difi har manglet de nødvendige rammebetingelsene og virkemidlene. Det er altså Kommunal- og moderniseringsdepartementet (KMD) sin skyld.

Men innholdet og analysen i rapporten sier noe annet.


Arild Haraldsen er fast kommentator og spaltist i digi.no.

Det er flere «funn» som tilsier at dette i stor grad er selvforskyldt. De sier da også at: «verken Difis ledelse, strategi, styring, organisering og kompetanse i tilstrekkelig grad har vært innrettet på å utvikle en slik strategisk pådriver og samordningsrolle». Rapporten viser også til at FAD/KMD gjentatte ganger har uttrykt misnøye med hvordan de utfører, eller ikke, utfører sin rolle som strategisk pådriver.

Konsulentfirmaets konklusjon er at Difis rolle som strategisk rådgiver bør rendyrkes, og at Difi gis sterkere virkemidler for å kunne fylle en slik rolle. Konsulentfirmaet sier at Difi fremdeles skal være et direktorat under KMD (men åpner muligheten for å legge det til Finansdepartementet (FIN). Hva som skal gjøres med de øvrige ikke-strategiske oppgavene, er rapporten svært uklar på.

Etter å ha lest rapporten og analysene, kommer jeg til en annen konklusjon:

*** Difi bør rendyrkes som strategisk premissleverandør til regjeringen, men da som direktorat under Finansdepartementet. Overføringen gjelder både avdelingen for forvaltningsutvikling, og deler av avdelingen for «digitalisering». Formålet er å integrere forvaltningspolitikk og IKT. Samordningsorganet SKATE følger med i denne prosessen.

*** De operative og samordnende oppgavene knyttet til felleskomponenter, ID-porten, etc legges som avdeling til Brønnøysundregistrene, slik at får en samordnet strategi for utvikling, drift og bruk av felleskomponenter, samt samling av alle driftsrelaterte aktiviteter knyttet til dette. Overføringen vil omfatte deler av den tekniske kompetansen i avdelingen for «digitalisering».

*** Oppgavene knyttet til anskaffelser, e-handelsplattformen og e-faktura legges til en avdeling under Næringsdepartementet. Begrunnelsen er rett og slett det finnes liten synergieffekt mellom denne avdelingen og de øvrige avdelinger i Difi, samt at det er logisk at aktiviteter direkte relatert til næringslivet samordnet til det departementet som har det som oppgave.

*** Den evaluering som nå skal gjøres av kommunesektoren bør fremskyndes. Det er et like stort behov for at kommunesektoren skal tale med èn stemme, som at staten skal gjøre det.

Det strategiske grepet som ligger i dette forslaget er at anvendelse av IKT knyttes nærmere opp til det departementet som samtidig har sagt at IKT må føre til en mer effektiv og mindre kostnadskrevende offentlig sektor. I tillegg sidestiller det innbyggere og næringsliv som målgrupper for effektivisering, og ikke blir ensidig fokusert på innbyggerne. Det vil også bidra til at fokus rettes mot standardisering og felles IKT-plattform, og ikke lettvinte «portal-løsninger. Det blir lettere å samordne strategiene til Difi, Altinn og kommunesektoren. Til sist – det fører til en mer fokusert og effektiv forvaltning av Difis oppgaver som i dag spriker i alle retninger.

Hvordan kommer jeg frem til en slik konklusjon?

«Funnene» i rapporten
Rapporten inneholder påpekninger av en rekke forhold som alle tidligere har vært tatt opp av bl.a. meg i digi.nos spalter:

  • Difis oppgaveportefølje er stor, uensartet og sprikende.
  • Det er problematisk rolleblanding mellom rollene som utreder og gjennomfører.
  • Fagområdene forvaltningsutvikling og digitalisering samarbeider ikke godt nok.
  • Det er en kompetansestrid mellom Brønnøysundregistrene og Difi som er ødeleggende for digitaliseringen av offentlig sektor.
  • Difi har liten troverdighet blant etatene, særlig innenfor tunge etater som Skatt, Nav, helsesektoren og politiet.
  • Mange av de spurte oppfatter at Difi opptrer uryddig som premissgiver og strategisk rådgiver: De oppfattes som å ville anbefale løsninger som gir dem selv større ansvar – ikke løsninger som nødvendigvis er de beste for forvaltningen eller samfunnet som helhet. Etc.

Dette er alle elementer hvor ansvaret primært ligger hos etaten selv å få gjort noe med.

Analyse 1: Difi som premissleverandør til statens IKT-politikk
Evalueringsrapporten sier at Difi ikke har levert i forhold til å være en strategisk premissleverandør til regjeringen på hvordan IKT kan effektivisere forvaltningen. «Difi skal være en strategisk pådriver for endring og fornyelse i forvaltningen, og samordning når det gjelder digitalisering i offentlig sektor», er den oppgaven Difi fikk i 2008.

Men en kan like gjerne rette fokuset andre veien: Ingen regjering har levert noen helhetlig og sammenhengende IKT-strategi.

Som jeg har vist i tidligere innlegg fremstår ulike regjeringers «strategiske IKT-politikk» bestående av honnørord som effektivisering, modernisering, digitalisering etc., og lite konkrete og handlingsrettede tiltak, bortsett fra i de senere år hvor «skjema på nett» og «digitalt førstevalg» blir sentrale konkrete oppgaver for å gjennomføre en IKT-strategi. Det første er en meningsløshet som jeg har pekt på tidligere, og det andre bidrar til å flytte fokus fra de bakenforliggende IKT-systemer, til hvordan forvaltningen kommuniserer med sine borgere og næringslivet.

Som jeg skriver der: «Planene fremstiller ingen overordnet politikk på dette området, en verdiforankring eller en ideologisk retning, en retning på hva man vil og hvor man vil. Planene har ikke noe samlet og overgripende forvaltningspolitisk program. Planene er for generelle, for lite operative og for lite konkrete i sine målformuleringer. De bærer mer preg av deskriptive beskrivelser av IKT-basert utviklingstrender i samfunnet for øvrig, og oppramsing av pågående IKT-tiltak innenfor offentlig sektor.»

Det politiske spørsmålet er hvorfor en skal digitalisere offentlig sektor? Er det for å redusere kostnadene, eller øke kvalitet og service på tjenestene? Hovedfokus har vært på det siste. Men nå har FIN – og dermed regjeringen sagt – at digitaliseringen også skal føre til reduserte driftskostnader. Og allerede varslet 5 % reduksjon i driftsbudsjettene neste år. IKT skal bidra til å oppnå det.

Det er derfor naturlig at FIN nå forventer Difi som en strategisk premissleverandør for å oppnå dette.

Problemet for Difi har ikke vært at de ikke har hatt rammebetingelser for å utøve en slik rolle – selv om alltids vil ønske seg mer myndighet og ressurser -, men like mye at den forventningen ikke deles av andre departementer så som FIN eller Næringsdepartementet (NFD), som det fremgår av rapporten. Difi har derfor ikke blitt sett på som relevant aktør i så henseende av toneangivende departementer.

Mye av dette skyldes Difi selv. Rapporten sier at Difi ikke har vært foroverlent mht. til å initiere slike innspill, men mer oppslukt av de ulike oppdrag de får fra KDM. Fokuset har i stedet vært på å utvikle og drift «egne IKT-løsninger» som en del av den «infrastruktur» som offentlig sektor skal benytte seg av, altså felleskomponenter som eID og Sikker Digital Postkasse (SDP). «Difi har lagt stor vekt på å konseptualisere, utvikle og sette i drift løsninger som kan være byggesteiner for digitaliseringen i det offentlige. Dette har ført til at en betydelig del av Difis samlede ressurser de siste årene har vært knyttet opp i arbeidet med å utvikle og forvalte felles-komponenter. Dette ser ut til å ha vært en ønsket strategi, selv om den på digitaliseringsområdet kan ha fortrengt fokuset på de øvrige rollene.», sier rapporten.

Det er altså ikke bare – eller i hovedsak – mangel på relevante rammebetingelser fra KMD som er årsaken til at Difi ikke fyller sin strategiske oppgave godt nok. Rapporten sier at: «verken Difis ledelse, strategi, styring, organisering og kompetanse i tilstrekkelig grad har vært innrettet på å utvikle en slik strategisk pådriver og samordningsrolle».

Den «strategiske rolle» som Difi bør ha er at «Difi inntar en sentral rolle i styringen og samordningen av den statlige IT-arkitekturen, IKT-standarder og de nasjonale felleskomponentene og fellesløsningene. Difi må kunne ta regi, ta initiativ til og utvikle nasjonale standarder og arkitekturprinsipper».

Men da forveksler man det å være strategisk pådriver med å være operativ leverandør av fellesskapsløsninger som kommer hele forvaltningen til gode.

Men denne operative oppgaven er svært viktig, ja, helt avgjørende for digitaliseringen av offentlig sektor. Hvordan har Difi løst den oppgaven?

Analyse 2: Balansen strategisk rådgiver og operativ leverandør
Først noen fakta:

Da Difi ble etablert i 2008 kom den til å bestå av en rekke ulike enheter hentet fra flere områder. Difi fikk derfor allerede fra begynnelsen av en svært heterogen og fragmentert oppgavestruktur. Ved etableringen hadde den ca. 100 ansatte; i dag har den over 250 ansatte. Difi har derfor opplevd en sterk vekst – størst innenfor området «digitalisering» som nå utgjør cirka halvparten av årsverkene og driftskostnadene.

I 2012 var det nødvendig å konsolidere organisasjonen. Dert ble da valgt en organisasjonsstruktur knyttet til tre områder «Ledelse og utvikling, dvs. forvaltningsutvikling», «digitalisering» og «offentlige anskaffelser». I ettertid kan en se at en slik organisering var uheldig fordi den bidro til sementering av ulike fagområder som har til dels ulik faglig innretting og målgrupper. I stedet burde fagområdene være mer integrert; tydeligst er det i forholdet mellom «digitalisering» og «forvaltningsutvikling». Digitalisering av offentlig sektor bør gå hånd i hånd med ledelse og utvikling av etatene. I dag er det slik at de som jobber med «digitalisering» har liten kompetanse innenfor forvaltningsutvikling, og omvendt.

En har ikke klart å utvikle tverrfaglig kompetanse som forener kunnskap om forvaltningen, ledelses- og organisasjonsutvikling, og IKT. Dette er en type kompetanse som etatene og departementene etterspør. «Difi må se forvaltningsutvikling og IT-utvikling mer samlet», er et punkt flere av de som ble intervjuet har fremholdt.

KMD har vært særlig oppmerksom på dette, og har i ulike sammenhenger og gjentatte ganger – senest i tildelingsbrevet for 2014 – pekt på en bedre kobling mellom digitalisering og organisering, Difi har svart at dette «…vil ta tid å bygge opp».

Resultatet er at Difi har blitt for operativt orientert; særlig gjelder dette innenfor «digitaliseringsområdet», hvor utvikling og drift av felleskomponenter har tatt mange årsverk og mye energi. Rapporten stiller også spørsmålet om dette har vært riktig strategi – om ikke disse oppgavene kunne vært overlatt til andre eller til markedet selv, og at Difi burde hatt en mer styrende og koordinerende rolle i utbredelsen av disse felleskomponentene. (De fleste felleskomponentene eies for øvrig av andre etater).

Men det viktigste her er den rollekonflikt som Difi kommer i som både utvikler, drifter og forvalter av felleskomponenter – og den egeninteressen som følger med det. Mest tydelig kom den rollekonflikten til syne da arbeidet med Sikker Digital Postboks (SDP) ble gjennomført. Helt uavhengig av resultatet – Altinn ble forkastet som alternativ – burde denne prosessen vært gjenstand for en kritisk evaluering; her satt Difi på alle sider av bordet.

Flere av de som ble intervjuet har pekt på at det er viktig å skille klart mellom direktoratrollen som forvalter av premisser og rammeverk, og rollen som utøvende aktør. «Det er uheldig at disse rollene kombineres i en etat. Når Difi utreder og deretter velger å løse oppgaver selv, kan det bli stilt spørsmål om habilitet», er en av de påpekningene som blir gjengitt i rapporten.

Tilsvarende rollekonflikt har bl.a. Abelia påpekt at Difi har når det gjelder anskaffelser – de utvikler, drifter og forvalter samme anskaffelsesreglement som de selv bruker overfor sine leverandører.

Ennå viktigere er det at Difi i dag står uten påvirkning, medinnflytelse eller deltagelse i de store IKT-prosjektene innenfor skatt, Nav, helsesektoren og politiet – prosjekter som har stor betydning for digitaliseringen av offentlig sektor. Grunnen er rett og slett at Difi ikke har noen troverdighet eller faglig legitimitet til å delta slik etatene selv ser det.

Summen av dette er altså at Difi ikke klarer å fylle rollen som strategisk rådgiver for regjeringen; de er for opptatt med operative gjøremål som stjeler både oppmerksomhet og energi; de klarer ikke å forene digitalisering og forvaltningsutvikling; og de har liten troverdighet som deltager i større IKT-prosjekter i andre etater.

Tilbake står en igjen med å ha utviklet noen felleskomponenter, bla. ID-porten, og noen verktøy som f.eks, prosjektveiviseren og verktøy for gevinstrealisering som etatene kan benytte seg av hvis de vil.

Evalueringsrapporten konkluderer derfor med at «Vår gjennomgang viser at Difis oppgaveportefølje spenner bredt og dypt og har et stort spenn i målgruppene det arbeides mot. Difi har hovedsakelig kun pedagogiske virkemidler som grunnlag for å øve innflytelse i forvaltningen» (min utheving).

Analyse 3: Forholdet til Altinn/Brønnøysundregistrene
Det har i de senere år utviklet seg til å bli det mange oppfatter som en maktkamp mellom Brønnøysundregistrene (BR) og Altinn på den ene side, og Difi på den annen side. Dette gjelder spesielt i spørsmålet om Sikker Digital Postkasse, men også i spørsmålet om metadata og regime for informasjonsforvaltning, samt utvikling og forvaltning av efaktura-registeret ELMA.

«Det er et åpenbart overlapp mellom Difis og Altinns strategier og planer med hensyn til tjeneste-digitaliseringen i det offentlige. Det ligger her en grunnleggende kilde til interessekonflikter mellom de to virksomhetene», sier rapporten.

Konflikten har vært så åpenbar at det er underlig at ikke respektive departementer har skåret igjennom. Særlig siden det finnes «indikasjoner», ifølge rapporten, på at dette har hemmet digitaliseringen ved at sentrale aktører har trukket seg noe tilbake og ikke har ønsket å bli trukket inn i denne striden.

Men årsaken til konflikten ligger ikke bare hos disse etatene, men også i styringsstrukturen. De har til dels overlappende oppgaver og ansvar, og ulike styringslinjer – til henholdsvis Næringsdepartementet og KMD. Når Difi (og KMD?) klart og tydelig sier at SDP skal være for innbyggere og Altinn for næringslivet, mens Næringsdepartementet på sin side sier at Altinn også skal være for innbyggere, og Digitaliseringsrundskrivet fra KMD sier at Altinn skal brukes så fremt ikke etatene har gode grunner til å velge noe annet, er et ikke rart styringsignalene blir forvirrende..

Men Difi har rett i en ting: Hva som er Altinns strategi i digitaliseringen av offentlig sektor, er i dag svært uklar.

Det mest sentrale er imidlertid dette: Er det hensiktsmessig å bygge opp to parallelle og likeartede driftsmiljøer og infrastrukturer for å digitalisere offentlig sektor?

Analyse 4: Forholdet til kommunesektoren
Det er et behov for å se offentlig sektor under ett, fremholder rapporten. Men samtidig er stat og kommune svært forskjellig; kommunene har langt på vei selvstyre og organiseres gjennom KS som en interesseorganisasjon for kommunene, mens Difi har et mer overordnet samfunnsansvar på vegne av regjeringen.

Rapporten peker på at Difi nå har fått ansvaret for å å bygge opp en satsing på innovasjon mot kommunesektoren, men at «dette i liten grad utfordrer samarbeidet mellom Difi og KommIT på IKT-området – all den tid de innovasjonsfaglige tilnærmingene så langt i beskjeden grad omhandler digitaliseringsarbeidet direkte». – En skal allikevel være forsiktig med å gå videre på en slik linje hvor en «overtar» et faglig arbeid som i dag ligger i kommunesektoren – i hvert fall i den forstand at rollefordelingen blir uklar. Og samtidig – innovasjon som ikke omfatter kjennskap til og bruk av IKT? Hva er det?

Rapporten sier at Difis ansvar for at det utvikles løsninger som også ivaretar kommunenes behov, bør forsterkes. Men man er lite klar på hvordan det skal gjøres annet enn å si at «det vil bl.a. være behov for å utvikle effektive strategier for hvordan man kan bruke nettverk, møteplasser og partnerskap som grunnlag for en effektiv dialog mot kommunene og KS». Man skal altså samsnakke bedre.

Hensikten med etableringen av KommIT i sin tid skulle være å samordne kommunale ønsker og behov. Forutsetningen imidlertid var fra KS sin side en tilsvarende samordning på statlig side. Difi skulle være denne samordneren. Men det har ikke fungert slik; Difi er satt på sidelinjen når det gjelder store statlige IKT-tiltak, og kommunesektoren klager over at de ikke tidlig nok blir trukket inn i store IKT-prosjekter som berører dem: EDAG og Nav-prosjektene er eksempler på det. I tillegg skulle det være bedre samordning mellom KommIT og Difi om utvikling og bruk av felleskomponenter. Heller ikke dette har fungert tilfredsstillende.

Difi og KommIT har med andre ord hatt problemer med å finne sine roller etter at KMD ble etablert for over ett år siden. Det har sviktet på begge sider.

Hva er løsningen?
Rapporten peker på to alternative løsninger:

1) Rendyrke Difi som strategisk premissleverandør til regjeringen, eller 2) rendyrke Difi som standardiserings- og tilretteleggingsorgan.

Rapporten sier at det er et ønske fra de de har intervjuet at Difi får en sterkere strategisk rolle.
Rapportens anbefaling er å rendyrke Difis strategiske rolle ved å skille ut drifts- og anskaffelsesoppgavene. «Vi legger vekt på at erfaringene har vist at det er krevende å utvikle Difis rolle som faglig premissleverandør for digitalisering av forvaltningen, når Difi samtidig selv skal ha fokus på utvikling, forvaltning og drift av egne felleskomponenter». De er åpen for at et slikt rendyrket Difi-direktorat enten kan ligge i KMD eller et annet departement. De er mer uklar på hvordan øvrige aktiviteter skal organiseres. Og de sier ingenting om de 269 årsverkene som Difi rår over i dag er effektiv anvendelse av ressurser i forholdet til mål og resultat.

Her er imidlertid mitt forslag til endringer:

1. Rendyrke Difis som strategisk organ og flytt det til Finansdepartementet (FIN).
Dette begrunnes ikke bare med at dette er et tyngre politisk departement, men også at den største porteføljen av tjenester ligger under departementets ansvarsområde: Skatt (og dermed også indirekte Altinn), SSB og Toll, samt at disse har tydelige strategier rettet mot både innbyggere og næringsliv. FIN er også i europeisk sammenheng et meget tungt departement, da det har både budsjett og skattepolitikk i sin portefølje i tillegg til å være et slags «næringsdepartement» for finansnæringen. Det er også naturlig at FIN vil prioritere budsjettbalanse, kostnadsgevinster ved effektiviseringstiltak, betydningen for norsk økonomi, etc.

Det vil også være lettere å bruke digitalisering/samordning inn i et politisk konsept: IKT skal brukes til å redusere offentlig sektors andel av BNP.

Det vil også måtte innebære at FIN får ansvaret for den overordnede forvaltningspolitikken. FIN får også ansvaret for samordning av departementenes IKT-prosjekter med krav om gevinstrealisering som en del av budsjettforslagene.

Den «portefølje» av kompetanse som legges inn i dette nye direktoratet er «ledelse og organisering, altså forvakltningsutvikling, samt deler av «digitaliserings»-kompetansen, de som har strategisk og ikke nødvendigvis driftsteknisk kompetanse. Forvaltningsutvikling og strategisk IKT må smeltes sammen til en tverrfaglig gruppering. Også samordningsorganet SKATE følger med i denne «porteføljen».

Da oppnår man begge de to forutsetningene som evalueringsrapporten legger til grunn: større myndighet og bedre tverrfaglig kompetanse som gir større legitimitet.

Dette er også en modell som ligner den i Danmark og Finland. Dette er også en modell som har vært praktisert her i landet tidligere da Rasjonaliseringsdirektoratet lå inn under FIN.

2. Legge arbeidet med felleskomponenter, standardisering og drift til Brønnøysundregistrene
Dette begrunnes med at en legger ned to parallelle og alternative produksjonslinjer og samler det til en felles driftsmodell. Det forutsetter imidlertid at de ulike driftsmodellene gjennomgås og at en finner en felles løsning: Altinn/BR har en driftsmodell hvor de fungerer som «krevende bestiller», men overlater driften til konsulenter, mens Difi har begge deler – både som utvikler og drift «in-house» og som «krevende bestiller».

Grunnen til at dette legges til BR er at de i utgangspunktet har et lovpålagt ansvar for forvaltning av offentlige registre, og at det vil være mer naturlig av den grunn å legge et forvaltningsansvar for et nasjonalt metadataregister der. I tillegg har de et tett samarbeid med sentrale aktører som Skatt, SSB, NAV etc allerede gjennom Altinn-samarbeidet.

I tillegg til Altinn som felleskomponent, og nær tilknytning til så vel Folkeregisteret som Matrikkelen, bør de få ansvaret for ID-porten og efakturaregisteret ELMA. Det bør vurderes om SDP skal utfases.

De ressursene som overføres til BR kommer da hovedsaklig fra «digitaliseringsområdet» i Difi.

3. Overfør arbeidet med offentlige anskaffelser til Næringsdepartementet
Dette har en enkel, men logisk begrunnelse: Det er på dette området Difi har hatt minst synergieffekter av de to andre fagområdene, samtidig som det er en klar oppgave for et næringsdepartement som har næringslivet som målgruppe.

Overføringen vil omfatte både anskaffelser, ehandelsplattformen og efaktura-arbeidet.

Innvendingen mot en slik endring er at det ikke er naturlig for et departement å ha operative oppgaver; de er i første rekke politiske sekretariater. Det er en formell – og begrunnet – innvending, som en imidlertid må finne en løsning på.

4. Samordne vurderingen av «digitaliseringsarbeidet» i statlig og kommunal sektor.
Som kjent er også KommIT under evaluering for tiden. Den evalueringen bør sees i sammenheng med de endringene som vil skje med Difi.

Det har en naturlig begrunnelse: Difis oppgaver har betydning for kommunesektoren, og de er gjensidig avhengig av hverandre.

Det er også meningsløst at kommunesektoren nå skal bruke ett år på sin evaluering – i tillegg til minst et halvt år til høringer etc – før en kommer til en beslutning. Staten kan – og bør – ikke vente halvannet år på å komme frem til en samforent samarbeid for hele forvaltningen..

En «forenklet, forbedret og fornyet» offentlig sektor kan ikke vente på det.

Informasjon om debattinnlegg og kronikker i digi.no

Alle innlegg må sendes til redaksjon@digi.no. Husk å legge ved et portrettbilde. Vi forbeholder oss retten til å redigere innsendt materiale.

Palm vekkes til live

Siste ord er ikke skrevet om det innovative amerikanske teknologiselskapet, som født ut av 3com ble selve pioneren på håndholdte terminaler på 1990-tallet.

Fem år etter døden blir Palm nå gjenopplivet, som et vaskeekte selskap i Silicon Valley, riktignok heleid av kinesiske TCL.

TCL gjorde det kjent under denne ukens CES-konferanse i Las Vegas at de har overtatt varemerket Palm, som de også vil bruke på det nye selskapet, Palm Inc., og sikkert også på enhetene de planlegger.

– Dette blir et ekte californisk selskap i Silicon Valley, som skal utnytte de talentene og partnerskap som finnes i området, heter det i kunngjøringen.

Det oppgitte målet er noe langt mer enn bare å tilby mer avanserte (mobile) enheter. Her loves det solide gjennombrudd og innovativ ny teknologi, design, brukeropplevelse og økosystem. Store ord, som det blir interessant å se om de klarer å etterleve.


ORIGINALEN: Palm Pilot slik den fremsto i begynnelsen i 1996. Apple prøvde seg med sin Newton, men det var Palm som lykkes skape et helt nytt marked - som de dominerte fullstendig i flere år.

TCL er en relativt stor produsent av tv-apparater. De lager også mye annen forbrukerelektronikk og hvitevarer som vaskemaskiner og kjøleskap, men også mobiltelefoner.

Det er ikke kjent hva de har betalt for Palm, men det nye datterselskapet i USA får umiddelbar drahjelp av en R&D-avdeling som teller 5.000 ingeniører på tvers av syv utviklingssentre verden over.

– En nærmere tidsplan for utrulling av Palm-prosjektet blir meddelt på et senere tidspunkt, heter det i pressemeldingen.

Stolt fortid
Palm har en stolt fortid som pioner innen håndholdte lommedatamaskiner, eller PDA-er (personlig digital assistent) som de gjerne ble kalt.

Det amerikanske selskapet, opprinnelig en del av 3com, fikk umiddelbar suksess med sin Palm Pilot da den kom i 1996 og skapte et nytt marked, der de ble fullstendig dominerende fram mot årtusenskiftet.

Tapte alt
Historien om hvordan de senere tapte alt er for lengst skrevet, men også etter at PDA gikk av moten – og til slutt ble erstattet av smarttelefoner, holdt Palm det gående i mange år. Helt fram til 2010 da krisen var et faktum.

Palm ble solgt til Hewlett-Packard, men oppkjøpet endte i et digert mageplask allerede året etter. De store vyene om å bruke Palms lovende webOS ble satt i full revers og virksomheten slaktet. Senere ble operativsystemet solgt til LG som nå bruker det i smarte tv-er og klokker.

Skuddsekund til besvær

Denne uken kunngjorde International Earth Rotation and Reference Systems Service (IERS) at det igjen er på tide å innføre et skuddsekund, altså gjøre ett enkelt døgn ett sekund lenger enn vanlig. Dette gjøres fordi tiden jorden roterer uregelmessig og gradvis saktere. Dermed må det en justering til i blant. Denne gang skjer justeringen den 30. juni i år. Da innføres midlertidig klokkeslettet 23.59.60, før man går over til 1. juli når klokken blir 00.00.00.

For oss mennesker har vanligvis ikke et sekund fra eller til i løpet av et døgn noen merkbar betydning. Verre er det med datamaskiner og andre systemer som ikke bare kan trekke på skuldrene over et uvanlig klokkeslett. Når enkelte datamaskiner ikke engang er i stand til å håndtere rutinemessige skuddår på en skikkelig måte, er det kanskje ikke så overraskende at skuddsekunder – som ikke er like godt innarbeidet – kan skape problemer. Fordi tidspunktet for det neste skuddsekundet først har blitt bestemt nå, må trolig svært mange systemer oppdateres innen den tid for at de skal ta hensyn til dette.

Slått ut
Forrige gang det ble innført et skuddsekund var i den 30. juni 2012. Da ble blant annet nettstedene til Mozilla, LinkedIn, Gawker, Reddit, Virgin, Yelp og StumpleUpon lammet i større eller mindre grad på grunn av feil som oppstod i blant annet Linux- og Java-basert programvare.

Les også: Slått ut av skuddsekund

– Nesten hver gang vi har et skuddsekund, finner vi noe. Det er irriterende, fordi det et klassisk tilfelle av kode som i utgangspunktet aldri kjøres, og som derfor ikke testes av brukere under deres normale forhold, sa Linus Torvalds til Wired i 2012.

«Leap smear»
Blant selskapene som ikke ble rammet av skuddsekund-problemer i 2012 var Google, som allerede i 2008 innførte en metode som kalles for «leap smear» og som skal håndtere denne typen situasjoner. Metoden innebærer å forberede systemene gradvis på skuddsekundet ved å stadig å legge noen millisekunder til tiden i forkant av tidspunktet for skuddsekundet. I det øyeblikket skuddsekundet egentlig inntreffer, gjøres den siste av disse små forskyvningene, som er så små at de ikke skaper problemer for systemene. Det hele blir kontrollert fra Googles interne NTP-servere (Network Time Protocol).

26. gang
The Telegraph skriver i en omfattende artikkel om skuddsekunder at det første skuddsekundet ble lagt til allerede i 1972. Årets skuddsekund er det 26. i rekken. Fram til 1979 ble det årlig lagt til et slikt sekund, mens det skjedde seks ganger i løpet av 1980-tallet. Siden 1999 har det bare blitt lagt til fire skuddsekunder.

Under en konferanse i 2012 argumenterte USA for å droppe hele ordningen, blant annet fordi den forstyrrer presisjonen til blant annet kommunikasjons- og navigasjonssystemer. Men Storbritannia motsatte seg dette fordi dette ville innebære at man for alltid ville fjerne sammenhengen mellom vårt tidskonsept, soloppgang og solnedgang.

Saken oppdatert med en korrigering av hvorfor det er nødvendig med skuddsekunder..

Måtte dekryptere pc-en

Da Katie Moussouris, en amerikansk sikkerhetsekspert med fortid fra både Symantec og Microsoft, som nå jobber i sikkerhetsselskapet HackerOne, var på vei hjem etter å ha deltatt under 31st Chaos Communication Congress (31C3) i forrige uke, ble hun stoppet av en sikkerhetsvakt på veien ut til flyet som skulle gå fra Charles de Gaulle-flyplassen i Paris.

Der ble hun bedt om å finne fram sin bærbare pc. Bortsett fra stedet – altså i tunnelen mellom gaten og flyet – var det ikke noe uvanlig ved dét. Så ble hun bedt om å skru på pc-en. Heller ikke det lenger så uvanlig, for eksempel som en sjekk av at batteriene ikke er byttet ut med eksplosiver.

Sikkerhetsvakten nøyde seg dog ikke med å se at maskinen startet opp. Hun krevde også at Moussouris skulle logge seg inn på maskinen.

I Moussouris’ tilfelle betydde dette også at den krypterte harddisken måtte dekrypteres. Dette skriver Moussouris selv i et blogginnlegg.


Katie Moussouris måtte logge seg helt inn på pc-en sin under en sikkerhetskontroll på en flyplass i Paris.

Hvilket grunnlag sikkerhetsvakten hadde for å be Moussouris logge seg på maskinen, er uklart. Moussouris skriver at hun føyde seg kun for å kunne rekke flyet.

Heldigvis for henne var sikkerhetsvakten fornøyd da hun så at også innloggingen fungerte som normalt, men Moussouris skriver at hun nok ikke hadde rukket flyet dersom vakten også hadde krevd å få undersøke maskinen på egenhånd. På grunn av språkvansker fikk hun ingen tydelig forklaring på hvorfor hun måtte logge på, bortsett fra en henvisning til «reglene».

Spekulasjoner
Moussouris rakk bare å skrive en kort twittermelding om hendelsen, men innen hun landet hadde mange kommentert meldingen og spekulert på om hun ble valgt ut på grunn av hennes stilling i et selskap som jobber med informasjon om sårbarheter. Men Moussouris skriver at dersom så var tilfellet, så må det ha vært på grunn en misforståelse fordi selskapet bare tilbyr verktøy de trenger til å ivareta egne ordninger for sårbarhetskoordinering.

Ingen ansatte i HackerOne skal ha tilgang til klientenes konfidensielle sårbarhetsrapporter eller sensitive data.

Pink Panther
– Selv om yrket mitt kan ha utløst at jeg er på en liste som forårsaket en ny gjennomsøking, fikk jeg en «Inspector Clouseau»-følelse mer enn noe annet. Dette er artig nå som jeg er hjemme, men det ville ha vært en helt annen sak dersom hun ytterligere forsøkte å få tilgang til dataene mine, noe jeg ser for meg at ville foregå omtrent slik, skriver hun og viser til videosnutten nedenfor.

The Register, som omtaler saken her, bemerker forøvrig at det i diskusjonen på Twitter i ettertid har blitt fremmet forslag om at man bør ha en gjestekonto på maskinen som man logger på i slike tilfeller, samt at sensitive data oppbevares i krypterte diskområder som holdes skjult for uvedkommende.

I diskusjonen blir det også sagt at også franske innbyggere har opplevd noe tilsvarende og at grunnlaget er regler som ble innført fra nyttår, men dette har så langt ikke blitt bekreftet.

FBI: Det var Nord Korea

Etter mye frem og tilbake angående hvem som har skylda for det omfattende kyberangrepet mot Sony Pictures sent i fjor, har FBI endelig bestemt seg: Det var nordkoreanere.

Eksperter har vært forsiktige med å legge skylden på det fattige landet med svakt internett-infrastruktur, og Nord-Korea selv har nektet å ha noe med angrepene å gjøre.

FBI er likevel sikre i sin sak, til tross for at bevisene er fortsatt relativt tynne.

FBI-sjefen James Comey snakket i går på en sikkerhetskonferanse, og fortalte at han med stor sikkerhet kan bekrefte at Nord-Korea har ansvaret for innbruddene hos Sony, som førte til at mengder av hemmelig informasjon ble lekket og at premieren på filmen The Interview ble først kansellert, for så å bli satt opp igjen.

Comey mener å ha flere bevis på kildene til angrepet. Blant annet analyser av FBI-psykologer som tolket seg frem til kilden for angrepene basert på deres oppførsel og meldinger, samt simulasjoner utført av FBI-eksperter.

Det mest troverdige beviset, ifølge Comey, er likevel at hackerne var uforsiktige med bruken av proxyservere som skulle ha skjult deres spor. Ved flere anledninger skal hackerne ha brukt nordkoreanske IP-adresser, mens de egentlig burde ha skjult dem med proxyservere. Hver gang dette skjedde ble angrepene stanset, men ikke før FBI så hvor de kom fra.

Magasinet Wired skriver at Comeys bevis fremstår som nokså kryptiske og lite omfattende, men sjefen selv hevder at skeptikerne «ikke vet det han vet, og ikke har de fakta han har». Han forteller at FBI skulle gjerne delt all informasjonen de sitter på, men kan ikke gjøre det på grunn av sikkerhetshensyn. Han frykter at slike angrep vil skje igjen og derfor må arbeidsmetodene holdes hemmelige. Comey mener også at resten av amerikansk etterretning er enige med FBI når det gjelder kilden til angepene.

Skepsisen gjenstår, altså. De «ekte» nordkoreanske IP-adressene kunne jo også vært forfalsket av noen som ville hatt interesse av å forvirre etterforskningen.

En ting er tydelig, fronten mellom USA og Nord-Korea er igjen tilspisset på grunn av kyberangrepene, og etterretningen i landet gjør seg klare for nye angrep.

Intel med Windows-basert «regnestav»

Små datamaskiner man kan koble til direkte til en skjerm via HDMI, har vært på markedet i flere år, men neste alle disse har vært basert på ARM-prosessor, og Android eller Linux som operativsystem.

Nå har også Intel fått krympet teknologien tilstrekkelig til å lage en pc-pinne, eller Intel Compute Stick, som den nye pc-en kalles.

Intel har ikke kommet med så mange detaljer om pinnen, men ifølge Liliputing er den utstyrt med en firekjernet Atom-prosessor i Bay Trail-generasjonen, 2 gigabyte med RAM, 32 gigabyte med lagringsplass og gratisoperativsystemet Windows 8.1 med Bing.

Intel Compute Stick skal være utstyrt med støtte WLAN (802.11n), Bluetooth, minnekortleser og to USB-kontakter. Den ene av USB-kontaktene brukes til strømforsyning.

Intel skal begynne å levere enheten i løpet av det inneværende kvartalet. Prisen for Windows-utgaven skal være 149 dollar. En Linux-basert utgave skal også være planlagt, til 89 dollar. Men denne skal ha betydelig enklere maskinvare.

Intel ser for seg flere potensielle bruksområder, blant annet som en konkurrent til dagens stue-pc-er koblet til en tv. Enheten skal kunne brukes til videostrømming, spill, sosiale medier og annet webinnhold.

I bedrifter kan den for eksempel brukes som en tynnklient-løsning basert på Windows Remote Desktop. Den kan også brukes i forbindelse med digitale kiosker og reklame.