Archive for Datamaskin

God Difi-analyse, feil konklusjon!

«Difi har hovedsakelig kun pedagogiske virkemidler som grunnlag for å øve innflytelse i forvaltningen». (Evalueringsrapporten side 100)

KRONIKK: Dersom en leser omtalen og konklusjonen i rapporten som evaluerer Difi, kan en få inntrykk av at bare Difi får sterkere virkemidler vil alt bli så mye bedre. Så enkelt er det ikke.

Hovedbudskapet i rapporten er at Direktoratet for forvaltning og IKT (Difi) har levert på de konkrete oppgavene de har fått, men ikke har klart å leve opp til forventningene om å være strategisk pådriver av effektiviseringen av forvaltningen.

Dette skyldes i første rekke, sier rapporten, at Difi har manglet de nødvendige rammebetingelsene og virkemidlene. Det er altså Kommunal- og moderniseringsdepartementet (KMD) sin skyld.

Men innholdet og analysen i rapporten sier noe annet.


Arild Haraldsen er fast kommentator og spaltist i digi.no.

Det er flere «funn» som tilsier at dette i stor grad er selvforskyldt. De sier da også at: «verken Difis ledelse, strategi, styring, organisering og kompetanse i tilstrekkelig grad har vært innrettet på å utvikle en slik strategisk pådriver og samordningsrolle». Rapporten viser også til at FAD/KMD gjentatte ganger har uttrykt misnøye med hvordan de utfører, eller ikke, utfører sin rolle som strategisk pådriver.

Konsulentfirmaets konklusjon er at Difis rolle som strategisk rådgiver bør rendyrkes, og at Difi gis sterkere virkemidler for å kunne fylle en slik rolle. Konsulentfirmaet sier at Difi fremdeles skal være et direktorat under KMD (men åpner muligheten for å legge det til Finansdepartementet (FIN). Hva som skal gjøres med de øvrige ikke-strategiske oppgavene, er rapporten svært uklar på.

Etter å ha lest rapporten og analysene, kommer jeg til en annen konklusjon:

*** Difi bør rendyrkes som strategisk premissleverandør til regjeringen, men da som direktorat under Finansdepartementet. Overføringen gjelder både avdelingen for forvaltningsutvikling, og deler av avdelingen for «digitalisering». Formålet er å integrere forvaltningspolitikk og IKT. Samordningsorganet SKATE følger med i denne prosessen.

*** De operative og samordnende oppgavene knyttet til felleskomponenter, ID-porten, etc legges som avdeling til Brønnøysundregistrene, slik at får en samordnet strategi for utvikling, drift og bruk av felleskomponenter, samt samling av alle driftsrelaterte aktiviteter knyttet til dette. Overføringen vil omfatte deler av den tekniske kompetansen i avdelingen for «digitalisering».

*** Oppgavene knyttet til anskaffelser, e-handelsplattformen og e-faktura legges til en avdeling under Næringsdepartementet. Begrunnelsen er rett og slett det finnes liten synergieffekt mellom denne avdelingen og de øvrige avdelinger i Difi, samt at det er logisk at aktiviteter direkte relatert til næringslivet samordnet til det departementet som har det som oppgave.

*** Den evaluering som nå skal gjøres av kommunesektoren bør fremskyndes. Det er et like stort behov for at kommunesektoren skal tale med èn stemme, som at staten skal gjøre det.

Det strategiske grepet som ligger i dette forslaget er at anvendelse av IKT knyttes nærmere opp til det departementet som samtidig har sagt at IKT må føre til en mer effektiv og mindre kostnadskrevende offentlig sektor. I tillegg sidestiller det innbyggere og næringsliv som målgrupper for effektivisering, og ikke blir ensidig fokusert på innbyggerne. Det vil også bidra til at fokus rettes mot standardisering og felles IKT-plattform, og ikke lettvinte «portal-løsninger. Det blir lettere å samordne strategiene til Difi, Altinn og kommunesektoren. Til sist – det fører til en mer fokusert og effektiv forvaltning av Difis oppgaver som i dag spriker i alle retninger.

Hvordan kommer jeg frem til en slik konklusjon?

«Funnene» i rapporten
Rapporten inneholder påpekninger av en rekke forhold som alle tidligere har vært tatt opp av bl.a. meg i digi.nos spalter:

  • Difis oppgaveportefølje er stor, uensartet og sprikende.
  • Det er problematisk rolleblanding mellom rollene som utreder og gjennomfører.
  • Fagområdene forvaltningsutvikling og digitalisering samarbeider ikke godt nok.
  • Det er en kompetansestrid mellom Brønnøysundregistrene og Difi som er ødeleggende for digitaliseringen av offentlig sektor.
  • Difi har liten troverdighet blant etatene, særlig innenfor tunge etater som Skatt, Nav, helsesektoren og politiet.
  • Mange av de spurte oppfatter at Difi opptrer uryddig som premissgiver og strategisk rådgiver: De oppfattes som å ville anbefale løsninger som gir dem selv større ansvar – ikke løsninger som nødvendigvis er de beste for forvaltningen eller samfunnet som helhet. Etc.

Dette er alle elementer hvor ansvaret primært ligger hos etaten selv å få gjort noe med.

Analyse 1: Difi som premissleverandør til statens IKT-politikk
Evalueringsrapporten sier at Difi ikke har levert i forhold til å være en strategisk premissleverandør til regjeringen på hvordan IKT kan effektivisere forvaltningen. «Difi skal være en strategisk pådriver for endring og fornyelse i forvaltningen, og samordning når det gjelder digitalisering i offentlig sektor», er den oppgaven Difi fikk i 2008.

Men en kan like gjerne rette fokuset andre veien: Ingen regjering har levert noen helhetlig og sammenhengende IKT-strategi.

Som jeg har vist i tidligere innlegg fremstår ulike regjeringers «strategiske IKT-politikk» bestående av honnørord som effektivisering, modernisering, digitalisering etc., og lite konkrete og handlingsrettede tiltak, bortsett fra i de senere år hvor «skjema på nett» og «digitalt førstevalg» blir sentrale konkrete oppgaver for å gjennomføre en IKT-strategi. Det første er en meningsløshet som jeg har pekt på tidligere, og det andre bidrar til å flytte fokus fra de bakenforliggende IKT-systemer, til hvordan forvaltningen kommuniserer med sine borgere og næringslivet.

Som jeg skriver der: «Planene fremstiller ingen overordnet politikk på dette området, en verdiforankring eller en ideologisk retning, en retning på hva man vil og hvor man vil. Planene har ikke noe samlet og overgripende forvaltningspolitisk program. Planene er for generelle, for lite operative og for lite konkrete i sine målformuleringer. De bærer mer preg av deskriptive beskrivelser av IKT-basert utviklingstrender i samfunnet for øvrig, og oppramsing av pågående IKT-tiltak innenfor offentlig sektor.»

Det politiske spørsmålet er hvorfor en skal digitalisere offentlig sektor? Er det for å redusere kostnadene, eller øke kvalitet og service på tjenestene? Hovedfokus har vært på det siste. Men nå har FIN – og dermed regjeringen sagt – at digitaliseringen også skal føre til reduserte driftskostnader. Og allerede varslet 5 % reduksjon i driftsbudsjettene neste år. IKT skal bidra til å oppnå det.

Det er derfor naturlig at FIN nå forventer Difi som en strategisk premissleverandør for å oppnå dette.

Problemet for Difi har ikke vært at de ikke har hatt rammebetingelser for å utøve en slik rolle – selv om alltids vil ønske seg mer myndighet og ressurser -, men like mye at den forventningen ikke deles av andre departementer så som FIN eller Næringsdepartementet (NFD), som det fremgår av rapporten. Difi har derfor ikke blitt sett på som relevant aktør i så henseende av toneangivende departementer.

Mye av dette skyldes Difi selv. Rapporten sier at Difi ikke har vært foroverlent mht. til å initiere slike innspill, men mer oppslukt av de ulike oppdrag de får fra KDM. Fokuset har i stedet vært på å utvikle og drift «egne IKT-løsninger» som en del av den «infrastruktur» som offentlig sektor skal benytte seg av, altså felleskomponenter som eID og Sikker Digital Postkasse (SDP). «Difi har lagt stor vekt på å konseptualisere, utvikle og sette i drift løsninger som kan være byggesteiner for digitaliseringen i det offentlige. Dette har ført til at en betydelig del av Difis samlede ressurser de siste årene har vært knyttet opp i arbeidet med å utvikle og forvalte felles-komponenter. Dette ser ut til å ha vært en ønsket strategi, selv om den på digitaliseringsområdet kan ha fortrengt fokuset på de øvrige rollene.», sier rapporten.

Det er altså ikke bare – eller i hovedsak – mangel på relevante rammebetingelser fra KMD som er årsaken til at Difi ikke fyller sin strategiske oppgave godt nok. Rapporten sier at: «verken Difis ledelse, strategi, styring, organisering og kompetanse i tilstrekkelig grad har vært innrettet på å utvikle en slik strategisk pådriver og samordningsrolle».

Den «strategiske rolle» som Difi bør ha er at «Difi inntar en sentral rolle i styringen og samordningen av den statlige IT-arkitekturen, IKT-standarder og de nasjonale felleskomponentene og fellesløsningene. Difi må kunne ta regi, ta initiativ til og utvikle nasjonale standarder og arkitekturprinsipper».

Men da forveksler man det å være strategisk pådriver med å være operativ leverandør av fellesskapsløsninger som kommer hele forvaltningen til gode.

Men denne operative oppgaven er svært viktig, ja, helt avgjørende for digitaliseringen av offentlig sektor. Hvordan har Difi løst den oppgaven?

Analyse 2: Balansen strategisk rådgiver og operativ leverandør
Først noen fakta:

Da Difi ble etablert i 2008 kom den til å bestå av en rekke ulike enheter hentet fra flere områder. Difi fikk derfor allerede fra begynnelsen av en svært heterogen og fragmentert oppgavestruktur. Ved etableringen hadde den ca. 100 ansatte; i dag har den over 250 ansatte. Difi har derfor opplevd en sterk vekst – størst innenfor området «digitalisering» som nå utgjør cirka halvparten av årsverkene og driftskostnadene.

I 2012 var det nødvendig å konsolidere organisasjonen. Dert ble da valgt en organisasjonsstruktur knyttet til tre områder «Ledelse og utvikling, dvs. forvaltningsutvikling», «digitalisering» og «offentlige anskaffelser». I ettertid kan en se at en slik organisering var uheldig fordi den bidro til sementering av ulike fagområder som har til dels ulik faglig innretting og målgrupper. I stedet burde fagområdene være mer integrert; tydeligst er det i forholdet mellom «digitalisering» og «forvaltningsutvikling». Digitalisering av offentlig sektor bør gå hånd i hånd med ledelse og utvikling av etatene. I dag er det slik at de som jobber med «digitalisering» har liten kompetanse innenfor forvaltningsutvikling, og omvendt.

En har ikke klart å utvikle tverrfaglig kompetanse som forener kunnskap om forvaltningen, ledelses- og organisasjonsutvikling, og IKT. Dette er en type kompetanse som etatene og departementene etterspør. «Difi må se forvaltningsutvikling og IT-utvikling mer samlet», er et punkt flere av de som ble intervjuet har fremholdt.

KMD har vært særlig oppmerksom på dette, og har i ulike sammenhenger og gjentatte ganger – senest i tildelingsbrevet for 2014 – pekt på en bedre kobling mellom digitalisering og organisering, Difi har svart at dette «…vil ta tid å bygge opp».

Resultatet er at Difi har blitt for operativt orientert; særlig gjelder dette innenfor «digitaliseringsområdet», hvor utvikling og drift av felleskomponenter har tatt mange årsverk og mye energi. Rapporten stiller også spørsmålet om dette har vært riktig strategi – om ikke disse oppgavene kunne vært overlatt til andre eller til markedet selv, og at Difi burde hatt en mer styrende og koordinerende rolle i utbredelsen av disse felleskomponentene. (De fleste felleskomponentene eies for øvrig av andre etater).

Men det viktigste her er den rollekonflikt som Difi kommer i som både utvikler, drifter og forvalter av felleskomponenter – og den egeninteressen som følger med det. Mest tydelig kom den rollekonflikten til syne da arbeidet med Sikker Digital Postboks (SDP) ble gjennomført. Helt uavhengig av resultatet – Altinn ble forkastet som alternativ – burde denne prosessen vært gjenstand for en kritisk evaluering; her satt Difi på alle sider av bordet.

Flere av de som ble intervjuet har pekt på at det er viktig å skille klart mellom direktoratrollen som forvalter av premisser og rammeverk, og rollen som utøvende aktør. «Det er uheldig at disse rollene kombineres i en etat. Når Difi utreder og deretter velger å løse oppgaver selv, kan det bli stilt spørsmål om habilitet», er en av de påpekningene som blir gjengitt i rapporten.

Tilsvarende rollekonflikt har bl.a. Abelia påpekt at Difi har når det gjelder anskaffelser – de utvikler, drifter og forvalter samme anskaffelsesreglement som de selv bruker overfor sine leverandører.

Ennå viktigere er det at Difi i dag står uten påvirkning, medinnflytelse eller deltagelse i de store IKT-prosjektene innenfor skatt, Nav, helsesektoren og politiet – prosjekter som har stor betydning for digitaliseringen av offentlig sektor. Grunnen er rett og slett at Difi ikke har noen troverdighet eller faglig legitimitet til å delta slik etatene selv ser det.

Summen av dette er altså at Difi ikke klarer å fylle rollen som strategisk rådgiver for regjeringen; de er for opptatt med operative gjøremål som stjeler både oppmerksomhet og energi; de klarer ikke å forene digitalisering og forvaltningsutvikling; og de har liten troverdighet som deltager i større IKT-prosjekter i andre etater.

Tilbake står en igjen med å ha utviklet noen felleskomponenter, bla. ID-porten, og noen verktøy som f.eks, prosjektveiviseren og verktøy for gevinstrealisering som etatene kan benytte seg av hvis de vil.

Evalueringsrapporten konkluderer derfor med at «Vår gjennomgang viser at Difis oppgaveportefølje spenner bredt og dypt og har et stort spenn i målgruppene det arbeides mot. Difi har hovedsakelig kun pedagogiske virkemidler som grunnlag for å øve innflytelse i forvaltningen» (min utheving).

Analyse 3: Forholdet til Altinn/Brønnøysundregistrene
Det har i de senere år utviklet seg til å bli det mange oppfatter som en maktkamp mellom Brønnøysundregistrene (BR) og Altinn på den ene side, og Difi på den annen side. Dette gjelder spesielt i spørsmålet om Sikker Digital Postkasse, men også i spørsmålet om metadata og regime for informasjonsforvaltning, samt utvikling og forvaltning av efaktura-registeret ELMA.

«Det er et åpenbart overlapp mellom Difis og Altinns strategier og planer med hensyn til tjeneste-digitaliseringen i det offentlige. Det ligger her en grunnleggende kilde til interessekonflikter mellom de to virksomhetene», sier rapporten.

Konflikten har vært så åpenbar at det er underlig at ikke respektive departementer har skåret igjennom. Særlig siden det finnes «indikasjoner», ifølge rapporten, på at dette har hemmet digitaliseringen ved at sentrale aktører har trukket seg noe tilbake og ikke har ønsket å bli trukket inn i denne striden.

Men årsaken til konflikten ligger ikke bare hos disse etatene, men også i styringsstrukturen. De har til dels overlappende oppgaver og ansvar, og ulike styringslinjer – til henholdsvis Næringsdepartementet og KMD. Når Difi (og KMD?) klart og tydelig sier at SDP skal være for innbyggere og Altinn for næringslivet, mens Næringsdepartementet på sin side sier at Altinn også skal være for innbyggere, og Digitaliseringsrundskrivet fra KMD sier at Altinn skal brukes så fremt ikke etatene har gode grunner til å velge noe annet, er et ikke rart styringsignalene blir forvirrende..

Men Difi har rett i en ting: Hva som er Altinns strategi i digitaliseringen av offentlig sektor, er i dag svært uklar.

Det mest sentrale er imidlertid dette: Er det hensiktsmessig å bygge opp to parallelle og likeartede driftsmiljøer og infrastrukturer for å digitalisere offentlig sektor?

Analyse 4: Forholdet til kommunesektoren
Det er et behov for å se offentlig sektor under ett, fremholder rapporten. Men samtidig er stat og kommune svært forskjellig; kommunene har langt på vei selvstyre og organiseres gjennom KS som en interesseorganisasjon for kommunene, mens Difi har et mer overordnet samfunnsansvar på vegne av regjeringen.

Rapporten peker på at Difi nå har fått ansvaret for å å bygge opp en satsing på innovasjon mot kommunesektoren, men at «dette i liten grad utfordrer samarbeidet mellom Difi og KommIT på IKT-området – all den tid de innovasjonsfaglige tilnærmingene så langt i beskjeden grad omhandler digitaliseringsarbeidet direkte». – En skal allikevel være forsiktig med å gå videre på en slik linje hvor en «overtar» et faglig arbeid som i dag ligger i kommunesektoren – i hvert fall i den forstand at rollefordelingen blir uklar. Og samtidig – innovasjon som ikke omfatter kjennskap til og bruk av IKT? Hva er det?

Rapporten sier at Difis ansvar for at det utvikles løsninger som også ivaretar kommunenes behov, bør forsterkes. Men man er lite klar på hvordan det skal gjøres annet enn å si at «det vil bl.a. være behov for å utvikle effektive strategier for hvordan man kan bruke nettverk, møteplasser og partnerskap som grunnlag for en effektiv dialog mot kommunene og KS». Man skal altså samsnakke bedre.

Hensikten med etableringen av KommIT i sin tid skulle være å samordne kommunale ønsker og behov. Forutsetningen imidlertid var fra KS sin side en tilsvarende samordning på statlig side. Difi skulle være denne samordneren. Men det har ikke fungert slik; Difi er satt på sidelinjen når det gjelder store statlige IKT-tiltak, og kommunesektoren klager over at de ikke tidlig nok blir trukket inn i store IKT-prosjekter som berører dem: EDAG og Nav-prosjektene er eksempler på det. I tillegg skulle det være bedre samordning mellom KommIT og Difi om utvikling og bruk av felleskomponenter. Heller ikke dette har fungert tilfredsstillende.

Difi og KommIT har med andre ord hatt problemer med å finne sine roller etter at KMD ble etablert for over ett år siden. Det har sviktet på begge sider.

Hva er løsningen?
Rapporten peker på to alternative løsninger:

1) Rendyrke Difi som strategisk premissleverandør til regjeringen, eller 2) rendyrke Difi som standardiserings- og tilretteleggingsorgan.

Rapporten sier at det er et ønske fra de de har intervjuet at Difi får en sterkere strategisk rolle.
Rapportens anbefaling er å rendyrke Difis strategiske rolle ved å skille ut drifts- og anskaffelsesoppgavene. «Vi legger vekt på at erfaringene har vist at det er krevende å utvikle Difis rolle som faglig premissleverandør for digitalisering av forvaltningen, når Difi samtidig selv skal ha fokus på utvikling, forvaltning og drift av egne felleskomponenter». De er åpen for at et slikt rendyrket Difi-direktorat enten kan ligge i KMD eller et annet departement. De er mer uklar på hvordan øvrige aktiviteter skal organiseres. Og de sier ingenting om de 269 årsverkene som Difi rår over i dag er effektiv anvendelse av ressurser i forholdet til mål og resultat.

Her er imidlertid mitt forslag til endringer:

1. Rendyrke Difis som strategisk organ og flytt det til Finansdepartementet (FIN).
Dette begrunnes ikke bare med at dette er et tyngre politisk departement, men også at den største porteføljen av tjenester ligger under departementets ansvarsområde: Skatt (og dermed også indirekte Altinn), SSB og Toll, samt at disse har tydelige strategier rettet mot både innbyggere og næringsliv. FIN er også i europeisk sammenheng et meget tungt departement, da det har både budsjett og skattepolitikk i sin portefølje i tillegg til å være et slags «næringsdepartement» for finansnæringen. Det er også naturlig at FIN vil prioritere budsjettbalanse, kostnadsgevinster ved effektiviseringstiltak, betydningen for norsk økonomi, etc.

Det vil også være lettere å bruke digitalisering/samordning inn i et politisk konsept: IKT skal brukes til å redusere offentlig sektors andel av BNP.

Det vil også måtte innebære at FIN får ansvaret for den overordnede forvaltningspolitikken. FIN får også ansvaret for samordning av departementenes IKT-prosjekter med krav om gevinstrealisering som en del av budsjettforslagene.

Den «portefølje» av kompetanse som legges inn i dette nye direktoratet er «ledelse og organisering, altså forvakltningsutvikling, samt deler av «digitaliserings»-kompetansen, de som har strategisk og ikke nødvendigvis driftsteknisk kompetanse. Forvaltningsutvikling og strategisk IKT må smeltes sammen til en tverrfaglig gruppering. Også samordningsorganet SKATE følger med i denne «porteføljen».

Da oppnår man begge de to forutsetningene som evalueringsrapporten legger til grunn: større myndighet og bedre tverrfaglig kompetanse som gir større legitimitet.

Dette er også en modell som ligner den i Danmark og Finland. Dette er også en modell som har vært praktisert her i landet tidligere da Rasjonaliseringsdirektoratet lå inn under FIN.

2. Legge arbeidet med felleskomponenter, standardisering og drift til Brønnøysundregistrene
Dette begrunnes med at en legger ned to parallelle og alternative produksjonslinjer og samler det til en felles driftsmodell. Det forutsetter imidlertid at de ulike driftsmodellene gjennomgås og at en finner en felles løsning: Altinn/BR har en driftsmodell hvor de fungerer som «krevende bestiller», men overlater driften til konsulenter, mens Difi har begge deler – både som utvikler og drift «in-house» og som «krevende bestiller».

Grunnen til at dette legges til BR er at de i utgangspunktet har et lovpålagt ansvar for forvaltning av offentlige registre, og at det vil være mer naturlig av den grunn å legge et forvaltningsansvar for et nasjonalt metadataregister der. I tillegg har de et tett samarbeid med sentrale aktører som Skatt, SSB, NAV etc allerede gjennom Altinn-samarbeidet.

I tillegg til Altinn som felleskomponent, og nær tilknytning til så vel Folkeregisteret som Matrikkelen, bør de få ansvaret for ID-porten og efakturaregisteret ELMA. Det bør vurderes om SDP skal utfases.

De ressursene som overføres til BR kommer da hovedsaklig fra «digitaliseringsområdet» i Difi.

3. Overfør arbeidet med offentlige anskaffelser til Næringsdepartementet
Dette har en enkel, men logisk begrunnelse: Det er på dette området Difi har hatt minst synergieffekter av de to andre fagområdene, samtidig som det er en klar oppgave for et næringsdepartement som har næringslivet som målgruppe.

Overføringen vil omfatte både anskaffelser, ehandelsplattformen og efaktura-arbeidet.

Innvendingen mot en slik endring er at det ikke er naturlig for et departement å ha operative oppgaver; de er i første rekke politiske sekretariater. Det er en formell – og begrunnet – innvending, som en imidlertid må finne en løsning på.

4. Samordne vurderingen av «digitaliseringsarbeidet» i statlig og kommunal sektor.
Som kjent er også KommIT under evaluering for tiden. Den evalueringen bør sees i sammenheng med de endringene som vil skje med Difi.

Det har en naturlig begrunnelse: Difis oppgaver har betydning for kommunesektoren, og de er gjensidig avhengig av hverandre.

Det er også meningsløst at kommunesektoren nå skal bruke ett år på sin evaluering – i tillegg til minst et halvt år til høringer etc – før en kommer til en beslutning. Staten kan – og bør – ikke vente halvannet år på å komme frem til en samforent samarbeid for hele forvaltningen..

En «forenklet, forbedret og fornyet» offentlig sektor kan ikke vente på det.

Informasjon om debattinnlegg og kronikker i digi.no

Alle innlegg må sendes til redaksjon@digi.no. Husk å legge ved et portrettbilde. Vi forbeholder oss retten til å redigere innsendt materiale.

Måtte dekryptere pc-en

Da Katie Moussouris, en amerikansk sikkerhetsekspert med fortid fra både Symantec og Microsoft, som nå jobber i sikkerhetsselskapet HackerOne, var på vei hjem etter å ha deltatt under 31st Chaos Communication Congress (31C3) i forrige uke, ble hun stoppet av en sikkerhetsvakt på veien ut til flyet som skulle gå fra Charles de Gaulle-flyplassen i Paris.

Der ble hun bedt om å finne fram sin bærbare pc. Bortsett fra stedet – altså i tunnelen mellom gaten og flyet – var det ikke noe uvanlig ved dét. Så ble hun bedt om å skru på pc-en. Heller ikke det lenger så uvanlig, for eksempel som en sjekk av at batteriene ikke er byttet ut med eksplosiver.

Sikkerhetsvakten nøyde seg dog ikke med å se at maskinen startet opp. Hun krevde også at Moussouris skulle logge seg inn på maskinen.

I Moussouris’ tilfelle betydde dette også at den krypterte harddisken måtte dekrypteres. Dette skriver Moussouris selv i et blogginnlegg.


Katie Moussouris måtte logge seg helt inn på pc-en sin under en sikkerhetskontroll på en flyplass i Paris.

Hvilket grunnlag sikkerhetsvakten hadde for å be Moussouris logge seg på maskinen, er uklart. Moussouris skriver at hun føyde seg kun for å kunne rekke flyet.

Heldigvis for henne var sikkerhetsvakten fornøyd da hun så at også innloggingen fungerte som normalt, men Moussouris skriver at hun nok ikke hadde rukket flyet dersom vakten også hadde krevd å få undersøke maskinen på egenhånd. På grunn av språkvansker fikk hun ingen tydelig forklaring på hvorfor hun måtte logge på, bortsett fra en henvisning til «reglene».

Spekulasjoner
Moussouris rakk bare å skrive en kort twittermelding om hendelsen, men innen hun landet hadde mange kommentert meldingen og spekulert på om hun ble valgt ut på grunn av hennes stilling i et selskap som jobber med informasjon om sårbarheter. Men Moussouris skriver at dersom så var tilfellet, så må det ha vært på grunn en misforståelse fordi selskapet bare tilbyr verktøy de trenger til å ivareta egne ordninger for sårbarhetskoordinering.

Ingen ansatte i HackerOne skal ha tilgang til klientenes konfidensielle sårbarhetsrapporter eller sensitive data.

Pink Panther
– Selv om yrket mitt kan ha utløst at jeg er på en liste som forårsaket en ny gjennomsøking, fikk jeg en «Inspector Clouseau»-følelse mer enn noe annet. Dette er artig nå som jeg er hjemme, men det ville ha vært en helt annen sak dersom hun ytterligere forsøkte å få tilgang til dataene mine, noe jeg ser for meg at ville foregå omtrent slik, skriver hun og viser til videosnutten nedenfor.

The Register, som omtaler saken her, bemerker forøvrig at det i diskusjonen på Twitter i ettertid har blitt fremmet forslag om at man bør ha en gjestekonto på maskinen som man logger på i slike tilfeller, samt at sensitive data oppbevares i krypterte diskområder som holdes skjult for uvedkommende.

I diskusjonen blir det også sagt at også franske innbyggere har opplevd noe tilsvarende og at grunnlaget er regler som ble innført fra nyttår, men dette har så langt ikke blitt bekreftet.

Skuddsekund til besvær

Denne uken kunngjorde International Earth Rotation and Reference Systems Service (IERS) at det igjen er på tide å innføre et skuddsekund, altså gjøre ett enkelt døgn ett sekund lenger enn vanlig. Dette gjøres fordi tiden jorden roterer uregelmessig og gradvis saktere. Dermed må det en justering til i blant. Denne gang skjer justeringen den 30. juni i år. Da innføres midlertidig klokkeslettet 23.59.60, før man går over til 1. juli når klokken blir 00.00.00.

For oss mennesker har vanligvis ikke et sekund fra eller til i løpet av et døgn noen merkbar betydning. Verre er det med datamaskiner og andre systemer som ikke bare kan trekke på skuldrene over et uvanlig klokkeslett. Når enkelte datamaskiner ikke engang er i stand til å håndtere rutinemessige skuddår på en skikkelig måte, er det kanskje ikke så overraskende at skuddsekunder – som ikke er like godt innarbeidet – kan skape problemer. Fordi tidspunktet for det neste skuddsekundet først har blitt bestemt nå, må trolig svært mange systemer oppdateres innen den tid for at de skal ta hensyn til dette.

Slått ut
Forrige gang det ble innført et skuddsekund var i den 30. juni 2012. Da ble blant annet nettstedene til Mozilla, LinkedIn, Gawker, Reddit, Virgin, Yelp og StumpleUpon lammet i større eller mindre grad på grunn av feil som oppstod i blant annet Linux- og Java-basert programvare.

Les også: Slått ut av skuddsekund

– Nesten hver gang vi har et skuddsekund, finner vi noe. Det er irriterende, fordi det et klassisk tilfelle av kode som i utgangspunktet aldri kjøres, og som derfor ikke testes av brukere under deres normale forhold, sa Linus Torvalds til Wired i 2012.

«Leap smear»
Blant selskapene som ikke ble rammet av skuddsekund-problemer i 2012 var Google, som allerede i 2008 innførte en metode som kalles for «leap smear» og som skal håndtere denne typen situasjoner. Metoden innebærer å forberede systemene gradvis på skuddsekundet ved å stadig å legge noen millisekunder til tiden i forkant av tidspunktet for skuddsekundet. I det øyeblikket skuddsekundet egentlig inntreffer, gjøres den siste av disse små forskyvningene, som er så små at de ikke skaper problemer for systemene. Det hele blir kontrollert fra Googles interne NTP-servere (Network Time Protocol).

26. gang
The Telegraph skriver i en omfattende artikkel om skuddsekunder at det første skuddsekundet ble lagt til allerede i 1972. Årets skuddsekund er det 26. i rekken. Fram til 1979 ble det årlig lagt til et slikt sekund, mens det skjedde seks ganger i løpet av 1980-tallet. Siden 1999 har det bare blitt lagt til fire skuddsekunder.

Under en konferanse i 2012 argumenterte USA for å droppe hele ordningen, blant annet fordi den forstyrrer presisjonen til blant annet kommunikasjons- og navigasjonssystemer. Men Storbritannia motsatte seg dette fordi dette ville innebære at man for alltid ville fjerne sammenhengen mellom vårt tidskonsept, soloppgang og solnedgang.

Saken oppdatert med en korrigering av hvorfor det er nødvendig med skuddsekunder..

FBI: Det var Nord Korea

Etter mye frem og tilbake angående hvem som har skylda for det omfattende kyberangrepet mot Sony Pictures sent i fjor, har FBI endelig bestemt seg: Det var nordkoreanere.

Eksperter har vært forsiktige med å legge skylden på det fattige landet med svakt internett-infrastruktur, og Nord-Korea selv har nektet å ha noe med angrepene å gjøre.

FBI er likevel sikre i sin sak, til tross for at bevisene er fortsatt relativt tynne.

FBI-sjefen James Comey snakket i går på en sikkerhetskonferanse, og fortalte at han med stor sikkerhet kan bekrefte at Nord-Korea har ansvaret for innbruddene hos Sony, som førte til at mengder av hemmelig informasjon ble lekket og at premieren på filmen The Interview ble først kansellert, for så å bli satt opp igjen.

Comey mener å ha flere bevis på kildene til angrepet. Blant annet analyser av FBI-psykologer som tolket seg frem til kilden for angrepene basert på deres oppførsel og meldinger, samt simulasjoner utført av FBI-eksperter.

Det mest troverdige beviset, ifølge Comey, er likevel at hackerne var uforsiktige med bruken av proxyservere som skulle ha skjult deres spor. Ved flere anledninger skal hackerne ha brukt nordkoreanske IP-adresser, mens de egentlig burde ha skjult dem med proxyservere. Hver gang dette skjedde ble angrepene stanset, men ikke før FBI så hvor de kom fra.

Magasinet Wired skriver at Comeys bevis fremstår som nokså kryptiske og lite omfattende, men sjefen selv hevder at skeptikerne «ikke vet det han vet, og ikke har de fakta han har». Han forteller at FBI skulle gjerne delt all informasjonen de sitter på, men kan ikke gjøre det på grunn av sikkerhetshensyn. Han frykter at slike angrep vil skje igjen og derfor må arbeidsmetodene holdes hemmelige. Comey mener også at resten av amerikansk etterretning er enige med FBI når det gjelder kilden til angepene.

Skepsisen gjenstår, altså. De «ekte» nordkoreanske IP-adressene kunne jo også vært forfalsket av noen som ville hatt interesse av å forvirre etterforskningen.

En ting er tydelig, fronten mellom USA og Nord-Korea er igjen tilspisset på grunn av kyberangrepene, og etterretningen i landet gjør seg klare for nye angrep.

Intel med Windows-basert «regnestav»

Små datamaskiner man kan koble til direkte til en skjerm via HDMI, har vært på markedet i flere år, men neste alle disse har vært basert på ARM-prosessor, og Android eller Linux som operativsystem.

Nå har også Intel fått krympet teknologien tilstrekkelig til å lage en pc-pinne, eller Intel Compute Stick, som den nye pc-en kalles.

Intel har ikke kommet med så mange detaljer om pinnen, men ifølge Liliputing er den utstyrt med en firekjernet Atom-prosessor i Bay Trail-generasjonen, 2 gigabyte med RAM, 32 gigabyte med lagringsplass og gratisoperativsystemet Windows 8.1 med Bing.

Intel Compute Stick skal være utstyrt med støtte WLAN (802.11n), Bluetooth, minnekortleser og to USB-kontakter. Den ene av USB-kontaktene brukes til strømforsyning.

Intel skal begynne å levere enheten i løpet av det inneværende kvartalet. Prisen for Windows-utgaven skal være 149 dollar. En Linux-basert utgave skal også være planlagt, til 89 dollar. Men denne skal ha betydelig enklere maskinvare.

Intel ser for seg flere potensielle bruksområder, blant annet som en konkurrent til dagens stue-pc-er koblet til en tv. Enheten skal kunne brukes til videostrømming, spill, sosiale medier og annet webinnhold.

I bedrifter kan den for eksempel brukes som en tynnklient-løsning basert på Windows Remote Desktop. Den kan også brukes i forbindelse med digitale kiosker og reklame.

Advarer mot felles IT-systemer

Både staten og kommunene skal ha en skikkelig gjennomgang av digitaliseringsarbeidet i år.

Begge parter mener at det er en mulighet til å styrke samkjøringen mellom de to, men her mener ekspertisen at det er best ikke å gape over for mye.

På sidelinjen
Tirsdag ble evalueringsrapporten om Difi offentliggjort.

Her peker konsulentselskapet Agenda Kaupang på blant annet flere svakheter i rollene og oppgavene til IT-direktoratet:

Difi havner på sidelinjen i de store omstillingsprosjektene i staten, mens kommunene har en tendens til å havne på sidelinjen i de statlige prosjektene i Difis regi.

Nå skal Difi komme med sine anbefalinger i februar, før Kommunal- og moderniseringsdepartementet jobber seg frem til hvordan oppgavene kan gjøres bedre.

Én stemme
Samtidig skal Kommunesektorens organisasjon KS ta en tilsvarende gjennomgang av programmet KommIT, som ble etablert for å samkjøre digitaliseringen mellom kommunene og som et felles talerør mot staten.

KommIT startet i 2012, og 2015 skal benyttes til en evaluering.

Les også: KommIT-sjefen går til Evry

Ønskedrømmen
Resultatet som «alle» ønsker seg er at innbyggere og næringsliv finner de fleste tjenestene de trenger lett tilgjengelig på nett, uavhengig av om det er stat, fylkeskommune eller kommune som utfører tjenesten.

Og bak denne digitale disken har byråkratene fagsystemer som håndterer sakene på tvers av fagfelt og forvaltningsnivå.

På den måten utnyttes fellesskapets midler oprimalt, og kvaliteten på tjenestene øker.

KS åpner døren
På spørsmål fra digi.no er områdedirektør Trude Andresen hos KS innstilt på å dra nytte av at begge parter sitter med dørene åpne.

– Det er naturlig at disse to prosessene ses i sammenheng, og vi vil ta med oss denne evalueringen inn i vårt videre arbeid med å finne permanent løsning for digitalisering i kommunesektoren, sier Andresen.

Hun har ansvaret for digitalisering i KS.

Samkjøring
Statssekretær Paul Chaffey (H) i KMD deler oppfatningen.

– Det ikke noe som er så irriterende å oppdage at en samarbeidspartner nettopp har gjort en gjennomgang uten at vi har fått være med. Så akkurat her er det lagt til rette for at vi ikke møter en lukket dør, men har en mulighet til å samkjøre arbeidet. Så ja, vi vil se prosessene i sammenheng, sier Chaffey til digi.no.

– På hvilken måte?

– Vi må avklare hva som er lurt å gjøre felles. Så langt har vi varslet at vi ser på drift og finansiering av felleskomponentene, som Folkeregisteret og Altinn. Her er jo kommunene storbrukere, sier statssekretæren.

IKT Norge etterlyser en felles plattform for hele offentlig sektor. Chaffey mener det er å gå for langt.

– Vi må ikke låse oss til løsninger som ikke er fleksible nok i forhold til nye løsninger som dukker opp, advarer han.

Små skritt
Chaffey får støtte fra Handelshøyskolen BI.

– Her gjelder det å ta små skritt og ikke forvente for mye ut av et samspill mellom de to forvaltningsnivåene, sier professor Petter Gottschalk. Han er ekspert på ledelse og organisasjon, med flere år som IT-strateg bak seg.

– Det kan være relevant å satse på datautveksling og en standardisering på plattformer. Derimot kan det bli for ambisiøst å satse på felles IT-systemer på tvers, advarer Gottschalk.

Knapp datamaskin

Brian Krzanich løsnet en knapp på dressjakken og holdt den i været under sin hovedtale på forbrukerelektronikkmessen CES i Las Vegas tirsdag kveld.

Selvsagt var det ingen vanlig knapp Intels toppsjef viste fram.

Det er en mikrodatamaskin på størrelse med en halslinse. Navnet er «Curie» etter vitenskapskvinnen som tidlig på 1900-tallet ble den første til å vinne to nobelpriser.

Modulen består av en ny 32-biters systembrikke av typen Quark SE (pdf), komplett med Bluetooth low energi for å kommunisere med andre enheter, integrert krets for batterilading og bevegelsessensor med aksellerometer og gyroskop. Den har 80 kilobyte ram og 384 kilobyte flashminne for lagring.

– Enheten er strømgjerrig og kan kjøre i lengre perioder ved hjelp av et batteri på størrelse med en mynt, sier Krzanich.

Fra scenen demonstrerte han modulen brukt som skritteller med data overført til en app på smarttelefonen. Curie er en egen plattform ment å gi Intel et forsprang innen det fremvoksende markedet for kroppsnær teknologi.

– Med dette produktet kan partnerne våre tilby «wearables» i små størrelser som ringer, vesker, armbånd, smykker, og ja, knapper, sier Intels direktør for forretningsenheten New Devices Group, Mike Bell i en kunngjøring.

Åpen kildekode
Curie kjører et åpen kildekode-basert operativsystem kalt Viper, fortalte Intel under en pressebrief i går. Det skriver blant annet The Verge og flere andre.

Etter det digi.no forstår er Viper muligens en variant av VxWorks fra Intels heleide datterselskap Wind Rivers som de kjøpte opp i 2009.

Vi registrerer at det er flere som refererer til RTOS (real-time operating system) fra samme selskap i denne sammenheng. RTOS er av Intel fremstilt som motoren i deres satsing på tingenes internett.

Intel har så langt sagt lite om operativsystemet Curie benytter. Derimot varsler de at det skal komme to forskjellige SDK-er (software development kit) kalt henholdsvis Intel Body IQ og Intel Social IQ.

Den første er myntet på håndtering av de ulike biometriske signalene som Curies sensorer fanger opp, med muligheter for å telle skritt, regne ut antall kalorier man forbrenner og diverse aktiviteter som løping, jogging og sykling.

Den andre SDK-en er mer myntet på kommunikasjon og sosial interaksjon med andre enheter. Mulighetene som nevnes er blant annet håndtering av telefonsamtaler, tekstmeldinger og meldinger fra sosiale medier.

Når disse utviklerverktøyene blir klare vites ikke. Curie-modulen som Intel-toppsjefen viste fram i går var en prototyp. Ifølge dem selv kom den «rett fra laboratoriet», men prosessorgiganten lovet at Curie kommer på markedet i løpet av andre halvår 2015.

Brilleprodusenten Oakley er en av de første partnerne som innleder et samarbeid med Intel om utvikling av smarte dingser basert på den nye plattformen.

Slik floppet Amazons mobil

I fjor sommer lanserte Amazon sin første smartmobil. En kompetent nok enhet, med et par interessante funksjoner, og som seg hør og bør fra Amazon: Den fungerte som en portal til kjøp av Amazons mange produkter og tjenester.

Fire Phone ble imidlertid en flopp, og selv den ulåste versjonen koster i dag 189 dollar. På toårs-kontrakt er den så godt som gratis i USA.

Nettstedet Fast Company har nå undersøkt hva som egentlig skjedde hos Amazon i forkant av lanseringen, og hva som er planene videre for Fire Phone-plattformen.

For det er snakk om en plattform, sa den mektige Amazon-sjefen Jeff Bezos på en pressekonferanse i desember. Han ble konfrontert med floppen av mange amerikanske journalister, og svarte at selskapet vil investere mer ressurser i produktet, at de kommer til å lansere flere, forbedrede varianter, selv om det skulle ta flere år å endelig knekke koden.

Det er likevel ingen hemmelighet at investeringen har kostet mer enn det smakte. Amazon viste i fjor til sitt største tap på 14 år. Veksten dabber også av og dette bekymrer investorene, som lenge har vært vant til å se gjennom fingrene med Amazons underskudd.

Hva er så historien bak Fire Phone? Fast Company skriver at utviklingen startet i 2010, rundt samme tid som da Apple lanserte iPhone 4. I forkant av dette hadde Jeff Bezos bedt sine menn skissere ideer for prosjektet, og helt fra starten av skal mange av disse ideene vært i overkant optimistiske.

Bezos selv skal ha vært svært involvert i prosjektet, og målene har hele tiden vært å lage noe stort og spektakulært.

Det er allerede en kjent sak at Fire Phone ble utviklet i såkalte Lab126, der de fleste av selskapets prestisjefylte maskinvareprosjekter blir designet. Laboratoriet ledes av Gregg Zehr, en tidligere Apple-visesjef. Jeff Bezos selv skal ha vært jevnlig gjest hos Lab126, og når lanseringen nærmet seg, brukte han stadig mer tid hos designerne.

Alle avgjørelser angående Fire Phone skulle godkjennes av Bezos selv, han skal blant annet ha personlig insistert på at telefonen skulle ha 13 megapiksels-kamera fremfor 8 megapiksler.

Bezos innflytelse på prosjektet skal imidlertid ha blitt problematisk: Teamet følte etter hvert at de ikke bygde en telefon for den vanlige brukeren, men for sjefen selv.

Spesielt én funksjon skal ha blitt plagsom. Fire Phone har en 3D-funksjonalitet bygd inn i skjermen, der brukeren kan bevege på telefonen og bildet på displayet beholder samme perspektiv for brukeren. Dette var noe Bezos insisterte på, uansett hvor mye det kostet og hvor lang tid det tok. Løsningen ble fire kameraer som leser brukernes ansikt, men som koster mye batteri. Det mest ironiske var likevel at absolutt ingen hos Amazon klarte å finne på et ordentlig nyttig bruksområde for funksjonaliteten – dermed ble det noe som telefonen har, men som ingen strengt tatt bruker.


Jeff Bezos var tett involvert i utviklingen, og presset frem funksjoner ingen egentlig ville ha, skriver Fast Company.

I 2013 ble prosjektet så godt som startet på nytt, og planene inkluderte også en rimeligere telefon som kunne blitt lansert først. Jeff Bezos ville likevel ha en «premium» enhet, som skulle tiltrekke oppmerksomhet og gjøre Amazon like «kul» som Apple. Målet var å gjøre selskapet til noe mer livsstils-relevant, noe kundene kunne identifisere seg med. Per i dag oppfatter mange Amazon med respekt, men selskapet har mer rykte på seg for å levere produkter som fungerer enkelt og greit, men ikke blåser kundene av stolen med kul design og utrolig funksjonalitet.

Bezos presset utviklerne til å inkludere nye funksjoner til omtrent siste stund: Firefly-applikasjonen, som kan kjenne igjen fysiske objekter, musikk, skanne tekst, og lede brukerne til Amazons nettbutikk, var knapt ferdig da Fire Phone ble vist frem i fjor sommer.

Så kom lanseringen – og kritikken: For høy pris, for kjedelig design, svakt økosystem – og undødvendige ekstrafunksjoner, som dynamisk perspektiv.

Salget av telefonen skal ha vært på noen titalls tusen enheter før det første priskuttet kom.

Resultatet ble altså et stort tap for Amazon – men ifølge Bezos har de altså ingen planer om å gi seg og vil komme med flere smartmobiler. Spørsmålet er selvsagt hvor lang tid det tar før prosjektet blir en suksess. Bezos og Amazon har i det siste tatt stadig flere sjanser og forsøker å endre profilen sin fra en nettbutikk som «bare fungerer» til et visjonært teknologiselskap som eksperimenterer med droner og synlindriske høyttalere med stemmestyring. Kanskje vil deres kunder følge etter.

I mellomtiden er det i ferd med å skje endringer i Lab126 – det er etter sigende en del reorganiseringer på gang, med ledere som sier opp eller bytter stilling. Lab126 har vokst fra en liten, hemmelig gruppe designere til over 3000 personer, og beskrives av mange som oppblåst. Den uoversiktlige strukturen har ført til mange forsinkelser og lav effektivitet. Den pågående omorganiseringen er ønsket velkommen av mange, og kan gi mer effektiv produktutvikling, selv om flere er naturlig nok bekymret for fremtiden. Det er uansett ingen tegn på at Amazon har tenkt å roe ned på utviklingen, og flere helt nye produktkategorier skal være under arbeid hos Lab126 akkurat nå.

Fortsatt piratinnhold i Windows Store

Mandag for en drøy uke siden skrev digi.no at det selges tilgang til piratkopierte spill i Windows Store, Microsofts applikasjonsbutikk til Windows 8.x. Den gang kom Microsoft bare med en svært generell kommentar om at selskapet kontinuerlig jobber for å forbedre kvaliteten i butikken.

Fortsatt er de samme spillene tilgjengelige i applikasjonsbutikken, men det vil ikke vare så mye lenger.

– Titlene digi.no spør om bryter med Microsoft sine retningslinjer og er i ferd med å bli fjernet, skriver kommunikasjonsdirektør i Microsoft Norge, Christine Korme, i en e-post til digi.no.

Korme svarer nå langt mer utfyllende om hvilken grad Microsoft kontrollerer appene før de publiseres.

– Microsoft sertifiserer hver app før de publiseres. Ingen systemer er perfekte, så vi bruker en rekke mekanismer for å løse eventuelle problemer. En applikasjon kan for eksempel presentere innhold etter publisering som ikke var tilstede under sertifisering. Noen ganger er spørsmål reist av kundene via koblingen «Rapporter bekymring til Microsoft» i Windows Store. Andre ganger kan vi identifisere saker gjennom vår egne mekanismer. Microsoft har også online-verktøy og emailalias (reportapp@microsoft.com), slik at utviklere raskt kan rapportere om brudd på det de måtte finne for umiddelbar gjennomgang og, eventuelt fjerning, skriver Korme.

Digi.no har forsøkt å få en kommentar fra flere av spill-leverandørene som er berørt i dette spesifikke tilfellet, men knapt noen har ønsket å uttale seg. Unntaket er Giants Softsware som i alle fall bekreftet at selskapet var kjent med dette fra før.

Selv om det sikkert er noen som bevisst har kjøpt de aktuelle titlene i Windows Store for å få enkel tilgang til piratutgaver av spillene, kan det være at noen har kjøpt titlene i tro om at det var legitime utgaver.

– Microsoft refunderer mer enn gjerne kostnaden for en nedlastning som viser seg å ha feilaktig innhold. Kunder kan kontakte kundestøtte for Windows Store for å få refusjon, opplyser Korme.

Skal sikre bedre geodata på weben

World Wide Web Consortium (W3C) kunngjorde i går et samarbeid med Open Geospatial Consortium (OGC) om å forbedre interoperabiliteten og integrasjonen av geodata på weben. Slike data, som beskriver både naturlige og konstruerte formasjoner, samt geografiske posisjoner for Jorden, brukes allerede i svært mange sammenhenger, både på og utenfor weben. Det er et stort marked for slike data – beregnet til 1600 milliarder dollar årlig i USA alene – men i dag er det er ofte vanskelig å integrere slike data inn i webbaserte datasett og tjenester.

Ed Parsons, en geodataspesialist hos Google som skal lede W3Cs Spatial Data on the Web Working Group, sier i en pressemelding at posisjon ikke bare tilbyr kontekst til mye av informasjonen som finnes på internett i dag, men at slik informasjon vil være helt nødvendig for kommende, nett-tilkoblede enheter.

– Gjennom dette samarbeidet håper vi å gjør forståelsen av geospatial kunnskap til en fundamental webkomponent, sier Parsons.

I pressemeldingen nevner W3C et par eksempler på hvilke problemer man vil forsøke å løse.

– For eksempel kan man bruke et geografiske informasjonssystem (GIS) til å finne «den nærmeste restauranten», men i dag er det vanskelig, på en skalerbar måte, å assosiere denne restauranten med brukerkommentarer. Tilsvarende passer ikke konsepter som er mye brukt på weben, slik som «the United Kingdom», overens med geografiske konsepter definert i et GIS, noe som betyr at webutviklere går glipp av viktig informasjon som er tilgjengelig i GIS-ene. Ved å lage en bro mellom GIS-ene og weben vil man må en nettverkeffekt som beriker begge verdener, skriver W3C.

BBC
– Stedsbestemmelse spiller en viktig rolle for BBC Online, ikke minst i forbindelse med vårt ansvar om å tilby rettidig informasjon om vær, reiser og lokale nyheter, sier Chris Henden, som er ansvarlig for posisjonstjenester ved BBC Future Media, i en pressemelding.

– Dette har betydning på tvers av tjenesten, fra kart som viser steder av betydning under første verdenskrig til detaljert kontekst for «breaking news». Henter data fra ulike tredjeparter, for deretter å transformere, tilpasse og gjøre det tilgjengelig for våre frontend-tjenester. Dette er et merkbart gap som kan kreve betydelig og gjentatt innsats, som ikke alltid er vellykket eller mulig. Derfor er dette samarbeidet mellom OGC og W3C mer enn velkomment, sier Henden.

Seminar
I mars i fjor arrangerte de to organisasjonene et seminar i London hvor drøyt hundre deltakere diskuterte nettopp bruk av geodata på weben. Basert på konklusjonen fra disse diskusjonene skal samarbeidet som nå har blitt kunngjort sikre at utgivere at geodata, applikasjonsutviklere og tilbydere av tjenester basert på slike data kan etablere felles praksis og redusere kostnadene forbundet med integrasjons av geodata på weben.

Gjennom samarbeidet skal de to fellesskapene også dokumentere brukereksempler og -krav, utvikle «best practices» for publisering av geodata på weben, samt fremme noen eksisterende teknologier som W3C- og OGC-standarder.

Dette omfatter blant annet å identifisere hvordan maskiner og mennesker kan oppdage at ulike fakta i forskjellige datasett er relatert til det samme stedet, spesielt dersom stedet er uttrykt på ulike måter og med ulike nivåer av filkornethet.

Arbeidsgruppen i OGC skal ledes av Kerry Taylor fra den australske forskningsorganisasjonen CSIRO (Commonwealth Scientific and Industrial Research Organisation).