Archive for November 6, 2014

Bekrefter at skjelett funnet i oktober er fra kongesagaene

– Dette er utrolig spennende resultater. Her har arkeologien bekreftet hendelsene i kongesagaen, sier riksantikvar Jørn Holme, om analysene av skjelettfunnet fra 17. oktober.

Skjelettet ble funnet i brønnen på Sverresborg museum i Trondheim. Ifølge kong Sverres saga ble en birkebeiner dumpet i brønnen i 1197. Analyser daterer skjelettet til 1100-tallet.

Mann mellom 35 og 40 år

Videre analyser av beinrestene viser at levningene er etter en mann i 35-40-årsalderen. Kroppen sluttet å puste for mer enn 800 år siden.

– Vi er rimelig sikre på at skjelettet i brønnen kan knyttes til de dramatiske fortellingene i sagaen da Sverresborgen ble ødelagt, sier riksantikvaren.

Skulle forgifte vannforsyningen

I sagaen om kong Sverre blir det skrevet at en død mann ble kastet i brønnen etter at baglerne inntok borgen. Dette ble, slik riksantikvaren sier det, trolig gjort for å forgifte vannforsyningen til borgen. I kongesagaene står det.

«Baglerne tok alt gods som var i Borgen, og siden brente de hvert eneste hus som var der. De tok en død mann og slengte han i brønnen. Så heiv de stein ned i til den var full. De kalte bymennene ut for å bryte ned alle steinveggene helt til grunnen før de ga seg. Alle kongens langskip brente de før de dro bort. Etter dette tok de veien til Opplanda igjen. De synes de hadde skaffet seg bra med gods på denne ferden.»

Funnet i 1938

Nå har en altså funnet mannen som ble kastet i brønnen. Det kunne blitt klart langt tidligere – for skjelettet ble funnet allerede i 1938.

– Skjelettet ble først oppdaget i 1938, da i forbindelse med en arkeologisk undersøkelse ledet av arkitekt Gerhard Fischer og Sigurd Tiller, sjef for Folkemuseet på Sverresborg, melder riksantikvaren.

Men skjelettet ble aldri undersøkt, før brønnen så ble fylt igjen. En ny utgraving avdekte skjelettet i oktober, og onsdag ble det klart at en trolig har funnet levninger som er omtalt i Sverres saga, kongesagaen skrevet av islandske Karl Jonsson.

Hun vil ha billigere fiber

FORNEBU (digi.no): Kristiansand er landets beste digitale kommune, ifølge Nordic Broadband City Index 2014. Undersøkelsen utarbeides av Nexia på oppdrag for Telenor hver annet år. Den første kom i 2012.

Sverige på topp
Egentlig er det en skandinavisk undersøkelse, som er gjort på oppdrag for Telenor.

Her er de 15 største kommunene i henholdsvis Norge, Sverige og Danmark målt på utviklingen i digitale tjenester og på tilrettelegging for utbygging av mobil infrastruktur og faste linjer.

Linköping topper listen, med Västerås på sølvplass.

Og beste norske tar bronseplassen i Skandinavia.

Sliter med kostnader
Hovedfunnene er at noe går rett vei, mens annet går tregere, sett med IT- og telekombransjens øyne.

Oppturen er noe mer utbredelse av digitale tjenester. Det er vesentlig for økt etterspørsel av bredbånd.


Nexia-rapporten viser utviklingen i de store skandinaviske kommunene når det gjelder digitale tjenester og tilrettelegging for mobil og fast infrastruktur.

Men selv om det bygges ut mye mobil infrastruktur og fiber, sliter utbyggerne med:

  • Steder å plassere basestasjoner uten at leieprisen er for høy til at det er lønnsomt.
  • Høye og varierende gravekostnader ved fremføring av fiber

Detaljene i rapporten finner du her (pdf).

Bremseklosser
Direktør Berit Svendsen i Telenor Norge anklager kommunene for å være bremseklosser.

– Norske kommuner skal ha ros for å være pådrivere for økt digitalisering, men det er et paradoks at mange også er bremseklosser for utbygging av mobilt og fast bredbånd.

Infrastrukturen er en forutsetning for en rekke tjenester som er viktige for norske kommuner, som trygghetsalarmer, sier Svendsen.

Svinger pisken
Hun kommenterte undersøkelsen på Telenors fagsamling «Status Teknologi-Norge» onsdag ettermiddag.

Her var også samferdselsminister Ketil Solvik-Olsen (Frp) invitert.

Og han lover å svinge pisken mot kommuner som tviholder på tradisjonelle regler for kabelgrøfter.

Tause kommuner
Statsråden har tidligere sendt et brev til alle norske kommuner og bedt om en velvillig holdning til nye metoder, som mikrotrenching med fresing av grunne spor. Dette er langt billigere enn dype grøfter med utskifting av masse.

– Jeg har ikke fått svar fra noen kommuner, så nå varsler jeg bruk av pisken. Det vil si at det kommer regler og forskrifter for å få ned gravekostnadene, sier Solvik-Olsen

Her noen hovedfunn fra undersøkelsen:

  • Innenfor digitale tjenester har den gjennomsnittlige poengsummen for alle kommuner økt fra 6,0 i 2012 til 7,0 i år. Samtlige norske byer har nå elektronisk barnehagesøknad, byggesøknad, e-faktura og sikker kommunikasjon.
  • Årets indeks omfatter også velferdsteknologi og e-helse. De fleste byene i Norge og Danmark er rimelig forberedt på innføring av digital velferdsteknologi, og noen norske og mange danske byer har lansert nye tjenester.
  • Fire av de fem beste kommunene på digitale tjenester er norske, med en framgang fra 5,9 i snitt i 2012 til 7,5 i 2014. Bærum og Trondheim har høyest score på digitale tjenester med 9,1 poeng, med Asker rett bak (8,9 poeng).
  • I alle landene er det tilbakegang på tilrettelegging av mobil infrastruktur. Dette området har den laveste poengsummen i indeksen. Det er vanskeligere å få plassert ut mobile basestasjoner på offentlig eiendom og bygg. Mange offentlige tjenester, spesielt innen velferdsteknologi, er avhengig av god arealdekning og robuste mobilnett med høy oppetid. Undersøkelsen viser at det er nesten dobbelt så mange mobile basestasjoner på kommunal eiendom i de svenske byene som i de norske, 23 prosent mot 13 prosent.
  • Svenske kommuner har høyeste poengsum for fast infrastruktur, hovedsakelig fordi de viser en bedre forståelse for dette og i større grad åpner for mikrotrenching. Metoden innebærer fremføring av fiber der det freses et snitt i grunnen hvor fiberkablene legges ned. Ingen norske kommuner tillater mikrotrenching, men noen har piloter.

Slik vil Dell revolusjonere datasentre

SKØYEN (digi.no): Dell introduserer i dag en helt ny form for serverløsninger, som skal kombinere det beste av rack- og blade-servere i ett produkt.

Produktet heter PowerEdge FX2, noe som helt konkret står for «Flexible Rack Unit 2U». Den nye arkitekturen er, ifølge Dell, en revolusjonerende måte å tilnærme seg konvergens og felles infrastruktur, med én plattform som kan bygges ut og skaleres.

Med stadig mer fokus på hyperkonvergerte løsninger og skyløsninger og mye mer automatisering i datasentrene, mener Dell at all deres erfaring med datasentre og servere kommer eksplisitt til nytte i FX-produktserien.

Poenget til Dell er at servervirtualisering er noe «alle» gjør, men fortsatt så henger nettverk og lagring litt igjen, og det å samle alt det i én løsning er en av veiene inn i fremtiden rundt «software defined storage» og networking. Meningen er å automatisere, gjøre det lettere å implementere ting, og gjøre det rimelig.

FX2-plattformen syr rack- og blade-servere sammen til én løsning. Der har man lagring, nettverk, servere, operativsystem, virtualisering, og applikasjoner på toppen. Og man administrerer alle deler av det i én og samme konsoll, noe som gjør det betydelig enklere å styre.

Dell påpeker at fordelene med rack er at man kan kjøpe en og en, siden det er standard størrelse på dem, det er enkelt å sette opp, og faller en ut så er det bare å sette inn en ny en. På blade-siden – som Dell har vært forkjemper for – har man en helt annen tetthet, enklere «management», og plass til flere servere i en chassis.

Men det er samtidig ulemper med begge løsningene: Rack tar mye plass, krever mye strøm og kjøling og får en dårlig tetthet, mens på blade-siden er problemet at når et helt chassis skulle falle ut, er det mange servere der som blir uten tilkobling til omverdenen. Man har heller ikke mulighet til å sette inn PCI-kort for GPUer og lignende ekstrautstyr på blade-servere.

Dell har derfor tatt det beste ut av begge leire og satt det sammen til én løsning. Det er snakk om en 2U-rackbasert konvergert plattform, hvor servermodulen er hentet rett ut av blade-verdenen, og det er samme type server som selskapet bruker i de større bladechassisene. Det er helt standard utforming på maskinvaren når det gjelder høyde, bredde og dybde.

Utformingen er samtidig modulær, og kan settes sammen som Lego-klosser, der man kan bygge opp løsningene slik man ønsker det, og bygge på dem videre ettersom behovene skulle øke, slik at kundene slipper den høye engangs-kostnaden.

Dells Arild Hansen forklarer til digi.no at alle elementene i løsningene kan byttes ut hvis noe skulle gå i stykker uten å måtte ta ned serverne, og det finnes PCI-tilkoblinger på baksiden slik at man kan koble til ekstrautstyr som GPUer eller mer lagring. Alle modulene stammer for øvrig fra 13. generasjons servere til Dell.

I samme slengen lanserer Dell også sin første mikroserver med full management. Denne har ikke Haswell-brikker, men Intel Atom CPUer, og det er en «system on a chip»-server med én CPU og 8 GB minne. Det passer bra for tilbydere som har mange små kunder, der hver kunde kanskje vil ha en egen server, mener Dell.

Det koker ned til at man kan gjerne få plass til fire ganger så mange noder som i tradisjonelle rack-servere til samme prisen og på samme plass.

Dells Per Kristoffersen oppsummerer lanseringen ovenfor digi.no: – Tankegangen er å pakke det hele mye mer komprimert, og du får både management-fordeler og prisfordeler. Det er det som driver utviklingen. Penger er én ting, men det med tid er noe alle våre kunder er alltid presset på. Vår oppgave er å finne opp og utvikle løsnigner som kan automatisere den daglige driften.

– Vi tror at dette er superaktuelt for mediumkunder og storkunder. De er hele tiden på jakt etter utnyttelsesgraden på datarommet sitt, noen planlegger å utvide eller bygge nye datarom, og denne type teknologi kan spare dem for flerfoldige millioner, når man får mer tetthet og mer kraft, eller tilsvarende kraft. Så vidt vi vet er det ingen andre som har den type løsning på markedet, sier Kristoffersen.

Den nye PowerEdge FX2-plattformen skal være tilgjengelig mot slutten av året, eventuelt tidlig neste år.

Knusende om IKT i helsesektoren

Da Bent Høie for ett år siden ble helseminister, ba han om å få utarbeidet en tilstandsrapport over IKT-situasjonen i norsk helsevesen. Den rapporten har han fått nå, og han beskrev innholdetEHiN-konferansen i går slik:

«Jeg ser at vi har noen krevende utfordringer. Utfordringer som er krevende hver for seg, men som også forsterkes av hverandre».

Dette er mildest talt et «understatement». Rapporten om IKT-utfordringene er knusende i sitt innhold. At den er grundig, reflektert, holdt i et sobert språk og utarbeidet av Helsedirektoratet selv (og ikke av et konsulentfirma som ellers er vanlig i offentlig sektor), gir den ekstra tyngde. Helsesektoren skal ha ros for å ha en åpen og reflektert over sine utfordringer.

Dette var noe av bakteppet for den store EHiN-konferansen (E-Helse i Norge) som Helse- og omsorgsdepartementet (HOD) arrangerte i samarbeid med IKT Norge med over 600 deltagere.


Arild Haraldsen er fast kommentator og spaltist i digi.no.

Departementsråd Bjørn-Inge Larsen fra HOD åpnet konferansen med å henvise til at Norge hadde vært tidlig ute og langt fremme med å ta i bruk IKT, men har de siste tiårene sakket akterut. Noe av problemene skyldes selve styringsstrukturen i helsesektoren. Den er «ikke elegant organisert» – som han uttrykte det – men tvert om lite samordnet og helhetlig, og fremstår fragmentert overfor pasienter og pårørende. Eller som rapporten sier:

«Sektoren er preget av mange aktører selvstendige aktører som i hovedsak foretar egne prioriteringer ut fra lokale behov og målsettinger. Samtidig som IKT-ressursene og – kompetansen er spredt i mange miljøer med mange beslutningstakere.»

Det er et behov for sterkere nasjonal styring og bedre samordning av et så viktig område, mente han.

IKT-utfordringene
Assisterende helsedirektør eHelse Christine Bergland gikk mer direkte inn på utfordringene slik de er fremkommet i Tilstandsrapporten. Her er noen av de viktigste funnene målt opp mot de målsetningene som er gitt i Stortingsmelding 9: Èn innbygger – en journal (pdf).

  • Dagens IKT-systemer understøtter ikke arbeidsflyt og helhetlige pasientforløp, særlig på tvers av virksomhetsgrenser.
  • Pasientinformasjon er i stor grad ustrukturert og det mangler felles terminologi og begrepsapparat.
  • IKT-systemene mangler funksjonalitet for å understøtte beslutningsstøtte og kvalitetsforbedring.
  • Det finnes ingen autorativ elektronisk pasientjournal. Informasjon blir gjengitt i fritekst i hovedjournalen.

På sidene 19 – 21 i rapporten er disse svakhetene målt opp i mot i hvilken grad man når målsetningene i St.meld 9. Svarene er nedslående:

IKT-systemene slik de er i dag, vil i liten grad bidra til å nå målene.

I tillegg er det utarbeidet en konsulentrapport (Gartner) som konkluderer med at norske og nordiske IKT-leverandører ikke leverer den funksjonalitet som er påkrevet.

Styringsutfordringer
Rapporten går grundig gjennom organiseringen av helsesektoren gjennom de senere år i lys av de politiske føringer og ambisjoner som er lagt til grunn, og konkluderer blant annet med: «Mangler i eller mangelfull styringsmodell medfører trolig lav samfunnsøkonomisk lønnsomhet i tiltakene». Videre heter det:

  • Dagens styringssystem er ikke tilpasset behovet for å gjennomføre helhetlige og koordinerte IKT-tiltak.
  • Det mangler en beslutningsmodell for initiering og finansiering av strategiske tiltak over en viss størrelse.
  • Finansieringsmodeller for felles IKT-løsninger er til dels uklare og det benyttes forskjellige modeller for ulike fellesløsninger.
  • Standarder for IKT, terminologi og kravspesifikasjoner er i liten grad tatt i bruk. DIPS (Distribuert Informasjons og Pasientdatasystem i Sykehus) som er den mest brukte programvaren i sykehussektoren i dag, brukes i forskjellige versjoner sykehus og regioner i mellom).
  • Nasjonal IKT har ikke realisert synergier på tvers av regionale helseforetak i henhold til intensjonene formulert i Styringsdokument fra 2003.

Med andre ord er det mye å ta fatt i. Ett av tiltakene kan være sterkere styringsgrep på nasjonalt nivå av helsesektoren. Dette var da også tema for den avsluttende paneldebatten under konferansen.

Paneldebatt om utfordringene
Deltagerne – som nok ikke hadde satt seg godt inn i disse rapportene siden de er helt ferske (offentliggjort 21.10), var enige om at veien å gå ikke er å legge ansvaret til ett organ med tilstrekkelige fullmakter og midler for gjennomføring på langs og tvers i sektoren. Flere pekte i stedet på forsterkning av de mer indirekte styringsmidler, gjennom lovgivningen, pålegg om bruk av standarder, bedre incentivopplegg og klarere kostnadsberegninger for gjennomføringen.

Særlig er det å merke seg tre forslag:

  • Roger Schjerva fra IKT-Norge mente en kunne øremerke en del av de midlene som nå blir tilbakeført til fellesskapet ved å redusere driftsutgiftene i etatene (0,5 prosent som tilsvarer 1,4 milliarder kroner, se min kommentar til statsbudsjettet om dette)
  • Trude Andresen fra KS mente kommunesektoren i sterkere grad måtte komme inn som en likeverdig partner med statlige helseforetak, og ikke bli invitert «til dialog med», det vil si å delta på helseforetakenes egne premisser.
  • Flere mente også at bestillerkompetansen måtte økes ved anskaffelse av IKT-systemer, og at anskaffelsesreglementet bør endres og i alle fall utnyttes bedre – noe KS pekte på at det var det anledning til allerede i dag med dagens regelverk.

Visjonen om et fremtidig eHelse-Norge
Bakgrunnen for denne diskusjonen er jo «eldrebølgen». Det vil si at kravet til, og omfanget av, omsorgstjenester øker radikalt i årene som kommer. Men det er kanskje galt utelukkende å ha dette som bakgrunnsbilde: Faktum er at markedet for ikke bare helsetiltak til syke og eldre øker, men at det totale marked for helse- og sunnhetstiltak til hele befolkningen øker. Økt oppmerksomhet på kosthold, trening, følge opp egen helse et cetera, vil i nærmeste fremtid utgjøre et stort marked.

Geir Jacobsen fra Innovasjon Norge dro derfor opp en sammenligning med etableringen av oljesektoren i sin tid. Da sto man ovenfor upløyd marked, men gikk inn i et samspill mellom privat og offentlig sektor og skapte i løpet av kort tid et oljeeventyr – ikke bare i form av olje- og gassproduksjon, men ved å ha skapt verdensledende teknologi og leverandører som konkurrerer på et globalt marked.

Han så derfor for seg tilsvarende i helsesektoren: et samspill mellom privat og offentlig sektor over landegrensene for å skape et helhetlig nordisk marked for helsetjenester. Flere andre var også inne på at man i større grad kunne gjøre seg nytte av det man hadde oppnådd i Danmark og Sverige. Kanskje kunne da dette en helsefaglig «eksportartikkel» i årene fremover, slik leverandørene i oljeindustrien har opplevd.

EHiN-konferansen bør bli en tankevekker for så vel helsepersonell, politikere og IKT-leverandører. Konferansen ble stramt og elegant styrt av Nard Schreurs fra IKT-Norge. Har vi svaret på utfordringene i neste års EHiN-konferanse?

Informasjon om debattinnlegg og kronikker i digi.no

Alle innlegg må sendes til redaksjon@digi.no. Husk å legge ved et portrettbilde. Vi forbeholder oss retten til å redigere innsendt materiale.

Hjertet av en målbar nettstrategi

Etter å ha jobbet 15 år med content management leste jeg Helge Skriverviks innlegg om «CMS utgått på dato» med stor interesse. Jeg må si med enig med en del av det han skriver, men må innrømme at jeg mener konklusjonen ikke stemmer med realitetene.

For å ta det jeg oppfatter som det underliggende budskapet er at informasjonen må gjøres lettere tilgjengelig. Det er alt for mange systemer som ikke har klare mekanismer for enkel utveksling av informasjon. Jeg mener at utveksling per definisjon skjer mellom systemer. Informasjonen som lever i CRM, ERP og DAM vil fortsatt ha sin rett, men kravene til tilgjengelighet har endret seg. Det skal være enkelt å hente ut informasjon. Så åpenheten som Helge nevner er jeg helt enig i.

Videre har Helge også rett i at trender som tingenes internett (internet of things), digitale tjenester og store datamengder har endret og vil videre endre kravene til systemene vi bruker. Og han har rett i at leverandører som sover i timen dessverre ikke har noen lys fremtid. Vi lever i en verden der det ikke er mer enn 5-6 år siden verdens suverent ledende mobilprodusent het Nokia, som ikke lenger eksisterer.


Aleksander Farstad er adm.dir og medgründer i eZ Systems.

Jeg må si at jeg ikke er enig i det semantiske skiftet at Content Management vil bli Data Management. La oss starte med noen definisjoner

  • Data er per definisjon rådata uten nødvendig mening, struktur eller semantikk.
  • Informasjon kan i denne sammenheng sees på å forstå hva dataene representerer – super relevant når vi snakker om analyser og data fra internet of things.
  • Content kan sees på som en håndterbar mengde informasjon. Knyttet med semantikk, metadata, versjonshåndtering og så videre. Eller foredlet data om du vil.

Men dette er ikke en diskusjon om semantikk. En trend vi hører om i dag er Content-as-a-Service (CaaS), som du kan lese mer om her. CaaS kan sees på som enkel utveksling av innhold. Det er jo ikke noe annet enn strukturert innhold som enkelt kan flyttes mellom ulike system, noe som er velkjent innen media hvor syndikering av innhold er vanlig.

Vi har sett flere trender gjennom de siste 15 årene. Fra de første årene da Content Management handlet om publisering og websider, til tiden da sosiale medier var hypet, til mobile tjenester og apper og digital markedsføring og content as a service. Dette er to parallelle trender vi ser for data innen Internet-of-things og big data og content as a service. Uten at noen av dem kommer til å erstatte hverandre. Derimot må de må spille sammen.

Heller enn at Content Management Systemet blir mindre relevant, ser vi at det mer relevant enn noen gang. Et moderne CMS er bygd for content-as-a-service, med åpne standarder og grensesnitt. Dette blir limet, selve kjernen i digitale løsninger. Det som binder dem sammen, skaper frihet og muligheter, samt sørger for at man kan optimalisere verdien av innhold og data.

Big content
Det er mye snakk om big data, men et viktigere begrep vil jeg si er big content. Hvor man har semantikken, strukturen, relasjonene og kan si noe om dataene. Et moderne CMS sørger for at innhold er åpent og tilgjengelig, at det kan gjenbrukes over ulike løsninger og kanaler, at det kan analyseres og presenteres, at det kan optimaliseres, at det kan være med å skape merverdi ut av innholdet.

Jeg synes også konklusjonen til Helge faller litt sammen ved å bruke WordPress som et eksempel. WordPress gjør jo det motsatte og lagrer «data» og ikke innhold. Det vil si at de lagrer formatert innhold i form av HTML og ikke informasjon som kan gjenbrukes. Dette er jo hele prinsippet til åpen informasjon. Han har rett i at WordPress er et enkelt publiseringssystem og brukes deretter. Men da går man også glipp av mange muligheter for å skape merverdi ut av sitt innhold.

En ting som er sikkert er at utviklingen ikke vil stå stille. Men jeg er sikker på at data i fremtiden ikke vil være det samme som innhold, og at vi som jobber med innholdssystemer vil måtte tilpasse oss for å sørge at vi kan fortsatt hjelpe våre kunder med å skape merverdi. Hvis ikke er jeg helt sikker på at vi vil få samme skjebne som Nokia.

Informasjon om debattinnlegg og kronikker i digi.no

Alle innlegg må sendes til redaksjon@digi.no. Husk å legge ved et portrettbilde. Vi forbeholder oss retten til å redigere innsendt materiale.

– Få meldingstjenester er sikre

Direkte fjernkommunikasjon mellom mennesker skjer i mindre grad med vanlig eller mobil telefoni enn tidligere. Stadig flere benytter én eller flere internett-baserte kommunikasjonstjenester. Men det siste årets avsløringer om massiv overvåkning antyder at det kan være ukjente som også avlytter kommunikasjonen.

Den digitale rettighetsorganisasjonen Electronic Frontier Foundation (EFF) den sammenheng vurdert en rekke mer eller mindre kjente kommunikasjonsverktøy med utgangspunkt i personvern og sikkerhet. Funnene har blitt presentert på en resultatsliste som er tilgjengelig her.

– Mange nye verktøy hevder å beskytte deg, men inkluderer ikke kritiske egenskaper som ende-til-ende-kryptering eller sikker sletting. Resultatlisten gir det faktaene du trenger for å velge riktig teknologi til sending av meldingen din, sier Peter Eckersley, direktør for teknologiprosjekter ved EFF, i en pressemelding.

EFF har studert omtrent 40 applikasjoner for enten utveksling av tekstbaserte lynmeldinger, for lyd- og videosamtale, e-post eller en kombinasjon av dette. Det har blitt sett nærmere på syv ulike, sikkerhetsrelaterte faktorer, inkludert om meldingene er krypterte både via internett og hos leverandøren, og om kildekoden er revidert og åpen for uavhengig gjennomgang.

6 av 40
Bare seks verktøy fikk full poengsum, altså syv poeng. Dette var ChatSecure, CryptoCat, Signal/Redphone, Silent Phone, Silent Text og TextSecure. Ingen av de mest kjente tjenestene fikk full poengsum, men Apples iMessage og FaceTime fikk i alle fall fem poeng. Det som mangler er mulighet for uavhengig gjennomgang av kildekoden og mulighet for verifisering av identiteten til kontakter.

En klar svakhet hos mange av tjenestene, inkludert Facebook Chat og Google Hangouts, er manglende kryptering på tilbydersiden. Det betyr at meldingene i praksis kan leses av andre, kanskje også uten rettskjennelse.

Enda verre er det med tjenester som QQ, Mxit og desktop-utgaven av Yahoo Messenger. Disse har ingen kryptering over hodet.

– Vi er fokusert på forbedring av verktøyene som vanlige brukere trenger for å kommunisere med venner, familiemedlemmer og kolleger, sier Nate Cardozo, en advokat ansatt i EFF.

– Vi håper at Secure Messaging Scorecard vil starte et kappløp om å nå toppen og bidra til innovasjon innen sterkere og mer brukervennlig kryptografi, sier Cardozo.

Google åpner «hurtigfil» til skyen

Google arrangerte i går konferansen Google Cloud Platform Live i San Francisco og kunngjorde i den forbindelse en rekke nettsky-relaterte nyheter.

Den ene nyheten er introduksjonen av tre nye tilkoblingsmuligheter som skal tilbys bedriftskunder som ønsker raskere eller sikrere tilgang til tjenester selskapene har i Google nettsky.

Den ene metoden er direkte «peering». Det vil si at kunden kobler sitt nettverk direkte til Googles nettverk. Dette er mulig ved drøyt 70 steder i 33 ulike land. Selve oppkoblingen er gratis, men kunden betaler mellom 0,04 og 0,06 dollar per gigabyte som sendes ut av Google nettsky via peering-forbindelsen.

Google sammenligner dette med at kundene kan opprette sin egen, private ekspressfil på en ellers overfylt motorvei, altså det vanlige internett. Denne muligheten skal være spesielt rettet mot selskaper som har behov for å overføre og prosessere store mengder data svært raskt.

Ifølge Wall Street Journal er dette noe Amazon og Microsoft allerede tilbyr, og som Google har manglet.

En alternativ metode er å koble seg til Google nettverk ved hjelp av «Carrier Interconnect», det vil si gjennom utvalgte tjenestetilbydere som er direkte tilknyttet Googles nettverk. Det er mulig å benytte VPN-tunneler mellom nettverkene. Google krever samme pris for dette som ved direkte peering, men i tillegg kommer avgifter fra tjenestetilbyderen. Foreløpig er det sju selskaper som tilbyr dette.

Den tredje, nye muligheten er VPN-forbindelse via internett. Denne tjenesten skal ifølge Gigaom først lanseres i januar 2015. Den vil ikke gi høyere fart, men sikkerheten forbedres.

Konteinere
En annen, ny tjeneste Google introduserte i går, er Google Container Engine. Foreløpig er denne dog på alfa-stadiet og dermed ikke egnet for produksjon. Løsningen er basert på verktøyet Kubernetes for administrasjon av konteinere i klynger, og Docker-konteinere. I praksis setter Google Container Engine sammen en gruppe med virtuelle maskiner av typen Google Compute Engine til en klynge som konteinerne kjøres på toppen av.

Både Docker og Kubernetes er basert på åpen kildekode. Begge støttes av en stadig økende mengde av tjeneste- og programvaretilbydere, inkludert IBM, Microsoft, Red Hat og VMware. Dette skal gjøre det enkelt for kunder å flytte applikasjonene mellom ulike hostingmiljøer.

Google opplyser at også Google Container Engine er designet for mobilitet fra bunnen av, for eksempel å flytte den mellom en lokal installasjon i bedriften og en offentlig nettsky, ja til og med la den kjøres på tvers av flere ulike, offentlig nettskyer.

Knyttet til PaaS-tjenesten (Platform as a Service) App Engine har Google kommet med en betautgave av Managed VMs, som gjør det mulig å kjøre App Engine-baserte applikasjoner på virtuelle maskiner som kundene til en viss grad kan konfigurere, blant annet ved å legge til tredjepartsbiblioteker og -rammeverk, samt valg av minnestørrelser og CPU-er.

I tillegg til en rekke andre nyheter, kunngjorde Google i går priskutt på mellom 23 og 79 prosent på utgående nettrafikk, lagring og database.

Derfor kjører NRK i nettskyen

MARIENLYST (digi.no): NRK har lenge vært i front med sin satsing på internett, med strømming av video og radio, mobilappliksjoner og tilknyttede løsninger. TV-appen rulles ut til stadig flere plattformer, sist i høst for en rekke smarte TV-er samt Chromecast. Mer er på vei.

Store deler av NRKs web-tv hviler på virtuelle servere i en nettsky. De opplever at det er mer effektivt, fleksibelt og antakelig også billigere enn alternativene.

digi.no treffer rikskringkasterens sjef for teknologi og utvikling, Andreas Munkelien, en kjølig november-formiddag på Marienlyst, for å høre mer om satsingen.

– Medieutvikling består av rundt 70 fast ansatte og en del innleide konsulenter. Vi utvikler nrk.no, NRK TV- og radio, altså avspillerne publikum finner på tv.nrk.no og radio.nrk.no, i tillegg til yr.no og ut.no. Vårt hovedfokus er å levere innhold og opplevelser for publikum på nett, brett, mobil/app og noe Smart-TV, sier Munkelien.

– Hvordan bruker vi kreftene våre best? Vi ønsker å jobbe så effektivt og godt som mulig og valg av utviklingsmetodikk og gjennomføring er viktig for oss. Vi trenger å ta høyde for nye metoder rundt «continuous integration», testing, tilgjengelighet, utrulling og drift som bidrar til at publikum får bedre kvalitet og oppetid.

Allerede for noen år siden valgte NRK å gå for Microsofts skyplattform Azure. Hvorfor det?

– Det gjorde at vi ganske tidlig i fasen med nye NRK TV trengte et nytt regime rundt utfordringen ved å at vi ikke kunne sitte og kode i tre uker, så vente tre uker på utrulling. Vi måtte få til en smidigere arbeidsform med en høyere effektivitet. Vi har alltid hatt et godt samarbeid med Microsoft, og teknologivalget vårt innenfor TV-avspilling er Microsoft .Net C#, vi valgte å fortsette å holde på denne teknologien og fant løsningen for å kunne jobbe bedre med utvikling og drift i skytjenesten Microsoft Azure.


Andreas Munkelien er teknologi- og utviklingssjef hos NRK.

– Vi vurderte om vi skulle bygge opp en stor infrastruktur selv, men er en mediebedrift så det spørs om det å eie store serverhaller bør være vår hovedgeskjeft.

– Klart vi har store serverrom her på huset også, som alle andre store bedrifter, men når det gjelder NRK TV- og radio, ut.no, så ligger alle i skytjenesten. Så har vi en del andre tjenester som driftes andre steder. Funksjonaliteten i Azure hjelper oss til å være effektive ved at mange av verktøyene man bruker for å administrere og vedlikeholde tjenesten er integrert i arbeidsverktøyet vi bruker til utvikling. Vi kunne helt sikkert ha lagt denne koden ut i andre skyløsninger, men da ville vi ikke fått det så tett integrert i arbeidsprosessen vår og det var et viktig kriterium. For vår del har det også hjulpet på å bli bedre til å utvikle kode.

Har det vært andre leverandører i bildet enn Microsoft?

– Vi hadde et åpent anbud på dette. Som offentlig institusjon er vi pliktige til å forholde oss til anbudsreglene ved anskaffelser, og det var Avanade på vegne av Microsoft som vant konkurransen. Alt er gjort i en helt åpen form, men vi gjør våre teknologivalg basert på en kombinasjon av hva vi tenker er teknisk best og som gir best nytte for publikum.

I hvilken grad har nettskyen gitt NRK økonomiske innsparinger?

– Vi ruller vel ut noe sånt som 70 til 100 servere i måneden i forbindelse med utvikling, stage og drift som er helautomatisert i Azure. Dette ville kreve mye ressurser å gjøre internt. Når man ser på funksjonaliteten vi får og effektiviteten vi ser i utviklingsløpene så er vi ganske sikre på det er en innsparing. Regnestykket i forhold til innsparinger er komplisert, og det er noe vi kommer til å trenge dypere inn i fremover, men vi kan trygt si at det har gitt oss større fleksibilitet.

Små drypp
– Når man jobber med nye medietjenester for tiden så er det ikke sånn at man jobber i to og et halvt år før utrulling til publikum. Publikum vil ha løpende små drypp hele tiden og noen overraskelser av og til. Det å kunne jobbe kontinuerlig med publikumstjenestene våre på en måte som gjør at vi kommer så fort som mulig ut til publikum, er veldig viktig for oss.


Alt styres fra Marienlyst, mens innholdet ligger hos Microsoft og Akamai.

Er det spesielle sikkerhetshensyn å ta, NRK er jo en sentral samfunnsinstitusjon?

– Vår skytjeneste-installasjon står på to lokasjoner og vi kan bytte mellom de to lokasjonene hvis det skulle skje noe. Det gjør at oppetidssikkerheten blir godt ivaretatt, det skal ganske mye til før Microsoft får utfall på to steder samtidig. Vi prøver å ta de forhåndsreglene vi kan. De dataene vi har liggende ute i skytjenesten har ikke noe person- eller forretningskritiske data, vi styrer alt innholdet og deskingen fra Marienlyst. Når man har mulighet til å bytte mellom de datasentrene og å kunne kjøre i parallell, så er det sånn at hvis et sted skulle få driftsproblemer, så er det enkelt å flytte publikum til en annen lokasjon for å gi den samme opplevelsen. Når det gjelder videoinnholdet vårt, så ligger det hos Akamai (verdens største CDN-tilbyder, red.anm) som igjen har sin egen skytjeneste.

Kunne NRK blitt en mer strømmesentrert tjeneste, noe nærmere Netflix?

– Vi har i disse dager lansert hele sesongen av Lilyhammer 3 og ser litt på modellene rundt publisering, og vi har noen publiseringsstrategier i bakhånd, som vi håper å kunne overraske med. Det hele går egentlig tilbake til hva publikum vil ha. Det blir veldig interessant med en så vellykket serie som Lilyhammer, og se om folk faktisk ønsker å se den i takt med TV eller om man liker å se hele serien som «binge-watching». Netflix er en helt annen type tjeneste enn det vi leverer totalt sett, men det blir spennende å se hvordan vår tilnærming i forhold til publisering kan påvirke bruken av digitale medier. Vi jobber mye med rettigheter for å kunne tilby innholdet lenger.

– Det er også en grunn til at vi nå går inn på smart TV-er, Apple TV og Chromecast. NRK ønsker å være der folk er.

Hvorfor er dere da lite synlige på Microsofts klientplattformer?

– Vi hadde faktisk en diskusjon med Microsoft i forbindelse med Xbox 360, vi fant ut at der Xbox 360 lå i sin produktløype kontra vår egen produktløype ikke samsvarte helt. Nå ser vi litt på hvordan vi kan jobbe med Xbox One, og har en underleverandør som leverer dette for oss. Det dukker opp nye plattformer hele tiden. Vi må tenke på hvor folk er, og da tenker jeg volumet av folk, ikke bare nisjebrukerne. I tillegg er det kostnadsperspektiv. Vi ønsker selvfølgelig også å være på Microsoft-plattformene, og personlig så har jeg veldig tro på hele det nye konseptet til Microsoft. De har fått til noe som henger veldig bra sammen.

– NRK jobber nå videre med publikumstilbudet. Det blir spennende å se hvordan publikum velger å konsumere innhold fremover og på hvilke dingser, Ta klokken til Apple for eksempel, vil den ha noe å si? Klarer den å snu markedet igjen?, avslutter utviklingssjefen.

Deling er ikke farlig

Datatilsynet synes at deling av personopplysninger ikke er greit. Men det behøver ikke være farlig å dele. Tvert i mot kan deling av personopplysninger faktisk styrke både informasjonssikkerheten og personvernet.

«Dersom et sett personopplysninger uansett er samlet inn er det i mange sammenhenger en rekke andre som også ønsker både å dele og å bruke opplysningene. Dette er som hovedregel ikke greit fordi det går utover personvernet til den som eier opplysningene», skriver Trude Talberg-Furulund i Datatilsynets blogg 30. oktober.

Det er lett å forstå Datatilsynets synspunkt her. Samtidig er jeg ikke helt enig. Det å dele personopplysninger går ikke nødvendigvis ut over personvernet til den som eier opplysningene. Faktisk kan deling, gjort riktig og med samtykke eller lovhjemmel, ha en positiv effekt både for personvern og informasjonssikkerhet.

Her er noen eksempler som illustrerer hva jeg mener:


Lillian Røstad er seksjonssjef ved Difis seksjon for informasjonssikkerhet, førsteamanuensis II ved NTNUs Institutt for datateknikk og informasjonsvitenskap, samt styreleder i Norsk Informasjonssikkerhetsforum (ISF).

Personer som blir sykemeldte
En kvinne i arbeid blir sykemeldt. For å få rentefritak på studielånet i Lånekassen må hun levere en søknad med dokumentasjon på sykmeldingen. Dette er personsensitiv informasjon, og må derfor sendes i posten og deretter skannes inn i Lånekassens systemer. Denne prosessen tar tid og gir Lånekassen tilgang til hele sykmeldingen – mer informasjon enn det de trenger. Det er bedre hvis Lånekassens systemer kan koble seg opp mot Nav, og spørre om det stemmer at søkeren har vært sykmeldt og i hvilken periode. Det er all informasjonen man egentlig trenger.

Personer som søker opphold i Norge
En person som ankommer Norge og vil søke om opphold, kontakter Politiets utlendingenhet (PU). PU trenger da informasjon om personens status og identitet fra Utlendingsdirektoratet (UDI). De trenger imidlertid ikke all informasjon UDI har om personen. Dette løses derfor best ved at UDI og PU avklarer akkurat hvilken informasjon PU har behov for, og at denne informasjonen utleveres fra UDI for så å være tilgjengelig for ansatte i PU i deres eget system.

Personer som søker bostøtte
En mann søker om bostøtte fra Husbanken. For å vurdere om bostøtte kan innvilges trenger Husbanken dokumentasjon av inntekt. I denne mannens tilfelle er det Nav som kan dokumentere hvilken støtte som utbetales. Inntil nylig ville mannen ha hentet ut dokumentasjon fra Nav og sendt det inn til Husbanken. Det innebar at Husbanken ville få mer informasjon om mannens forhold til Nav enn nødvendig. I tillegg var det en risiko for at dokumentene kunne bli forfalsket. En nylig etablert løsning gjør det mulig for Husbanken å hente informasjon om utbetalte ytelser direkte fra Nav, og da bare akkurat den informasjonen de trenger.

Større grad av digital samhandling og informasjonsdeling er nødvendig for at vi skal lykkes med effektiviseringen av offentlig sektor. Eksemplene som er beskrevet her, har det til felles at de illustrerer fordelene med å hente informasjon direkte fra et eksisterende register, fra kilden. De viser at det å hente fra kilden gjør det mulig å hente inn mindre informasjon. Ved å hente fra kilden vil man også ha bedre kontroll, og dermed sterkere tillit til at informasjonen man baserer offentlige vedtak på er riktig.

Vi er enige med Datatilsynet i at det ikke skal være noen automatikk i at informasjon man har avgitt til en offentlig etat skal være tilgjengelig for andre i det offentlige. Langt ifra. Men skal man diskutere effekter av digitalisering, mener vi det er viktig å se alle sider av saken. I dette tilfellet at deling faktisk kan være bra, både for personvern og informasjonssikkerhet.

Informasjon om debattinnlegg og kronikker i digi.no

Alle innlegg må sendes til redaksjon@digi.no. Husk å legge ved et portrettbilde. Vi forbeholder oss retten til å redigere innsendt materiale.

Tier om mobilbruddet

Telenor har nå satt sammen ekspertgruppen som skal foreta en intern gransking av rutiner og sikkerhetsmekanismer etter det store utfallet i mobilnettet torsdag i forrige uke.

Under en større oppgradering ble sentrale deler i en kundedatabase slettet. Det førte til at samtlige kunder mistet forbindelsen for å ringe og sende sms.

Nå skal ekspertene finne ut hvordan massive utfall i mobilnettet skal unngås i fremtiden.

Utgangspunktet er kjent for de innvidde:

Selskapet vet hva som sviktet, men vil ikke snakke høyt om det.

– Helt detaljert hva som feilet er noe vi tar i dialogen med Post- og teletilsynet, da den hører hjemme i den sfæren, sier kommunikasjonsdirektør Torild Uribarri hos Telenor Norge.


Kommunikasjonsdirektør Torild Uribarri holder kortene tett til brystet om detaljer i hva ekspertgruppen skal granske.

Gåten er løst
digi.no har bedt selskapet om å redegjøre for den grunnleggende problemstillingen til ekspertgruppen – altså hva konkret som gikk galt.

For Telenor legger ikke skjul på at den gåten er løst:

– Det stemmer at vi har gått nøye igjennom henvendelsesforløpet og identifisert hva som ikke gikk som planlagt, bekrefter Uribarri overfor digi.no.

Svaret vil selskapet ikke ut med. I en e-post til redaksjonen skriver Telenor:

– Vi ønsker å konsentrere oss om å sammenfatte hvordan hendelsen oppsto og hvordan denne ble håndtert. Det er vi pliktig til å levere til Post- og teletilsynet, og vi følger rutinen for hvordan hendelsesrapportering skal skje.

Les også: Ekspert-lekkasje fra Telenor etter omlegging

Ukjente eksperter
Heller ikke hvilke eksperter som skal jobbe med å forbedre rutinene skal bli offentlig kjent.

Telenor strekker seg så langt som til å si at ekspertgruppen består av egne ansatte og folk fra leverandørselskapene.

– Det er Telenor Norge som er ansvarlig for å utrede tiltakene, og leverandørene er invitert inn for å bidra til dette arbeidet. Vi leder arbeidet og er ansvarlig for resultatet. Vi ønsker ikke å navngi leverandørene, skriver kommunikasjonsdirektøren i sin e-post.

Når digi.no ber om mer innsyn i arbeidet, «røper» hun at selskapets egen sikkerhetsdirektør Hanne Tangen Nilsen leder gruppen.

Les også: PT vurderer sanksjoner

Fjerner feil
Gruppens mandat er å vurdere:

  • Prosesser og rutiner knyttet til det aktuelle systemet.
  • Prosesser og rutiner knyttet til endringer i sentrale nettelementer.
  • Sikkerhetsmekanismer som kan redusere eller fjerne risiko for feil.

Les også: Telenor skal kvitte seg med 3G

Intensivt arbeid
Siden gruppens medlemmer jobber på fysisk ulike steder, kommer den til å jobbe i en kombinasjon av fysiske møter og virtuelt samarbeid.

– Det vil nå bli et intensivt arbeid i cirka to uker fremover hvor det skal beskrives og prioriteres aktuelle tiltak. Dernest vil vi planlegge gjennomføringen av tiltakene. Disse vil være av ulikt omfang og vil derfor ha ulik implementeringstid, opplyser Torild Uribarri.

Les også: Norge leder forskning på mobildata som tåler mer juling