Archive for Datamaskin

Knusende om IKT i helsesektoren

Da Bent Høie for ett år siden ble helseminister, ba han om å få utarbeidet en tilstandsrapport over IKT-situasjonen i norsk helsevesen. Den rapporten har han fått nå, og han beskrev innholdetEHiN-konferansen i går slik:

«Jeg ser at vi har noen krevende utfordringer. Utfordringer som er krevende hver for seg, men som også forsterkes av hverandre».

Dette er mildest talt et «understatement». Rapporten om IKT-utfordringene er knusende i sitt innhold. At den er grundig, reflektert, holdt i et sobert språk og utarbeidet av Helsedirektoratet selv (og ikke av et konsulentfirma som ellers er vanlig i offentlig sektor), gir den ekstra tyngde. Helsesektoren skal ha ros for å ha en åpen og reflektert over sine utfordringer.

Dette var noe av bakteppet for den store EHiN-konferansen (E-Helse i Norge) som Helse- og omsorgsdepartementet (HOD) arrangerte i samarbeid med IKT Norge med over 600 deltagere.


Arild Haraldsen er fast kommentator og spaltist i digi.no.

Departementsråd Bjørn-Inge Larsen fra HOD åpnet konferansen med å henvise til at Norge hadde vært tidlig ute og langt fremme med å ta i bruk IKT, men har de siste tiårene sakket akterut. Noe av problemene skyldes selve styringsstrukturen i helsesektoren. Den er «ikke elegant organisert» – som han uttrykte det – men tvert om lite samordnet og helhetlig, og fremstår fragmentert overfor pasienter og pårørende. Eller som rapporten sier:

«Sektoren er preget av mange aktører selvstendige aktører som i hovedsak foretar egne prioriteringer ut fra lokale behov og målsettinger. Samtidig som IKT-ressursene og – kompetansen er spredt i mange miljøer med mange beslutningstakere.»

Det er et behov for sterkere nasjonal styring og bedre samordning av et så viktig område, mente han.

IKT-utfordringene
Assisterende helsedirektør eHelse Christine Bergland gikk mer direkte inn på utfordringene slik de er fremkommet i Tilstandsrapporten. Her er noen av de viktigste funnene målt opp mot de målsetningene som er gitt i Stortingsmelding 9: Èn innbygger – en journal (pdf).

  • Dagens IKT-systemer understøtter ikke arbeidsflyt og helhetlige pasientforløp, særlig på tvers av virksomhetsgrenser.
  • Pasientinformasjon er i stor grad ustrukturert og det mangler felles terminologi og begrepsapparat.
  • IKT-systemene mangler funksjonalitet for å understøtte beslutningsstøtte og kvalitetsforbedring.
  • Det finnes ingen autorativ elektronisk pasientjournal. Informasjon blir gjengitt i fritekst i hovedjournalen.

På sidene 19 – 21 i rapporten er disse svakhetene målt opp i mot i hvilken grad man når målsetningene i St.meld 9. Svarene er nedslående:

IKT-systemene slik de er i dag, vil i liten grad bidra til å nå målene.

I tillegg er det utarbeidet en konsulentrapport (Gartner) som konkluderer med at norske og nordiske IKT-leverandører ikke leverer den funksjonalitet som er påkrevet.

Styringsutfordringer
Rapporten går grundig gjennom organiseringen av helsesektoren gjennom de senere år i lys av de politiske føringer og ambisjoner som er lagt til grunn, og konkluderer blant annet med: «Mangler i eller mangelfull styringsmodell medfører trolig lav samfunnsøkonomisk lønnsomhet i tiltakene». Videre heter det:

  • Dagens styringssystem er ikke tilpasset behovet for å gjennomføre helhetlige og koordinerte IKT-tiltak.
  • Det mangler en beslutningsmodell for initiering og finansiering av strategiske tiltak over en viss størrelse.
  • Finansieringsmodeller for felles IKT-løsninger er til dels uklare og det benyttes forskjellige modeller for ulike fellesløsninger.
  • Standarder for IKT, terminologi og kravspesifikasjoner er i liten grad tatt i bruk. DIPS (Distribuert Informasjons og Pasientdatasystem i Sykehus) som er den mest brukte programvaren i sykehussektoren i dag, brukes i forskjellige versjoner sykehus og regioner i mellom).
  • Nasjonal IKT har ikke realisert synergier på tvers av regionale helseforetak i henhold til intensjonene formulert i Styringsdokument fra 2003.

Med andre ord er det mye å ta fatt i. Ett av tiltakene kan være sterkere styringsgrep på nasjonalt nivå av helsesektoren. Dette var da også tema for den avsluttende paneldebatten under konferansen.

Paneldebatt om utfordringene
Deltagerne – som nok ikke hadde satt seg godt inn i disse rapportene siden de er helt ferske (offentliggjort 21.10), var enige om at veien å gå ikke er å legge ansvaret til ett organ med tilstrekkelige fullmakter og midler for gjennomføring på langs og tvers i sektoren. Flere pekte i stedet på forsterkning av de mer indirekte styringsmidler, gjennom lovgivningen, pålegg om bruk av standarder, bedre incentivopplegg og klarere kostnadsberegninger for gjennomføringen.

Særlig er det å merke seg tre forslag:

  • Roger Schjerva fra IKT-Norge mente en kunne øremerke en del av de midlene som nå blir tilbakeført til fellesskapet ved å redusere driftsutgiftene i etatene (0,5 prosent som tilsvarer 1,4 milliarder kroner, se min kommentar til statsbudsjettet om dette)
  • Trude Andresen fra KS mente kommunesektoren i sterkere grad måtte komme inn som en likeverdig partner med statlige helseforetak, og ikke bli invitert «til dialog med», det vil si å delta på helseforetakenes egne premisser.
  • Flere mente også at bestillerkompetansen måtte økes ved anskaffelse av IKT-systemer, og at anskaffelsesreglementet bør endres og i alle fall utnyttes bedre – noe KS pekte på at det var det anledning til allerede i dag med dagens regelverk.

Visjonen om et fremtidig eHelse-Norge
Bakgrunnen for denne diskusjonen er jo «eldrebølgen». Det vil si at kravet til, og omfanget av, omsorgstjenester øker radikalt i årene som kommer. Men det er kanskje galt utelukkende å ha dette som bakgrunnsbilde: Faktum er at markedet for ikke bare helsetiltak til syke og eldre øker, men at det totale marked for helse- og sunnhetstiltak til hele befolkningen øker. Økt oppmerksomhet på kosthold, trening, følge opp egen helse et cetera, vil i nærmeste fremtid utgjøre et stort marked.

Geir Jacobsen fra Innovasjon Norge dro derfor opp en sammenligning med etableringen av oljesektoren i sin tid. Da sto man ovenfor upløyd marked, men gikk inn i et samspill mellom privat og offentlig sektor og skapte i løpet av kort tid et oljeeventyr – ikke bare i form av olje- og gassproduksjon, men ved å ha skapt verdensledende teknologi og leverandører som konkurrerer på et globalt marked.

Han så derfor for seg tilsvarende i helsesektoren: et samspill mellom privat og offentlig sektor over landegrensene for å skape et helhetlig nordisk marked for helsetjenester. Flere andre var også inne på at man i større grad kunne gjøre seg nytte av det man hadde oppnådd i Danmark og Sverige. Kanskje kunne da dette en helsefaglig «eksportartikkel» i årene fremover, slik leverandørene i oljeindustrien har opplevd.

EHiN-konferansen bør bli en tankevekker for så vel helsepersonell, politikere og IKT-leverandører. Konferansen ble stramt og elegant styrt av Nard Schreurs fra IKT-Norge. Har vi svaret på utfordringene i neste års EHiN-konferanse?

Informasjon om debattinnlegg og kronikker i digi.no

Alle innlegg må sendes til redaksjon@digi.no. Husk å legge ved et portrettbilde. Vi forbeholder oss retten til å redigere innsendt materiale.

– Få meldingstjenester er sikre

Direkte fjernkommunikasjon mellom mennesker skjer i mindre grad med vanlig eller mobil telefoni enn tidligere. Stadig flere benytter én eller flere internett-baserte kommunikasjonstjenester. Men det siste årets avsløringer om massiv overvåkning antyder at det kan være ukjente som også avlytter kommunikasjonen.

Den digitale rettighetsorganisasjonen Electronic Frontier Foundation (EFF) den sammenheng vurdert en rekke mer eller mindre kjente kommunikasjonsverktøy med utgangspunkt i personvern og sikkerhet. Funnene har blitt presentert på en resultatsliste som er tilgjengelig her.

– Mange nye verktøy hevder å beskytte deg, men inkluderer ikke kritiske egenskaper som ende-til-ende-kryptering eller sikker sletting. Resultatlisten gir det faktaene du trenger for å velge riktig teknologi til sending av meldingen din, sier Peter Eckersley, direktør for teknologiprosjekter ved EFF, i en pressemelding.

EFF har studert omtrent 40 applikasjoner for enten utveksling av tekstbaserte lynmeldinger, for lyd- og videosamtale, e-post eller en kombinasjon av dette. Det har blitt sett nærmere på syv ulike, sikkerhetsrelaterte faktorer, inkludert om meldingene er krypterte både via internett og hos leverandøren, og om kildekoden er revidert og åpen for uavhengig gjennomgang.

6 av 40
Bare seks verktøy fikk full poengsum, altså syv poeng. Dette var ChatSecure, CryptoCat, Signal/Redphone, Silent Phone, Silent Text og TextSecure. Ingen av de mest kjente tjenestene fikk full poengsum, men Apples iMessage og FaceTime fikk i alle fall fem poeng. Det som mangler er mulighet for uavhengig gjennomgang av kildekoden og mulighet for verifisering av identiteten til kontakter.

En klar svakhet hos mange av tjenestene, inkludert Facebook Chat og Google Hangouts, er manglende kryptering på tilbydersiden. Det betyr at meldingene i praksis kan leses av andre, kanskje også uten rettskjennelse.

Enda verre er det med tjenester som QQ, Mxit og desktop-utgaven av Yahoo Messenger. Disse har ingen kryptering over hodet.

– Vi er fokusert på forbedring av verktøyene som vanlige brukere trenger for å kommunisere med venner, familiemedlemmer og kolleger, sier Nate Cardozo, en advokat ansatt i EFF.

– Vi håper at Secure Messaging Scorecard vil starte et kappløp om å nå toppen og bidra til innovasjon innen sterkere og mer brukervennlig kryptografi, sier Cardozo.

Hjertet av en målbar nettstrategi

Etter å ha jobbet 15 år med content management leste jeg Helge Skriverviks innlegg om «CMS utgått på dato» med stor interesse. Jeg må si med enig med en del av det han skriver, men må innrømme at jeg mener konklusjonen ikke stemmer med realitetene.

For å ta det jeg oppfatter som det underliggende budskapet er at informasjonen må gjøres lettere tilgjengelig. Det er alt for mange systemer som ikke har klare mekanismer for enkel utveksling av informasjon. Jeg mener at utveksling per definisjon skjer mellom systemer. Informasjonen som lever i CRM, ERP og DAM vil fortsatt ha sin rett, men kravene til tilgjengelighet har endret seg. Det skal være enkelt å hente ut informasjon. Så åpenheten som Helge nevner er jeg helt enig i.

Videre har Helge også rett i at trender som tingenes internett (internet of things), digitale tjenester og store datamengder har endret og vil videre endre kravene til systemene vi bruker. Og han har rett i at leverandører som sover i timen dessverre ikke har noen lys fremtid. Vi lever i en verden der det ikke er mer enn 5-6 år siden verdens suverent ledende mobilprodusent het Nokia, som ikke lenger eksisterer.


Aleksander Farstad er adm.dir og medgründer i eZ Systems.

Jeg må si at jeg ikke er enig i det semantiske skiftet at Content Management vil bli Data Management. La oss starte med noen definisjoner

  • Data er per definisjon rådata uten nødvendig mening, struktur eller semantikk.
  • Informasjon kan i denne sammenheng sees på å forstå hva dataene representerer – super relevant når vi snakker om analyser og data fra internet of things.
  • Content kan sees på som en håndterbar mengde informasjon. Knyttet med semantikk, metadata, versjonshåndtering og så videre. Eller foredlet data om du vil.

Men dette er ikke en diskusjon om semantikk. En trend vi hører om i dag er Content-as-a-Service (CaaS), som du kan lese mer om her. CaaS kan sees på som enkel utveksling av innhold. Det er jo ikke noe annet enn strukturert innhold som enkelt kan flyttes mellom ulike system, noe som er velkjent innen media hvor syndikering av innhold er vanlig.

Vi har sett flere trender gjennom de siste 15 årene. Fra de første årene da Content Management handlet om publisering og websider, til tiden da sosiale medier var hypet, til mobile tjenester og apper og digital markedsføring og content as a service. Dette er to parallelle trender vi ser for data innen Internet-of-things og big data og content as a service. Uten at noen av dem kommer til å erstatte hverandre. Derimot må de må spille sammen.

Heller enn at Content Management Systemet blir mindre relevant, ser vi at det mer relevant enn noen gang. Et moderne CMS er bygd for content-as-a-service, med åpne standarder og grensesnitt. Dette blir limet, selve kjernen i digitale løsninger. Det som binder dem sammen, skaper frihet og muligheter, samt sørger for at man kan optimalisere verdien av innhold og data.

Big content
Det er mye snakk om big data, men et viktigere begrep vil jeg si er big content. Hvor man har semantikken, strukturen, relasjonene og kan si noe om dataene. Et moderne CMS sørger for at innhold er åpent og tilgjengelig, at det kan gjenbrukes over ulike løsninger og kanaler, at det kan analyseres og presenteres, at det kan optimaliseres, at det kan være med å skape merverdi ut av innholdet.

Jeg synes også konklusjonen til Helge faller litt sammen ved å bruke WordPress som et eksempel. WordPress gjør jo det motsatte og lagrer «data» og ikke innhold. Det vil si at de lagrer formatert innhold i form av HTML og ikke informasjon som kan gjenbrukes. Dette er jo hele prinsippet til åpen informasjon. Han har rett i at WordPress er et enkelt publiseringssystem og brukes deretter. Men da går man også glipp av mange muligheter for å skape merverdi ut av sitt innhold.

En ting som er sikkert er at utviklingen ikke vil stå stille. Men jeg er sikker på at data i fremtiden ikke vil være det samme som innhold, og at vi som jobber med innholdssystemer vil måtte tilpasse oss for å sørge at vi kan fortsatt hjelpe våre kunder med å skape merverdi. Hvis ikke er jeg helt sikker på at vi vil få samme skjebne som Nokia.

Informasjon om debattinnlegg og kronikker i digi.no

Alle innlegg må sendes til redaksjon@digi.no. Husk å legge ved et portrettbilde. Vi forbeholder oss retten til å redigere innsendt materiale.

Derfor kjører NRK i nettskyen

MARIENLYST (digi.no): NRK har lenge vært i front med sin satsing på internett, med strømming av video og radio, mobilappliksjoner og tilknyttede løsninger. TV-appen rulles ut til stadig flere plattformer, sist i høst for en rekke smarte TV-er samt Chromecast. Mer er på vei.

Store deler av NRKs web-tv hviler på virtuelle servere i en nettsky. De opplever at det er mer effektivt, fleksibelt og antakelig også billigere enn alternativene.

digi.no treffer rikskringkasterens sjef for teknologi og utvikling, Andreas Munkelien, en kjølig november-formiddag på Marienlyst, for å høre mer om satsingen.

– Medieutvikling består av rundt 70 fast ansatte og en del innleide konsulenter. Vi utvikler nrk.no, NRK TV- og radio, altså avspillerne publikum finner på tv.nrk.no og radio.nrk.no, i tillegg til yr.no og ut.no. Vårt hovedfokus er å levere innhold og opplevelser for publikum på nett, brett, mobil/app og noe Smart-TV, sier Munkelien.

– Hvordan bruker vi kreftene våre best? Vi ønsker å jobbe så effektivt og godt som mulig og valg av utviklingsmetodikk og gjennomføring er viktig for oss. Vi trenger å ta høyde for nye metoder rundt «continuous integration», testing, tilgjengelighet, utrulling og drift som bidrar til at publikum får bedre kvalitet og oppetid.

Allerede for noen år siden valgte NRK å gå for Microsofts skyplattform Azure. Hvorfor det?

– Det gjorde at vi ganske tidlig i fasen med nye NRK TV trengte et nytt regime rundt utfordringen ved å at vi ikke kunne sitte og kode i tre uker, så vente tre uker på utrulling. Vi måtte få til en smidigere arbeidsform med en høyere effektivitet. Vi har alltid hatt et godt samarbeid med Microsoft, og teknologivalget vårt innenfor TV-avspilling er Microsoft .Net C#, vi valgte å fortsette å holde på denne teknologien og fant løsningen for å kunne jobbe bedre med utvikling og drift i skytjenesten Microsoft Azure.


Andreas Munkelien er teknologi- og utviklingssjef hos NRK.

– Vi vurderte om vi skulle bygge opp en stor infrastruktur selv, men er en mediebedrift så det spørs om det å eie store serverhaller bør være vår hovedgeskjeft.

– Klart vi har store serverrom her på huset også, som alle andre store bedrifter, men når det gjelder NRK TV- og radio, ut.no, så ligger alle i skytjenesten. Så har vi en del andre tjenester som driftes andre steder. Funksjonaliteten i Azure hjelper oss til å være effektive ved at mange av verktøyene man bruker for å administrere og vedlikeholde tjenesten er integrert i arbeidsverktøyet vi bruker til utvikling. Vi kunne helt sikkert ha lagt denne koden ut i andre skyløsninger, men da ville vi ikke fått det så tett integrert i arbeidsprosessen vår og det var et viktig kriterium. For vår del har det også hjulpet på å bli bedre til å utvikle kode.

Har det vært andre leverandører i bildet enn Microsoft?

– Vi hadde et åpent anbud på dette. Som offentlig institusjon er vi pliktige til å forholde oss til anbudsreglene ved anskaffelser, og det var Avanade på vegne av Microsoft som vant konkurransen. Alt er gjort i en helt åpen form, men vi gjør våre teknologivalg basert på en kombinasjon av hva vi tenker er teknisk best og som gir best nytte for publikum.

I hvilken grad har nettskyen gitt NRK økonomiske innsparinger?

– Vi ruller vel ut noe sånt som 70 til 100 servere i måneden i forbindelse med utvikling, stage og drift som er helautomatisert i Azure. Dette ville kreve mye ressurser å gjøre internt. Når man ser på funksjonaliteten vi får og effektiviteten vi ser i utviklingsløpene så er vi ganske sikre på det er en innsparing. Regnestykket i forhold til innsparinger er komplisert, og det er noe vi kommer til å trenge dypere inn i fremover, men vi kan trygt si at det har gitt oss større fleksibilitet.

Små drypp
– Når man jobber med nye medietjenester for tiden så er det ikke sånn at man jobber i to og et halvt år før utrulling til publikum. Publikum vil ha løpende små drypp hele tiden og noen overraskelser av og til. Det å kunne jobbe kontinuerlig med publikumstjenestene våre på en måte som gjør at vi kommer så fort som mulig ut til publikum, er veldig viktig for oss.


Alt styres fra Marienlyst, mens innholdet ligger hos Microsoft og Akamai.

Er det spesielle sikkerhetshensyn å ta, NRK er jo en sentral samfunnsinstitusjon?

– Vår skytjeneste-installasjon står på to lokasjoner og vi kan bytte mellom de to lokasjonene hvis det skulle skje noe. Det gjør at oppetidssikkerheten blir godt ivaretatt, det skal ganske mye til før Microsoft får utfall på to steder samtidig. Vi prøver å ta de forhåndsreglene vi kan. De dataene vi har liggende ute i skytjenesten har ikke noe person- eller forretningskritiske data, vi styrer alt innholdet og deskingen fra Marienlyst. Når man har mulighet til å bytte mellom de datasentrene og å kunne kjøre i parallell, så er det sånn at hvis et sted skulle få driftsproblemer, så er det enkelt å flytte publikum til en annen lokasjon for å gi den samme opplevelsen. Når det gjelder videoinnholdet vårt, så ligger det hos Akamai (verdens største CDN-tilbyder, red.anm) som igjen har sin egen skytjeneste.

Kunne NRK blitt en mer strømmesentrert tjeneste, noe nærmere Netflix?

– Vi har i disse dager lansert hele sesongen av Lilyhammer 3 og ser litt på modellene rundt publisering, og vi har noen publiseringsstrategier i bakhånd, som vi håper å kunne overraske med. Det hele går egentlig tilbake til hva publikum vil ha. Det blir veldig interessant med en så vellykket serie som Lilyhammer, og se om folk faktisk ønsker å se den i takt med TV eller om man liker å se hele serien som «binge-watching». Netflix er en helt annen type tjeneste enn det vi leverer totalt sett, men det blir spennende å se hvordan vår tilnærming i forhold til publisering kan påvirke bruken av digitale medier. Vi jobber mye med rettigheter for å kunne tilby innholdet lenger.

– Det er også en grunn til at vi nå går inn på smart TV-er, Apple TV og Chromecast. NRK ønsker å være der folk er.

Hvorfor er dere da lite synlige på Microsofts klientplattformer?

– Vi hadde faktisk en diskusjon med Microsoft i forbindelse med Xbox 360, vi fant ut at der Xbox 360 lå i sin produktløype kontra vår egen produktløype ikke samsvarte helt. Nå ser vi litt på hvordan vi kan jobbe med Xbox One, og har en underleverandør som leverer dette for oss. Det dukker opp nye plattformer hele tiden. Vi må tenke på hvor folk er, og da tenker jeg volumet av folk, ikke bare nisjebrukerne. I tillegg er det kostnadsperspektiv. Vi ønsker selvfølgelig også å være på Microsoft-plattformene, og personlig så har jeg veldig tro på hele det nye konseptet til Microsoft. De har fått til noe som henger veldig bra sammen.

– NRK jobber nå videre med publikumstilbudet. Det blir spennende å se hvordan publikum velger å konsumere innhold fremover og på hvilke dingser, Ta klokken til Apple for eksempel, vil den ha noe å si? Klarer den å snu markedet igjen?, avslutter utviklingssjefen.

Google åpner «hurtigfil» til skyen

Google arrangerte i går konferansen Google Cloud Platform Live i San Francisco og kunngjorde i den forbindelse en rekke nettsky-relaterte nyheter.

Den ene nyheten er introduksjonen av tre nye tilkoblingsmuligheter som skal tilbys bedriftskunder som ønsker raskere eller sikrere tilgang til tjenester selskapene har i Google nettsky.

Den ene metoden er direkte «peering». Det vil si at kunden kobler sitt nettverk direkte til Googles nettverk. Dette er mulig ved drøyt 70 steder i 33 ulike land. Selve oppkoblingen er gratis, men kunden betaler mellom 0,04 og 0,06 dollar per gigabyte som sendes ut av Google nettsky via peering-forbindelsen.

Google sammenligner dette med at kundene kan opprette sin egen, private ekspressfil på en ellers overfylt motorvei, altså det vanlige internett. Denne muligheten skal være spesielt rettet mot selskaper som har behov for å overføre og prosessere store mengder data svært raskt.

Ifølge Wall Street Journal er dette noe Amazon og Microsoft allerede tilbyr, og som Google har manglet.

En alternativ metode er å koble seg til Google nettverk ved hjelp av «Carrier Interconnect», det vil si gjennom utvalgte tjenestetilbydere som er direkte tilknyttet Googles nettverk. Det er mulig å benytte VPN-tunneler mellom nettverkene. Google krever samme pris for dette som ved direkte peering, men i tillegg kommer avgifter fra tjenestetilbyderen. Foreløpig er det sju selskaper som tilbyr dette.

Den tredje, nye muligheten er VPN-forbindelse via internett. Denne tjenesten skal ifølge Gigaom først lanseres i januar 2015. Den vil ikke gi høyere fart, men sikkerheten forbedres.

Konteinere
En annen, ny tjeneste Google introduserte i går, er Google Container Engine. Foreløpig er denne dog på alfa-stadiet og dermed ikke egnet for produksjon. Løsningen er basert på verktøyet Kubernetes for administrasjon av konteinere i klynger, og Docker-konteinere. I praksis setter Google Container Engine sammen en gruppe med virtuelle maskiner av typen Google Compute Engine til en klynge som konteinerne kjøres på toppen av.

Både Docker og Kubernetes er basert på åpen kildekode. Begge støttes av en stadig økende mengde av tjeneste- og programvaretilbydere, inkludert IBM, Microsoft, Red Hat og VMware. Dette skal gjøre det enkelt for kunder å flytte applikasjonene mellom ulike hostingmiljøer.

Google opplyser at også Google Container Engine er designet for mobilitet fra bunnen av, for eksempel å flytte den mellom en lokal installasjon i bedriften og en offentlig nettsky, ja til og med la den kjøres på tvers av flere ulike, offentlig nettskyer.

Knyttet til PaaS-tjenesten (Platform as a Service) App Engine har Google kommet med en betautgave av Managed VMs, som gjør det mulig å kjøre App Engine-baserte applikasjoner på virtuelle maskiner som kundene til en viss grad kan konfigurere, blant annet ved å legge til tredjepartsbiblioteker og -rammeverk, samt valg av minnestørrelser og CPU-er.

I tillegg til en rekke andre nyheter, kunngjorde Google i går priskutt på mellom 23 og 79 prosent på utgående nettrafikk, lagring og database.

Tier om mobilbruddet

Telenor har nå satt sammen ekspertgruppen som skal foreta en intern gransking av rutiner og sikkerhetsmekanismer etter det store utfallet i mobilnettet torsdag i forrige uke.

Under en større oppgradering ble sentrale deler i en kundedatabase slettet. Det førte til at samtlige kunder mistet forbindelsen for å ringe og sende sms.

Nå skal ekspertene finne ut hvordan massive utfall i mobilnettet skal unngås i fremtiden.

Utgangspunktet er kjent for de innvidde:

Selskapet vet hva som sviktet, men vil ikke snakke høyt om det.

– Helt detaljert hva som feilet er noe vi tar i dialogen med Post- og teletilsynet, da den hører hjemme i den sfæren, sier kommunikasjonsdirektør Torild Uribarri hos Telenor Norge.


Kommunikasjonsdirektør Torild Uribarri holder kortene tett til brystet om detaljer i hva ekspertgruppen skal granske.

Gåten er løst
digi.no har bedt selskapet om å redegjøre for den grunnleggende problemstillingen til ekspertgruppen – altså hva konkret som gikk galt.

For Telenor legger ikke skjul på at den gåten er løst:

– Det stemmer at vi har gått nøye igjennom henvendelsesforløpet og identifisert hva som ikke gikk som planlagt, bekrefter Uribarri overfor digi.no.

Svaret vil selskapet ikke ut med. I en e-post til redaksjonen skriver Telenor:

– Vi ønsker å konsentrere oss om å sammenfatte hvordan hendelsen oppsto og hvordan denne ble håndtert. Det er vi pliktig til å levere til Post- og teletilsynet, og vi følger rutinen for hvordan hendelsesrapportering skal skje.

Les også: Ekspert-lekkasje fra Telenor etter omlegging

Ukjente eksperter
Heller ikke hvilke eksperter som skal jobbe med å forbedre rutinene skal bli offentlig kjent.

Telenor strekker seg så langt som til å si at ekspertgruppen består av egne ansatte og folk fra leverandørselskapene.

– Det er Telenor Norge som er ansvarlig for å utrede tiltakene, og leverandørene er invitert inn for å bidra til dette arbeidet. Vi leder arbeidet og er ansvarlig for resultatet. Vi ønsker ikke å navngi leverandørene, skriver kommunikasjonsdirektøren i sin e-post.

Når digi.no ber om mer innsyn i arbeidet, «røper» hun at selskapets egen sikkerhetsdirektør Hanne Tangen Nilsen leder gruppen.

Les også: PT vurderer sanksjoner

Fjerner feil
Gruppens mandat er å vurdere:

  • Prosesser og rutiner knyttet til det aktuelle systemet.
  • Prosesser og rutiner knyttet til endringer i sentrale nettelementer.
  • Sikkerhetsmekanismer som kan redusere eller fjerne risiko for feil.

Les også: Telenor skal kvitte seg med 3G

Intensivt arbeid
Siden gruppens medlemmer jobber på fysisk ulike steder, kommer den til å jobbe i en kombinasjon av fysiske møter og virtuelt samarbeid.

– Det vil nå bli et intensivt arbeid i cirka to uker fremover hvor det skal beskrives og prioriteres aktuelle tiltak. Dernest vil vi planlegge gjennomføringen av tiltakene. Disse vil være av ulikt omfang og vil derfor ha ulik implementeringstid, opplyser Torild Uribarri.

Les også: Norge leder forskning på mobildata som tåler mer juling

Deling er ikke farlig

Datatilsynet synes at deling av personopplysninger ikke er greit. Men det behøver ikke være farlig å dele. Tvert i mot kan deling av personopplysninger faktisk styrke både informasjonssikkerheten og personvernet.

«Dersom et sett personopplysninger uansett er samlet inn er det i mange sammenhenger en rekke andre som også ønsker både å dele og å bruke opplysningene. Dette er som hovedregel ikke greit fordi det går utover personvernet til den som eier opplysningene», skriver Trude Talberg-Furulund i Datatilsynets blogg 30. oktober.

Det er lett å forstå Datatilsynets synspunkt her. Samtidig er jeg ikke helt enig. Det å dele personopplysninger går ikke nødvendigvis ut over personvernet til den som eier opplysningene. Faktisk kan deling, gjort riktig og med samtykke eller lovhjemmel, ha en positiv effekt både for personvern og informasjonssikkerhet.

Her er noen eksempler som illustrerer hva jeg mener:


Lillian Røstad er seksjonssjef ved Difis seksjon for informasjonssikkerhet, førsteamanuensis II ved NTNUs Institutt for datateknikk og informasjonsvitenskap, samt styreleder i Norsk Informasjonssikkerhetsforum (ISF).

Personer som blir sykemeldte
En kvinne i arbeid blir sykemeldt. For å få rentefritak på studielånet i Lånekassen må hun levere en søknad med dokumentasjon på sykmeldingen. Dette er personsensitiv informasjon, og må derfor sendes i posten og deretter skannes inn i Lånekassens systemer. Denne prosessen tar tid og gir Lånekassen tilgang til hele sykmeldingen – mer informasjon enn det de trenger. Det er bedre hvis Lånekassens systemer kan koble seg opp mot Nav, og spørre om det stemmer at søkeren har vært sykmeldt og i hvilken periode. Det er all informasjonen man egentlig trenger.

Personer som søker opphold i Norge
En person som ankommer Norge og vil søke om opphold, kontakter Politiets utlendingenhet (PU). PU trenger da informasjon om personens status og identitet fra Utlendingsdirektoratet (UDI). De trenger imidlertid ikke all informasjon UDI har om personen. Dette løses derfor best ved at UDI og PU avklarer akkurat hvilken informasjon PU har behov for, og at denne informasjonen utleveres fra UDI for så å være tilgjengelig for ansatte i PU i deres eget system.

Personer som søker bostøtte
En mann søker om bostøtte fra Husbanken. For å vurdere om bostøtte kan innvilges trenger Husbanken dokumentasjon av inntekt. I denne mannens tilfelle er det Nav som kan dokumentere hvilken støtte som utbetales. Inntil nylig ville mannen ha hentet ut dokumentasjon fra Nav og sendt det inn til Husbanken. Det innebar at Husbanken ville få mer informasjon om mannens forhold til Nav enn nødvendig. I tillegg var det en risiko for at dokumentene kunne bli forfalsket. En nylig etablert løsning gjør det mulig for Husbanken å hente informasjon om utbetalte ytelser direkte fra Nav, og da bare akkurat den informasjonen de trenger.

Større grad av digital samhandling og informasjonsdeling er nødvendig for at vi skal lykkes med effektiviseringen av offentlig sektor. Eksemplene som er beskrevet her, har det til felles at de illustrerer fordelene med å hente informasjon direkte fra et eksisterende register, fra kilden. De viser at det å hente fra kilden gjør det mulig å hente inn mindre informasjon. Ved å hente fra kilden vil man også ha bedre kontroll, og dermed sterkere tillit til at informasjonen man baserer offentlige vedtak på er riktig.

Vi er enige med Datatilsynet i at det ikke skal være noen automatikk i at informasjon man har avgitt til en offentlig etat skal være tilgjengelig for andre i det offentlige. Langt ifra. Men skal man diskutere effekter av digitalisering, mener vi det er viktig å se alle sider av saken. I dette tilfellet at deling faktisk kan være bra, både for personvern og informasjonssikkerhet.

Informasjon om debattinnlegg og kronikker i digi.no

Alle innlegg må sendes til redaksjon@digi.no. Husk å legge ved et portrettbilde. Vi forbeholder oss retten til å redigere innsendt materiale.

Berlin vil ha kildekoden

Tyskland er det europeiske landet som har reagert sterkest på Edward Snowdens avsløringer om amerikansk masseovervåking. Blant annet ble telefonen til forbundskansler Angela Merkel avlyttet.

Selv om det har gått mer enn et år siden de første avsløringene, har det tilsynelatende fått få alvorlige konsekvenser for amerikanske IT-leverandører i utlandet så langt. Et unntak er at tyske myndigheter har bestemt seg for å fase ut kontraktene med den amerikanske mobiloperatøren Verizon.

Men nå kan det skje en betydelig innstramming. Ifølge Wall Street Journal er tyske politikere i gang med å utforme et lovforslag med nye krav til selskaper som selger informasjonsteknologi til tyske myndigheter og private selskaper som er en del av bransjer som myndighetene i Tyskland anser for å være kritiske for landets sikkerhet.

Blant kravene er innsyn i kildekode og andre proprietære data, samt ytterligere godkjennelse av selskaper som skal levere programvare og annet IT-utstyr til kritisk infrastruktur i landet.

Utkastet til lovforslag skal ha møtt lite kritikk i Tyskland, i hvert fall fra politisk hold. Ikke overraskende er amerikanske interesser bekymret. Synet er at en slik lov kan misbrukes og gjøre det vanskelig for utenlandske aktører å konkurrere mot tyske tilbydere, som på sin side vil kunne utnytte tillitsbruddet NSA-affæren har ført til for alt det er verdt. Et tysk selskap som trekkes fram i den sammenheng er Deutsche Telekom, som nå overtar som leverandør for regjeringen i Berlin etter Verizon.

Andreas Middel, talsperson for det tyske teleselskapet, kaller anklager om at lovforslaget vil ekskludere amerikanske selskaper for absurde. Han legger til at i diskusjonen om lovutkastet må man huske at det verken er hans selskap eller tyske myndighet som har forårsaket tillitsbruddet.

– Tapping av Folkeregisteret er åpenbart uheldig

– Det er åpenbart uheldig at det er mulig å tappe folkeregisterdata, sier avdelingsdirektør Helge Veum hos Datatilsynet i en kommentar til digi.no.

Tilsynet ble også varslet av NTNU-student Camilla Rygh, som oppdaget sikkerhetshullet i Brønnøysundregistrenes skjematjeneste.

Avviksmelding
– Vi ble varslet, men har ikke gjort egne undersøkelser i saken, sier Veum. Han har ansvar for informasjonssikkerhet og offentlig sektor hos Datatilsynet.

De to offentlige virksomhetene er nå i dialog, som det heter.

– Brønnøysundregistrene sier at de håndterer hendelsen. I neste omgang skal vi få en avviksmelding fra dem, sier avdelingsdirektøren.

Les også: Påbudt digitalisering ga rekordøkning

«Uheldig»
– Hvordan vil du beskrive dette sikkerhetshullet?

– Vi har sett det tidligere i kommersielle bestillingsløsninger, som en nettbutikk. Derimot er det et ukjent problem når det gjelder offentlige innloggingstjenester.

– Hvordan oppfatter Datatilsynet dette forholdet?

– Nå venter i først på rapporten fra Brønnøysundregistrene, men i utgangspunktet er det ikke slik en tjeneste skal være. Det er åpenbart uheldig å kunne tappe folkeregisterdata, uavhengig av om det er en kommersiell netthandelsløsning eller en offentlig portal, svarer Veum.

Kidsa koder igjen

Programmering skal bli obligatorisk fag i grunnskolen i Finland. Allerede i høst lærer britiske femåringer seg å kode. Estland er for lengst i gang. Australia og Frankrike tar lignende grep.

I Norge har politikerne ennå til gode å vise slik handlekraft, men det tas grep på grasrotnivå.

Vi snakker selvfølgelig om Lær Kidsa Koding som i fjor fikk en utrolig start takket være en strøm av frivillige og IT-bedrifter.

– Vi liker å kalle det en bevegelse.

Det sier Øystein Gulbrandsen fra Teleplan og masterstudent Line Moseng som er i ferd med å fullføre sin utdannelse i programmering og nettverk på Universitetet i Oslo, til digi.no.

Begge er prosjektledere for kode{timen_ der elevene får erfare at alle kan kode, oppleve mestring og skaperglede.

Dette etter et konsept basert på det amerikanske initiativet «Hour of Code».

Siden i fjor har over 10.000 elever og hundre norske skoler gjennomført. Neste måned går startskuddet for årets kodetime.

– Noen ildsjeler lager sitt eget opplegg, men vi stiller med mye ferdiglaget materiale fordelt på ulike klassetrinn, helt ned til femåringer i barnehagen. Å kunne programmere før du kan skrive er jo ikke så verst, sier Gulbrandsen.

Mens de yngste barna får lære logikken i hvordan et program et bygget opp, ved å legge actionkort etter hverandre, kan de litt eldre elevene lære ekte programmering. Da er målet at man lager et spill på bare én time.

– Det går på aldersinndelingen hvor visuelt eller skriftlig det er. Vi innser at ikke nødvendigvis alle i verden skal bli utviklere, men det å lære å konsentrere seg, løse oppgaver og følge en prosessbeskrivelse er noe alle burde lære.

Det er også en nyttig erfaring at ikke alle barn har datamaskin i hjemmet, selv ikke i 2014.

Gulbrandsen husker spesielt en fjerdeklassing fra fjorårets kodetime som ikke hadde pc-erfaring fra tidligere.

– Han programmerte som bare rakkern han. Da tenker jeg at vi har gjort en god gjerning. Det handler om å kunne være produsent av innhold og ikke bare forbrukere.

Frir til IT-bransjen
Lær Kidsa Koding samarbeider med amerikanske Code.org, og har oversatt, men også laget en god del eget læremateriell. De meste av programvaren eller verktøyene de tilbyr kan anvendes rett i nettleseren.

– Mange på min alder har barn, som er interessert i programmering i utgangspunktet. Det er mange foreldre som er med fra IT-bransjen. De forstår kanskje at spill ikke er noe du bare kjøper i butikken, men at det er noen som har programmert det også, sier Gulbrandsen.

Lær Kidsa Koding retter en ekstra oppfordring til digi.nos lesere. Det er behov blant annet for flere til å bistå med oversettelser, og flere bidragsytere til skolene. Nettstedet til Kodetimen har mer informasjon.

Årets mål er å doble antallet elever som får en klassetime med programmering, forteller prosjektlederne.

– Vi var over 10.000 elever i fjor. Vi får satse på 20.000 i år. Det er dette som skaper fremtiden for norsk IT-bransje. Neste Facebook kommer ikke av seg selv.

Håper på Erna
I tillegg håper ildsjelene at politikerne kaster seg med.

– Heidi Nordby Lunde (H) også kjent som bloggeren Vampus omtalte oss fra Stortingets talerstol i fjor. Det var hyggelig. Kunnskapsminister Torbjørn Røe Isaksen rakk ikke være med på Kodetimen i fjor, men det kan hende han rekker det i år. Vi skal sende ham en invitasjon, om ikke en til statsminister Erna Solberg også, sier Øystein Gulbrandsen.

Kodeklubber
Kodetimen er anbefalt gjennomført andre uken i desember, fra 8. til 12 desember. Samtidig innser initiativtakerne at det ikke passer like godt for alle, så egentlig kan klasser delta når som helst.

Det spretter også opp egne kodeklubber mange steder. Disse arrangerer jevnlige samlinger for å lære unge opp i programmering, så Lær Kidsa Koding er blitt et fenomen langt utover selve Kodetimen.

– Det er kodeklubber over hele landet. Det starter nettopp nå en ny på Nesodden. Det er mange i Asker, der de fleste skolene nå har kodeklubber. i Trondheim har de samlet seg på NTNU der 100 stykker får undervisning hver kveld. Det er også klubber hvor man bare samler fire venner i kjellerstua, forteller Line Moseng.

Hun oppfordrer alle som kunne tenke seg å starte eller bli med i en kodeklubb om å gå inn på nettsidene deres eller Facebook-siden for å bli del av nettverket.