Forskar på universets første sekund

På toppen av Kjølv Egelands hus på Universitetet i Stavanger sitt ti forskarar som prøver å finne svar på kva som skjedde i det første sekundet etter Big bang.

– Det skjedde mykje i det første sekundet, men me er særleg interesserte i skapelsen av stoff. Det me prøver å finne svar på er korleis det er mogleg at det blei skapt fleire partiklar enn antipartiklar i universet, fortel professor Anders Tranberg.

Det var han som for to år sidan tok initiativet til at Universitetet i Stavanger skulle forske på nettopp dette. For sjølv om forskarar fleire stadar i verda har prøvd å finne svaret, så er det framleis ei gåte.

– Partiklar og antipartiklar burde ha vore skapt etter forholdet ein til ein. Men når me ser universet så ser me at det faktisk er fleire partiklar enn antipartiklar, og det forstår me ikkje, seier Tranberg.

For når partiklar og antipartiklar møtes, utslettar dei kvarandre. Galaksar, stjerner og planetar vart danna fordi det var litt fleire partiklar enn antipartiklar.

Forskarane meiner at for kvar 1 milliard antipartikkel som vart skapt, vart det skapt 1 milliard og 1 partikkel. Men korleis denne eine partikkelen kom til, veit ein førebels ikkje, og svaret vil ta lang tid å finne, fortel Tranberg.

– Det er vanskeleg. Og det er mange rundt om i verda som sitt og reknar på dette. Det einaste me veit er at skjedde allereie i løpet av det første sekundet etter Big bang.

– Ungt og entusiastisk miljø

Sjølv om mange har prøvd å finne svar på dette spørsmålet tidlegare, så er det ingen andre i Norge som forskar på nøyaktig det same som denne gruppa.

Fleire løyvingar frå mellom anna EU har gjort det mogleg å utvide gruppa. Forskarar frå både inn- og utland har kome til. Ein av dei er David Weir frå Skottland.

– Universitetet i Stavanger er ein bra stad å gjera denne typen forsking. Her er det unge folk med mykje entusiasme. Så det er heller ein fordel enn ein ulempe at dette er eit nytt forskingsmiljø, fortel Weir.

Trur det vil ta ti år

Men å rekne seg fram til svaret kan ta opp mot 10 år.

Og det er ikkje sikkert at likninga som denne gruppa sitt og reknar på, viser seg å vera den rette.

Men skulle dei kome til å løyse den store gåta, ja då vil i alle fall nokon få ein nobelpris, meiner Tranberg.

– Det blir nobelpris, men den går ikkje til oss. Fordi det var nokon andre som hadde den opphavlege ideen til modellen me forskar på, seier Tranberg.

Men han legg til:

– Berre det å kunne bidra litt til å vise at denne modellen er riktig, eller ikkje riktig, er kjekt. Og så kan det vera at vinnarane gir oss ei flaske vin på veg tilbake frå Stockholm, avsluttar Tranberg.

Skarpsynte roboter

Skal vi gripe tak i noe, må vi vite hva vi skal gripe etter. Og vi må vite hvor langt unna det er. Da holder det ikke å se verden som et flatt bilde, heller ikke for roboter. De må se sine omgivelser som de er, i tre dimensjoner.

Forskere ved Sintef har utviklet et nytt 3D-kamera som gjør roboter i stand til å gjøre nettopp det, til å skjelne både avstand, form og farge.

– Gårsdagens roboter kunne stort sett brukes til enkle, gjentatte bevegelser etter et fast programmert mønster. Vi ønsker å bidra til utviklingen av litt mer intelligente roboter, som har større evne til å tilpasse seg omgivelsene, sier seniorforsker Øystein Skotheim.

Med bedre syn kan roboter lettere lære å tilpasse seg endringer. Det er nødvendig for å kunne kombinere skreddersøm med masseproduksjon og dermed gjøre norsk vareproduksjon mer konkurransedyktig.

– Robotene skal kunne kjenne igjen et objekt, selv blant deler som ligger hulter til bulter, kunne plukke det opp og sette det sammen med andre. Eller de skal være i stand til å kvalitetskontrollere produkter som passerer på en produksjonslinje.

– Bedre maskinsyn kan også åpne for roboter som kan samarbeide tett med mennesker, sier Skotheim.

Robotene er en opplagt målgruppe for 3D-kameraet. Men Skotheim ser også for seg en rekke andre bruksområder.

– Dette er teknologi som har svært mange bruksområder. Produksjon av spesialtilpassede proteser, for eksempel. Eller av produktdesignere som vil lage 3D-modeller. Eller vi kan kombinere den med en 3D-printer. Da får vi en 3D-kopimaskin.

Spillteknologi

3D-sensorer for industriell bruk har eksistert en stund. Men det meste av teknologien er svært kostbar og har langsomme sensorer. Den egner seg derfor dårlig for å integrere i en bevegelig robot eller i en produksjonslinje.

For tre–fire år siden utviklet Microsoft 3D-kameraet Kinect, beregnet på spillmarkedet. Det var naturlig nok i en helt annen prisklasse enn de industrielle løsningene.

– Men produktet var selvsagt ikke tilpasset et industrielt miljø. Og det var på langt nær nøyaktig nok, med en feilmargin på flere millimeter. Det er altfor dårlig dersom roboten for eksempel skal brukes til kvalitetskontroll eller skal gripe noe, sier Skotheim.

Men han vedgår at spillkameraet har vært en kilde til inspirasjon.

Den første prototypen av 3D-kameraet ble skrudd sammen på Sintefs eget verksted. Det er døpt ShapeCrafter 3D, men ser ikke spesielt imponerende eller futuristisk ut. En blikkboks med to hull, som minner litt om rottefellene du finner i gamle bakgårder i Trondheim.

Nå er prototyp nummer to klar. Den er slank og svartlakkert.

Strukturert lys

Inni den nye boksen er det også lite som minner om en rottefelle. Bak de to hullene er det henholdsvis en prosjektør og et superraskt kamera som tar 150 bilder i sekundet, med en oppløsning på to megapiksler. Prosjektøren skyter ut såkalt strukturert lys, eller mønstre av lysstriper.

For å øke nøyaktigheten, sender den ut en sekvens av 12 ulike mønstre per sekund. Det gir tolv 3D-bilder i sekundet, med en dybdenøyaktighet på 0,1 millimeter.

Kinect-kameraet har til sammenligning ett fast mønster med infrarødt lys, og en dybdenøyaktighet på cirka 5–10 millimeter.

Men forskerne har mer å takke den pengesterke dataspillbransjen for. Moderne grafikkort er utviklet for å kunne tilby stadig mer avanserte dataspill. Skotheim og hans kolleger benytter seg av den enorme regnekapasiteten som er tilgjengelige på slike grafikkort for å framstille 3D-bildene i sanntid.

Nå skal kameraet presenteres for verden på messa Vision 2014. Det er ei internasjonal messe for maskinsyn-teknologi i Stuttgart i Tyskland.

Kan vi si noe om mange ved å spørre noen få?

Om forskning.no

forskning.no er en nettavis med norske og internasjonale forskningsnyheter.

forskning.no gis ut under Redaktørplakaten

Ansvarlig redaktør / daglig leder: Nina Kristiansen, tlf 41 45 55 13
Redaksjonssjef Bjørnar Kjensli, tlf 94 24 35 67
Redaksjonen
Annonser: Arnt-Ove Drageset, 92 44 58 46 og Arne Bergsli, 91 73 78 10.
Stillingsmarked: Preben Forberg, 22 80 98 95

Bekrefter at skjelett funnet i oktober er fra kongesagaene

– Dette er utrolig spennende resultater. Her har arkeologien bekreftet hendelsene i kongesagaen, sier riksantikvar Jørn Holme, om analysene av skjelettfunnet fra 17. oktober.

Skjelettet ble funnet i brønnen på Sverresborg museum i Trondheim. Ifølge kong Sverres saga ble en birkebeiner dumpet i brønnen i 1197. Analyser daterer skjelettet til 1100-tallet.

Mann mellom 35 og 40 år

Videre analyser av beinrestene viser at levningene er etter en mann i 35-40-årsalderen. Kroppen sluttet å puste for mer enn 800 år siden.

– Vi er rimelig sikre på at skjelettet i brønnen kan knyttes til de dramatiske fortellingene i sagaen da Sverresborgen ble ødelagt, sier riksantikvaren.

Skulle forgifte vannforsyningen

I sagaen om kong Sverre blir det skrevet at en død mann ble kastet i brønnen etter at baglerne inntok borgen. Dette ble, slik riksantikvaren sier det, trolig gjort for å forgifte vannforsyningen til borgen. I kongesagaene står det.

«Baglerne tok alt gods som var i Borgen, og siden brente de hvert eneste hus som var der. De tok en død mann og slengte han i brønnen. Så heiv de stein ned i til den var full. De kalte bymennene ut for å bryte ned alle steinveggene helt til grunnen før de ga seg. Alle kongens langskip brente de før de dro bort. Etter dette tok de veien til Opplanda igjen. De synes de hadde skaffet seg bra med gods på denne ferden.»

Funnet i 1938

Nå har en altså funnet mannen som ble kastet i brønnen. Det kunne blitt klart langt tidligere – for skjelettet ble funnet allerede i 1938.

– Skjelettet ble først oppdaget i 1938, da i forbindelse med en arkeologisk undersøkelse ledet av arkitekt Gerhard Fischer og Sigurd Tiller, sjef for Folkemuseet på Sverresborg, melder riksantikvaren.

Men skjelettet ble aldri undersøkt, før brønnen så ble fylt igjen. En ny utgraving avdekte skjelettet i oktober, og onsdag ble det klart at en trolig har funnet levninger som er omtalt i Sverres saga, kongesagaen skrevet av islandske Karl Jonsson.

Hun vil ha billigere fiber

FORNEBU (digi.no): Kristiansand er landets beste digitale kommune, ifølge Nordic Broadband City Index 2014. Undersøkelsen utarbeides av Nexia på oppdrag for Telenor hver annet år. Den første kom i 2012.

Sverige på topp
Egentlig er det en skandinavisk undersøkelse, som er gjort på oppdrag for Telenor.

Her er de 15 største kommunene i henholdsvis Norge, Sverige og Danmark målt på utviklingen i digitale tjenester og på tilrettelegging for utbygging av mobil infrastruktur og faste linjer.

Linköping topper listen, med Västerås på sølvplass.

Og beste norske tar bronseplassen i Skandinavia.

Sliter med kostnader
Hovedfunnene er at noe går rett vei, mens annet går tregere, sett med IT- og telekombransjens øyne.

Oppturen er noe mer utbredelse av digitale tjenester. Det er vesentlig for økt etterspørsel av bredbånd.


Nexia-rapporten viser utviklingen i de store skandinaviske kommunene når det gjelder digitale tjenester og tilrettelegging for mobil og fast infrastruktur.

Men selv om det bygges ut mye mobil infrastruktur og fiber, sliter utbyggerne med:

  • Steder å plassere basestasjoner uten at leieprisen er for høy til at det er lønnsomt.
  • Høye og varierende gravekostnader ved fremføring av fiber

Detaljene i rapporten finner du her (pdf).

Bremseklosser
Direktør Berit Svendsen i Telenor Norge anklager kommunene for å være bremseklosser.

– Norske kommuner skal ha ros for å være pådrivere for økt digitalisering, men det er et paradoks at mange også er bremseklosser for utbygging av mobilt og fast bredbånd.

Infrastrukturen er en forutsetning for en rekke tjenester som er viktige for norske kommuner, som trygghetsalarmer, sier Svendsen.

Svinger pisken
Hun kommenterte undersøkelsen på Telenors fagsamling «Status Teknologi-Norge» onsdag ettermiddag.

Her var også samferdselsminister Ketil Solvik-Olsen (Frp) invitert.

Og han lover å svinge pisken mot kommuner som tviholder på tradisjonelle regler for kabelgrøfter.

Tause kommuner
Statsråden har tidligere sendt et brev til alle norske kommuner og bedt om en velvillig holdning til nye metoder, som mikrotrenching med fresing av grunne spor. Dette er langt billigere enn dype grøfter med utskifting av masse.

– Jeg har ikke fått svar fra noen kommuner, så nå varsler jeg bruk av pisken. Det vil si at det kommer regler og forskrifter for å få ned gravekostnadene, sier Solvik-Olsen

Her noen hovedfunn fra undersøkelsen:

  • Innenfor digitale tjenester har den gjennomsnittlige poengsummen for alle kommuner økt fra 6,0 i 2012 til 7,0 i år. Samtlige norske byer har nå elektronisk barnehagesøknad, byggesøknad, e-faktura og sikker kommunikasjon.
  • Årets indeks omfatter også velferdsteknologi og e-helse. De fleste byene i Norge og Danmark er rimelig forberedt på innføring av digital velferdsteknologi, og noen norske og mange danske byer har lansert nye tjenester.
  • Fire av de fem beste kommunene på digitale tjenester er norske, med en framgang fra 5,9 i snitt i 2012 til 7,5 i 2014. Bærum og Trondheim har høyest score på digitale tjenester med 9,1 poeng, med Asker rett bak (8,9 poeng).
  • I alle landene er det tilbakegang på tilrettelegging av mobil infrastruktur. Dette området har den laveste poengsummen i indeksen. Det er vanskeligere å få plassert ut mobile basestasjoner på offentlig eiendom og bygg. Mange offentlige tjenester, spesielt innen velferdsteknologi, er avhengig av god arealdekning og robuste mobilnett med høy oppetid. Undersøkelsen viser at det er nesten dobbelt så mange mobile basestasjoner på kommunal eiendom i de svenske byene som i de norske, 23 prosent mot 13 prosent.
  • Svenske kommuner har høyeste poengsum for fast infrastruktur, hovedsakelig fordi de viser en bedre forståelse for dette og i større grad åpner for mikrotrenching. Metoden innebærer fremføring av fiber der det freses et snitt i grunnen hvor fiberkablene legges ned. Ingen norske kommuner tillater mikrotrenching, men noen har piloter.

Slik vil Dell revolusjonere datasentre

SKØYEN (digi.no): Dell introduserer i dag en helt ny form for serverløsninger, som skal kombinere det beste av rack- og blade-servere i ett produkt.

Produktet heter PowerEdge FX2, noe som helt konkret står for «Flexible Rack Unit 2U». Den nye arkitekturen er, ifølge Dell, en revolusjonerende måte å tilnærme seg konvergens og felles infrastruktur, med én plattform som kan bygges ut og skaleres.

Med stadig mer fokus på hyperkonvergerte løsninger og skyløsninger og mye mer automatisering i datasentrene, mener Dell at all deres erfaring med datasentre og servere kommer eksplisitt til nytte i FX-produktserien.

Poenget til Dell er at servervirtualisering er noe «alle» gjør, men fortsatt så henger nettverk og lagring litt igjen, og det å samle alt det i én løsning er en av veiene inn i fremtiden rundt «software defined storage» og networking. Meningen er å automatisere, gjøre det lettere å implementere ting, og gjøre det rimelig.

FX2-plattformen syr rack- og blade-servere sammen til én løsning. Der har man lagring, nettverk, servere, operativsystem, virtualisering, og applikasjoner på toppen. Og man administrerer alle deler av det i én og samme konsoll, noe som gjør det betydelig enklere å styre.

Dell påpeker at fordelene med rack er at man kan kjøpe en og en, siden det er standard størrelse på dem, det er enkelt å sette opp, og faller en ut så er det bare å sette inn en ny en. På blade-siden – som Dell har vært forkjemper for – har man en helt annen tetthet, enklere «management», og plass til flere servere i en chassis.

Men det er samtidig ulemper med begge løsningene: Rack tar mye plass, krever mye strøm og kjøling og får en dårlig tetthet, mens på blade-siden er problemet at når et helt chassis skulle falle ut, er det mange servere der som blir uten tilkobling til omverdenen. Man har heller ikke mulighet til å sette inn PCI-kort for GPUer og lignende ekstrautstyr på blade-servere.

Dell har derfor tatt det beste ut av begge leire og satt det sammen til én løsning. Det er snakk om en 2U-rackbasert konvergert plattform, hvor servermodulen er hentet rett ut av blade-verdenen, og det er samme type server som selskapet bruker i de større bladechassisene. Det er helt standard utforming på maskinvaren når det gjelder høyde, bredde og dybde.

Utformingen er samtidig modulær, og kan settes sammen som Lego-klosser, der man kan bygge opp løsningene slik man ønsker det, og bygge på dem videre ettersom behovene skulle øke, slik at kundene slipper den høye engangs-kostnaden.

Dells Arild Hansen forklarer til digi.no at alle elementene i løsningene kan byttes ut hvis noe skulle gå i stykker uten å måtte ta ned serverne, og det finnes PCI-tilkoblinger på baksiden slik at man kan koble til ekstrautstyr som GPUer eller mer lagring. Alle modulene stammer for øvrig fra 13. generasjons servere til Dell.

I samme slengen lanserer Dell også sin første mikroserver med full management. Denne har ikke Haswell-brikker, men Intel Atom CPUer, og det er en «system on a chip»-server med én CPU og 8 GB minne. Det passer bra for tilbydere som har mange små kunder, der hver kunde kanskje vil ha en egen server, mener Dell.

Det koker ned til at man kan gjerne få plass til fire ganger så mange noder som i tradisjonelle rack-servere til samme prisen og på samme plass.

Dells Per Kristoffersen oppsummerer lanseringen ovenfor digi.no: – Tankegangen er å pakke det hele mye mer komprimert, og du får både management-fordeler og prisfordeler. Det er det som driver utviklingen. Penger er én ting, men det med tid er noe alle våre kunder er alltid presset på. Vår oppgave er å finne opp og utvikle løsnigner som kan automatisere den daglige driften.

– Vi tror at dette er superaktuelt for mediumkunder og storkunder. De er hele tiden på jakt etter utnyttelsesgraden på datarommet sitt, noen planlegger å utvide eller bygge nye datarom, og denne type teknologi kan spare dem for flerfoldige millioner, når man får mer tetthet og mer kraft, eller tilsvarende kraft. Så vidt vi vet er det ingen andre som har den type løsning på markedet, sier Kristoffersen.

Den nye PowerEdge FX2-plattformen skal være tilgjengelig mot slutten av året, eventuelt tidlig neste år.

Knusende om IKT i helsesektoren

Da Bent Høie for ett år siden ble helseminister, ba han om å få utarbeidet en tilstandsrapport over IKT-situasjonen i norsk helsevesen. Den rapporten har han fått nå, og han beskrev innholdetEHiN-konferansen i går slik:

«Jeg ser at vi har noen krevende utfordringer. Utfordringer som er krevende hver for seg, men som også forsterkes av hverandre».

Dette er mildest talt et «understatement». Rapporten om IKT-utfordringene er knusende i sitt innhold. At den er grundig, reflektert, holdt i et sobert språk og utarbeidet av Helsedirektoratet selv (og ikke av et konsulentfirma som ellers er vanlig i offentlig sektor), gir den ekstra tyngde. Helsesektoren skal ha ros for å ha en åpen og reflektert over sine utfordringer.

Dette var noe av bakteppet for den store EHiN-konferansen (E-Helse i Norge) som Helse- og omsorgsdepartementet (HOD) arrangerte i samarbeid med IKT Norge med over 600 deltagere.


Arild Haraldsen er fast kommentator og spaltist i digi.no.

Departementsråd Bjørn-Inge Larsen fra HOD åpnet konferansen med å henvise til at Norge hadde vært tidlig ute og langt fremme med å ta i bruk IKT, men har de siste tiårene sakket akterut. Noe av problemene skyldes selve styringsstrukturen i helsesektoren. Den er «ikke elegant organisert» – som han uttrykte det – men tvert om lite samordnet og helhetlig, og fremstår fragmentert overfor pasienter og pårørende. Eller som rapporten sier:

«Sektoren er preget av mange aktører selvstendige aktører som i hovedsak foretar egne prioriteringer ut fra lokale behov og målsettinger. Samtidig som IKT-ressursene og – kompetansen er spredt i mange miljøer med mange beslutningstakere.»

Det er et behov for sterkere nasjonal styring og bedre samordning av et så viktig område, mente han.

IKT-utfordringene
Assisterende helsedirektør eHelse Christine Bergland gikk mer direkte inn på utfordringene slik de er fremkommet i Tilstandsrapporten. Her er noen av de viktigste funnene målt opp mot de målsetningene som er gitt i Stortingsmelding 9: Èn innbygger – en journal (pdf).

  • Dagens IKT-systemer understøtter ikke arbeidsflyt og helhetlige pasientforløp, særlig på tvers av virksomhetsgrenser.
  • Pasientinformasjon er i stor grad ustrukturert og det mangler felles terminologi og begrepsapparat.
  • IKT-systemene mangler funksjonalitet for å understøtte beslutningsstøtte og kvalitetsforbedring.
  • Det finnes ingen autorativ elektronisk pasientjournal. Informasjon blir gjengitt i fritekst i hovedjournalen.

På sidene 19 – 21 i rapporten er disse svakhetene målt opp i mot i hvilken grad man når målsetningene i St.meld 9. Svarene er nedslående:

IKT-systemene slik de er i dag, vil i liten grad bidra til å nå målene.

I tillegg er det utarbeidet en konsulentrapport (Gartner) som konkluderer med at norske og nordiske IKT-leverandører ikke leverer den funksjonalitet som er påkrevet.

Styringsutfordringer
Rapporten går grundig gjennom organiseringen av helsesektoren gjennom de senere år i lys av de politiske føringer og ambisjoner som er lagt til grunn, og konkluderer blant annet med: «Mangler i eller mangelfull styringsmodell medfører trolig lav samfunnsøkonomisk lønnsomhet i tiltakene». Videre heter det:

  • Dagens styringssystem er ikke tilpasset behovet for å gjennomføre helhetlige og koordinerte IKT-tiltak.
  • Det mangler en beslutningsmodell for initiering og finansiering av strategiske tiltak over en viss størrelse.
  • Finansieringsmodeller for felles IKT-løsninger er til dels uklare og det benyttes forskjellige modeller for ulike fellesløsninger.
  • Standarder for IKT, terminologi og kravspesifikasjoner er i liten grad tatt i bruk. DIPS (Distribuert Informasjons og Pasientdatasystem i Sykehus) som er den mest brukte programvaren i sykehussektoren i dag, brukes i forskjellige versjoner sykehus og regioner i mellom).
  • Nasjonal IKT har ikke realisert synergier på tvers av regionale helseforetak i henhold til intensjonene formulert i Styringsdokument fra 2003.

Med andre ord er det mye å ta fatt i. Ett av tiltakene kan være sterkere styringsgrep på nasjonalt nivå av helsesektoren. Dette var da også tema for den avsluttende paneldebatten under konferansen.

Paneldebatt om utfordringene
Deltagerne – som nok ikke hadde satt seg godt inn i disse rapportene siden de er helt ferske (offentliggjort 21.10), var enige om at veien å gå ikke er å legge ansvaret til ett organ med tilstrekkelige fullmakter og midler for gjennomføring på langs og tvers i sektoren. Flere pekte i stedet på forsterkning av de mer indirekte styringsmidler, gjennom lovgivningen, pålegg om bruk av standarder, bedre incentivopplegg og klarere kostnadsberegninger for gjennomføringen.

Særlig er det å merke seg tre forslag:

  • Roger Schjerva fra IKT-Norge mente en kunne øremerke en del av de midlene som nå blir tilbakeført til fellesskapet ved å redusere driftsutgiftene i etatene (0,5 prosent som tilsvarer 1,4 milliarder kroner, se min kommentar til statsbudsjettet om dette)
  • Trude Andresen fra KS mente kommunesektoren i sterkere grad måtte komme inn som en likeverdig partner med statlige helseforetak, og ikke bli invitert «til dialog med», det vil si å delta på helseforetakenes egne premisser.
  • Flere mente også at bestillerkompetansen måtte økes ved anskaffelse av IKT-systemer, og at anskaffelsesreglementet bør endres og i alle fall utnyttes bedre – noe KS pekte på at det var det anledning til allerede i dag med dagens regelverk.

Visjonen om et fremtidig eHelse-Norge
Bakgrunnen for denne diskusjonen er jo «eldrebølgen». Det vil si at kravet til, og omfanget av, omsorgstjenester øker radikalt i årene som kommer. Men det er kanskje galt utelukkende å ha dette som bakgrunnsbilde: Faktum er at markedet for ikke bare helsetiltak til syke og eldre øker, men at det totale marked for helse- og sunnhetstiltak til hele befolkningen øker. Økt oppmerksomhet på kosthold, trening, følge opp egen helse et cetera, vil i nærmeste fremtid utgjøre et stort marked.

Geir Jacobsen fra Innovasjon Norge dro derfor opp en sammenligning med etableringen av oljesektoren i sin tid. Da sto man ovenfor upløyd marked, men gikk inn i et samspill mellom privat og offentlig sektor og skapte i løpet av kort tid et oljeeventyr – ikke bare i form av olje- og gassproduksjon, men ved å ha skapt verdensledende teknologi og leverandører som konkurrerer på et globalt marked.

Han så derfor for seg tilsvarende i helsesektoren: et samspill mellom privat og offentlig sektor over landegrensene for å skape et helhetlig nordisk marked for helsetjenester. Flere andre var også inne på at man i større grad kunne gjøre seg nytte av det man hadde oppnådd i Danmark og Sverige. Kanskje kunne da dette en helsefaglig «eksportartikkel» i årene fremover, slik leverandørene i oljeindustrien har opplevd.

EHiN-konferansen bør bli en tankevekker for så vel helsepersonell, politikere og IKT-leverandører. Konferansen ble stramt og elegant styrt av Nard Schreurs fra IKT-Norge. Har vi svaret på utfordringene i neste års EHiN-konferanse?

Informasjon om debattinnlegg og kronikker i digi.no

Alle innlegg må sendes til redaksjon@digi.no. Husk å legge ved et portrettbilde. Vi forbeholder oss retten til å redigere innsendt materiale.

Hjertet av en målbar nettstrategi

Etter å ha jobbet 15 år med content management leste jeg Helge Skriverviks innlegg om «CMS utgått på dato» med stor interesse. Jeg må si med enig med en del av det han skriver, men må innrømme at jeg mener konklusjonen ikke stemmer med realitetene.

For å ta det jeg oppfatter som det underliggende budskapet er at informasjonen må gjøres lettere tilgjengelig. Det er alt for mange systemer som ikke har klare mekanismer for enkel utveksling av informasjon. Jeg mener at utveksling per definisjon skjer mellom systemer. Informasjonen som lever i CRM, ERP og DAM vil fortsatt ha sin rett, men kravene til tilgjengelighet har endret seg. Det skal være enkelt å hente ut informasjon. Så åpenheten som Helge nevner er jeg helt enig i.

Videre har Helge også rett i at trender som tingenes internett (internet of things), digitale tjenester og store datamengder har endret og vil videre endre kravene til systemene vi bruker. Og han har rett i at leverandører som sover i timen dessverre ikke har noen lys fremtid. Vi lever i en verden der det ikke er mer enn 5-6 år siden verdens suverent ledende mobilprodusent het Nokia, som ikke lenger eksisterer.


Aleksander Farstad er adm.dir og medgründer i eZ Systems.

Jeg må si at jeg ikke er enig i det semantiske skiftet at Content Management vil bli Data Management. La oss starte med noen definisjoner

  • Data er per definisjon rådata uten nødvendig mening, struktur eller semantikk.
  • Informasjon kan i denne sammenheng sees på å forstå hva dataene representerer – super relevant når vi snakker om analyser og data fra internet of things.
  • Content kan sees på som en håndterbar mengde informasjon. Knyttet med semantikk, metadata, versjonshåndtering og så videre. Eller foredlet data om du vil.

Men dette er ikke en diskusjon om semantikk. En trend vi hører om i dag er Content-as-a-Service (CaaS), som du kan lese mer om her. CaaS kan sees på som enkel utveksling av innhold. Det er jo ikke noe annet enn strukturert innhold som enkelt kan flyttes mellom ulike system, noe som er velkjent innen media hvor syndikering av innhold er vanlig.

Vi har sett flere trender gjennom de siste 15 årene. Fra de første årene da Content Management handlet om publisering og websider, til tiden da sosiale medier var hypet, til mobile tjenester og apper og digital markedsføring og content as a service. Dette er to parallelle trender vi ser for data innen Internet-of-things og big data og content as a service. Uten at noen av dem kommer til å erstatte hverandre. Derimot må de må spille sammen.

Heller enn at Content Management Systemet blir mindre relevant, ser vi at det mer relevant enn noen gang. Et moderne CMS er bygd for content-as-a-service, med åpne standarder og grensesnitt. Dette blir limet, selve kjernen i digitale løsninger. Det som binder dem sammen, skaper frihet og muligheter, samt sørger for at man kan optimalisere verdien av innhold og data.

Big content
Det er mye snakk om big data, men et viktigere begrep vil jeg si er big content. Hvor man har semantikken, strukturen, relasjonene og kan si noe om dataene. Et moderne CMS sørger for at innhold er åpent og tilgjengelig, at det kan gjenbrukes over ulike løsninger og kanaler, at det kan analyseres og presenteres, at det kan optimaliseres, at det kan være med å skape merverdi ut av innholdet.

Jeg synes også konklusjonen til Helge faller litt sammen ved å bruke WordPress som et eksempel. WordPress gjør jo det motsatte og lagrer «data» og ikke innhold. Det vil si at de lagrer formatert innhold i form av HTML og ikke informasjon som kan gjenbrukes. Dette er jo hele prinsippet til åpen informasjon. Han har rett i at WordPress er et enkelt publiseringssystem og brukes deretter. Men da går man også glipp av mange muligheter for å skape merverdi ut av sitt innhold.

En ting som er sikkert er at utviklingen ikke vil stå stille. Men jeg er sikker på at data i fremtiden ikke vil være det samme som innhold, og at vi som jobber med innholdssystemer vil måtte tilpasse oss for å sørge at vi kan fortsatt hjelpe våre kunder med å skape merverdi. Hvis ikke er jeg helt sikker på at vi vil få samme skjebne som Nokia.

Informasjon om debattinnlegg og kronikker i digi.no

Alle innlegg må sendes til redaksjon@digi.no. Husk å legge ved et portrettbilde. Vi forbeholder oss retten til å redigere innsendt materiale.

– Få meldingstjenester er sikre

Direkte fjernkommunikasjon mellom mennesker skjer i mindre grad med vanlig eller mobil telefoni enn tidligere. Stadig flere benytter én eller flere internett-baserte kommunikasjonstjenester. Men det siste årets avsløringer om massiv overvåkning antyder at det kan være ukjente som også avlytter kommunikasjonen.

Den digitale rettighetsorganisasjonen Electronic Frontier Foundation (EFF) den sammenheng vurdert en rekke mer eller mindre kjente kommunikasjonsverktøy med utgangspunkt i personvern og sikkerhet. Funnene har blitt presentert på en resultatsliste som er tilgjengelig her.

– Mange nye verktøy hevder å beskytte deg, men inkluderer ikke kritiske egenskaper som ende-til-ende-kryptering eller sikker sletting. Resultatlisten gir det faktaene du trenger for å velge riktig teknologi til sending av meldingen din, sier Peter Eckersley, direktør for teknologiprosjekter ved EFF, i en pressemelding.

EFF har studert omtrent 40 applikasjoner for enten utveksling av tekstbaserte lynmeldinger, for lyd- og videosamtale, e-post eller en kombinasjon av dette. Det har blitt sett nærmere på syv ulike, sikkerhetsrelaterte faktorer, inkludert om meldingene er krypterte både via internett og hos leverandøren, og om kildekoden er revidert og åpen for uavhengig gjennomgang.

6 av 40
Bare seks verktøy fikk full poengsum, altså syv poeng. Dette var ChatSecure, CryptoCat, Signal/Redphone, Silent Phone, Silent Text og TextSecure. Ingen av de mest kjente tjenestene fikk full poengsum, men Apples iMessage og FaceTime fikk i alle fall fem poeng. Det som mangler er mulighet for uavhengig gjennomgang av kildekoden og mulighet for verifisering av identiteten til kontakter.

En klar svakhet hos mange av tjenestene, inkludert Facebook Chat og Google Hangouts, er manglende kryptering på tilbydersiden. Det betyr at meldingene i praksis kan leses av andre, kanskje også uten rettskjennelse.

Enda verre er det med tjenester som QQ, Mxit og desktop-utgaven av Yahoo Messenger. Disse har ingen kryptering over hodet.

– Vi er fokusert på forbedring av verktøyene som vanlige brukere trenger for å kommunisere med venner, familiemedlemmer og kolleger, sier Nate Cardozo, en advokat ansatt i EFF.

– Vi håper at Secure Messaging Scorecard vil starte et kappløp om å nå toppen og bidra til innovasjon innen sterkere og mer brukervennlig kryptografi, sier Cardozo.

Google åpner «hurtigfil» til skyen

Google arrangerte i går konferansen Google Cloud Platform Live i San Francisco og kunngjorde i den forbindelse en rekke nettsky-relaterte nyheter.

Den ene nyheten er introduksjonen av tre nye tilkoblingsmuligheter som skal tilbys bedriftskunder som ønsker raskere eller sikrere tilgang til tjenester selskapene har i Google nettsky.

Den ene metoden er direkte «peering». Det vil si at kunden kobler sitt nettverk direkte til Googles nettverk. Dette er mulig ved drøyt 70 steder i 33 ulike land. Selve oppkoblingen er gratis, men kunden betaler mellom 0,04 og 0,06 dollar per gigabyte som sendes ut av Google nettsky via peering-forbindelsen.

Google sammenligner dette med at kundene kan opprette sin egen, private ekspressfil på en ellers overfylt motorvei, altså det vanlige internett. Denne muligheten skal være spesielt rettet mot selskaper som har behov for å overføre og prosessere store mengder data svært raskt.

Ifølge Wall Street Journal er dette noe Amazon og Microsoft allerede tilbyr, og som Google har manglet.

En alternativ metode er å koble seg til Google nettverk ved hjelp av «Carrier Interconnect», det vil si gjennom utvalgte tjenestetilbydere som er direkte tilknyttet Googles nettverk. Det er mulig å benytte VPN-tunneler mellom nettverkene. Google krever samme pris for dette som ved direkte peering, men i tillegg kommer avgifter fra tjenestetilbyderen. Foreløpig er det sju selskaper som tilbyr dette.

Den tredje, nye muligheten er VPN-forbindelse via internett. Denne tjenesten skal ifølge Gigaom først lanseres i januar 2015. Den vil ikke gi høyere fart, men sikkerheten forbedres.

Konteinere
En annen, ny tjeneste Google introduserte i går, er Google Container Engine. Foreløpig er denne dog på alfa-stadiet og dermed ikke egnet for produksjon. Løsningen er basert på verktøyet Kubernetes for administrasjon av konteinere i klynger, og Docker-konteinere. I praksis setter Google Container Engine sammen en gruppe med virtuelle maskiner av typen Google Compute Engine til en klynge som konteinerne kjøres på toppen av.

Både Docker og Kubernetes er basert på åpen kildekode. Begge støttes av en stadig økende mengde av tjeneste- og programvaretilbydere, inkludert IBM, Microsoft, Red Hat og VMware. Dette skal gjøre det enkelt for kunder å flytte applikasjonene mellom ulike hostingmiljøer.

Google opplyser at også Google Container Engine er designet for mobilitet fra bunnen av, for eksempel å flytte den mellom en lokal installasjon i bedriften og en offentlig nettsky, ja til og med la den kjøres på tvers av flere ulike, offentlig nettskyer.

Knyttet til PaaS-tjenesten (Platform as a Service) App Engine har Google kommet med en betautgave av Managed VMs, som gjør det mulig å kjøre App Engine-baserte applikasjoner på virtuelle maskiner som kundene til en viss grad kan konfigurere, blant annet ved å legge til tredjepartsbiblioteker og -rammeverk, samt valg av minnestørrelser og CPU-er.

I tillegg til en rekke andre nyheter, kunngjorde Google i går priskutt på mellom 23 og 79 prosent på utgående nettrafikk, lagring og database.