Ekstremsøk etter den siste olje

Næringsliv og forskere har etablert et nytt senter for forskningsdrevet innovasjon (SFI) som skal utvikle ekstreme søk- og analyseverktøy for blant annet å finne og hente opp vanskelige oljeforekomster.

SFI-en kalles Sirius og ledes av Universitetet i Oslo.

Les mer om siste runde av SFI-tildelinger.

Enorme datamengder
Arbeidet tar sikte på å utvikle teknologi som gjør det praktisk mulig å hente ut og utnytte informasjon fra enorme datamengder i mye større grad enn før.

– Vi har alle opplevd hvor vanskelig det kan være å finne filen vi leter etter på datamaskinen. For store norske bedrifter snakker vi om millioner av filer på tusener av datamaskiner. Å finne riktig informasjon blir som å finne nåla i høystakken, hvis man bare visste hvilken høystakk man skal begynne å lete i.

Slik beskriver samarbeidspartnerne sitt arbeid i en felles pressmelding fredag morgen.


Professor Eric Monteiro ved Digital Oil på NTNU peker på at det er umulig å google oljedata.

IBM og Numascale
Her samles noen av de mest ressurssterke virksomhetene, som IBM, Steria, Numascale, Statoil, Conoco Phillips, NTNU og University of Oxford.

IBM er fått god trening på å håndtere big data, mens Sterias styrke ligger på tjenester. Statoil leter på felt der oljen er vanskelig å finne, men Conoco Phillips har satt seg saftige mål for å hente langt mer opp av norsk sokkels eldste felt, Ekofisk.

– Oljesektoren har gått fra å være en cowboybransje med tradisjonelt håndverk til stadig mer kunnskapsarbeid der informasjonsprosessering blir mer sentralt, sier professor Eric Monteiro, prosjektleder for Digital Oil ved NTNU.

Les også: Skrur ventilene hundre ganger raskere

Vanskelig olje
Utgangspunktet er at den såkalt enkle oljen er hentet opp.

Det ligger store verdier under havbunnen, men den oljen og gassen er vanskeligere å finne og hente opp på lønnsomt vis.

Både boring og produksjon genererer store mengder data fra blant annet sensorer og seismikk.

– Men du kan ikke «google» denne informasjonen. Den ligger spredt på ulike systemer og innenfor ulike fagområder. I dag tar det dager og uker å sette sammen og analysere data til beslutningsstøtte, sier Monteiro til digi.no.

Geodata
– En av utfordringene vi står overfor er tilgang til den nyttige informasjonen som finnes i vårt store volum av data. Vi ser derfor dette som en god mulighet til en bedre utnyttelse av våre geologiske data, sier konserndirektør på IT i Statoil, Sonja Chirico Indrebø.

Big data
Her står IBMs kompetanse på big data sentralt.

Det samme gjør teknologi for delt minne fra norske Numascale, som syr sammen ressursene fra flere enheter til større kapasitet.

Dolphin Interconnect Solutions har spesialisert seg på raske nettverksløsninger som nå skal kobles mot big data-problemstillinger.

Ukjent kvalitet
I tillegg til å finne og sete sammen all informasjonen, må den kvalitetssikres.

– Hvis vi ikke kan stole på at den er korrekt, blir den heller ikke brukt til å fatte beslutninger, poengterer Digital Oil-sjef Monteiro.

For mye sensordata er ikke uten videre til å stole på.

– Elektroniske følere i en oljebrønn har kort levetid, kanskje bare et par år. Og en slik sensor kan være dårlig kalibrert. Derfor må vi i tillegg finne frem til fagfolkene som står bak innsamlingen og få deres vurdering av kvaliteten på informasjonen, sier Monteiro.

Lab
Partene skal jobbe sammen i et laboratorium for å utvikle teknologier og verktøy som skal kunne samle inn og analysere store datamengder.

SFI-arbeidet går over åtte år, med en evaluering underveis etter fem år.

Leave a Reply

Your email address will not be published.