<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=2233467260228916&amp;ev=PageView&amp;noscript=1">

Å betale eksperter for å tenke, ikke lete: Slik frigjør AI produktiviteten i subsurface‑arbeid

Redaksjonen
02/18/2026 |

Av Dr. Thibaud Freyd og Dr. Raphael Peltzer


En typisk morgen for en geoforsker

Se for deg en typisk morgen: En geoforsker trenger reservoartrykkdata fra Maastrichtian-intervallet for brønnene på Johan Sverdrup-feltet. Det burde være enkelt, ikke sant? Hun starter søkeverktøyet sitt. Taster inn spørringen. Får tilbake PDF-filer med "Johan Sverdrup" i filnavnet. Noen skannede dokumenter fra 90-tallet. Noen daglige borerapporter der "trykk" blir nevnt et sted, om noe helt annet. Ingen av dem gir henne det hun trenger.

Den manuelle jakten begynner. Åpne PDF-filen. Søk etter "Maastrichtian". Bla gjennom. Finne en tabell. Kopier tallene. Åpne neste PDF-fil. Gjenta. To timer senere har hun ... noe. Kanskje det riktige svaret. Hun har definitivt gått glipp av en liten fotnote i en rapport fra 2018 som nevner unormale trykkmålinger under en spesifikk borefase. Den fotnoten kan ha spart teamet hennes for flere ukers arbeid.

Dette handler ikke om dårlig teknologi. Det handler om et misforhold mellom hvordan vi lagrer informasjon og hvordan vi trenger å bruke den. I olje- og gassindustrien har vi gjort en god jobb med å digitalisere strukturerte data: brønnlogger, seismiske spor, produksjonstall. Rene, organiserte og tilgjengelige med for eksempel OSDU. Men den virkelige kunnskapen – forklaringene, konteksten, "hvorfor fungerte det?" – sitter fortsatt fast i det vi kaller "tekstsuppe": hauger av PDF-filer, skannede rapporter, eldre dokumenter som ingen søkemotor egentlig forstår.

Hvorfor søkeverktøyene tar feil

Her svikter de tradisjonelle søkeløsningene. De forstår ikke at "reservoarkvalitet" er relatert til "porøsitet" på tvers av hundrevis av rapporter som bruker ulike termer. De skjønner ikke at avsnittet "3.1 Kjerneanalyse" hører sammen med tabellene og figurene under. De kan ikke skille tilfeldige omtaler fra detaljerte analyser.
De fleste demoer for "chatte med PDF-filen" gjør den samme feilen.  De behandler dokumenter som flat tekst. Men undergrunnsdokumenter er ikke flate! De har struktur: overskrifter, underoverskrifter, tabeller som strekker seg over flere sider, roterte overskrifter, figurer som faktisk betyr noe.

Da Equinors CIO sa at de ansatte bruker 80 % av tiden sin på å lete etter data i stedet for å analysere dem, snakket hun ikke om et teknologisk problem. Hun beskrev kognitiv overbelastning. Ingeniører analyserer ikke data; de leker arkeologiske detektiver med informasjonsfragmenter som ligger spredt overalt.

Sett sammen puslespillet på nytt først

Vi prøvde noe annet. Vi satte sammen dokumentet på nytt før vi søkte i det. I stedet for å trekke ut tekst og håpe på det beste, gjenoppbygger vi først dokumentets logiske og semantiske struktur – og behandler overskrifter, avsnitt, tabeller og figurer som meningsbærere. Kontekst er viktig: En porøsitetsverdi i delen "Kjerneanalyse" i en brønnrapport gir innsikt, ikke bare data.
Men struktur alene var ikke nok, vi trengte søk som forstod både mening og spesifikke termer. Derfor brukte vi hybrid gjenfinning: meningsbasert vektorsøk ("reservoarkvalitet" ≈ "porøsitet") pluss eksakt søkeordmatching med BM25 pluss synonymutvidelse ("Christmas Tree" = "Flow Control Assembly"). Vi fusjonerte disse resultatene ved hjelp av Reciprocal Rank Fusion (RRF) for å balansere relevansen, og deretter prioriterte den semantiske rerankeren de mest kontekstuelt nøyaktige treffene. Nå finner "trykktrender i Maastrichtian-intervallet for Johan Sverdrup-brønner" det du trenger, selv når ulike rapporter bruker forskjellige formuleringer.

Smart chunking utgjør forskjellen

De fleste systemer deler opp dokumenter i tekstbiter av fast størrelse med overlapp, uten å ta hensyn til at en tabell kan begynne på én side og slutte på den neste. Vår header-aware chunking går gjennom det rekonstruerte dokumenttreet og bevarer hele seksjoner som enkeltdeler når de passer, slik at "3.1 Kjerneanalyse" forblir sammen med dataene sine. Når rekonstruksjonen mislykkes på grunn av dårlig optisk tegngjenkjenning (OCR), går vi tilbake til naiv chunking med overlapping for å opprettholde en kontinuerlig dataflyt. Deretter sendes bitene, eller chunkene, til en innstøpningsmodell for å generere semantiske innstøpninger (f.eks. OpenAIs text-embedding-3-large).

Sikkerhet først, ikke senere

I olje- og gassindustrien handler problemer med data ikke bare om penger. De handler om sikkerhetsprotokoller og flere tiår med konkurransefortrinn.
De fleste "chat med PDF"-systemer tar en risikabel snarvei: søk først, filtrer etterpå. De kjører brede semantiske vektorsøk og bruker deretter sikkerhetsfiltre på toppresultatene. Dette skaper "stille lekkasje": Sensitive data kommer inn i søkeprosessen før tilgangskontrollen, selv om de blir forkastet senere. I tillegg, hvis du ber om topp ti-resultatene, og åtte blir filtrert bort, ser brukerne dårlige resultater og antar at hele løsningen er søppel.
Vi snudde rekkefølgen: identitet, deretter tilgang, deretter søk.

Før ethvert vektorlikhetssøk validerer vi brukeridentiteten via Entra ID, tilordner effektivt gruppemedlemskap til Open Subsurface Data Universe (OSDU) Access Control Lists (ACL-er) og bruker OData-filtre for å begrense søkeuniverset til kun autorisert innhold. Uautoriserte dokumenter blir aldri vurdert.
Forsinkelsestiden forblir lav fordi vi ikke rangerer dokumenter vi vil forkaste under genereringen av meldingen. Hver spørring etterlater et revisjonsspor som viser hvem som har hatt tilgang til hva, når og med hvilke rettigheter.
Vi lagrer en "skyggeindeks" – bare biter, embeddings og metadata med signerte pekere tilbake til de virkelige OSDU-postene. Vi lagrer aldri originaldokumenter, og en synkroniseringspipeline oppdager endringer oppstrøms og oppdaterer indeksen for å forhindre datadrift. Alle svar siterer kildedokumenter med direkte lenker for verifisering – ingen svartbokssvar.

Fra å finne svar til å iverksette tiltak

Dette oppsettet muliggjør noe mer interessant enn bare bedre søk. Vi jobber mot Reasoning + Acting (ReAct)-systemer.
Tradisjonell Retrieval Augmented Generation (RAG) svarer på spørsmålet "Hva er trykket i reservoaret?" ReAct planlegger "Hvordan kan vi optimalisere produksjonen med tanke på nåværende reservoarforhold, driftsbegrensninger og tidligere resultater?"
Dette åpner for muligheter som brønnplanleggingsagenter som henter geologisk kontekst fra ustrukturerte rapporter og genererer planer, samsvarsagenter som overvåker regelverk og flagger problemer, og anomalideteksjonsagenter som kombinerer sensordata med hendelsesrapporter for å forutse problemer før de eskalerer. Dette er hva som skjer når et system faktisk forstår innholdet i stedet for bare å indeksere det.

Fungerer dette faktisk?

Vi testet løsningen på 250 undergrunnsspørsmål kuratert av domeneeksperter – reelle problemstillinger som geoforskere faktisk står overfor. Vi målte presisjon, tilbakekalling og cosinuslikhet og integrerte et LLM-as-a-Judge-rammeverk for referansebenchmarking.
Sammenlignet med baselinemetoder (naiv chunking): opptil 20 % bedre nøyaktighet i å finne riktige svar. Header-aware chunking ga betydelig bedre resultater enn splittinger med fast størrelse. Hybrid gjenfinning reduserte antall falske positiver samtidig som tilbakekallingen ble opprettholdt. Konservativ innstilling prioriterte nøyaktighet fremfor fullstendighet for å bygge faktisk tillit.
Når spørringen er tvetydig (f.eks. "Brønn A" eller "Brønn B"?), ber systemet om en avklaring før det søker. Denne "human-in-the-loop"-tilnærmingen begrenser vektorområdet til spesifikke ressurser via strenge OData-filtre, slik at søket blir presist og fokusert på de aktuelle dokumentene, noe som bidrar til å forhindre dyre feil før de skjer.

Den virkelige gevinsten

Når folk bruker mindre tid på å lete gjennom dokumenter og mer tid på å analysere dem, oppnår organisasjoner produktivitetsgevinster. Enkle modeller (roller × oppgaver/måned × spart tid × full belastning) antyder potensielt betydelige driftsbesparelser i stor skala.
Verdien er ikke bare spart tid, det er bedre beslutninger som tas med fullstendig kontekst, oppdagelse av skjulte mønstre på tvers av dokumenter og "hva om"-spørsmål som tidligere var for tidkrevende.
Arkitekturen skalerer naturlig takket være den modulære utformingen. Rekonstruksjonspipelinen vokser med dokumentvolumene. Gjenfinningsmotoren håndterer økende spørringstrafikk. Rettighetssystemer tilpasser seg organisasjonens kompleksitet. Som byggeklosser legger du til kapasitet der det trengs, uten å bygge om alt.
AI-landskapet endrer seg hver måned; nye Large Language Models, bedre embedding-modeller, nye rammeverk eller nye OCR-funksjoner dukker stadig opp. Vi har bygget løsningen for fleksibilitet. Modulære komponenter og kontinuerlig overvåking av leverandørens veikart betyr at vi kan forbedre en hvilken som helst del av løsningen uten å rive ned alt.

Fra "tekstsuppe" til pålitelige svar

Å gå fra "tekstsuppe" til pålitelig AI handler ikke om å erstatte mennesker – det handler om å gi dem verktøy som faktisk hjelper. Verktøy som forstår konteksten, respekterer sikkerhetsgrenser og viser hva de gjør.

Vi har tatt tak i de store problemene med ustrukturerte data i olje- og gassindustrien: semantisk forståelse, hybrid gjenfinning og sikkerhetsfokusert design. I dag handler det om å finne dokumenter raskere. I morgen er det systemer som planlegger brønner, sjekker samsvar og oppdager driftsproblemer samtidig som de beholder revisjonssporet og sikkerheten som energiselskapene trenger. Pålitelig AI som gir fagfolk mulighet til å innovere uten å gå på akkord med det som betyr mest.

Ønsker du mer informasjon

Kontakt gjerne vår AI og Emerging Data avdeling