Framtiden for statistisk og økonomisk analyse

Hvordan benytte RAG (Retrieval-Augmented Generation) for å identifisere avvik i budsjettering og planlegging

Fra statiske rapporter til dynamiske insikter

Før: tradisjonell analyse

Tradisjonelle metoder for statistisk analyse kan ha problemer med store mengder ustrukturerte data. Dette kan medføre mye manuelt arbeid for hver datakilde og kan samtidig introdusere feil som er vanskelige å fange opp.

  • Krever tid + penger for hver iterasjon
  • 🔗 Data er lagret i siloer
  • 💬 Mangel på overordnet forståelse og sammhandling på kryss av datakilder
  • 📈 Statiske, forhåndsdefinerte rapporter

Nå: Tilpasset KI assistent (RAG)

Automatisert, presis og interaktiv. En tilpasset KI assistent bygget for din virksomhet med kontrolert datatilgang transformerer din virksomhets datakilder om til et unikt og kontekstrettet datasett der brukeren kan benytte normal-språk for å gjøre avanserte uttrekk og analyser.

  • 💡 Altid tilgjengelig, altid klar til å svare
  • 🌐 Ensartet og enhetlig datatilgang
  • 💬 Full sammhandling på kryss- og uavhengig av datakilder
  • 🤖 Dynamisk, øyeblikksanalyser

Nivå 3 – Tilpasset KI-assistent

Vår strategi følger en flertrinns prosess som omdanner rå- og komplekse data til en strukturert og søkbar ressurs for å identifisere forbedring- og risikoområder.

🗃️

1. Konsumere og transformere

Lokal analyse

📝

2. Integrere og vektorisere

Lokal, spesialisert språkmodel

🔍

3. Lagre og hente

Data lagres kun lokalt

💬

5. KI-assistenten settes i arbeid

Språkmodellen genererer svar

←→
🗣️

4. Interaktive spørringer

Brukerens interaksjon

Steg 1: Et solid fundament for data innsamling

Hvordan "temme" store mengder data.

Det første vi gjør er å kvalitetssikre datakildene. Vi benytter numeriske rammeverk for å transformere datakildene til en form vi kan arbeide med. Rammeverkene er spesielt tilpasset vektorisering av store mengder tekstuelle data og sikrer rask, resurseffektiv innlesing.

Fra ustrukturert til strukturert

Finansielle data framstår ofte som ikke lett tilgjengelig. Dataenes struktur gjør at de for et naturlig-språk søk framstår som ustrukturerte. Vi gjør noe med dette. KI-assistenten er ypperlige til å analysere finansielle data ved å automatisere oppgaver, behandle enorme datamengder lynraskt, identifisere subtile mønstre og avvik som mennesker ofte overser, samt gi sanntidsinnsikt for forbedret beslutningstaking, svindeloppdagelse og risikostyring

Nøkkelfunksjonalitet

  • Forbedret risikoanalyse med KI: Ved å behandle enorme datamengder identifiserer KI-assistenten subtile varianser og avvik som kan avdekke og indikere potensiell risiko.
  • Prediktiv trendanalyse via automatisering: KI-assistenter benyttes til å detektere avvik som igjen brukes til å forutsi fremtidige markedsbevegelser og atferd. Dette tillater beslutningstakere å agere proaktivt.
  • Avviksdeteksjon:KI-assistenter har evnen til å raskt oppdage uregelmessigheter som avviker fra normale trenderm og er kritisk for å avdekke svindel, feilrapportering, feilbudsjetering eller andre uønskede hendelser.
  • Datastruktur og analyse for innsikt: KI-assistenten jobber aktivt med å restrukturere og analysere data for å muliggjøre det å kvantifisere varians og trender.

Steg 2 og 3: Semantisk analyse

Fra databaserader til godt norsk

En KI-assistent kan ikke tolke tabellradene uten hjelp, vi transformerer derfor alle rader om til en beskrivende settning. Denne prosessen skaper full kontekst og gjør de nå strukturerte dataene lett tilgjengelige for spesialiserte språkmodeller (embedding).

Fra: (Dept: IT, Actual: 225k, Budget: 175k)

Til: "IT-avdelingens utgifter i tredje kvartal var 225 000 NOK mot et budsjett på 175 000 NOK, et kostnadsavvik på 28,5% (50 000 NOK i merforbruk)."

Finansiell semantikk

Ved å bruke en spesialisert språkmodell (Sentence-Transformers) omformes hver eneste tekst blokk om til en numerisk vektor (embedding). Denne semantiske analysen gjør at KI-asisstenten er i stand til å forstå og svare på spørsmål i formen "Finn områdene som bruker mest penger sammenlignet med budsjett."

Det å visualisere variansen hjelper til med å identifisere de områdene som anses som problematiske.

Steg 4: Vektordatabase, lagring og henting

Vektordatabasen

Alle "embeddinger" er lagret i vektordatabasen. Like viktig er det av vi lager et rikt sett med metadata i tilknyttning til hver vektor. Dette tillater oss å koble på KI-agenter for å filtere, normalisere og re-ranke alle reslutater før de presenteres til brukeren.

Å forstå sammensettingen av variansen er viktig. Metadata tillater oss å filtere direkte på nøkkeldata i databasen.

Databasespørringer

En typist spørring mot databasen blir prosessert på følgende måte; En "naturlig-språk" spørring blir benyttet til å filtere dataene på bakgrunn av relevans i metadata-settet. En eller flere KI-agenter tar der etter over og gjør en søk etter relevante resulater, filterer og re-ranker disse. Til slutt blir hele konteksten som er bygget opp fra det initiell spørsmålet levert til språkmodellen (steg 5.)

User Query:

"Vis meg om Markedsavdelingen brukte for mye penger i 3. kvartal"

steg 1: Filtrering på meta-data

WHERE department = 'Markedsavdeling'
AND quarter = 'Q3'
AND variance_percentage > 10

steg 2: Semantisk søk

Resultatet er basert på dokumenter som oppnådde høyeste treffrate og høyeste rangering på "brukte for mye penger".

Steg 5: "Promt engineering"

Det siste og avgjørende steget er å fore alt vi har funnet inn i LLMet, eller den "store" språkmodellen. Her er det viktig å bruke resurser på effektiv og presis "Promt Engineering" Jo bedre "Promt" jo mer presist svar kan vi forvente.

A

Spørsmål

Kan du forklare det store avviket i 3. kvartals markedsbudsjett for kategorien "Digital markedsføring"?

RAG-System svar

Naturligvis: Markedsavdelingens "Digital markedsføring" kategori hadde høyere utgifter enn forventet. 175,000NOK (som er en 15% negativ varians) i 3. kvartal.

Notater fra prosjektmøter indikerer at denne utgiften kom som følge av en kampanje som ble lansert som et tilsvar til en konkurent som lanserte ett nytt produkt. Kampanjen isolert sett er oppført med en ROI på 250%.

🤖