Om Hjørnet

I bloggen min skriver jeg om det som faller meg inn der og da. Derfor har den ingen rød tråd eller samlende tema, med den konsekvens at kategorien Diverse ganske stor. Bloggen min inneholder meninger, anekdoter fra dagliglivet, konspirasjoner, anvendt finans, filosofering, dikt jeg har skrevet og mye mer. Den dagen det bare er tørt […]

Print Friendly

Les videre »

Kontakt

Navn (nødvendig):

E-mail (nødvendig):

Emne:

Melding:

Skriv bokstavene i bildet under:

captcha

Print Friendly
Del denne posten:

Abonnér

Legg igjen e-mail, så får du mail når jeg publiserer nytt innhold.

Ta kontakt i sosiale medier

Du finner meg her:

Mye lest siste 30 dager

Sorry. No data so far.

Søk, og du skal finne (håper jeg)

Modellering og dataanalyse

25.03.09 i NerdeHjørnet

Vi økonomer forsøker ofte å modellere hvordan fremtiden vil bli.  Økonomer er i grunn en gruppe synsere som tar et lass med forbehold etter at vi har synset om noe.  Målet med den mer eller mindre begrunnede synsingen er at man skal gjøre fremtiden noe mer forutsigbar enn den vil være om man bare tar den helt som den kommer, etter hvert som den kommer.

Onde tunger vil selvsagt hevde at vi ikke er spesielt flinke til det.  Du kan vel telle på omtrent en hånd de som klarte å se finanskrisen komme, for eksempel.  Og de har rett.  Dette er ikke lett.  Spørsmålet er bare om det ville vært bedre å ikke forsøke en gang.  Jeg tror svaret på det er nei. 

Det har vært reist betydelig kritikk rundt bruken av såkalte Value at Risk modeller.  Dette er modeller som sier noe om risiko, gitt at verden utvikler seg noenlunde normalt.  Og som kjent utvikler den seg noen ganger ikke normalt i det hele tatt.  Noen ganger dukker det opp svarte svaner1, selv om de omtrent ikke finnes.  Og når disse svarte svanene dukker opp, faller forutsetningene for normaliserte modeller sammen.

Men likevel – ville det vært bedre og ikke forsøke å si noe om fremtiden i sin normaliserte form?  Det tror jeg ikke.  Men det er viktig å ha klart for seg hva modellen kan si noe om og hva den ikke kan si noe om.  Samt at dersom man bare planlegger for svarte svaner, så vil man ikke tørre å ta den risiko som er nødvendig for å satse innenfor enhver sektor og enhver bedrift.

Enhver modellering av fremtiden er basert på forutsetninger om hvordan ulike variable vil utvikle seg.  Det gjelder enten det er en deterministisk modell (der forutsetninger betraktes som parametre med kjent utfall), eller en usikkerhets-modell (der forutsetningene betrakes som parametre med ukjent utfall).

For å finne gode forutsetninger for fremtidig utvikling må vi både forstå hvordan virksomheten er skrudd sammen i nå-situasjonen og vi må mene noe om hvordan den vil se ut fremover.  Det første vi bør gjøre for å si noe om fremtiden, er å studere hvordan fortiden har vært. 

Siden jeg har et kvantitativt fokus, vil det første jeg gjør være å se om jeg har historiske data som viser hvordan sammenhengene har vært i fortiden.  Det er en rekke statistiske og finansielle metoder/verktøy som kan brukes.  Målet er å forsøke å finne de viktigste faktorene som driver virksomhetens lønnsomhet, og fokusere på disse når man skal si noe om fremtiden.  Som regel fungerer 80/20 regelen veldig bra.

Og som jeg ser det er det ALLTID en fordel å ha historiske data.  Ikke fordi historien alltid gjentar seg, men fordi historien har noen verifiserbare faktiske forhold ved seg som gir et bilde av hvordan verden har vært.  Å vite det er alltid bra.  Men når man gjør analyser på hsitoriske data, og finner sammenhenger så er det noen viktige spørsmål man bør stille seg, eller en prosess man bør gjennom for å si det på en annen måte.  Den kan illustreres med følgende enkle skjematiske fremstilling:

 dataanalyse1-copy

Dataanalysen er en prosess der man underveis stiller seg spørsmål som vil gi svar på hvorvidt det er mulig å bruke historiske data til å si noe om fremtiden.

Er resultatene/sammenhengene logiske?
Hvis nei, er det flere ting man kan gjøre, for eksempel utvide analysen og undersøke om det er en årsak bak sammenhengen som enda ikke er inkludert i analysen. 

Norske strømpriser samvarierer med ølprisene i Australia.  Det kan godt være en samvariasjon (vinter i Norge, høy strømpris, sommer i Australia, høy ølpris), men den ene forårsaker ikke den andre.  Det er tilfeldig.  Det er ingen logikk i at norske strømpriser kan spås ved å se på ølprisene i Australia.

Noen ganger sitter man rett og slett der med en sammenheng som ikke virker logisk.  Da taler mye for at den er tilfeldig, og dermed ubrukelig til å si noe om fremtiden.

Er sammenhengene robuste?
Det er fullt mulig å finne statistiske sammenhenger mellom de fleste datasett, men det betyr ikke at resultatene er statistisk holdbare.  Er de ikke det, må du gå tilbake og analysere data videre, eventuelt konkludere med at du ikke har data som har en sammenheng som er statistisk signifikant.

Vil historien være en god modell for fremtiden?
Selv om du har signifikante, logiske sammenhenger i fortiden trenger det ikke å bety at de er der i fremtiden.  For verden endres.  For eksempel: mens jeg og flere med meg leste 3 papiraviser om dagen, leser vi nå nyheter på nett.  Dermed må du hele tiden diskutere hvorvidt du skal frigjøre deg fra det du vet om historien og heller bygge opp en modell som avspeiler det du tror.  Spesielt interessant blir det selvsagt siden folk tror og mener ulike ting. 

Der historien er et faktum (NB å forstå den er ikke like enkelt) så er fremtiden preget av usikkerhet.  Vi vet ikke hva som vil skje.  Vi gjør antagelser.  Og det er fristende å bruke historien til å predikere fremtiden dersom vi har et datagrunnlag som er robust nok.  Faktisk er det tungt å argumentere for noe annet.  Men vi vet jo at historien ikke alltid er den beste beskrivelsen av fremtiden.

Det jeg i hvert fall er sikker på, er at det er bedre å forsøke å estimere fremtiden enn å ikke gjøre det.  Vi bør bare være klare over hvilke begrensninger som helt klart ligger innebygget i modellene våre.  Og ikke tolke en 99% Value at Risk (absolutt nedside i 99% av tilfellene) som (helt) sikker.  For ikke vet vi når 1% inntreffer, og ikke vet vi hvor stor effekten er.

Men det er uansett best å ha en analyse i bunn.

Print Friendly
Del denne posten:
  1. Fra Nassim Talebs bok “The black swan: The impact of the highly improbable”, en bok jeg har, men ikke har fått lest – tiden strekker ikke til []

Tagget med: , , , ,

6 kommentarer

Trackback URL | Kommentar-feed

  1. Milton Marx says:

    Statistiske modeller kan være gode så lenge det er enighet om datagrunnlaget og forutsetningene i modellen.

    Snakker vi om økonomien, har det imidlertid vært en viss kritikk av disse faktorene de siste årene, og dermed blir det litt feil å kalle finanskrisen for en svart svane. Det har vært mange som har argumentert at dette går rett vest ganske lenge – men de har bare ikke hatt overtaket i modellavdelingen.

    Jeg tror generelt at modellene knekker når de skal brukes som dokumentasjon, og ikke for å generere viten, og de knekker når man ikke tar hensyn til nye sammenhenger.

    Ett eksempel er de diskusjonene vi har hatt om konsumprisindeksen og inflasjonsstyring. Et annet eksempel er virkningen av de enkelte tiltakspakkene. Fint at folk vil regne – men det later ikke til at de har tatt med i beregningen at så mye av virkemidlene skulle gå til å holde liv i feite kapitalister med sigar og flosshatt.

    Hva hjelper det vel å regne på hva en tiltakspakke kunne gjort for små bedrifter hvis det er storbankenes aksjonærer som reelt får støtten?

    At det finnes mye dårlig modellbruk, betyr dog ikke at modeller er en dårlig idé – bare at de skal brukes med forsiktighet og at vi ikke skal la oss fortrenge fra debatter bare fordi noen slenger noen simuleringer i bordet.

  2. Iskwew says:

    Jepp, Milton, man må forstå både datagrunnlag og forutsetninger, og i tillegg hva modellene kan si noe om og hva de ikke kan si noe om.

    Å bare basere seg på hvordan ting har vært i fortiden, vil definitivt føre til at modeller før eller siden ikke virker etter intensjonen. Det skjer jo små og store revolusjoner eller paradigmeskifter stadig vekk.

    Apropos tiltakspakker så vil Goldman betale tilbake sin. Det vil gi dem konkurransefortrinn. Det kan lede til at andre, som burde beholde pakkene fordi de trenger dem, vil betale tilbake også. For å unngå at Goldman får konkurransefortrinn. Det er gjerne en rimelig utilsiktet virkning. Og økonomisk politikk er fulle av slike.

    Var jeg eier i en bank ville jeg forøvrig snarest forlangt å få innsikt i modell-logikken som ligger bak risikotakningen. For den har ikke vært spesielt robust.

  3. Milton Marx says:

    Var jeg eier i en bank ville jeg forøvrig snarest forlangt å få innsikt i modell-logikken som ligger bak risikotakningen. For den har ikke vært spesielt robust.

    Der belyses jo et annet problem. Det er mangt og meget som ikke kan puttes inn i en modell!

    Alle vet korrupsjon eksisterer, men hvordan lager man en modell som tar i betraktning at Obama eller Hank Poulson designer et støtteprogram akkurat slik og slik, som takk for takk for valgkampbidrag, utviste tjenester eller what ever?

    Hvordan lager jeg en realistisk simulering av et større infrastrukturprosjekt i et U-land, vel vitende om at presidenten skal ha 10% av anbudssummen, og at disse pengene blir hentet inn ved at byggherren bruker mindre jern og sement i byggverket – med katastrofale etterfølgende konsekvenser eller økt vedlikehold som resultat?

    Det er en del ting man ikke kan legge inn i en modell. Du kan ikke legge inn i en modell for verdipapirkjøp at du, uansett hvor dumme investeringene dine måtte være, greier å skremme staten til å baile deg ut.

    Det er mange ting som kan simuleres, men likevel blir det noe Lennonsk over det: Life is what happens while you are bussy making other plans.

  4. Iskwew says:

    Jeg mener at det meste kan modelleres, det er mange teknikker som vil fungere på det du snakker om. Du kan for eksempel modellere lender of last resort, som halesannsynlighet. Men verden kan ikke modelleres som normalfordelt, og så tror vi at vi har forstått det meste. Det har vi neppe.

    Når det er sagt, så er det ikke alt det er verdt å bruke veldig mye tid på å modellere. Eller som vi tenker på å modellere. Faktisk er det vel slik at det ikke ville vært gjort mange investeringer om man hadde modellert all tenkelig risiko. Den ville sannsynligvis blitt for høy.

  5. Håkon says:

    Statistisk analyse er forenkling (og det er alltid en viss fare for at man enten forenkler til det feilaktige eller for den saks skyld forenkler for lite). Modeller kan være alt annet enn enkle, men gjør en valg hvor en blir låst for lengre tid så er vel dette en risiko i seg selv.

    For øvrig kan man vel legge det meste inn i en modell, men er faktorene uetiske eller ulovlige så vil det vel skape et problem før eller siden. Det kan jo hende at det er bedre at problemet blir synlig ganske tidlig enn at man iherdig feier det under teppet til noen snubler i elendigheten.

  6. Iskwew says:

    Jeg tror en del av den modelleringen som er blitt gjort er alt for kompleks, faktisk. Samtidig som det har ligget feil forutsetninger på variable langt nede i modellene (f.eks. proxy-betraktninger) og det har vært veldig lite transparent hvordan det påvirker resultatene.

Top