Ledelsesmessig beslutningstaking under risiko og usikkerhet

I denne artikkelen skal vi diskutere om ledelsesmessige beslutningsmiljøer: - 1. Konsept av beslutningsmiljø 2. Beslutningsmiljø under usikkerhet 3. Risikoanalyse 4. Sikkerhet Ekvivalenter.

Begrepet beslutningsmiljø:

Utgangspunktet for beslutningsteori er skillet mellom tre forskjellige tilstander i natur eller beslutningsmiljøer: sikkerhet, risiko og usikkerhet.

Skillet trekkes på grunnlag av graden av kunnskap eller informasjon som beslutningstakeren besitter. Sikkerhet kan karakteriseres som en tilstand der beslutningstakeren besitter fullstendig og perfekt kunnskap om virkningen av alle tilgjengelige alternativer.

I vår samtale i dag bruker vi de to begrepene 'risiko' og 'usikkerhet' synonymt. Begge antyder "mangel på sikkerhet". Men det er en forskjell mellom de to konseptene. Risiko kan karakteriseres som en tilstand der beslutningstakeren bare har ufullkommen kunnskap og ufullstendig informasjon, men fortsatt er i stand til å tilordne sannsynlighetsestimater til de mulige resultatene av en beslutning.

Disse estimatene kan være subjektive vurderinger, eller de kan avledes matematisk fra en sannsynlighetsfordeling. Usikkerhet er en tilstand der beslutningstakeren ikke engang har informasjon for å foreta subjektive sannsynlighetsvurderinger.

Det var Frank Knight som først skillet mellom risiko og usikkerhet. Risiko er objektiv, men usikkerhet er subjektiv; risiko kan måles eller kvantifiseres, men usikkerhet kan ikke være. Moderne beslutningsteori er basert på denne skillet.

Generelt brukes to tilnærminger for å estimere sannsynligheten for beslutningsutfall. Den første er deduktiv og den går under navnet a priori måling; den andre er basert på statistisk analyse av data og kalles a posteriori.

Med priori-metoden er beslutningstakeren i stand til å utlede sannsynlighetsestimater uten å utføre noe virkelighetsnært eksperiment eller analyse. For eksempel vet vi at hvis vi kaster en objektiv mynt, oppstår ett av to like sannsynlige utfall (dvs. enten hode eller hale), og sannsynligheten for hvert utfall er forhåndsbestemt.

Den a posteriori målingen av sannsynlighet er basert på antagelsen om at fortid er en sann representant (guide til) for fremtiden. For eksempel undersøker forsikringsselskaper ofte historiske data for å fastslå sannsynligheten for at en typisk tjuefem år gammel mann skal dø, ha en bilulykke eller bli branntap.

Så implikasjonen er at selv om de ikke kan forutsi sannsynligheten for at et bestemt individ vil ha en ulykke, kan de forutsi hvor mange individer i en bestemt aldersgruppe som sannsynligvis vil ha en ulykke og deretter fikse premienivået tilsvarende.

Derimot innebærer usikkerhet at sannsynligheten for ulike utfall er ukjent og ikke kan estimeres. Det er i stor grad på grunn av disse to kjennetegnene at beslutningen i et usikkert miljø innebærer mer subjektiv skjønn.

Usikkerhet ser ikke ut til å antyde at beslutningstakeren ikke har noen kunnskap. I stedet innebærer det at det ikke er noen logisk eller konsistent tilnærming til tildeling av sannsynligheter til de mulige resultatene.

Noen kjennetegn på et beslutningsproblem :

Alle forretningsbeslutningsproblemer har visse felles kjennetegn.

Disse utgjør ikke bare en formell beskrivelse av problemet, men gir også den strukturen som er nødvendig for en løsning:

1. En beslutningstaker

2. Alternative handlingsforløp (strategier)

3. Hendelser eller utfall

4. Konsekvenser eller utbetalinger.

For å illustrere disse vanlige kjennetegnene ved et beslutningsproblem, kan det hende vi starter med et enkelt eksempel i det virkelige liv. Anta at du er varebehandler av Calcutta's New York, som selger herrekjoler. Bedriften din er ikke en kjole produsent. Det er bare en butikk som selger readymade-plagg. Du må bestemme hvor mange T-skjorter for menn som skal bestilles til sommersesongen.

Produsenten av disse har pålagt en betingelse for deg: Du må bestille i partier på 100. Hvis bare 100 T-skjorter er bestilt, koster prisen Rs. 10 per skjorte, hvis 200 eller flere er bestilt, er prisen Rs. 9 per skjorte; og hvis 300 eller flere skjorter er bestilt, er prisen Rs. 8, 50.

Resultatene fra markedsundersøkelsen gir deg informasjon om at salgsprisen vil være Rs. 12 og at de mulige salgsnivåene er 100, 150 eller 200 enheter. Men du kan ikke tildele noen sannsynlighetsestimat til de alternative nivåene av etterspørsel eller salg.

Hvis noen T-skjorte forblir usolgt om sommeren, kan den kastes til halve prisen om vinteren. Markedsansvarlig føler også at det er tap på 50 pund for hver T-skjorte som forbrukerne ønsker å kjøpe fra butikken din, men ikke på grunn av mangelfulle forsyninger.

Det er ikke mulig for deg å vente i litt tid med å studere naturen (eller bestemme nivået) på etterspørselen, og du kan heller ikke legge inn mer enn en ordre. Dermed råder en situasjon med fullstendig usikkerhet.

I vårt eksempel er beslutningstakeren varebehandler, som må bestemme hvor mange T-skjorter som skal bestilles i møte med usikker etterspørsel. De tre alternative strategiene er å bestille 100 skjorter (A 1 ), 200 (A 2 ) eller 300 (A 3 ).

Naturtilstandene (som er utenfor og utenfor kontrollen av lagerstyreren) er hendelsene, og i dette tilfellet er det tre nivåer av etterspørsel: 100 (D 1 ), 150 (D 2 ) eller 200 (D 3 ). Siden lagerbehandleren ikke vet hvilke av hendelsene som vil oppstå, blir han tvunget til å ta sin avgjørelse i møte med usikre utfall.

Konsekvensene er målinger av netto fordel eller utbetaling (belønning) tilknytning til hvert etterspørselsnivå. Den konkrete konsekvensen eller utfallet avhenger ikke bare av avgjørelsen (A 1, A 2 eller A 3 ) som tas, men også av hendelsen (D 1, D2 eller D 3 ) som inntreffer.

Det vil si at det er en konsekvens eller utfall knyttet til hver kombinasjon av beslutning eller handling og hendelse. Disse konsekvensene er generelt oppsummert i en utbetalingsmatrise.

Payoff Matrix :

En utbetalingsmatrise er et essensielt verktøy for beslutninger. Det er en fin måte å oppsummere interaksjonene mellom forskjellige alternative handlinger og hendelser. Dermed kan vi si at en utbetalingsmatrise gir beslutningstakeren kvantitative mål for utbetalingen for hver mulig konsekvens og for hvert alternativ som vurderes.

Positiv utbetaling innebærer overskudd og negativ utbetaling innebærer tap. For T-skjorter inventar- og bestillingsproblem er presentasjonsmatrisen presentert i tabell 8.1

Hvis den fremtidige hendelsen som vil inntreffe kunne forutsis med sikkerhet, ville beslutningstageren bare slå ned i kolonnen og velge den optimale beslutningen. Hvis det for eksempel var kjent med sikkerhet at etterspørselen ville være 150 T-skjorter, ville beslutningstakeren bestilt 200 for å maksimere utbetalingen.

Men siden beslutningstakeren ikke har noen kunnskap om hvilken hendelse (naturtilstand) som skal inntreffe eller hva som er sjansen for at en bestemt hendelse skal skje, blir han møtt med en situasjon med total usikkerhet.

Beslutningsmiljø under usikkerhet :

Vi kan nå bruke den betalingsmatrisen for å undersøke arten og effektiviteten til forskjellige kriterier for beslutningstaking under usikkerhet.

Fire hovedkriterier som er helt basert på utbetalingsmatrise-tilnærmingen er:

(1) Maximin (Wald),

(2) Maximax,

(3) Hurwicz alpha index, og

(4) Minimax-beklagelse (Savage).

I de situasjonene der beslutningstakeren er villig til å tildele subjektive sannsynligheter til de mulige resultatene, er de to andre kriteriene

en. The Laplace (Bayes ') og

b. Maksimering av forventet verdi.

Det kan bemerkes at når subjektive sannsynligheter er introdusert, blir skillet mellom risiko og usikkerhet uskarpt.

1. Maximin :

Maksimit (eller Wald) -kriteriet kalles ofte kriteriet pessimisme. Det er basert på troen på at naturen er uvennlig, og at beslutningstakeren derfor bør bestemme det verste mulige utfallet for hver av handlingene og velge den som gir det beste av de verste (maksimale) resultatene. Det vil si at beslutningstakeren skal velge det beste av det verste.

I vårt T-skjorteeksempel er minimumsutbetalinger knyttet til hver av handlingene presentert nedenfor:

Hvis beslutningstakeren er en pessimist og antar at naturen alltid vil være niggardly og uncharitable, ville den optimale beslutningen være å bestille 100 T-skjorter fordi denne handlingen maksimerer minimumsutbetalingen. Dermed er kriteriet konservativt og er godt egnet for firmaer som har veldig overlevelse på spill på grunn av tap.

2. Maximax :

Et nøyaktig motsatt kriterium er maximax-kriteriet. Det er kjent som kriteriet for optimisme fordi det er basert på antagelsen om at naturen er velvillig (snill). Dermed er dette kriteriet egnet for de som er spesielt vågale (ekstreme risikotakere).

I direkte kontrast til maksimalkriteriet innebærer maksimalaksjonen valg av alternativet som er det "beste av de beste". Dette tilsvarer med å anta med ekstrem optimisme at best mulig utfall alltid vil skje.

I vårt eksempel er best mulig utfall, gitt hvert av nivåene i etterspørselen, følgende:

Beslutningsmannen vil dermed velge å bestille 200 enheter fordi dette gir størst mulig utbetaling.

3. Hurwicz Alpha Index :

Hurwicz alfa-kriteriet søker å oppnå et pragmatisk kompromiss mellom de to ekstreme kriteriene presentert ovenfor. Fokuset er på en indeks som er basert på avledningen av en koeffisient kjent som optimismens koeffisient.

Her vurderer beslutningstakeren både maksimums- og minimumsutbetalingen fra hver handling og veier disse ekstreme resultatene i samsvar med subjektive evalueringer av enten optimisme eller pessimisme.

Hvis vi for eksempel antar at beslutningstakeren har en koeffisient på 0, 25 for et bestemt sett med handlinger, er implikasjonen klar. Han har implisitt tildelt en sannsynlighet for at det oppstår 0, 25 til den maksimale utbetalingen og på 0, 75 til den minste utbetalingen.

Som en generell regel kan verdien av å følge en bestemt handling bestemmes i henhold til følgende indeks:

H i = αC maks + (1 - α) C min (8.1)

Beslutningsmannen ville deretter velge det alternativet som ga maksimal Hi-verdi. Ligning (8.1) indikerer at jo mer optimistisk beslutningstakeren er, jo større vil være H i- verdien, og omvendt. En verdi på alfa (a) lik 0, 5 innebærer at beslutningstakeren verken er optimist eller pessimist.

Resultatene fra å anvende Hurwicz-kriteriet i ekv. (8.1) forutsatt at en alfaverdi på 0, 25 er presentert nedenfor:

Dermed ville beslutningstageren velge A1, dvs. bestille 100 T-skjorter. Den største ulempen med dette beslutningskriteriet er imidlertid tildelingen av sannsynligheter for tilstandene optimisme og pessimisme.

4. Minimax Beklager :

Minimax-beklagelsen er foreslått av Savage. Dette kriteriet antyder at etter at en beslutning er tatt og utfallet er blitt notert, kan beslutningstageren oppleve beklagelse fordi han nå vet hvilken hendelse som skjedde, og ønsker muligens at han hadde valgt et bedre alternativ. Dermed antyder dette kriteriet at beslutningstakeren bør forsøke å minimere sin maksimale beklagelse.

Betydningen er at beslutningstakeren vil utvikle en beklagelse (mulighet tap) matrise og deretter anvende minimax-regelen for å velge en handling. Angrer er definert som forskjellen mellom den faktiske utbetalingen og den forventede utbetalingen, dvs. utbetalingen som ville blitt mottatt dersom beslutningstageren hadde visst hvilken hendelse som skulle skje.

Konverteringen av en utbetalingsmatrise til en angringsmatrise er veldig enkel. Alt vi trenger å gjøre er å trekke fra hver oppføring i utbetalingsmatrisen fra den største oppføringen i kolonnen.

Det er helt åpenbart at den største oppføringen i hver kolonne vil ha null anger. Betydningen er at hvis beslutningstakeren faktisk hadde valgt den handlingen, ville han ikke opplevd noen anger (det vil si ikke noe mulighetstap). Tabell 8.2 viser beklagelsesmatrisen for inventarproblemet med T-skjorter.

Beklagelsesverdien i tabell 8.2 representerer forskjellen i verdi mellom hva man oppnår for en gitt handling og en gitt hendelse og hva man kunne få til hvis man på forhånd visste at den gitte hendelsen faktisk var den faktiske hendelsen. For eksempel, hvis 100 T-skjorter er bestilt og etterspørselen er 150 enheter, så er beklagelse Rs. 125, som Rs. 300 (Rs. 125 mer) kunne mottas ved å bestille 200 enheter.

Så hvis beslutningstakeren hadde visst at etterspørselen kom til å være 150 T-skjorter, ville hans optimale beslutning vært å bestille 200 T-skjorter; Hvis han bare hadde bestilt 100 T-skjorter, ville hans mulighetstap være Rs. 125. De resterende oppføringene i anger-matrisen beregnes ved å følge den samme prosedyren, dvs. ved å sammenligne den optimale beslutningen med de andre mulighetene.

De maksimale angreverdiene for hver av handlingene eller handlingene er presentert nedenfor:

Minst mulig beklagelse (eller minst mulig tap av muligheter) ville blitt påført ved å bestille 200 enheter. Hvis den opprinnelige utbetalingstabellen er angitt i form av tap eller kostnader, vil beslutningstageren velge det minste tapet for hver hendelse og trekke denne verdien fra hver radoppføring.

en. Laplace (Bayes) Kriterium :

Laplace-kriteriet for utilstrekkelig grunn skiller seg fra minimax-beklagelseskriteriet ved at det innebærer bruk av sannsynligheter, det vil si at hvis vi er usikre på hvilken hendelse som vil oppstå, kan vi anta (riktig eller feil) at alle stater (nivåer av etterspørsel ) er like sannsynlige og tildeler deretter den samme sannsynligheten til hver av hendelsene, dvs. vi antar at hver hendelse er like sannsynlig.

Disse sannsynlighetsoppgavene kan deretter brukes til å beregne forventet utbetaling for hver handling og til å velge den handlingen med maksimal (minste) forventet utbetaling (tap). For T-skjorteeksemplet ville sannsynligheten tildelt hver av de tre hendelsene være 0, 33, og den forventede økonomiske verdien (EMV) ville være

Etter Laplace-kriteriet vil beslutningstaker derfor bestille 200 enheter fordi det har den høyeste forventede verdien. Dette kriteriet kritiseres imidlertid på bakgrunn av at antakelsen om like sannsynlige hendelser kan være feil, og brukeren av dette kriteriet må vurdere den grunnleggende gyldigheten av forutsetningen.

b. Maksimere forventet verdi :

Dette kriteriet er også basert på tildeling av sannsynligheter. Forutsetningen om at hver hendelse er like sannsynlig, er imidlertid ikke gjort. I stedet foretar analytikeren en mer kritisk vurdering før han tildeler subjektive sannsynligheter til hver hendelse. Ved å tildele subjektive sannsynligheter konverterer beslutningstakeren i hovedsak en usikker situasjon til en risikosituasjon.

Anta at for eksempel lagerbehandleren og markedssjefen når en enighet om at de aktuelle sannsynlighetene for disse forskjellige naturstatene er: selg 100 enheter, 0, 5; selge 150 enheter, 0, 3; og selger 200 enheter, 0, 2. Siden hendelsene er gjensidig utelukkende, er summen av sannsynlighetene deres lik 1.

Basert på dette estimatet av sannsynligheter, kan den forventede utbetalingen beregnes som følger:

A 1 (100) = 0, 5 (Rs. 200) + 0, 3 (Rs. 175) + 0, 2 (Rs. 150) (8, 5)

= Rs. 182, 50

A 2 (200) = 0, 5 (0) + 0, 3 (Rs. 300) + 0, 2 (Rs. 600) (8, 6)

= Rs. 210, 00

A 3 (100) = 0, 5 (Rs. 150) + 0, 3 (Rs. 150) + 0, 2 (Rs. 450) (8, 7)

= Rs. 60.00

Derfor, ved å bruke maksimering av forventet verdikriterium, ville lagerbehandleren velge A 2, dvs. bestille 200 enheter.

En nyttig utvidelse av kriteriet for forventet verdi er EOL-kriteriet. Det skiller seg fra EMV i den forstand at det innebærer bruk av anger-matrisen.

I vårt eksempel kan de forventede mulighetstapene beregnes som:

EOL (A 1 ) = 0, 5 (0) + 0, 3 (Rs. 125) + 0, 2 (Rs. 450) (8, 8)

= Rs. 127, 50

EOL (A 2 ) = 0, 5 (Rs. 200) + 0, 3 (0) + 0, 2 (0) (8, 9)

= Rs. 100, 00

EOL (A 3 ) = 0, 5 (Rs. 350) + 0, 3 (Rs. 150) + 0, 2 (Rs. 150) (8, 10)

= Rs. 250, 00

EOL-kriteriet fører til at vi tar minimum EOL, som i T-skjorteeksemplet ville være å bestille 200 enheter.

Sammendrag :

Resultatene av å bruke de seks kriteriene til vårt T-skjorteeksempel er gitt i tabell 8.3. Det er tydelig at det ikke er noen perfekt konvergens av beslutninger, selv om A 2 er dominerende. I den endelige analysen kan lagerbehandleren lett kaste ut A 3- alternativet, men han må fortsatt bære byrden ved å velge A 1 eller A 2 i møte med usikker etterspørsel.

Forventet verdi av perfekt informasjon (EVPI) :

Så lenge vår stress var på valg av et alternativ på grunnlag av informasjonen som for øyeblikket besitter beslutningstakeren. I de fleste situasjoner i det virkelige liv har beslutningstageren muligheten til å samle inn ytterligere informasjon før den tar en beslutning.

For en rasjonell beslutningstaker kan verdien av informasjon behandles som forskjellen mellom hva utbetalingen ville være med den informasjonen som er tilgjengelig for øyeblikket og utbetalingen som ville bli tjent hvis han med sikkerhet skulle vite utfallet før han kom til en beslutning. .

Enkelt sagt er verdien av perfekt informasjon forskjellen mellom maksimal fortjeneste i et visst miljø og maksimal fortjeneste i et usikkert miljø.

I vårt T-skjorteeksempel ble EMV under usikkerhetsbetingelser for den optimale beslutningen om å bestille 200 enheter funnet å være Rs. 210. For å beregne EMV under sikkerhetsbetingelser, starter vi med antakelsen om at beslutningstageren valgte alternativet med den høyeste utbetalingen for hvert av alternativene.

Hvis for eksempel lagerbehandleren visste, før den kom til beslutningen, at den faktiske etterspørselen kommer til å være 100 enheter, ville den optimale beslutningen være å bestille 100 enheter med en gevinst på Rs. 200; hvis etterspørselen skulle være 150 enheter, ville han legge inn ordre på 200 enheter med en utbetaling på Rs. 300 og hvis etterspørselen var 200 enheter, ville han bestille 200 og utbetalingen ville være Rs. 600.

For å beregne den forventede verdien av perfekt informasjon, bruker vi bare de samme sannsynlighetene som ble brukt i EMV-beregningene til disse bestemte utbetalingene:

Forventet overskudd under sikkerhet

= 0, 5 (Rs. 200) + 0, 3 (Rs. 300) + 0, 2 (Rs. 600)

= Rs. 310 (8.11)

Derfor, i vårt eksempel, beregnes den forventede verdien av perfekt informasjon som følger:

EMV under sikkerhetsbetingelser = Rs. 310

EMV under usikkerhetsforhold = Rs. 210

Forventet verdi av perfekt informasjon = Rs. 100

Dermed vet lagerbehandleren at det maksimale beløpet han ville betale for en perfekt forutsigelse av etterspørsel ville være Rs. 100. Å betale mer for perfekt informasjon enn tapet som ville resultere på grunn av mangel på denne informasjonen (usikkerhet) ville være irrasjonelt.

Imidlertid er det praktisk talt umulig i praksis å samle perfekt informasjon. Likevel er beregningen av dens verdi ekstremt nyttig for en leder. For eksempel, hvis han mener at sannsynligheten for at tilleggsinformasjon vil være riktig, er 0, 3, vil verdien av denne informasjonen være Rs. 30 (Rs. 100 x 0, 3).

Det grunnleggende poenget å merke seg her er at de gir beslutningstakeren en prosedyre for å evaluere fordelene ved å innhente tilleggsinformasjon og sammenligne dem med kostnadene ved denne informasjonen.

Følsomhetsanalyse :

En stor ulempe ved bruk av EMV, EOL eller EVPI er metoden som brukes til å tilordne sannsynligheter til hendelsene. Spesielt vil ledere si "Jeg føler sannsynligheten for at denne hendelsen er mellom 0, 3 og 0, 5". Under disse omstendighetene bærer ofte følsomhetsanalyse frukt fordi den gir et mål på hvordan sannsynlighetsfordeling påvirker beslutningen.

Anta at vår lagerstyring hadde fått et annet sett med sannsynlighetsestimater for de tre nivåene av T-skjortebehov - det vil si sannsynlighetene er 0, 2 for 100, 0, 3 for 150 og 0, 5 for 200 T-skjorter. Basert på disse sannsynlighetene ville den forventede verdien av de tre handlingene (ordre 100, 200 eller 300) være Rs. 167, 50, Rs. 390 og Rs. Henholdsvis 240.

Den optimale avgjørelsen vil fremdeles være den samme, dvs. bestiller 200 enheter; lederens beslutning er dermed ikke så veldig følsom for endringer i sannsynlighetsoppgavene. Dette har strategisk betydning både for å redusere angsten rundt beslutningen og for å måle behovet for tilleggsinformasjon.

Ytterligere eksempler:

Eksempel 1

Anta at du har følgende utbetalingsmatrise:

Velg den optimale handlingen ved å bruke maximin, maximax, Hurwicz (= 0, 3), minimax anger og

Laplace-kriterier. Sammenlign valget ditt under hvert kriterium.

Eksempel 2:

En markedssjef må bestemme i hvilke av to regioner et nytt produkt skal introduseres. Salgsnivået kan karakteriseres som enten høyt, gjennomsnittlig eller lavt. Han estimerer at sannsynlighetene knyttet til hvert av disse utfallene er henholdsvis 0, 25, 0, 50 og 0, 25.

Utbetalingsmatrisen er konstruert som følger:

Bruker EMV som kriterium, i hvilke av de to regionene bør produktet introduseres?

Løsning:

EMV (A 1 ) = 0, 25 (40 000) + 0, 50 (30 000) + 0, 25 (20 000)

= Rs. 30000

EMV (A 2 ) = 0, 25 (70 000) + 0, 50 (20 000) + 0, 25 (0)

= Rs. 27500

Velg A 1

Eksempel 3:

I den følgende utbetalingsmatrisen for et beslutningsproblem viser at strategi A vil bli valgt av Bayes 'kriterium, strategi B av maksimin-kriteriet, C av Hurwicz α (for α <1/2) og D etter minimax-beklagelseskriteriet:

Eksempel 5

Tenk på en hypotetisk 4 x 6 utbetalingsmatrise som representerer et maksimaliseringsproblem for beslutningstaker, møtt med total usikkerhet. Finn ut sin optimale strategi med tanke på at (a) han er en delvis optimist (Hurwicz-kriteriet, med koeffisienten for optimisme 60%), (b) han er en ekstrem pessimist (villmannskriteriet) og (c) han er en subjektivist (Laplace kriteriet).

Siden den har den høyeste utbetalingen ville beslutningstageren valgt A4.

Hvis minimax-kriteriet følges, vil beslutningstakeren igjen velge A 4 .

Siden den første avgjørelsen (A 1 ) har den høyeste forventede verdien, vil den bli tatt.

Beslutningsmiljø under risikoanalyse :

Her trakk vi et skille mellom risiko og usikkerhet. Husk at risikoen er karakterisert som en tilstand der beslutningstakeren bare har ufullkommen informasjon om beslutningsmiljøet, dvs. virkningen av alle de tilgjengelige alternativene. Men beslutningstakeren er fortsatt i stand til å tilordne sannsynlighetsestimater til de mulige resultatene av en beslutning.

Disse estimatene er enten subjektive vurderinger eller kan være avledet fra en teoretisk sannsynlighetsfordeling. Usikkerhet refererer til en tilstand der beslutningstakeren mangler til og med informasjonen for å tildele subjektive sannsynligheter.

Dette skillet ble først trukket av FH Knight som bemerket at risiko er objektiv, men usikkerhet er subjektiv. Likevel blir de to begrepene ofte brukt om hverandre for bare å bety 'en mangel på sikkerhet'.

Det viktige poenget å merke seg er imidlertid at bruken av subjektive sannsynligheter har redusert betydningen av skillet mellom risiko og usikkerhet. Ved å tildele subjektive sannsynligheter til beslutningsproblemer kan med andre ord lett konverteres til risikoanalyse.

Jeg. Behandling av risiko i økonomisk analyse :

Risikoanalyse innebærer en situasjon der sannsynlighetene knyttet til hver av utbetalingene er kjent.

Det er to alternative måter å utlede disse sannsynlighetene på:

(a) Ved en analyse av historiske mønstre, eller

(b) Med henvisning til en teoretisk sannsynlighetsfordeling (for eksempel binomialfordeling, Poisson-distribusjon eller normalfordeling).

Risikoanalyse er basert på begrepet tilfeldig variabel. En tilfeldig variabel er enhver variabel hvis verdi er usikker, det vil si hvis verdi er utsatt for sannsynlig variasjon.

For eksempel, når man ruller en die, er tallet som kommer opp en tilfeldig variabel. Prisen på te neste uke kan også være tilfeldig på grunn av uforutsette skift i tilbud og etterspørsel. Nå er kanskje ikke verdiene som en tilfeldig variabel kan anta, like sannsynlige (dvs. like sannsynlige hendelser).

Av denne grunn er det nødvendig å se på sannsynlighetsfordelingen for den tilfeldige variabelen, som er en liste over mulige utfall med tilhørende sannsynligheter for disse utfallene.

For rullingen av en matrise er sannsynlighetsfordelingen som følger:

Her lar vi X angi tallet på forsiden av matrisen og P (X) representerer sannsynligheten for det utfallet. I dette tilfellet er de seks mulige resultatene like sannsynlige (dvs. at hver enkelt er en like sannsynlig hendelse.)

Forventet verdi :

Et viktig kjennetegn ved en tilfeldig variabel er dens forventede verdi eller gjennomsnitt. Husk at den forventede verdien er et veid gjennomsnitt av mulige utfall, der vektene er de objektive sannsynlighetene for mulige utfall.

Den forventede verdien (betegnet med E) på utfallet når en fair die er rullet er:

Det primære beslutningskriteriet i et miljø preget av risiko er kriteriet for forventet verdi (E).

Kriteriet kan ganske enkelt angis som:

der X-ene refererer til utbetalingen fra hver hendelse og til sannsynlighetene knyttet til hver av utbetalingene. Konseptet kan nå illustreres. Anta at vi har følgende utbetalingsmatrise (tabell 8.4). Tabell 8.5 viser de respektive sannsynlighetene for hver av hendelsene og de tilhørende forventede verdiene.

Hvis beslutningstakeren analyserer de forventede verdiene for hver av handlingene, kommer han til beslutningen om å velge alternativet som har den høyeste forventede verdien, dvs. alternativ 2 i dette eksemplet.

Vanskeligheten med det forventede verdikriteriet er imidlertid at man på bakgrunn av det ikke alltid kan ta en entydig avgjørelse. Hvis for eksempel sannsynlighetene eller utbetalingen ble endret slik at A 2 og A 3 hadde den samme forventede verdien av Rs. 504.50, ville det være vanskelig for beslutningstageren å måle graden av risiko forbundet med hver handling og dermed komme til en klar beslutning. I en slik situasjon må noe kriterium forsøkes for å komme fram til et relativt mål på risiko.

ii. Måling av risiko :

Det forventede monetære verdikriteriet (EMV) gir uten tvil nødvendig og nyttig informasjon til beslutningstageren. Men den største mangelen er at den kan skjule tilstedeværelsen av unormalt høye potensielle tap eller eksepsjonelt attraktive potensielle gevinster. Det er sant at forventet verdi er et matematisk gjennomsnitt av gjennomsnittet av en sannsynlighetsfordeling som pent oppsummerer en hel fordeling av resultatene.

Dette forklarer ganske enkelt hvorfor en beslutningstaker som bare tar beslutninger om forventet verdi, sannsynligvis vil ta valg som er i strid med hans psykologiske preferanser for risikotaking. Når beslutninger er basert på EMV-kriteriet, er det implisitt basert på antagelsen om at en beslutningstaker er i stand til å motstå de kortsiktige svingningene og er en kontinuerlig deltaker i sammenlignbare EMV-beslutningsproblemer.

For sin egen overlevelse velger imidlertid beslutningstakere ofte et handlingsforløp som er ment å gi en tilfredsstillende avkastning under forutsetning av aksept av en viss grad (nivå) av risiko.

Med vår nåværende kunnskapstilstand, er den mest nyttige måten å måle graden av risiko fra en beslutningstakeres perspektiv, arten av sannsynlighetsfordelingen - nærmere bestemt spredning eller spredning av det om et middel.

Faktisk, jo mindre spredt sannsynlighetsfordelingen av mulige utfall, jo mindre er risikoen for en gitt beslutning. Med andre ord, jo nærmere verdiene for alle mulige utfall er den forventede verdien, desto mindre risikabelt er valget sannsynligvis. Fig. 8.1 illustrerer denne observasjonen.

Her for enkelhets skyld vurderer vi bare to sannsynlighetsfordelinger. Hvert alternativ gir samme utbetaling eller EMV for Rs. 1200.

Imidlertid er fordelingen av mulige utfall nærmere konsentrert rundt denne forventede utbetalingen for alternativ A enn for alternativ B, dvs. for B er den mer spredt rundt E (V). Så i henhold til kriteriet vårt, ville alternativ A bli behandlet som mindre risikabelt enn alternativ B.

Så selv om de to alternativene har samme EMV, ville beslutningstageren velge alternativet med minst spredning (eller maksimal konsentrasjon). Studenter med litt bakgrunn for statistikk vet at det enkleste målet for spredning av mulige utfall rundt gjennomsnittet (dvs. forventet verdi) er standardavviket for sannsynlighetsfordelingen.

Det uttrykkes som:

Vi illustrerer konseptet i tabell 8.6 nedenfor:

Hvis vi tar i bruk det enkle EMV-kriteriet, ville et forbrytende blikk gjøre at prosjekt B tilsynelatende ser ut til å være det best mulige valget. En nærmere gjennomgang av kontantstrømmene avslører imidlertid også at prosjekt A har en liten forventet verdi, men samtidig viser det mindre variasjon og i henhold til vår målestokk ser det ut til å være mindre risikabelt.

Ved å sette verdiene på kontantstrøm (X), forventet verdi (EMV) og tilordnet sannsynlighet fra tabell 8.6 i ligning (8.13), er vi i stand til å tallfeste denne risikoen. Resultatene fra beregningene våre er vist i tabell 8.7.

Vi beregner bare standardavviket for prosjekt A og B som kvadratroten av variansene σ A 2 og σ B 2. Dermed får vi σ A = Rs. 547, 7 for prosjekt A og σ B = Rs. 3197.3 for prosjekt B. Prosjekt B har således en høyere EMV, men det er risikabelt siden det har et høyere standardavvik. Med andre ord, selv om avkastningen fra prosjekt B er høyere i gjennomsnitt enn for A, viser førstnevnte større variasjon. Derfor innebærer det mer risiko.

Hvis imidlertid to prosjekter eller alternativer har vesentlig forskjellige forventede pengeverdier, kan vi bruke standardavvik for å måle relativ risiko for de to prosjektene. Anta at prosjekt A har en EMV på Rs. 500 000 og et standardavvik for Rs. 500, mens prosjekt B har en EMV på Rs. 100 000 og en SD på bare Rs. 200.

I en slik situasjon kan vi ikke sammenligne de to prosjektene så lett ved å bruke standardavvikstiltaket. Her brukes ofte et nytt mål på relativ risiko, kjent som variasjonskoeffisienten eller indeksen for relativ risiko.

Dette uttrykkes som:

I tilfelle to eller flere prosjekter (alternativer) har forskjellige kostnader eller fordeler (utbetaling), er CV-en utvilsomt et foretrukket mål på relativ risiko. I vårt eksempel er variasjonskoeffisientene for prosjekter A og B henholdsvis 0, 001 og 0, 002.

I følge kriteriet vårt er prosjekt A derfor mindre risikabelt enn prosjekt b. Fra tabell 8.7 kan vi beregne CV for prosjekt A og B. For prosjekt A er det 0.183 og for prosjekt B, 0.297. Dette indikerer ganske enkelt at prosjekt b er preget av større grad av risiko enn prosjekt A.

Subjektiv sannsynlighet :

Så lenge begrenset vi oss til risikovurderinger som involverer objektive sannsynligheter. Slik objektiv sannsynlighet er sovet i forhold til relativ frekvens. Faktisk er sannsynligheten for at en hendelse skjer den relative hyppigheten av hendelsen. Dette sannsynlighetsbegrepet sies å være objektivt i den forstand at verdiene kan bestemmes eksperimentelt som ved å kaste en mynt 10 ganger, eller rulle en fair dyse 100 ganger.

I noen tilfeller fungerer imidlertid ikke en relativ frekvens (også kjent som den klassiske) tolkningen av sannsynlighet fordi gjentatte studier ikke er mulig. Man kan for eksempel spørre hva som er sannsynligheten for å kunne introdusere en ny frokostmat (som Maggie).

Siden det er stadige endringer i markedsforhold og i antall (rekkevidde) konkurrerende (rivaliserende) produkter, er det ikke mulig å gjenta eksperimentet hundrevis av samme forhold. In such situations the decision-maker has to assign probabilities on the basis of his own belief in the likelihood of a future event. These probabilities are called subjective probabilities.

The decision-maker thus attaches his best estimate of the 'true' probability to each possible outcome. In reaching decisions he makes use of these subjective probabilities in precisely the same way the objective (or relative frequency) probabilities would be used if they were available.

iii. Profit Planning under Risk and Uncertainty :

In traditional economic theory it is assumed that the firm's objective is to maximise its profits under conditions of certainty. However, the real commercial world is characterized by uncertainty.

The presence of uncertainty upsets the profit- maximization objective. Let us consider a simple competitive market where the demand (average revenue curve) faced by a seller is a horizontal straight line. The implication is that the firm is a price-maker. It can sell as much as it likes at the prevailing market price. Now let us relax the assumption.

Suppose the horizontal demand curve facing a competitive firm moves up and down in a random (unsystematic) fashion. The implication is that the price that the firm faces is not stable. Rather it is a random variable. In Fig. 8.2 we show the likelihood of a particular price on a given day by the height of the bell-shaped curve.

The fact that the curve is highest for prices very close to the average or expected price P indicates that these prices are most likely. Contrarily, abnormally high or exceptionally low prices are possible but unlikely.

Fig. 8.2 makes one thing clear at least: when demand is random, the actual price is subject to a probability distribution. On average, the price will be equal to the mean price of P. Since price is random, profit will be random, too.

As another example, let us consider the following discrete probability distribution of prices.

It is not possible to know in advance the actual price for tomorrow. But we can calculate the expected price which is

P = 5(0.08)-t 6(0.14) + 7(0.18) + 8(0.20) + 9(0.18) + 10(0.12) + 11(0.08) + 12(0.02)

= Rs. 8, 04

This is the average price which is arrived at by multiplying each possible price by the probability of its occurrence and adding up the results.

Random Profit :

Now we have a random price for the firm's output. It is further assumed that the manager must specify the quantity of output before he observes the actual price that consumers will pay for the commodity. Such things often happen in reality and managers have to face such uncertain situations. For example, farmers face considerable uncertainty about the price they will receive in October for a crop planted in July.

Similarly, producers of new fashion garments and new model wrist watches must often produce a considerable quantity before they are able to know consumers' reaction to their products. For simplicity, we assume that the product is perishable. So the manager has to sell all the output rather than store some of it for future sales.

Since profit is total revenue (= price x quantity) less total cost of producing the required quantity, profit is also a function of the random price. Consequently, profit is also random.

Since profit is a random variable, the concept of maximum profit becomes meaningless. It is because one cannot maximize something which one cannot control. If profit maximization does not appear to be a sensible goal, one has to search out or identify another objective function for the firm.

Such a new objective function has to take account of two factors:

(1) The firm's attitude toward risk and

(2) The manager's perceptions of the likelihood of various outcomes.

It is gratifying to note that the expected utility approach to decision problems under risk accommodates both factors and provides a logical way to arrive at decisions.

iv. Expected Utility Theory and Risk Aversion :

In the context of decision problems whose uncertain possible outcomes constitute rupee payments with known probabilities of occurrence, it has been observed by many that a simple preference for higher rupee amounts is not sufficient to explain the choices (that is, decisions) made by various individuals.

The classic example, known as the St. Petersburg Paradox, and formulated by the famous mathematician, Daniel Bernoulli, about 250 years ago, illustrates a dilemma. Bernoulli observed that gamblers did not respond to the expected rupee prices in games of chances. Instead, he suggested that they responded to the utility that the prizes might produce.

The paradox consists of an unbiased coin (ie, a coin in which the probability of head or tail is 1/2) which is tossed repeatedly until the first head appears. The player is supposed to receive or win 2n rupees as soon as the first head appears on the n-th toss.

Now the relevant question here is: how much should the player be ready to pay to take part in this gamble (ie, how much should he be willing to wager)? To answer this question we have to find out the EMV of such a gamble which is:

Here EMV is the sum of an infinite arithmetic series of 1's.

Thus if we go by the EMV criterion we can assert that the gambler (player in our example) will be ready to wager everything he owns in return for the chance to receive 2n rupees.

However, in real life most people prefer to play safe and avoid risk. Therefore they would decide not to participate in this type of gamble characterized by highly uncertain outcome against an unlimited payment (that has to be made if the gamble is accepted).

Thus, the prediction is that actual monetary values of the possible outcomes of the gamble fail to reflect the true preference of a representative individual for these outcomes. So the maximization of EMV criterion is not a reliable guide in predicting the strategic action or strategic choice of an individual in a given decision environment.

The same conclusion is also reached from other examples of behaviour, such as diversification of investment portfolio as also the simultaneous purchases of lottery tickets (that is gambling) and insurance.

By rejecting maximization of EMV criterion as a valid guide for decision-making in situations involving risk, Von Neuman and Oskar Morgenstern developed an alternative framework (based on expected utilities of the outcomes) which can be utilized for decision-making in a situation of risk.

They have proved conclusively that the Maximization of expected utility criterion, which is a preferable alternative to EMV criterion, yields decisions that are in accord with the true preference of the individual (the player) provided one condition is satisfied: he is able to assess a consistent set of utilities over the possible outcomes in the problem.

They calculate expected utility in the same way expected value is calculated by multiplying the utility of each outcome by its probability of occurrence, and then summing up the whole thing, thus:

This criterion apparently appears to be very effective. But a number of difficulties crop up when we try to implement it. Firstly, in a large organization, whose utility function has to be used remains an open question. Secondly, in case of large private firms characterized by separation of ownership from management whose utility function — the managers' or shareholders' — has to be used is another question.

Suppose we decide to use the utility functions of shareholders. Since different shareholders are involved and they have different utility functions, which are not directly comparable, it is virtually impossible to arrive at a group utility function.

Secondly, complex problems arise in measuring the utility function of an individual. Yet with the present state of knowledge, the utility function is the only tool available for incorporating the decision maker's true preferences for the outcomes of the problem into the decision-making framework.

Illustrasjon :

We may now see how to utilize the new criterion, ie, the maximization of expected utility criterion in arriving at decisions under risk. Suppose an entrepreneur has developed a new product which is yet to be put into the market. He is considering whether or not to make long-term investment for introducing the product in the market.

Suppose on the basis of intensive market survey and research it is discovered that 20% of such product met with success in the past and the remainder (80%) were failures. It is estimated that the cost of producing and marketing a batch of the product will be Rs. 4000.

If we assume that a sub-contractor can be engaged to manufacture the product, there is no need for any investment in production facilities. It is also estimated that if the marketing effort is successful, a profit of Rs. 16, 000 will result.

We additionally assume that it is very easy to copy the product. Therefore, sooner or later, intensive competition will restrict the profitable sales of the product. Thus the initial amount which is produced can be profitably sold.

On the contrary, if the product is not initially successful and there is total failure of the marketing effort, the maximum amount of loss the entrepreneur has to incur will be Rs. 4, 000, ie, the cost of production and marketing.

We may now summarize the basic characteristics of the decision problem in the following payoff matrix.

It is quite obvious that the action or decision — 'Do not invest in the product' — results in a zero return or pay-off regardless of the decision- environment, ie, the state of nature. In the row below the matrix we show the probability of occurrence of each state of nature.

The EMV of the decision to 'invest in the product' is:

EMV 1 = Rs. 16, 000 x .20 + (Rs. -4000) x .80 = Re. 0.

On the contrary, for the alternative decision 'do not invest' it is:

EMV 2 = 0 x .20 + 0 x .80 = Re. 0.

Thus, in this simple example, it is very difficult for the entrepreneur to arrive at a decision on the basis of EMV criterion. Since EMV is the same under two alternative actions the decision-maker would remain indifferent between them.

Now we may incorporate the utility function of the entrepreneur into the decision-making framework and see if it enables the entrepreneur to express his risk preference. His risk reference can be measured by the nature of his utility function.

Suppose, in the first case, that the entrepreneur has the utility function, shown in Fig. 8.3.

The utility function is characterized by diminishing marginal utility of money. Recall that the word 'margin' always refers to anything extra. Therefore, marginal utility measures the satisfaction the individual receives from a small increase in his stock of wealth.

Here we use the three terms 'wealth', 'money' and 'return' synonymously. The slope of the utility function at any point measures marginal utility.

In reality we observe that as an individual's stock of wealth (money) increases, every additional unit of wealth gives him gradually less and less extra satisfaction (utility). From this emerges the diminishing marginal utility hypothesis. Here, in Fig. 8.3 the slope of the utility function falls as the decision-maker's stock of wealth increases. This corroborates the diminishing marginal utility hypothesis.

The implication is simple: as his wealth increases, the individual receives less and less extra utility (satisfaction) from each extra rupee that he receives. Now by using equation (15) we can calculate expected utility, based on the utility function of Fig. 8.3.

For the decision to 'invest in the product' it is:

E(U 1 ) = U(Rs. 16, 000) x .20 + U(Rs. -4000) x .80

= .375 x .20 + (-.50) x .80

= – .325

For the alternative action, ie, for the decision 'Do not invest' it is:

E(U 2 ) = U(0) x .20 (0) x .80

= 0 x .20 + 0 x .80 = 0

Thus the decision 'Do not invest' has a higher expected utility. Therefore, by using the maximization of expected utility criterion, the rational entrepreneur would decide against the project. He would decide not to invest in the new product. Thus diminishing marginal utility of money leads directly to risk aversion. In term of EMV this investment is an example of fair gamble since its EMV is zero.

On the basis of differences in attitude toward risk, decision-makers are classified into three categories: risk-averter, risk-indifferent and risk- lover. In our example the investor is a risk-averter.

A risk-averter is one who, because of diminishing marginal utility of money, expresses a definite preference for not undertaking a fair investment or fair gamble, such as the one illustrated above. It is also possible for the risk-averter to be reluctant to undertake investments having positive EMVs.

Now let us consider a second situation — an exactly opposite one where the entrepreneur has the utility function, characterized by increasing marginal utility of money. Here the slope of the utility function is increasing as the individual's wealth increases.

This reveals the increasing marginal utility hypothesis The implication of this hypothesis is simple enough: as the individual's wealth increases, he receives more extra utility from each extra rupee that he receives.

On the basis of the data which accompany the utility function of Fig. 8.4, the expected utility of the decision to 'Invest in the Product' is:

E(U 1 ) = U(Rs. 16, 000) x .20 + U(Rs. – 4, 000) x .80

= .65 x .20 + (- .10) x .80 = 0.5

It is zero for the alternative action. 'Do not Invest', ie, E(U 2 ) = 0. (Try to guess why.) Thus the optimal decision would be to accept the project, ie, invest in the product.

A decision-maker who, because of an increasing marginal utility of money, exhibits a definite preference for undertaking actuarially fair investments such as this one is called a risk-lover. It is because he loves to take risk. It is also possible for a risk- lover to be eager and willing to undertake investments having negative EMVs.

Finally, let us consider a situation in which the entrepreneur has a linear utility function, as shown in Fig. 8.5.

Here the utility function shows constant marginal utility of money. The implication is that as the individual's wealth increases he receives the same extra utility from each additional rupee that he receives. It is left as an exercise to the reader to demonstrate that the expected utilities of both the decisions: 'investment in the product' and 'do not invest' are zero.

Therefore, the entrepreneur with a linear utility function would show indifference to the two alternative actions when attempting to maximise expected utility. He would, therefore, be called a risk-indifferent (neutral) decision-maker. It is interesting to note that this is the same decision (that is, indifference) as was obtained in the first part with the EMV criterion.

It is also possible to show that for a risk- neutral individual, the maximization of EMV criterion will generally yield the same decisions as the maximization of expected utility criterion.

The implication of this statement for decision-making purposes is that if the decision-maker feels that he is having a linear utility function over the range of outcomes in a decision problem, there is hardly any need to go through the whole complex process of seeking to derive his utility function of money.

In such a situation, taking the action with the highest EMV will surely lead to decisions that are quite in accord with the true preferences of the decision-maker.

In short, the decision-maker's attitude toward risk determines the shape of his utility function and assists the choice of alternative in a decision problem involving risk.

v. Sequential Decision Making: Decision Tree Analysis :

A new technique of decision making under risk consists of using tree diagrams or decision trees. A decision tree is used for sequential decision-making. Suppose Mr. X is a decision-maker with a utility function shown in Fig. 8.6 who has an income of Rs. 15, 000, and he is given the following offer.

Mr. X's friend Mr. Y will flip a coin. If a head appears in the first toss Mr. X owes Mr. Y Rs. 5, 000; if a tail appears, Mr. Y will pay Mr. X Rs. 6000. Mr. X's EMV from playing this gamble is Rs. 500 (a 50% chance of losing Rs. 5, 000 supported by a 50% chance of winning Rs. 6, 000).

It is worthwhile for Mr. X to decline the bet if the reduction in utility from losing Rs. 5, 000 is greater than the increase in utility from winning Rs. 6000. Table 8.9 and Fig. 8.6 summaries mathematically Mr. X's decision, ie, not to take the coin flipping bet, in two different ways.

In Table 8.6, a comparison of the EMV of 'Take Bet' with 'Decline Bet', shows that the Rs. 500 expected gain from taking the bet is surely better than the zero rupee gain from declining the bet. If we bring into focus the concept of utility, the expected utility loss of 25 from betting is obviously inferior to the no-change outcome.

Fig. 8.7 presents the same information using decision trees.

The tree in panel (a) considers monetary gain and loss; the tree in panel (b) shows utility gain and loss. The initial branch of both the trees — upper and lower, represents bet or decline bet decision, with each subsequent branch representing the possible outcomes and the associated probabilities.

After setting forth the probabilities, we calculate the expected monetary values — which are shown in the brackets. We can now compare the figures in brackets — (Rs. 500) and (Re. 0) — in the upper tree with the expected utility figures — (-0.25) and (0) — in the lower tree.

The major advantage of the decision tree approach is its brevity. In fact, it is easier to comprehend 'trees' easily than tables when we move to more realistic business situations involving various decisions (branches). Moreover, decision trees highlight the sequential nature of decision-making.

Eksempel:

Choosing a Technique of Production:

Suppose Mr. Ram is a project manager and has been entrusted with the responsibility of developing a new circuit board which is an important component of a colour TV.

The budgetary limit of the project has been set at Rs. 400, 000 and Mr. Ram has been given six months time to complete the project. The R&D engineers have succeeded in identifying two approaches, one utilizing conventional materials and another using a newly developed chip.

It has been estimated by the marketing department that if the circuit board is produced with conventional materials, the company will make a profit of Rs. 478, 300. The newer computer chip offers the twin advantages of simplicity and reliability when compared with the use of conventional materials.

There will also be a cost saving of Rs. 150, 000. Additionally, the new computer chip would generate additional profits of Rs. 121, 700 over and above the cost savings. Thus the total payoff from using the new technology chip would be equal to Rs. 750, 000 (=Rs. 478, 300 + Rs. 150, 000+ Rs. 121, 700).

Given sufficient time and money, either of the two methods could be developed to specifications. However, with fixed budget and limited time, Mr. Ram arrives at the estimate that there is a 30% chance that the circuit board made from the conventional materials will not be up to the mark and a 50% chance that the newer technology using the chip will fail to meet specifications.

The end result of the project involves the construction of a functional prototype. The prototype would cost Rs. 60, 000 if all conventional materials are used and Rs. 100, 000 if the newly designed chip is used. So the crucial decision problem facing Mr. Ram is one of choosing which of the two designs should be used in constructing the prototype model.

Since the financial limit has been set at Rs. 400, 000, Mr. Ram has the option of simultaneously pursing the development of both prototypes.

It is because the total cost is Rs. 160, 000 which is much less than the budgetary limit of Rs. 400, 000. However, if both the prototypes are developed, an additional labour cost of Rs.107, 000 has to be incurred. Fig. 8.8 presents the decision tree associated both the problem faced by Mr. Ram.

If the maximization of EMV criterion is followed, the decision would be to build both prototypes because the expected profits of Rs. 325, 410 would far exceed the profit of any one of the two.

However, in order to measure the riskiness of the three alternatives, Mr. Ram computes the standard deviation of each of the alternatives. Moreover, he computes coefficient of variation to make a comparison of the degree of riskiness of the three actions.

The results of such computations are presented in Table 8.10 below:

It is clear that construction of the prototype using conventional materials (A 1 ) is the least risky alternative. But its payoff is also the lowest of the three. Hence Mr. Ram is faced with a perplexing dilemma — a trade-off between risk and profitability. Larger return implies higher risk.

vi. Adjusting the Valuation Model for Risk :

Diminishing marginal utility of money leads directly to risk aversion. Such risk aversion is reflected in the valuation model used by investors to determine the worth of a firm. Thus, if a firm succeeds in taking an action that increases its risk level, this action affects its value.

The model was introduced as a way of discounting future income stream to the present:

Where R t = sales revenue from Q t units;

C t = cost of producing Q t units;

Π t = profit;

r = interest rate; og

t = time period under consideration; t equal to zero in base (current) year and n at the end of n time periods.

The model, it may be recalled, states that the value of a firm to its investors is the discounted present worth of future profits or income. Under uncertain conditions the profits in the numerator, R t – C t = P t, are really the expected value of the profits each year.

If the firm has to choose between alternative methods of operation, one with high expected profits and high risk and another with smaller expected profits and lower risk, will the higher expected profits be sufficient to neutralize the high degree of risk involved in it? If so, the riskier alternative will surely be preferred; otherwise the low-risk project or method of operation should be accepted.

We devoted ourselves to developing a broad understanding of the economic aspects of the NPV equation. We noted that an economic organization seeks to maximize its prospects for economic survival by maximizing NPV.

Now we shall interpret our valuation model of the firm in terms of the expected utility approach. The switch-over from utility theory to the NPV model is a simple exercise. Because of the diminishing marginal utility of money most decision-makers (eg, investors) are risk averters.

Now, in the context of our NPV model we may assert that risk aversion is reflected in the fact that any decision that a firm makes will surely change its risk level — the degree of risk to which it is exposed. The change in the risk level because of the decision taken by the firm will have a direct bearing on its NPV level. Now an important question is: how to adjust our basic valuation model for risk?

There are two ways of adjusting the model in the light of reality, ie, :

(1) Using the concept of certainty equivalent and

(2) Using risk- adjusted discount rate.

Decision-Making Environment under Certainty Equivalents :

The first method of dealing with risk it to replace the expected net income figures (R t — C t ) in the NPV equation with their certainty equivalents.

We may now illustrate the concept. Suppose Mr. Hari has purchased a lottery ticket that has a 50-50 chance of paying Rs. 1, 000 or Re. 0. Thus the lottery is equivalent to tossing an unbiased coin. If head appears, Mr. Hari will get Rs. 1, 000 and if tail appears he gets nothing. If we adopt the classical definition of probability as the limit of relative frequency, we know one thing at least.

If Mr. Hari tosses the coin again and again, on an average, he would win (get a head) half the time and lose (get a tail) half the time. Thus Mr. Hari's average or expected payoff in this game is Rs. 500 per ticket. This much is known to us.

But what we do not know as yet is; how much would Mr. Hari be willing to sell his ticket for? To put the question in a different language, what is the lowest offer that Mr. Hari is willing to accept — Rs. 300, Rs. 500 or Rs. 600? The cash offer he would accept in order to be induced to part with his ticket is the certainty equivalent (CE) of the lottery.

If, for instance, he would accept Rs. 300 (CE = Rs. 300), then his risk premium (RP) can be defined as:

RP = EMV- CE

Rs. 200 = Rs. 500 – Rs. 300 (8.18)

In such a situation Mr. Hari is willing to pay Rs. 200 risk premium to quit (sell the lottery ticket). Since his CE is less than his EMV, the risk premium is positive and he would be classified as a risk-averter. Had his CE exactly equalled the EMV of Rs. 500, he would be described as risk- neutral (indifferent).

Alternatively, he may be a risk-lover, in which case he would not exit the game (part with the lottery ticket) unless he received more than Rs. 500. On the basis of this simple example, we may define CE of a decision as “the sum of money, available with certainty, that would cause the decision-maker to be indifferent between accepting the certain sum of money and making a decision (or taking the gamble)”.

It is obvious that CE sum equal to the EMV implies risk indifference. Likewise, a CE sum greater than the EMV indicates risk. Therefore, an individual's attitude toward risk is directly reflected in the CE adjustment factor.

It is calculated as the ratio of the equivalent certain rupees sum (ie, the certain sum whose utility is equal to the expected utility of the risky alternative) divided by the expected rupee outcome from the risky alternative as equation (8.18) shows.

α = Equivalent Certain Sum/Expected Risky Sum

Let us suppose that Z t represents the CE for net income (R t – C t ) in period t.

Now the NPV equation may be rewritten as:

The calculation of the certainty equivalent (Z t ) could be done on a purely subjective basis by the individual carrying out the financial analysis, or the analyst could make use of a formal estimate (based on actual information and an appropriate model). If we substitute the value of Z t in equation (8.19), the NPV calculation would reflect a crude adjustment for risk.

It may be emphasized at this stage that the process of adjusting for time and risk in the NP V model is a complex and controversial task. In fact, even the order (risk first or time first) in which one adjusts the cash flow (numerator in the NPV model) can have a major impact on the final results.

The most obvious defect of the CE approach, outlined above, is that it requires the specification of a utility function so that risk premium can be numerically measured or quantified. However, one way possible of overcoming this problem is to go through an alternative and better known risk adjustment process — the risk adjusted discount rate method.

The Risk Adjusted Discounted Rate (RADR):

The RADR approach is very easy to use and therefore very popular. In order to understand the concept let us go back to equation (8.16). Recall that the CE approach to adjusting our basic valuation model to risk operated on the numerator (R t — C t ). By contrast, the RADR method focuses on the denominator.

To be more specific, the RADR procedure replaces the discount rate with a new term p, which is the sum of the initial discount rate and risk factor k. That is p = r + k. If, for instance, r equals 10% and k equals 3%, the new risk-adjusted discount rate becomes 13%.

Increasing the discount rate implies deflating NPV. Since NPV analysis uses a compounding factor in the denominator (1+r)t the incorporation of a risk adjustment factor in the denominator to deflate future values, heightens this compounding.

To illustrate, a discount rate of 10% becomes a discount factor of 1.46 [= (1.10)4] by the end of four years, and the 13% rate becomes 1.63 [=(1.13)4].

However, there is hardly any justification for the assumption of a compounding risk factor, rather than a risk difference of just three percentage points (1.13 – 1.10) or a ratio of (1.63 – 1.46=) 1.116 by the end of four years. Thus, the risk differential increases with the number of years in the project.

This particular observation has important implications for project planning and long-term investment decision. If, for example, there are two investment projects with the same degree of risk but differing time horizons, then the use of a common discount rate (such as 13%, in our example) is sure to have a distorting influence for the longer project.

The reason is simple enough: the risk factor will continue to compound in later years. However, the RADR is not without its defects. Its major defect is that, as one number, the discount rate is used to combine the effects of both risk and the time value of money.

The RADR is often made us of in capital budgeting (ie, long-term investment) decisions. If this factor is brought into consideration, future cash flows for each project are discounted at a rate, K*, which is based on the risk associated with the project. Fig. 8.9 illustrates the relationship between K* and project risk.

Here the r ƒ value denotes the risk-free rate, ie, the minimum acceptable rate of return from an investment project having certain cash flow streams. Fig. 8.9 makes one point clear at least: the greater the project risk the higher the rate used in discounting the project's cash flows.

Decision under Conflict and Game Theory :

So far we have considered only a single decision maker. The states of nature occur passively and independently of the strategies chosen. When opponents are involved, the opponents' strategies can be represented by the columns.

These will replace the states of nature and there will be as many columns as strategies. The two decision-makers will not choose their strategies independently. There will be interaction, the basis of which is conflict of interest.

Decision theory involving 2 or more decision makers is known as game theory. Games are classified according to number of players and degree of conflict of interest.

With complete conflict of interest the game is a zero-sum game. Most parlour games are of this type. A duopoly battle to capture a higher share of the market is another. If the conflict of interest is not complete, the game is called a non-zero sum game. With external economies, such games could arise.

Let us consider a decision problem facing two players. Both players wish to maximise their payoffs. Player A has 3 and player B has 4 strategies. For example, 3 multinationals want contracts in a Banana Republic. The first company could either bribe the present government, arranging a coup invasion. The second company has an extra option of getting a neighbouring country to attack. The payoffs are measured in terms of profit.

With a zero sum game, player A's gain is B's loss. Therefore a single matrix can represent both players payoffs. Payoff to B = – (Payoff to A).

If A chooses strategy A 1, B will try to maximise his own payoff (that is, minimise A's payoff). So B will choose B 2 . Similarly if A chooses A 2, B will choose B 3 . If A chooses A 3, B will chose B 1 . So the relevant payoffs for each strategy is the minimum for each now. A will maximise this and choose A 2 . This is nothing but the maximin criterion.

Whatever strategy B chooses, A will try to maximise his own pay-offs. So if B chooses B 1, A chooses A 1 and so on.

B will choose strategy B 3 . This minimises A's payoff and therefore maximises his own. So B chooses the minimax criterion. In this case the payoffs under minimax and maximin principles are the same and equal to 1.5. If this happens, such a value is called a saddle point. It is the solution to the game.

But even if no saddle point exists, a solution to any zero-sum-two person game will exist. The solution will be in terms of mixed strategies (where the specific strategy to be used is selected randomly with a pre-determined probability). The proof of this is known as the fundamental theorem of game theory.

It is sometimes difficult to get the exact utilities required to construct a payoff matrix. Ranked data are then often used. The two competitors may not have the same approximate utilities (with a negative sign). The two payoff matrices will be required. It will also be necessary to assume that each competitor can estimate the other's utility. It is the existence of such dissimilar utilities that cause non-zero-sum type of games.

It may also be that the opponent's utilities are not known at all: The decision problem would then have to be treated under uncertainty. Not knowing the opponent's utilities implies that the player has no idea at all about the possible choice of strategies that is equivalent to decision-making under uncertainty for a single decision-maker.

In terms of actual conditions a large number of problems is involved with states of nature. Even with situations involving antagonistic decision makers, this analysis is often not applicable under perfect competition.

The activities of a single entrepreneur will not then affect market conditions. But whenever a single firm controls a large share of the market, either with duopoly or oligopoly, game theory becomes important. Even monopoly can be represented as a game between a producer and seller.

 

Legg Igjen Din Kommentar