V krizi smisla tiči misel






         

6.01.2013

Marx je imel prav: o alienaciji na mikro način

Zapisano pod: Ekonomija — andee - 6.01.2013

Pred spanjem sem prebral še tale prispevek enega od profesorjev, s katerim sem se večkrat srečal in kar dobro razumel v Bloomingtonu, Michaela T. Rauha. Rauh je profesor poslovne ekonomike na Kelley Business School v Bloomingtonu in strokovnjak za ekonomsko teorijo pogodb.

V članku se Rauh resnično “igračka”. Vzame nekaj trditev oz. teorij iz Marxa, Smitha, Jona Elsterja in celo Durkheima ter preveri, kaj o njih lahko povedo mikroekonomski modeli. Konkretno ga najbolj zanima mnenje teh teoretikov o delitvi dela in “alienaciji” oz. odtujitvi, ki je njena posledica, analizirana v številnih socioloških delih in značilna za sodobni čas.

Kako v osnovi zgleda Rauhov model? Gre za principala in agenta (torej npr. šefa in uslužbenca), ki svoj delovni čas razporejata med dve aktivnosti: produkcijo in administracijo. Rauh predpostavi, da obstajajo določene koristi od specializacije, torej odločitve vsakega od njiju, da se usmeri le v eno od obeh možnih dejavnosti. Obstajajo pa tudi stroški takšne odločitve, ki so dveh vrst: najprej, vsak od akterjev ima določene preference glede sodelovanja, solidarnosti; in drugič, vsak od akterjev ima tudi določene preference glede raznolikosti dela. Oboje je jasno (oportunitetni) strošek odločitve za večjo specializacijo – bolj kot sta akterja specializirana, manjša je njuna raznolikost dela in s tem manjše zadovoljstvo nad tem.

Ob teh (in še nekaterih klasičnih mikroekonomskih) predpostavkah, so ugotovitve Rauha resnično zanimive in zgovorne. Ko naraščajo koristi od specializacije (in torej delitve dela, značilne za moderne družbe), bo v začetku principal, torej šef raje najel delavca kot pa vse počel sam. Do sem vse prav in običajno. Ko pa takšne koristi, torej koristi specializacije naraščajo še naprej, bo šef svoje dejavnosti pričel vedno bolj specializirati tudi sam in se usmeril predvsem v drugo dejavnost, torej “administracijo” (tudi to opazimo v sodobni družbi, o tej ločitvi na produkcijo in birokracijo/management je bilo veliko povedanega v zadnjem času, tudi na ulicah). Ker se bo s tem manjšala solidarnost med obema (ki je eno od gonil oz. spodbud za zaposlenega), bo moral šef to nadomestiti z drugačnimi spodbudami, praviloma bolj finančne narave. Pod najverjetnejšimi pogoji bo torej končni rezultat klasično “tržno-fundamentalistično” stanje, ko bo vsak skrbel samo za svoje interese, bil za to nagrajen oz. spodbujen v finančnem smislu, solidarnost pa ga ne bo več čisto nič brigala.

Ni še konec… Zanimivo pri zgornjem je še to, da nastane klasična situacija pripornikove dileme, o kateri sem nekoč davno tudi sam že pisal. Za oba, šefa in zaposlenega bi bilo namreč bolje, da bi sodelovala, da bi vzpostavila “spodbude” prek solidarnosti! Vendar se ravnovesje modela vzpostavi nekje drugje, tam, kjer ga tudi v dejanskem svetu opazimo, in sicer v že omenjeni tržno-fundamentalistični situaciji. Razlog je tak kot ponavadi pri pripornikovi dilemi: sodelovanje in solidarnost padeta na ravni spodbud, nista “incentive compatible” v jeziku analiz principala in agenta. Oba, tako šef kot zaposleni sta namreč posamezno na boljšem, če kršita najboljšo situacijo, če “shirkata”. Zato se ravnovesje ne vzpostavi tam, kjer bi oba dobila dejansko najboljši “izplen”, pač pa tam, kjer jima ni več v interesu kršenje dogovora, kjer se torej na žalost vzpostavi stabilno, Nash ravnovesje. V smithovskem svetu proste roke trga in sebičnosti torej.

Rauh zaključi z matematično analizo, kaj bi se moralo zgoditi, da bi vendarle solidarnost zmagala: bodisi bi morala biti recipročnost, torej nagnjenost k solidarnosti med obema dovolj velika, da bi ju ohranila pri njunem “first best” izidu, bodisi bi morali biti produkcijski pogoji (ki jih v modelu označujeta mejna produkta obeh dejavnosti) precej boljši. Kar je načeloma v skladu s tem, kar pravi tudi Marx: razvoj produkcijskih sredstev bo vodil v delavsko revolucijo in odpravo kapitalizma, s čimer bo prekinjena alienacija, ki jo povzroča sodobna, v razrednem boju in naravi kapitala utemeljena delitev dela (o marksizmu priznam, da res ne vem dovolj, zato je morda tu kakšna nedoslednost).

Obe možnosti (predvsem prvo) Rauh označi kot malce utopični, vendar ne tudi nemogoči. V vsakem primeru pa vsaj meni njegov model nudi zanimiv (čeprav morda kratek in malce neizdelan) vpogled, kako se lahko matematična orodja sodobne mikroekonomije uporabi še za kaj drugega kot opevanje neoliberalne ideologije. Pa tudi zabavno branje in vajo iz mikro modelov, ki jo bom še rabil v prihodnjih tednih. Lepo spite.

  • Share/Bookmark

5.01.2013

Delavnica ekonometrije – cenilka največjega verjetja, “ekstremum” cenilke in trojica testov

Zapisano pod: Ekonometrija, Ekonomija — andee - 5.01.2013

Danes bomo stopili še korak bližje t.i. »pravi« ekonometriji, torej tja, kjer resnično poteka jedro sodobnih malce resnejših raziskav ekonometrije. Danes zgodba torej postaja načeloma nekoliko bolj zahtevna, ampak nič bat, skušal bom še naprej zadeve podajati dovolj preprosto, za lažjo berljivost dodajam tudi nekaj sličic, da malo popestrijo vse skupaj.

Govorili bomo torej o bolj splošni obliki cenilk, t.i. »ekstremum« cenilkah. Eno od njih smo že spoznali, to je bila cenilka najmanjših kvadratov, danes bomo več povedali o malce bolj zapleteni vrsti, ki pa je za marsikaterega raziskovalca precej bolj zanimiva: cenilkah največjega verjetja oz. maximum likelihood estimators (MLE). Ob koncu se bomo na to navezali pri kratki razlagi t.i. velike trojice testov – Waldovem testu, testu Lagrangeovega multiplikatorja in t.i. likelihood ratio testu.

Kaj so torej ekstremum cenilke? Ko smo govorili o metodi najmanjših kvadratov, smo povedali, da gre pri njej v bistvu za minimiziranje kvadratov vsote odklonov pravih od ocenjenih vrednosti. Pri njej smo torej iskali takšno vrednost, da bo minimizirala neko funkcijo. Iz osnov matematične analize verjetno veste, da minimiziranju in maksimiranju rečemo tudi iskanje ekstremov neke funkcije oz. matematična optimizacija. Ekstremum cenilke imenujemo torej takšne cenilke, ki optimizirajo (maksimirajo, minimizirajo) vrednost neke funkcije, ki je odvisna od vrednosti opazovanj (torej podatkov) ter same vrednosti cenilke. To je obenem tudi ena najbolj splošnih definicij cenilk v ekonometriji.

Zgoraj: Primer ekstremum cenilke – cenilka najmanjših kvadratov

Kakšni so osnovni primeri takšnih cenilk? Omenili smo že cenilko najmanjših kvadratov. Drug primer, ki bo nas danes najbolj zanimal, je cenilka največjega verjetja oz. MLE. Tretji primer so Bayesianske cenilke (npr. posteriorni modus, posteriorna aritmetična sredina in posteriorna mediana), o katerih bomo več povedali v eni sklepnih lekcij te delavnice.

Poseben primer ekstremum cenilk so tudi t.i. M cenilke, ki označujejo cenilke, ki optimizirajo vsoto danih funkcij. Cenilke najmanjših kvadratov (ki minimizirajo vsoto kvadratov odklonov) ter cenilke največjega verjetja (kjer v končnem maksimiramo vsoto logaritmov, več spodaj) spadajo torej tudi v M cenilke.

Zakaj so ekstremum cenilke tako pomembne? Preprosto zato, ker se da z nekaj matematične analize pokazati, da imajo vrsto »lepih« lastnosti. Možno je pokazati, da so takšne cenilke pod določenimi pogosto izpolnjenimi pogoji (kompaktnost definicijskega območja funkcije, uniformna konvergenca opazovane funkcije, identificiranost funkcije oz. obstoj edinstvenega globalnega ekstrema te funkcije – vse našteto so pogoji, o katerih je več govora v matematični funkcijski analizi in spadajo v njene temelje), skratka pod takšnimi pogoji so ekstremum cenilke vedno dosledne, njihova vrednost se torej pri ponavljanju izračunov vedno bolj bliža pravi vrednosti.

To še ni dovolj. Ne vemo namreč, kako hitro se takšne cenilke bližajo pravi vrednosti. Doslednost nam namreč ne pomaga kaj dosti, v primeru da se cenilka prične bližati pravi vrednosti šele za zelo velike izračunane vrednosti, vse povsod drugod pa precej odstopa od prave vrednosti. Če bi veljalo to, si torej nimamo kaj pomagati, cenilka bi bila še vedno zelo pogosto precej slaba ocena prave vrednosti.

Na srečo pa za ekstremum cenilke velja še neka druga lastnost – asimptotska normalnost. Izkaže se, da so pod določenimi pogoji (ki pa so prekompleksni za razlago, naj bo torej dovolj to, da so skoraj vedno izpolnjeni) te cenilke porazdeljene normalno s srednjo vrednostjo, ki je enaka pravi vrednosti parametra, ter varianco, ki je enaka neki obliki sendvič cenilke, ki smo jo prav tako omenjali prejšnjič. Ker so torej (asimptotsko, torej vsaj »v grobem«) normalno porazdeljene, lahko zanje uporabljamo vrsto testov, ki smo jih že (in jih še bomo) omenjali, še več, vemo tudi, kako hitro se bližajo pravi vrednosti in kje so kritična območja, kje torej lahko zavračamo ali ne zavračamo naše morebitne hipoteze.

Lepo… Ekstremum cenilke so torej CAN – Consistent (dosledne) in Asymptotically Normal (asimptotsko normalne). Čeprav vse to zveni zelo tuje, nam te lastnosti močno olajšajo delo pri ekonometričnih izračunih in pravzaprav pomenijo dokaz, da lahko s temi cenilkami, dokler so izpolnjeni zgornji pogoji, delamo brez pretiranih skrbi.

Za kaj pa gre pri metodi največjega verjetja? Ko smo govorili o osnovah statistike, smo omenjali pojem statistične oz. verjetnostne gostote. Pojem nam označuje verjetnost, da bo neka funkcija zavzela točno določeno vrednost. Znana je zvonasta oblika Gaussove krivulje, ki ne kaže nič drugega kot prav porazdelitev verjetnostnih gostot. Na sredini, kjer je vrednost verjetnostne gostote najvišja ima tudi krivulja svoj vrh, proti repom, ko postajajo verjetnosti, da funkcija zavzame vrednosti v tistem območju zelo majhne, pa se tudi Gaussova krivulja spušča in vedno bolj bliža abscisi, ničelni osi torej.

Zgoraj: Funkcija verjetnostne gostote in določanje največjega verjetja

Vrednosti verjetnostne gostote funkcije pri danih vrednostih odvisnih spremenljivk in parametrov torej rečemo funkcija verjetja (likelihood function).

Napravimo torej le še zadnji korak. Vemo, da imamo pri statističnih analizah navadno neko skupino opazovanih enot, ki se med seboj razlikujejo po vrednostih neodvisnih spremenljivk. Denimo, da nas zanima verjetnost, da bomo iz opazovanih podatkov izračunali prav parameter (npr. povprečno vrednost, mediano, varianco, ipd.), ki ga ocenjujemo. Seveda bi bilo dobro, da je ta verjetnost karseda velika, sicer je izračunana vrednost parametra malo verjetna in s tem neuporabna. V primeru, da so opazovanja med seboj neodvisna (npr. intervjuvanje različnih obiskovalcev pred veleblagovnico), bomo torej skušali maksimirati produkt verjetnosti naših rezultatov posameznih opazovanj oz. intervjujev. V primeru, da bi bila opazovanja med seboj odvisna (npr. opazovanje oz. spraševanje istih oseb v več časovnih trenutkih), pa bi preprosto uporabili formule pogojne verjetnosti, kaj dosti bistvenega v sami obliki formule pa se ne bi spremenilo.

Takšni obliki formule, torej formulo skupne verjetnosti, da bo vrednost parametra ustrezala podatkom, ki jih opazujemo, rečemo funkcija verjetja (likelihood function). Vrednost parametra, ki maksimira to verjetnost, pa imenujemo cenilka največjega verjetja oz. maximum likelihood estimator (MLE).

Zgoraj: Funkcija verjetja (likelihood function)

Ker je vse verjetno zvenelo zelo zapleteno, dajmo primer. Recimo, da mečemo kovanec, ki je na eni strani obtežen – verjetnost, da pade grb torej ni enaka (50%), da pade pismo. Recimo torej verjetnosti, da pade grb, p. Verjetnost, da pade pismo je torej 1-p. Verjetnostna gostota je torej v tem primeru enaka f=((p)^y)*((1-p)^(1-y)), kjer je y enak 1 v primeru, da pade grb in 0 v primeru, da pade pismo (ko je y enak 1 ima f vrednost p, ko pa je y enak 0 ima f vrednost 1-p, preverite z vstavljanjem).

Če se s tem izračunom malce poigramo, vrednost f logaritmiramo in izračunamo, kje doseže maksimum pri n opazovanjih (prvi odvod mora biti enak nič), dobimo, da mora biti cenilka vrednosti p enaka kar povprečju vseh y. Cenilka največjega verjetja je torej v tem primeru kar enaka povprečni vrednosti y, torej razmerju, kolikokrat bo padel grb v n poskusih. Nič posebej presenetljivega torej, to je tudi vrednost, ki jo spoznate pri samem uvodu v teorijo verjetnosti – relativna pogostost nekega dogodka oz. v našem primeru padca grba pri pristranskem, obteženem kovancu. To kaže, da je cenilka največjega verjetja velikokrat tudi ena najbolj logičnih izbir za cenilko prave vrednosti. Še več, tudi formulo za izračun cenilke najmanjših kvadratov v linearni regresiji lahko dobite prek postopka največjega verjetja, tudi OLS cenilka je torej samo poseben primer MLE cenilke.

Zgoraj: Cenilka največjega verjetja (levo) in logaritemska (povprečna) funkcija verjetja (desno)

Še nekaj stvari velja omeniti. Najprej, že pri prejšnjem primeru smo morali logaritmirati formulo izračuna funkcije verjetja. Ta postopek je tudi sicer standarden, rezultatu, ki ga dobimo, rečemo tudi logaritemska funkcija verjetja (log likelihood function). Izkaže se, da je z njo precej laže računati in reševati optimizacijske probleme te vrste. Ker je logaritem vseskozi naraščajoča funkcija (podobno kot osnovna funkcija največjega verjetja, torej produkt verjetnostnih gostot) sta rešitvi optimizacijskih problemov v osnovni in logaritemski obliki enaki, torej je opisani postopek veljaven – lahko delamo z logaritemsko namesto navadne likelihood funkcije, rezultati optimizacije bodo enaki.

Omenimo še score matriko, Fisherjevo informacijsko matriko in Cramer-Rao omejitev. Žal je današnji del res poln novih, zapletenih izrazov… Mislim pa, da bo v prihodnje z današnjim znanjem marsikaj lažje. Score funkcija oz. matrika je pravzaprav precej preprosta, gre preprosto za matriko prvih odvodov log likelihood funkcije. Ker vemo, da je ta funkcija predmet optimizacije, morajo biti ti odvodi oz. vsaj njihove pričakovane vrednosti enake nič. Pričakovana vrednost score matrike je torej enaka nič. Do Fisherjeve informacijske matrike pa pridemo, ko računamo varianco score matrike, informacijska matrika je pravzaprav kar enaka varianci score matrike. Fisherjeva informacijska matrika je zelo uporabna pri računanju variančno kovariančnih matrik MLE cenilk, prav tako pa tudi pri formulacijah testov, ki jih bomo omenili spodaj.

Zgoraj: Ronald Aymler Fisher, Harald Cramér, Calyampudi Radhakrishna Rao

Še zadnja stvar pri MLE cenilkah, Cramer-Rao neenakost. Mimogrede, Cramer in Rao sta bila (Rao je še živ) ena vodilnih statistikov dvajsetega stoletja, prvi Šved in drugi Indijec. Med seboj sicer nista kaj prida povezana, vsaj sodeč po biografskih podatkih, ki jih sam poznam, je pa bil slednji doktorski učenec R.A. Fisherja, katerega produkt je omenjena informacijska matrika.

Kaj torej zdaj pravi Cramer-Rao neenakost, takole čisto na hitro? Cramer in Rao sta dokazala, da je varianca vsake ekstremum cenilke (še več, vsake CAN, torej dosledne in asimptotsko normalne cenilke) omejena spodaj, da torej ne more biti manjša od inverzne vrednosti Fisherjeve informacijske matrike. Cenilke, ki jim uspe doseči to mejo, so torej učinkovite, vse druge imajo varianco, torej odstopanje od prave vrednosti večjo od optimalno mogoče. Izkaže se, da so MLE cenilke vedno bolj učinkovite od katere koli druge CAN cenilke, imajo torej najmanjšo mogočo varianco, najmanj odstopanja od prave vrednosti, zelo po domače povedano.

Ker je ura že krepko v jutro, dajmo tule skleniti. Jutri oz. v naslednjih nekaj dneh pa napišem še nekaj o tem, kako zgoraj povedano uporabiti pri treh najbolj osnovnih testih v svetu ekstremum cenilk, ter nekaj bolj praktičnih primerov uporabe povedanega, torej konkretnih študij s konkretnimi rezultati. Se torej beremo, upam, da ste vsaj nekateri še z mano.

Dodajam še dve dobri, čeprav malce zahtevnejši referenci:
1) zapiski predavanj o ekonometriji Michaela Creela, predavatelja na Avtonomni univerzi v Barceloni, od tod sem črpal veliko tokrat zapisanega.
2) poglavje Neweyja in McFaddena iz Handbook of Econometrics (1994), pravšnji tekst za vse tiste, ki se želite kdaj resneje spopasti s področjem ekonometrije in ekonometrične teorije, posebej glede MLE in CAN cenilk.

  • Share/Bookmark
« Novejši zapisi

Blog V krizi smisla tiči misel | Zagotavlja SiOL | O Sistemu |