¿Curioso por saber cómo son las leyes de transparencia en todo el mundo? Usando los maravillosos datos del Global Right to Information Rating he hecho dos gráficos. El primero muestra el año en el que se implementó el derecho a la información y la calidad de la ley. El segundo muestra los componentes del índice para cada país.
Tapping nails
martes, 26 de febrero de 2013
viernes, 13 de julio de 2012
Breve y [esperemos] útil nota bibliográfica sobre clientelismo...
We define clientelism as a particular mode of "exchange"
between electoral constituencies as principals and politicians
as agents in democratic systems.
Kitschelt & Wilkinson. Patrons, Clients, and Policies. p. 7
Comencemos por lo más básico. El libro de Kitschelt & Wilkinson, eds. es un volumen súper interesante que habla del clientelismo, su relación a las políticas públicas y a la democracia ¿Lo mejor? Su increíble selección de textos empíricos que incluyen estudios sobre México (siga leyendo...), Japón, e India, entre otros. Definitivamente un muy buen volumen para empezar.
Si te preguntas ¿qué pasa cuando los partidos son más efectivos en atender las demandas de ciertos grupos que de otros? Checa el clásico de Dixit y Londregan "The Determinants of Success of Special Interests in Redistributive Politics" para un elegante modelo de redistribución en un sistema bipartidista. Otro texto de economía política del clientelismo es el de Robinson y Verdier "The Political Economy of Clientelism." Éste paper se centra en analizar la naturaleza de las relaciones políticas en aquellos lugares en los que la redistribución es ineficiente. Ambos son explicaciones excelentes y simples de las dinámicas de machine politics.
Siguiéndole a los clásicos, el texto de Kitschelt "Linkages between Citizens and Politicians in Democratic Polities" explica conceptos tan básicos como el papel del carisma y de los incentivos materiales (¡clientelismo!) en las relaciones que se establecen entre votantes y líderes políticos. Un must si quieres entendes por qué la conexión entre voto y política pública no es tan clara como algunos la pintan...
En particular, si les interesa el caso mexicano, ahi échenle un ojo al capítulo de Díaz-Cayeros, Magaloni & Estévez, quienes analizan el clientelismo como alternativa a la provisión de bienes públicos. Utilizando los datos de PRONASOL, encuentran que el clientelismo es prevalente en municipalidades más pobres, y que en localidades más heterogéneas y competitivas, se lleva a cabo mayor provisión de bienes públicos y menor clientelismo. Similar, pero cambiando la dirección de la causalidad, lee a Stokes y Medina (Clientelism as Political Monopoly), quienes argumentan que a mayor clientelismo disminuye la competencia electoral.
Siguiendo con el caso particular de México, otro de los papers de Magaloni y Díaz-Cayeros (esta vez coautoreado con Ruiz-Euler) habla acerca de la provisión de bienes públicos en sociedades tradicionales indígenas que son gobernadas a través de democracia directa y aquellas en las que los partidos políticos toman las decisiones. El argumento es que con democracia directa la provisión de bienes públicos mejora porque (1) los líderes se encuentran institucionalizados, (2) hay mayor inclusión de miembros de la sociedad en la toma de decisiones, y (3) existen mecanismos de sanción social.1
¿Lo tuyo son los sistemas electorales? Mira, échale un ojo a este paper de Lizzeri y Persico (The Provision of Public Goods under Alternative Electoral Incentives) quienes exploran lo que ocurre en un sistema proporcional y en un winner-takes-all... Y si lo que quieres es saber de tácticas en particular y estrategias comprendidas en el clientelismo y la compra de votos, checa a Gans-Morse, Mazzuca y Nichter...
Si estás entrado en comparar y ver cómo funciona en otras partes de Latinoamérica, no te pierdas este texto de Mariela Szwarcberg que responde una pregunta vital en el tema del clientelismo ¿Quién monitorea a los votantes y por qué? Incluye un estudio empírico interesantísimo llevado a cabo en Argentina.
Si quieres evidencia pura y dura sobre el clientelismo, el paper de Wantcheko (Clientelism and Voter Behavior) reporta un experimento en las elecciones en Benin. El autor compara qué ocurre cuando a los votantes se les ofrece una plataforma puramente clientelar con una plataforma puramente ideológica. Los resultados son sorprendentes, pero el método más. Y finalmente, siguiendo con el comportamiento del votante, échenle un ojo a Brusco & Nazareno quienes nos explican cómo los votantes toman decisiones en contextos clientelares... su estudio también es sobre Argentina.
Conforme vaya leyendo más y aprendiendo más, iré aumentando y corrigiendo este post. Again, mil gracias a @ppmerino y a @javieraparicio por su ayuda en obtener los papers y hacerlos públicos. PIP PIP!
1 Nota irrelevante: Si les interesan los temas de sanción social, no se pierdan el libro de Lily Tsai "Accountability without Democracy" (mi libro favorito del año pasado) y, por supuesto, el trabajo de Elinor Östrom (QEPD).
lunes, 2 de julio de 2012
Las encuestas del 2012...
Entre muchas cosas, las encuestas del 2012 pusieron dos temas importantes en la mesa. Primero, antes de las elecciones, muchos se preguntaban cosas como ¿qué tan confiables son las encuestas? ¿qué significan los porcentajes y los números que nos dan? ¿por qué yo no conozco a nadie a quien hayan entrevistado? Ahora en pleno momento postelectoral, con conocimiento del conteo rápido y con PREP casi terminado, surgen muchas otras preguntas: ¿por qué el margen de ganancia entre AMLO y EPN es mucho menor del que se había proyectado? ¿en qué fallaron las casas encuestadoras? ¿estaban manipuladas? ¿por qué salió Ciro Gómez Leyva a cuasi-reconocer un chanchullo?
Empecemos por lo primero... ¿Cómo salen las encuestas? Las encuestas nos permiten conocer las opiniones de la población conociendo sólo una parte de ésta. Esta inferencia se puede (con un margen de error) hacer gracias al maravilloso Teorema del Límite Central. Si quieren un bello applet de cómo funciona el Teorema, den click aquí. En este post no explicaré el Teorema, pero señalaré dos cosas importantísimas que éste dice. Primero, la muestra que estemos observando debe ser aleatoria. No valen las muestras "pues en mi vecindario," "pues en Twitter," "pues los taxistas," y otras chaireces similares. Segunda, no importa el tamaño de la población de la que queramos hacer inferencia: el margen de error se calcula con el tamaño de muestra. Miren la siguiente gráfica (obtenida de este link):
Básicamente muestra que el margen de error disminuye marginalmente conforme la muestra crece. No hay nada aquí que incluya el tamaño de la población a la que queremos inferir.
Una vez que una casa encuestadora ya obtiene su muestra aleatoria, entonces va y toca en las casas, o llama a los teléfonos, y hace sus preguntas. Es importante aquí hacer notar que el modo de preguntar importa. Por ejemplo, no es lo mismo preguntarle a la gente "Considerando la alta aceptación del gobierno de la ciudad de México, ¿por quién votará en las próximas elecciones? que preguntar únicamente "En estas elecciones, ¿por quién va a votar para jefe de gobierno del DF?" Claramente la primer pregunta induce a una respuesta. Por eso, cuando vean una encuesta, pregúntense ¿cómo fue formulada exactamente la pregunta?
Independientemente de la pregunta, hay gente que no contesta y eso una fuente de error. Hay gente que miente, otra fuente de error. Hay gente que no miente pero cambia de parecer ¡bam! un error más ¿Cuándo nos debemos de preocupar por estos errores? Los errores (siempre) preocupan cuando son sistemáticos, es decir, cuando la probabilidad de que haya uno de estos errores está relacionada a lo que queremos observar (en este caso, que la persona vote por determinado partido). Por ejemplo, supongamos que hay un escándalo de uno de los candidatos. Hay razones para suponer que este escándalo va a afectar a los votantes que originalmente iban a votar por éste candidato: error no sistemático.
Una vez que se levanta la encuesta y se hace la base de datos, se pueden reportar los resultados brutos. Usualmente, sin embargo, los resultados brutos son corregidos. Esto se hace con un ponderador, es decir, se le da un peso a cada observación. Dicho peso normalmente está determinado por datos socioeconómicos. La lógica de este ponderador es la siguiente; piensen ustedes que es mucho más probable entrevistar a personas que estén en sus casas que a personas que trabajan. Por tanto, puede ser que al final de un levantamiento hayamos entrevistado a un porcentaje mayor de amas de casa que el porcentaje poblacional de las amas de casa. El ponderador socioeconómico corrige esto. Si una casa encuestadora no lo hace bien, pues es una fuente más de error.
Éstos resultados, así como los brutos, sirven para medir las aguas, pero es difícil que se aplique a la elección porque confunde la no respuesta con el abstencionismo ¿Qué hacer? Las casas encuestadoras, entonces, aplican la bella y bonita "fórmula del votante probable" que básicamente es añadir otro ponderador que determina la probabilidad de que cada persona vaya a votar. Éste ponderador es usualmente secreto porque es la carta fuerte de una encuestadora. Una encuestadora que tenga un muy buen ponderador de votante probable va a poder estimar con mayor precisión el resultado de la elección, porque a ésta sólo van algunas personas que no están distribuidas aleatoriamente. Si la casa encuestadora lo hace mal, sus estimaciones serán raritas y nadie los contratará ¿Cómo saber si está bien hecho esto? Revisa la historia de una casa encuestadora tomando en cuenta sus encuestas ponderadas. Te dará una idea de qué tan buena fórmula tienen.
¿Con qué nos quedamos? Las encuestas son confiables como una fuente de información. Las encuestas no son la elección, y están sujetas a muchas fuentes de error. Sin embargo, este error puede ser o corregido o aumentado dependiendo del profesionalismo de la casa encuestadora. Lo que sí es básico es que las casas encuestadoras sean tan transparentes como sea posible, dando a conocer la metodología del levantamiento (fraseo de la pregunta y selección de la muestra) y de la ponderación. Otro factor importantísimo es que la casa encuestadora nos diga quién pagó la encuesta para saber si hay intereses que podrían estar afectando la imparcialidad del cuestionario o del ponderador. Conociendo esto, podremos saber con mayor precisión qué tan probable es que una encuesta nos diga algo significativo, o de dónde podría venir su error.
Empecemos por lo primero... ¿Cómo salen las encuestas? Las encuestas nos permiten conocer las opiniones de la población conociendo sólo una parte de ésta. Esta inferencia se puede (con un margen de error) hacer gracias al maravilloso Teorema del Límite Central. Si quieren un bello applet de cómo funciona el Teorema, den click aquí. En este post no explicaré el Teorema, pero señalaré dos cosas importantísimas que éste dice. Primero, la muestra que estemos observando debe ser aleatoria. No valen las muestras "pues en mi vecindario," "pues en Twitter," "pues los taxistas," y otras chaireces similares. Segunda, no importa el tamaño de la población de la que queramos hacer inferencia: el margen de error se calcula con el tamaño de muestra. Miren la siguiente gráfica (obtenida de este link):
Básicamente muestra que el margen de error disminuye marginalmente conforme la muestra crece. No hay nada aquí que incluya el tamaño de la población a la que queremos inferir.
Una vez que una casa encuestadora ya obtiene su muestra aleatoria, entonces va y toca en las casas, o llama a los teléfonos, y hace sus preguntas. Es importante aquí hacer notar que el modo de preguntar importa. Por ejemplo, no es lo mismo preguntarle a la gente "Considerando la alta aceptación del gobierno de la ciudad de México, ¿por quién votará en las próximas elecciones? que preguntar únicamente "En estas elecciones, ¿por quién va a votar para jefe de gobierno del DF?" Claramente la primer pregunta induce a una respuesta. Por eso, cuando vean una encuesta, pregúntense ¿cómo fue formulada exactamente la pregunta?
Independientemente de la pregunta, hay gente que no contesta y eso una fuente de error. Hay gente que miente, otra fuente de error. Hay gente que no miente pero cambia de parecer ¡bam! un error más ¿Cuándo nos debemos de preocupar por estos errores? Los errores (siempre) preocupan cuando son sistemáticos, es decir, cuando la probabilidad de que haya uno de estos errores está relacionada a lo que queremos observar (en este caso, que la persona vote por determinado partido). Por ejemplo, supongamos que hay un escándalo de uno de los candidatos. Hay razones para suponer que este escándalo va a afectar a los votantes que originalmente iban a votar por éste candidato: error no sistemático.
Una vez que se levanta la encuesta y se hace la base de datos, se pueden reportar los resultados brutos. Usualmente, sin embargo, los resultados brutos son corregidos. Esto se hace con un ponderador, es decir, se le da un peso a cada observación. Dicho peso normalmente está determinado por datos socioeconómicos. La lógica de este ponderador es la siguiente; piensen ustedes que es mucho más probable entrevistar a personas que estén en sus casas que a personas que trabajan. Por tanto, puede ser que al final de un levantamiento hayamos entrevistado a un porcentaje mayor de amas de casa que el porcentaje poblacional de las amas de casa. El ponderador socioeconómico corrige esto. Si una casa encuestadora no lo hace bien, pues es una fuente más de error.
Éstos resultados, así como los brutos, sirven para medir las aguas, pero es difícil que se aplique a la elección porque confunde la no respuesta con el abstencionismo ¿Qué hacer? Las casas encuestadoras, entonces, aplican la bella y bonita "fórmula del votante probable" que básicamente es añadir otro ponderador que determina la probabilidad de que cada persona vaya a votar. Éste ponderador es usualmente secreto porque es la carta fuerte de una encuestadora. Una encuestadora que tenga un muy buen ponderador de votante probable va a poder estimar con mayor precisión el resultado de la elección, porque a ésta sólo van algunas personas que no están distribuidas aleatoriamente. Si la casa encuestadora lo hace mal, sus estimaciones serán raritas y nadie los contratará ¿Cómo saber si está bien hecho esto? Revisa la historia de una casa encuestadora tomando en cuenta sus encuestas ponderadas. Te dará una idea de qué tan buena fórmula tienen.
¿Con qué nos quedamos? Las encuestas son confiables como una fuente de información. Las encuestas no son la elección, y están sujetas a muchas fuentes de error. Sin embargo, este error puede ser o corregido o aumentado dependiendo del profesionalismo de la casa encuestadora. Lo que sí es básico es que las casas encuestadoras sean tan transparentes como sea posible, dando a conocer la metodología del levantamiento (fraseo de la pregunta y selección de la muestra) y de la ponderación. Otro factor importantísimo es que la casa encuestadora nos diga quién pagó la encuesta para saber si hay intereses que podrían estar afectando la imparcialidad del cuestionario o del ponderador. Conociendo esto, podremos saber con mayor precisión qué tan probable es que una encuesta nos diga algo significativo, o de dónde podría venir su error.
martes, 24 de enero de 2012
Loop for merging several datasets
So, a twitter follower asked me for a favor. He basically had several thousand *.dta files (Stata files), and he only needed two variables contained in each. He didn't want to type the name of each file separately (who would?) and the desired outcome was a dataset containing the two variables, and all of the observations of the files. He had never used Stata. How to do it? I tried doing it in Stata, but building local macros and specifying the return type is cumbersome and boring. So, of course, I switched to R. The result was a 10 line Rfile, pretty simple, and super fast to run. First, you will need to put all of the original files in the same folder. Second, make sure that each file is indexed with a root name (in this example, the rootname is file, yes, I know, I am so original!). Finally, the output will be done in a *.csv file. If you want it in another format, well, good luck!
## BEGIN BY SETTING THE WORKING DIRECTORY...
setwd("/Users/Myname/Desktop/Statahelp/")
library("foreign")
## VARSK ARE THE VARIABLES TO KEEP, IN THIS CASE, X1 AND X2.
varsk <- c("x1","x2")
## BEGIN A LOOP. FOR THE EXAMPLE, I AM ASSUMING THAT THERE ARE 500 FILES
for (i in 1:500){
strd <- paste('file',as.character(i),'.dta', sep='')
strk <- paste('file',as.character(i),'.csv', sep='')
data <- read.dta(strd)
datak <- data[varsk]
write.table(datak, file = strk, sep = ",", append = T)
}
If your files are in a different directory (other than the one specified in wd), then change the string in strd.
I also strongly suggest adding a variable in datak that is equal to [i]. This is solely for purposes of identifying the dataset that that particular observation came from. This is done by simply adding a line:
datak$fileid <- i
Done! Hope this was helpful!
I also strongly suggest adding a variable in datak that is equal to [i]. This is solely for purposes of identifying the dataset that that particular observation came from. This is done by simply adding a line:
datak$fileid <- i
Done! Hope this was helpful!
viernes, 2 de diciembre de 2011
The harvard package in Mac
If you have, as I do, a Mac with OS X Lion and use LaTex (or better put, MacTex) then you might want to install the harvard package of citations because, well, it's pretty. Anyway, making it work is super complicated and the available help is totally confusing (almost written in binary code). So, I will give my solution in five (plus an extra) super simple steps. I am sure there is a fancier way to do this, but since I am interested in my bibliography and not in programming elegance, let's proceed.
- Go to the harvard package directory website and download the contents directory as a zip file.
- Unzip what you just downloaded. A new carpet called "harvard" will be created wherever the original zip file is (usually the downloads folder).
- LaTex is pretty particular about where the files are located. Since there is no automatic installer, we will have to manually create the directories and move the files. So, click on Finder > Go > Go to folder and then type "~/Library" (without the quotation marks).
- Inside the "Library" folder create the next path: ~Library/texmf/tex/latex/misc. The *.sty files will be placed in this "misc" folder. So, go back to the unzipped "harvard" folder and select the files "bibtexlogo.sty" and "harvard.sty" and drag it to the "misc" folder.
- Inside the "Library" folder and create the next path: ~Library/texmf/bibtex/bst. This directory will contain the *.bst files, so go back again to the unzipped "harvard" folder and select all the files with this extension. In my version of the package, I have seven *.bst files: agsm, apsr, dcu, jmr, jphysicsB, kluwer, and nederlands.
- If you prefer to have all of your bibliography in a single place and reference it in a Latex document without setting the path (i.e. using the default location for *.bib files), then create the next path: ~Library/texmf/bibtex/bib and place all of your *.bib files in here.
You are done! Now, you can pretty much just throw away the rest of the documentation or create a new folder inside "texmf" and keep it there for reference.
First entry. The reason.
So, the reason why I decided to open this blog is because I need to somehow keep track of what I have had to do to make my stuff work. Last night I spent 4 hours (yes, 4) trying to install the harvard package for citations in my Mac (OS X Lion). Most of the blogs and websites have all the necessary information in a way that can only be read if you speak their language. Most of us need plain english (as a non-native English speaker, I need also simple English!). So, I have decided to write this blog hoping that it will be helpful and comprehensible. Of course, the content is quite related to what I encounter and am able to solve. Pip pip!
Suscribirse a:
Entradas (Atom)