Usando Apache Arrow para analizar el padron electoral argentino del 2011.

By Yanina Bellini Saibene in Español Data Science Apache Arrow 100DaysToOffload

January 2, 2024

En 2020 volvi a dar clases en la Universidad. Una de las materias era sobre datos masivos y no estructurados para una diplomatura en ciencia de datos aplicada a politicas publicas de la UNAB. En 2022, Danielle Navarro fue una de las keynote de LatinR y nos presento Apache Arrow y como usarlo en R. Luego de esa keynote cambie mi clase sobre manejo de grandes datos e incorpore Apache Arrow como parte de la materia.

En mis clases siempre incorporo programacion en vivo, y para esta clase adapte los ejemplos de la charla de Danielle a un conjunto de datos de Argentina. Todos los ejemplos de clase los hice con un conjunto de datos del padron electoral argentino del 2011 al que tuve acceso por ser parte de Open Data Cordoba. No puedo publicarlo ni compartirlo, pero espero que este blog post sea un lindo ejemplo en castellano del paquete y como se usa.

Algunos conceptos sobre Arrow

Apache Arrow es un conjunto de herramientas multilenguaje para el intercambio rapido de datos y procesamiento en memoria. Arrow provee un formato estándar para conectar diferentes lenguajes y sistemas. Existe un paquete de R para trabajar con Arrow. Hay un tipo de archivos llamado parquet que se utiliza con Arrow y optimiza la lectura y escritura de los datos.

Los datos tabulares se almacenen como columnas representando variables y conteniendo datos similares, por ejemplo, si hablamos del padron electoral tendremos una columna con el documento nacional de identidad de las personas, otra con su nombre y otra con su apellido. Cada fila de ese conjunto de datos representa un caso, una persona, pero los datos son disimiles, ya que por cada persona tendremos el DNI, el nombre, el apellido, la fecha de nacimiento, la provincia donde vive, etc. La representacion en memoria de estos datos tabulares por fila hace que los datos adyacentes en memoria sean disímiles. Arrow cambia esa forma de representacion a un formato por columna haciendo que los datos adyacentes en memoria sean similares.

Vamos a ver las diferencias de velocidad en la lectura de datos con diferentes formatos leyendo un dataset de mas de 26 millones de filas.

Un poco de codigo

Leyendo y escribiendo datos con Arrow

Vamos a usar tidyverse para analizar los tiempos de lectura y tambien para analizar los datos posteriormente. Arrow porque es el paquete que vamos a aprender a usar y tictoc que nos permite calcular el tiempo que tarda en ejecutarse cada porcion de codigo.

library(tidyverse) 
library(arrow) 
library(tictoc)

Leer un CSV con read_csv

Ahora vamos a leer el archivo separado por comas CSV con la clasica funcion read_csv. Usamos tictoc para calcular el tiempo que tarda la ejecucion y glimpse() para tener una idea del conjunto de datos (edite el resultados del DNI para ocultar el dato completo).

La lectura de las 26.694.811 filas y 8 columnas se realizo en 20.7 segundos.


tic()
padron_2011 <- read_csv("clase9_data/padron-2011.csv",
                        locale = locale(encoding = "ISO-8859-1")) %>%
  glimpse()
toc()

Rows: 26,694,811
Columns: 8
$ provincia      <dbl> 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17$ documento      <dbl> 1..., 7..., 1..., 2..., 3...., 2...., 2..., 1....., 3....., 2....., 1...., 1....., 2...$ nacimiento     <dbl> 1955, 1934, 1966, 0, 0, 0, 0, 0, 1989, 1968, 0, 1966, 1976, 0, 1967, 0, 1949, 1980, 0, 0, 0, 0, 0, 0, 0, 0, 1938, 0, 0, 0, 0, …
$ nombre         <chr> "FRANKLIN JESUS", "GABRIEL", "GABRIEL ROQUE", "MARIA ARACELI", "ANA LAURA", "ANDREA LORENA", "MONICA MARCELA", "GRACIELA ELIZA…
$ apellido       <chr> "ABALOS", "ABALOS", "ABALOS", "ABALOS", "ABAN", "ABAN", "ABAN CABRERA", "ABAN", "ABAN", "ABAN", "ABBOUDI", "ABDENUR", "ABELEND…
$ ocupacion      <chr> "ESTUD", "ESTUD", "EMPL", "ESTUD", "ESTUD", "ESTUD", "DOCENTE", "ESTUD", "ESTUD", "ESTUD", "A/C", "ABOG", "MEDICO", "ESTUD", "…
$ tipo_documento <chr> "DNI", "L", "DNI-EA", "DNI", "DNI", "DNI", "DNI", "DNID", "DNI", "DNID", "DNI", "DNID", "DNI-EA", "DNI", "DNI", "DNIC", "L", "$ sexo           <chr> "M", "M", "M", "F", "F", "F", "F", "F", "M", "M", "F", "M", "M", "F", "M", "F", "M", "M", "F", "F", "F", "F", "F", "F", "F", "

20.7 sec elapsed

Leer el mismo CSV con Arrow

Ahora leemos el mismo archivo pero usamos la funcion read_csv_arrow. En esta ocasion el tiempo empleado en la lectura fue de 15.327 segundos. Cinco segundos menos que la funcion anterior.

tic()
padron_2011_arrow<- read_csv_arrow("clase9_data/padron-2011.csv",
                                   read_options = csv_read_options(encoding = "ISO-8859-1")) %>%
  glimpse()
toc()

Rows: 26,694,811
Columns: 8
$ provincia      <int> 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17$ documento      <int> 1..., 7..., 1..., 2..., 3..., 2..., 2...., 1...., 3...., 2..., 1..., 1...., 2...$ nacimiento     <int> 1955, 1934, 1966, 0, 0, 0, 0, 0, 1989, 1968, 0, 1966, 1976, 0, 1967, 0, 1949, 1980, 0, 0, 0, 0, 0, 0, 0, 0, 1938, 0, 0, 0, 0, …
$ nombre         <chr> "FRANKLIN JESUS", "GABRIEL", "GABRIEL ROQUE", "MARIA ARACELI", "ANA LAURA", "ANDREA LORENA", "MONICA MARCELA", "GRACIELA ELIZA…
$ apellido       <chr> "ABALOS", "ABALOS", "ABALOS", "ABALOS", "ABAN", "ABAN", "ABAN CABRERA", "ABAN", "ABAN", "ABAN", "ABBOUDI", "ABDENUR", "ABELEND…
$ ocupacion      <chr> "ESTUD", "ESTUD", "EMPL", "ESTUD", "ESTUD", "ESTUD", "DOCENTE", "ESTUD", "ESTUD", "ESTUD", "A/C", "ABOG", "MEDICO", "ESTUD", "…
$ tipo_documento <chr> "DNI", "L", "DNI-EA", "DNI", "DNI", "DNI", "DNI", "DNID", "DNI", "DNID", "DNI", "DNID", "DNI-EA", "DNI", "DNI", "DNIC", "L", "$ sexo           <chr> "M", "M", "M", "F", "F", "F", "F", "F", "M", "M", "F", "M", "M", "F", "M", "F", "M", "M", "F", "F", "F", "F", "F", "F", "F", "

15.327 sec elapsed

Ahora leemos el mismo CSV con Arrow y con el formato de Arrow

Ahora ademas de leer con la funcion de Arrow le indicamos que utilice el formato de Arrow con el parametro as_data_frame = FALSE. La lectura tomo 7.263 segundos en esta oportunidad. Ocho segundos menos que la opcion anterior y 13 segundos menos que read_csv().


tic()
padron_2011_arrow <- read_csv_arrow("clase9_data/padron-2011.csv",
                                    read_options = csv_read_options(encoding = "ISO-8859-1"), 
                                    as_data_frame = FALSE) %>%
  glimpse()
toc()

Table
26,694,811 rows x 8 columns
$ provincia       <int64> 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 1$ documento       <int64> 1..., 7..., 1..., 2..., 3..., 2..., 2..., 1..., 3..., 2..., 1..., 1..., 2...$ nacimiento      <int64> 1955, 1934, 1966, 0, 0, 0, 0, 0, 1989, 1968, 0, 1966, 1976, 0, 1967, 0, 1949, 1980, 0, 0, 0, 0, 0, 0, 0, 0, 1938, 0, 0, 0, 0,…
$ nombre         <string> "FRANKLIN JESUS", "GABRIEL", "GABRIEL ROQUE", "MARIA ARACELI", "ANA LAURA", "ANDREA LORENA", "MONICA MARCELA", "GRACIELA ELIZ…
$ apellido       <string> "ABALOS", "ABALOS", "ABALOS", "ABALOS", "ABAN", "ABAN", "ABAN CABRERA", "ABAN", "ABAN", "ABAN", "ABBOUDI", "ABDENUR", "ABELEN…
$ ocupacion      <string> "ESTUD", "ESTUD", "EMPL", "ESTUD", "ESTUD", "ESTUD", "DOCENTE", "ESTUD", "ESTUD", "ESTUD", "A/C", "ABOG", "MEDICO", "ESTUD", …
$ tipo_documento <string> "DNI", "L", "DNI-EA", "DNI", "DNI", "DNI", "DNI", "DNID", "DNI", "DNID", "DNI", "DNID", "DNI-EA", "DNI", "DNI", "DNIC", "L", …
$ sexo           <string> "M", "M", "M", "F", "F", "F", "F", "F", "M", "M", "F", "M", "M", "F", "M", "F", "M", "M", "F", "F", "F", "F", "F", "F", "F", …

7.263 sec elapsed

Guardar los datos con el formato parquet

Podemos leer los archivos en diferentes formatos y almacenar en formato parquet usando la funcion write_dataset

padron_2011_arrow %>%
  write_dataset(path = "clase9_data/padron-2011", format = "parquet")

Si revisamos como se guardan los datos en disco veremos que se genera una carpeta llamada padron-2011 dentro de la carpeta clase9_data. En esa carpeta puede existir uno o varios archivos dependiende de la cantidad de datos.

Leer los datos desde un archivo parquet a un dataframe

Ahora que tenemos un archivo parquet, podemos leerlo con la funcion correspondiente. El tiempo involucrado en la lectura es de 1.292 segundos. Lo que son casi 19 segundos menos que la lectura original con read_csv.

tic()
padron_2011_parquet <- read_parquet("clase9_data/padron-2011/part-0.parquet") %>%
  glimpse()
toc()

Rows: 26,694,811
Columns: 8
$ provincia      <int> 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17$ documento      <int> 1..., 7..., 1..., 2..., 3..., 2..., 2...., 1...., 3..., 2..., 1..., 1..., 2....…
$ nacimiento     <int> 1955, 1934, 1966, 0, 0, 0, 0, 0, 1989, 1968, 0, 1966, 1976, 0, 1967, 0, 1949, 1980, 0, 0, 0, 0, 0, 0, 0, 0, 1938, 0, 0, 0, 0, …
$ nombre         <chr> "FRANKLIN JESUS", "GABRIEL", "GABRIEL ROQUE", "MARIA ARACELI", "ANA LAURA", "ANDREA LORENA", "MONICA MARCELA", "GRACIELA ELIZA…
$ apellido       <chr> "ABALOS", "ABALOS", "ABALOS", "ABALOS", "ABAN", "ABAN", "ABAN CABRERA", "ABAN", "ABAN", "ABAN", "ABBOUDI", "ABDENUR", "ABELEND…
$ ocupacion      <chr> "ESTUD", "ESTUD", "EMPL", "ESTUD", "ESTUD", "ESTUD", "DOCENTE", "ESTUD", "ESTUD", "ESTUD", "A/C", "ABOG", "MEDICO", "ESTUD", "…
$ tipo_documento <chr> "DNI", "L", "DNI-EA", "DNI", "DNI", "DNI", "DNI", "DNID", "DNI", "DNID", "DNI", "DNID", "DNI-EA", "DNI", "DNI", "DNIC", "L", "$ sexo           <chr> "M", "M", "M", "F", "F", "F", "F", "F", "M", "M", "F", "M", "M", "F", "M", "F", "M", "M", "F", "F", "F", "F", "F", "F", "F", "

1.292 sec elapsed

Leer el formato parquet a una tabla Arrow

Finalmente probamos con leer el archivo parquet a una tabla Arrow y vemos que el tiempo ocupado fue de 1.184 segundos, bajando aun mas el tiempo utilizado en la lectura de los datos.

tic()
padron_2011_parquet <- read_parquet("clase9_data/padron-2011/part-0.parquet", as_data_frame = FALSE) %>%
  glimpse()
toc()

Rows: 26,694,811
Columns: 8
$ provincia      <int> 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17, 17$ documento      <int> 1..., 7..., 1..., 2..., 3..., 2..., 2...., 1...., 3..., 2..., 1..., 1..., 2....…
$ nacimiento     <int> 1955, 1934, 1966, 0, 0, 0, 0, 0, 1989, 1968, 0, 1966, 1976, 0, 1967, 0, 1949, 1980, 0, 0, 0, 0, 0, 0, 0, 0, 1938, 0, 0, 0, 0, …
$ nombre         <chr> "FRANKLIN JESUS", "GABRIEL", "GABRIEL ROQUE", "MARIA ARACELI", "ANA LAURA", "ANDREA LORENA", "MONICA MARCELA", "GRACIELA ELIZA…
$ apellido       <chr> "ABALOS", "ABALOS", "ABALOS", "ABALOS", "ABAN", "ABAN", "ABAN CABRERA", "ABAN", "ABAN", "ABAN", "ABBOUDI", "ABDENUR", "ABELEND…
$ ocupacion      <chr> "ESTUD", "ESTUD", "EMPL", "ESTUD", "ESTUD", "ESTUD", "DOCENTE", "ESTUD", "ESTUD", "ESTUD", "A/C", "ABOG", "MEDICO", "ESTUD", "…
$ tipo_documento <chr> "DNI", "L", "DNI-EA", "DNI", "DNI", "DNI", "DNI", "DNID", "DNI", "DNID", "DNI", "DNID", "DNI-EA", "DNI", "DNI", "DNIC", "L", "$ sexo           <chr> "M", "M", "M", "F", "F", "F", "F", "F", "M", "M", "F", "M", "M", "F", "M", "F", "M", "M", "F", "F", "F", "F", "F", "F", "F", "

1.184 sec elapsed

Analizando datos

Ahora vamos a utilizar la sintaxis de dplyr para analizar los datos del padron electoral del 2011.

Nombres mas usados

Usamos count() para ver cuales son los nombres mas usados en Argentina. Aqui tenemos el top ten, los 10 nomnbres con mas ocurrencias en el conjunto de datos.

Cuando doy esta clase jugamos a filtrar por el nombre de los estudiantes o bien buscarlos en la lista para ver en que posicion estan y si tienen un nombre comun. Es bastante divertido

nombre <- padron_2011 %>% 
  count(nombre)
  
View(nombre)

1 JUAN CARLOS 181835
2 MIGUEL ANGEL 154287
3 CARLOS ALBERTO 117332
4 JOSE LUIS 99595
5 ANA MARIA 95920
6 MARIA CRISTINA 76394
7 LUIS ALBERTO 73048
8 MARIA DEL CARMEN 65597
9 STELLA MARIS 54061
10 JUAN JOSE 53647

Analisis por provincia

Ademas de filtrar se puede almacenar los resultados en otro conjunto de datos y analizar los resultados. Por ejemplo podemos filtral por provincia y analiozar la cantidad de veces que aparece cada ocupacion.

En este ejemplo para La Pampa (donde yo vivo) la mayor ocupacion de las personas es Ama de Casa, seguida por Estudiante y luego Empleado.

Al ver el listado completo es muy interesante ver que hay muchos oficios detallados pero no tantas profesiones universitarias.


padron_2011 %>%
  filter(provincia == 11) %>% 
  count(ocupacion)

1 A.DE C 45383
2 ESTUD. 44341
3 EMPL. 31665

Analizar otras caracteristicas

En mi clase, les pregunto a mis estudiantes que les gustaria analizar y se generamos consultas de acuerdo a sus propuestas. Algunas ideas que surgen:

  • Mujeres y varones por provincia
  • El apellido mas comun
  • Cuanto dato faltante hay
  • El nombre mas comun de hombre y de mujer
  • Grafico de cantidad de votantes por fecha de nacimiento
  • Tipos de documentos diferentes

Ver los resultados tambien dispara discusiones sobre limpieza de datos, por ejemplo de la ocupacion para que los agrupamientos y calculos sean mas exactos.

Conclusiones

El paquete arrow es una herramienta muy interesante para presentar cuando hay grandes volumnes de datos involucrados. Poder usar la sintaxis de dplyr hace mas sencilla su incorporacion en un flujo de trabajo existente.

Utilizar datos locales resulta muy atractivo para les estudiantes.

Aun necesito encontrar un conjunto de datos que sea grande pero que se pueda publicar de forma abierta. Me encantaria saber si se les ocurre algun conjunto de datos que cumpla con estos requisitos.

Espero que esta corta explicacion les resulte interesante, clara y les ayude a ingresar en el mundo de Arrow en R.

Posted on:
January 2, 2024
Length:
11 minute read, 2179 words
Categories:
Español Data Science Apache Arrow 100DaysToOffload
Tags:
100DaysToOffload rstats
See Also:
How to contribute to open projects and communities
Evaluación de herramientas digitales e información remota en rotaciones de cultivos extensivos en la región semiárida
Romper las barreras lingüísticas en la ciencia de datos con glosario.