Ciudad de México, México1. Creación de pipelines de datos desde diversas fuentes de datos (API REST Web services, FileSystems, etc.) con Python.
2. Apache NiFi, (como primer parte de los pipelines) para administrar el flujo de datos.
3. Apache Kafka y PubSub de GCP como publicadores y receptores de mensajes.
4. Dataflow de GCP para realizar transformaciones requeridas a los datos.
Ciudad de México y alrededores, México1. Creación de procesos ETL de diferentes fuentes de datos (BD's, REST WS, File Systems, etc) con Python.
2. Creación de pipelines y procesamiento de datos con Apache Spark, Apache Airflow, Logstash en tiempo casi real (NRT).
3. Carga de datos a un Data Lake (HDFS).
4. Indexación de información a Elasticsearch y SolrCloud.
5. Creación de pipelines con el Elastic Stack (Beats, Logstash, Elasti...
Ciudad de México y alrededores, México1. Análisis, diseño, desarrollo e implementación de aplicación web para la Procuraduría Fiscal de la Federación.
2. Líder de proyecto de sistema Centurión.