BIG DATA para el análisis de datos abiertos en la CDMX

BIG DATA para el análisis de datos abiertos en la CDMX

Horario

sábado 26 de enero 2019

9 am a 3 pm

Duración de 6 horas

En el taller analizamos los Datos Abiertos de la CDMX y los interrelacionamos(«cruces transversales») para generar una vista 360 de la CDMX incorporando los resultados en Mapas Interactivos con Spark, Python, Jupyter y Dash

Diapositiva2 (1)






Inteligencia Artificial con Deep Learning y Redes Neuronales Recurrentes

Inteligencia Artificial con Deep Learning y Redes Neuronales Recurrentesd

Horario

sábado 12 de enero 2019

9 am 3 pm

Duración de 6 horas

Inteligencia Artifical. Conocimientos de Deep Learning y redes neuronales. Uso de herramientas TensorFlow y Keras. Caso práctico de uso de Redes Neuronales Recurrentes para la predicción numérica y manejo de series de tiempo en economía con Tensor Flow y Keras, Jupyter y el lenguaje Python

Diapositiva2 (1)






Videos

Videos

Inteligencia artificial, Data Science, Deep Learning y Tensor Flow

Plática dada por Gabriel Guerrero (saXsa)
el viernes 23 de febrero del 2018 en la Sala Leonila Vázquez del Amoxcalli, en la Facultad de Ciencias de la UNAM

Yo BigData ¿Por qué? ¿Para qué? ¿Cómo? ¿Con qué?

Plática dada por Gabriel Guerrero (saXsa) en el auditorio Carlos Graef del Conjunto Amoxcalli en la Facultad de Ciencias de la UNAM,
el viernes 12 de mayo del 2017

Conferencia

El Doctor Gabriel Guerrero sobre la Ciencia de Datos impartida en la UAM AZCAPOTZALCO (Junio 2016)

Yo, ciencia de datos y Demo de Algoritmos de ML

Plática dada por Gabriel Guerrero (Director general de saXsa, empresa lider en soluciones Big Data en México) en el ciclo Matemática y Ciencia de datos con Spark ,
el viernes 6 de mayo del 2016 en la Facultad de Ciencias de la UNAM.

Inteligencia Artificial, Deep Learning para reconocimiento de objetos y seguridad

Inteligencia Artificial, Deep Learning para reconocimiento de objetos y seguridad

Horario

sábado 4 de agosto 2018

10 am 3 pm

Duración de 5 horas

Hoy la Inteligencia Artificial, las Redes Neuronales y el Aprendizaje Profundo son la nueva revolución en el mundo de las TICs. AI (Artificial Intelligence), Aprendizaje Automatizado (Machine Learning), y Aprendizaje Profundo para el reconocimiento de objetos para aplicaciones industriales y de seguridad

Diapositiva2 (1)






Inteligencia Artificial y Redes Neuronales en Economía y Finanzas

Inteligencia Artificial y Redes Neuronales en Economía y Finanzas

Objetivo

Conocimientos de Inteligencia Artificial, Deep Learning y Redes Neuronales. Aprenderás como en el mundo de la Economía y Finanzas, estos aspectos y metodologías están ofreciendo «Nuevos métodos y enfoques» para abordar de forma mas eficiente los mismos problemas de éstas áreas y resultan ser catalizadores que aceleran la tarea a realizar.

Diapositiva2 (1)






Aprendizaje Automatizado en un ambiente Spark con las bibliotecas SparkSQL y SparkML.

Aprendizaje Automatizado en un ambiente Spark con las bibliotecas SparkSQL y SparkML.

Horario

Jueves 07 de junio

Dr. Gabriel GUERRERO

saxsa2000@gmail.com

info cel (55) 46 55 93 33

Descripción

Se realizan ejemplos de enunciados SQL utilizando SparkSQL

Se ofrece un mecanismo de conexion a Bd Relacionales utilizando un conector JDBC para acceso directo con SparkSQL

Se abordan los algoritmos de Aprendizaje Supervisado de regresión lineal, clasificación por regresion logistica, KNN, SVD, KMeans con SparkML

El mundo de algoritmos del Aprendizaje Automatizado Supervisado

Bibliotecas para Aprendizaje Automátizado (ML Machine Learning)

Conceptos básicos del Aprendizaje Automatizado con Python

Aprendizaje supervisado y aplicación en problemas de regresión y clasificación, clasificación Spam/No_Spam, algoritmos KNN, KMeans, SVD en ambiente de computo distribuido con SparkML

En estos talleres, se ofrece un recorrido con ejemplos productivos del uso del lenguaje de programación Python en un ambiente interactivo Jupyter, con un enfoque de Ciencia de Datos en un ambiente distribuido Spark con bibliotecas SparkSQL y SparkML

Se ofrece un conjunto de herramientas del lenguaje Python que permiten la instrumentación de soluciones de modelos matemáticos enfocados en problemas de Ciencia de Datos

Inversión por taller

Publico general 2,500 + i.v.a.

  • Comunidad de ex-alumnos saXsa: 2,000 + i.v.a.
  • Temario

  • Módulo de Spark SQL y ejemplos.
  • Módulo de SparkML.
  • Elección de algoritmos ML.
  • Introducción Spark Machine Learning
  • Algoritmo de Regresion Lineal.
  • Teoria Matematica del Algoritmo SVD.
  • Sistema de recomendación con la utilización del algoritmo SVD.
  • Algoritmo ALS.
  • Sistema de recomendación con la utilización del algoritmo ALS.
  • Algoritmo regresión logística.
  • Sistema de inspección de estándares con la utilización de regresión logística.
  • Algoritmo KNN.
  • Sistema de clasificación y mejora de resultados con la utilización del algoritmo KNN.
  • Showroom de Aplicaciones Productivas






  • Ciclo Ciencia de Datos en la Azotea en Portales (RoofGarden at Portales) con Python, en BigData PySpark con Jupyter, Manejo de datos geo-espaciales

    Ciclo Ciencia de Datos en la Azotea en Portales (RoofGarden at Portales) con Python,
    en BigData PySpark con Jupyter,
    Manejo de datos geo-espaciales

    Horario

    Miércoles 06 de junio

    Dr. Gabriel GUERRERO

    saxsa2000@gmail.com

    info cel (55) 46 55 93 33

    Descripción

    Iniciamos el ciclo integral de Ciencia de Datos, Datos Geo-Espaciales, Aprendizaje Automatizado, en un ambiente BigData con Hadoop y Spark utilizando Python

    Esta es una nueva modalidad de los talleres que organizamos con un enfoque 100% practico en nuestros talleres de trabajo en la Colonia Portales.

    Los grupos son pequeños, máximo 5 personas, y se imparten en nuestro laboratorio en la azotea (roof) de la colonia Portales con vista panorámica a toda la ciudad!!!

    El miercoles 06 de junio 2018 es el primer curso del ciclo integral, en donde se introducen los conceptos básicos de python, jupyter, pandas, geo pandas, y aspectos gráficos con matplotlib y bokeh.

    También se introduce el mundo Hadoop y Spark elemental. Se inician servicios Hadoop y suben y bajan fuentes de datos al HFDS.

    Enseguida se inician servicios Spark y analizan los RDDs generados a partir de las fuentes de informacion utilizando TRANSFORMACIONES y ACCIONES en Spark

    Se analiza el uso de Python para manejo de datos geo-espaciales con Pandas y Geo_pandas en un ambiente Jupyter

    El jueves 07 de junio 2018 es el segundo curso del ciclo integral en donde se abordan los temas de Aprendizaje Automatizado en un ambiente Spark con las bibliotecas SparkSQL y SparkML. Se abordan los algoritmos de Aprendizaje Supervisado de regresión lineal, clasificación por regresión logística, KNN, SVD, KMeans con SparkML

    Inversión por taller

    Publico general 2,500 + i.v.a.

  • Comunidad de ex-alumnos saXsa: 2,000 + i.v.a.
  • Oferta: los dos talleres

  • Publico general 4,000 + i.v.a.
  • Publico general 3,200 + i.v.a.
  • No se quede fuera de la ola AI (Artificial Intelligence),Aprendizaje Automatizado (Machine Learning), y Aprendizaje Profundo con Python y Spark

    Temario

  • Introducción a Ciencia de Datos y Big Data.
  • Jupyter Notebook para codificación interactiva.
  • Bibliotecas NumPy para manipulación y cálculo.
  • Biblioteca Pandas para manipulación y cálculo.
  • Biblioteca Geo-Pandas para manejo de coordenadas Geo_Espaciales de formatos shape y geoJson
  • Hadoop HDFS
  • Levantar Servicios de Hadoop HDFS
  • Monitoreo con Interfaz Gráfica de Hadoop HDFS
  • Ejercicios Básicos de Hadoop HDFS
  • Apache Spark
  • Levantar Servicios de Apache Spark
  • Monitoreo con Interfaz Gráfica de Apache Spark
  • Ejercicios Básicos de Apache Spark
  • Módulo de Spark SQL
  • Consultas de Información con SQL
  • Filtros de Información con SQL
  • Showroom de Aplicaciones Productivas