91 535 76 96 madrid@tridatalon.com

CURSO

TRIDATALÓN

BIG DATA & DATA SCIENCE

Información

Objetivos del curso    

El programa Intensivo tridatalon responde a la necesidad creciente de las empresas de adaptarse a la nueva realidad económica fruto de la digitalización y transformación de las empresas. La evolución tecnológica Big Data está transformando la realidad empresarial y creando un nuevo contexto competitivo basado en la toma de decisiones basada en datos.

Para ello el mercado está reclamando profesionales capaces de identificar fuentes de datos, recoger los datos, transformarlos, analizarlos y crear modelos para la toma de decisiones con objetivos de negocio dentro de su contexto.

El programa intensivo tridatalon desarrolla las habilidades necesarias que deben tener los profesionales conocidos como Data Science (científico de datos) y Data engineer (ingeniero de datos) para entender las tecnologías de tratamiento masivo de datos (hadoop, spark), desarrollar modelos predictivos fiables basándose en la minería de datos y en las técnicas de machine Learning, así como el conocimiento de los sistemas de almacenamiento asociados como son HDFS y las bases de datos NoSQL. El programa desarrollará un módulo específico de tratamiento en la nube en la que usaremos tecnología Amazon AWS.

Motivación    

Los científicos de datos han sido declarados como uno de los perfiles de mayor demanda del siglo XXI. Se estima que en 2017/8 haya más de 100.000 puestos de trabajo en esta área en Europa que no se van a poder cubrir por falta de especialistas. Cesar César Alierta: “El Big Data va a revolucionar el mundo” en su participación en la Asociación de Directivos y Ejecutivos de Aragón (ADEA) en febrero de 2016

La alta demanda laboral que existe de estos perfiles y la explosión que se prevé que ocurra en los próximos meses en la demanda de estos perfiles profesionales hacen de este curso una oportunidad única para reenfocar o lanzar tú carrera profesional
El contexto de empleo es difícil, este sector tiene más ofertas nuevas que ningún otro y van subiendo. Las ofertas de empleo de expertos en tecnologías Big Data se han triplicado


Metodología

La metodología es inversiva y eminentemente práctica, teoría y ejercicios en todos los módulos y en todas las áreas. La filosofía es aprender haciendo y trabajando en equipo.

Se darán expertos en cada tecnología, profesores que den continuidad y nos guíen por los diferentes ejercicios y prácticas. El objetivo es cualificar mediante la práctica.

Identificaremos retos del famoso portal www.kaggle.com para tener una visión realista de todo el proceso, este será el proyecto al que por grupos nos enfrentaremos.

 Requisitos:

El alumno tendrá que traer su propio ordenador portátil. Se recomienda que el equipo disponga de al menos 8 GB de memoria RAM.

 Otros beneficios:

El alumno podrá inscribir su Curriculum en la bolsa de empleo de Stratgy Big Data, una compañía con un crecimiento muy fuerte y en busca de los mejores profesionales.

 Comienzo de las clases: 30 de Enero de 2017

De Lunes a Jueves de 19:00h a 22:00h.

Convertirte en un profesional de los más demandados te va a llevar 8 semanas (96h).

Consultar en: sara.orive@strategybigdata.com

Programa

El programa se realizará en 8 semanas, cada una de las cuales tiene un objetivo concreto y práctico. El curso se puede dividir en dos módulos: las 4 primeras semanas irían enfocadas a la formación de Data Scientists (científicos de datos), y las 4 últimas a la formación de Data Engineers (ingenieros de datos).

Semana 01

Algebra y Python científico
  • La inteligencia artificial es álgebra y estadística aplicada
  • Python científico : Numpy, Pandas, Matplotlib y Seaborn

Semana 02

Aprendizaje automático
  • Supervisado: Regresión lineal y logística, glms, árboles de decisión, SVMs,

Semana 03

Aprendizaje automático
  • Algoritmo “a priori”, sistemas de recomendación, clustering, PCA. Dedicaremos una session completa a  RandomForest y XGBoost

Semana 04

Redes neuronales y aprendizaje por refuerzo
  • Ampliación Aprendizaje automático no supervisado.
  • Las siguientes dos sesiones las dedicaremos a redes neuronales MLPs, ConvNets y RNNs (LSTMs) usando Keras. Introducción a Tensorflow
  • Aprendizaje por refuerzo

Semana 05

Hadoop
  • Ecosistema hadoop
  • HDFS
  • MapReduce
  • Ingesta. Sqoop Fllume
  • ETL: Hive Pig

Semana 06

Spark
  • Spark Arquitectura
  • Apark y la gestión de recursos
  • RDDs
  • Spark SQL
  • Spark Mlib

Semana 07

AWS
  • Almacenamiento AWS S3
  • AWS EC2
  • Orquestadores en Amazon
  • Cluster: configuración y levantar servicios
  • AWS CLI

Semana 08

NoSQL
  • MongoDB
  • Cassandra
  • Neo4J

Contáctanos