Domina Apache Spark 2.0 con Scala, curso intensivo
.MP4 | Video: 1280x720, 30 fps(r) | Audio: AAC, 48000 Hz, 2ch | 1.76 GB
Duration: 4 hours | Genre: eLearning | Language: Español
Apache Spark, curso para dominar Apache Spark 2.0 con Scala
What you'll learn
Resumen general de la arquitectura de Apache Spark.
Se capaz de trabajar con la abstracción principal de Apache Spark, RDDs o conjuntos de datos distribuidos y resilientes, para procesar y analizar grandes conjuntos de datos.
Desarrollar aplicaciones Apache Spark 2.0, utilizando transformaciones y acciones en RDD y Spark SQL.
Escalar aplicaciones Spark a un clúster Hadoop YARN a través del servicio Elastic MapReduce de Amazon.
Analizar datos estructurados y semiestructurados utilizando conjuntos de datos (Datasets) y Dataframes, y entender a detalle el funcionamiento de Spark SQL.
Compartir información a través de diferentes nodos en un clúster de Apache Spark, mediante variables de difusión y acumuladores.
Técnicas avanzadas para optimizar y mejorar, trabajos de Apache Spark mediante el particionado, almacenamiento en caché y la persistencia de RDDs.
Buenas prácticas de trabajo con Apache Spark
Requirements
Una computadora con sistema operativo Windows, OSX o Linux
Tener conocimientos previos de programación con Scala
Description
De qué trata este curso:
Este curso cubre todos los aspectos fundamentales de Apache Spark con Scala, y te enseña todo lo que necesitas saber sobre el desarrollo de aplicaciones Apache Spark con Scala Spark.
Al final de este curso, obtendrás un conocimiento profundo sobre Apache Spark con Scala, así como habilidades generales de manejo y análisis de big data para ayudar a tu empresa o proyecto a adaptar Apache Spark con Scala para la construcción de un pipeline de procesamiento de big data y aplicaciones de análisis de datos.
Este curso incluye más de 10 ejemplos prácticos de big data con Apache Spark. Aprenderás a resolver problemas de análisis de datos con Scala Spark. Juntos veremos algunos ejemplos como la agregación de registros web de Apache NASA, desde diferentes fuentes; exploraremos la tendencia de los precios de viviendas analizando los datos de bienes raíces en California (USA); escribiremos aplicaciones Scala Spark para determinar el salario promedio de desarrolladores en diferentes países mediante el análisis de encuestas publicadas por Stack Overflow; también desarrollaremos un sistema que nos permita averiguar cómo los makerspaces o espacios colaborativos, están distribuidos en el Reino Unido, y mucho mucho más.
¿Qué aprenderás en estas clases?
En particular, aprenderás:
Sobre la arquitectura de Apache Spark.
Serás capaz de trabajar con la abstracción principal de Apache Spark, RDDs o conjuntos de datos distribuidos y resilientes (RDD) para procesar y analizar grandes conjuntos de datos.
Desarrollar aplicaciones Apache Spark 2.0, utilizando transformaciones y acciones en RDD y Spark SQL.
Escalar aplicaciones Spark a un clúster Hadoop YARN a través del servicio Elastic MapReduce de Amazon.
Analizar datos estructurados y semiestructurados utilizando conjuntos de datos (Datasets) y Dataframes, y entender a detalle el funcionamiento de Spark SQL.
Compartir información a través de diferentes nodos en un clúster de Apache Spark, mediante variables de difusión y acumuladores.
Técnicas avanzadas para optimizar y mejorar, trabajos de Apache Spark mediante el particionado, almacenamiento en caché y la persistencia de RDDs.
Sobre buenas prácticas de trabajo con Apache Spark.
Por qué debes aprender Apache Spark:
Apache Spark es una de las últimas tecnologías en análisis de big data. Es también una de las tecnologías más atractivas de la última década debido a su gran impacto en el mundo de big data.
Apache Scala Spark, nos permite realizar cálculos en memoria en clústeres, lo cual incrementa de manera significativa la velocidad de iteración de algoritmos y tareas interactivas de minería de datos.
Apache Spark es la nueva generación de motores de procesamiento para big data.
Muchas compañías están adaptando Apache Spark para interpretar una gran cantidad de datos, que les permite incrementar sus ingresos y mejorar sus procesos, hoy tú tienes está misma tecnología directamente en tu escritorio.
Apache Spark es hoy en día una herramienta necesaria para ingenieros de big data y científicos de datos.
En que lenguaje de programación se basa este curso?
Este curso está basado en Scala. Scala es la nueva generación de lenguajes de programación para programación funcional que cada vez es más popular, y es un de los lenguajes más usados en la industria para escribir programas de Apache Spark.
Aprendamos a escribir programas de Apache Spark con Scala para el manejo y solución de problemas de big data hoy!
¡30 días de garantía de devolución de dinero!
Obtendrás una garantía de devolución de dinero por 30 días de Udemy para este curso. Si no está satisfecho, simplemente solicite un reembolso dentro de los 30 días. Obtendrás un reembolso completo. Sin preguntas en absoluto.
¿Estás listo para llevar tus habilidades y tu carrera en big data al siguiente nivel? ¡Toma este curso ahora!
Who this course is for:
Cualquier persona que quiera entender completamente cómo funciona Apache Spark, y cómo se usa Apache Spark en la industria.
Ingenieros de software que deseen desarrollar aplicaciones con Apache Spark 2.0 utilizando Spark Core y Spark SQL.
Científicos de datos o ingenieros de datos que quieran avanzar en su carrera mejorando sus habilidades de procesamiento de Big Data.
Download link:
Só visivel para registados e com resposta ao tópico.Only visible to registered and with a reply to the topic.Links are Interchangeable - No Password - Single Extraction