Plantilla de descripción del trabajo del desarrollador de Hadoop/breve
Estamos buscando un desarrollador de Hadoop para ayudarnos a desarrollar software e infraestructura de procesamiento de datos y almacenamiento de datos a gran escala. Se requiere el conocimiento de las tecnologías actuales y la capacidad de crear aplicaciones utilizando la API de Hadoop.
Perfil de trabajo de desarrollador de Hadoop
Hadoop es una plataforma gratuita y de código abierto para administrar y almacenar grandes aplicaciones de datos en grupos. Los desarrolladores de Hadoop están a cargo de desarrollar y codificar aplicaciones Hadoop. Un desarrollador de Hadoop, en esencia, proporciona programas para manejar y mantener los datos masivos de una empresa.
Informes a
- Jefe de Tecnología
- plomo tecnológico
- Ingeniero principal de Hadoop
- Desarrollador de software Sr.
- Desarrollador de JavaScript
Responsabilidades del desarrollador de Hadoop
- Estar a cargo de todos los diseños, desarrollo, arquitectura y documentación de la aplicación Hadoop
- estar en orden de instalar, configurar y mantener Hadoop
- Use un programador para administrar tareas de Hadoop
- Reduzca el código para los clústeres de Hadoop mientras también ayuda en la creación de nuevos grupos de Hadoop
- Traducir la metodología compleja y las especificaciones funcionales en diseños completos
- Cree aplicaciones en línea para consultas de datos y seguimiento rápido de datos, todo a mejores velocidades
- Proponga las mejores prácticas y estándares de la organización, luego transfiéralas a las operaciones
- Pruebe los prototipos de software y supervise su posterior transferencia al equipo operativo
- Use el cerdo y la colmena para preprocesar datos
- Mantener la seguridad de los datos empresariales y la privacidad del clúster de Hadoop
- Administración y implementación de HBase
- Analizar los repositorios de datos masivos y obtener información
Requisitos y habilidades del desarrollador de Hadoop
- Una licenciatura o maestría en informática
- Comprensión básica de Hadoop y su ecosistema
- capaz de trabajar con Linux y ejecutar la mayoría de los comandos básicos
- Conocimiento práctico de los componentes centrales de Hadoop
- MapReduce, Pig, Hive y HBase son ejemplos de tecnología Hadoop
- Capacidad para lidiar con múltiples subprocesos y concurrencia en un ecosistema
- Familiaridad con ETL y tecnologías de carga de datos como Flume y SQOOP
- Capacidad para lidiar con la programación de back-end
- Una comprensión sólida de los fundamentos y sistemas distribuidos de SQL
- Experiencia de programación extensa en lenguajes como Java, Python, JavaScript y NodeJS
- Familiaridad con Java