Plantilla de descripción del trabajo del desarrollador de Hadoop/breve

Estamos buscando un desarrollador de Hadoop para ayudarnos a desarrollar software e infraestructura de procesamiento de datos y almacenamiento de datos a gran escala. Se requiere el conocimiento de las tecnologías actuales y la capacidad de crear aplicaciones utilizando la API de Hadoop.

Perfil de trabajo de desarrollador de Hadoop

Hadoop es una plataforma gratuita y de código abierto para administrar y almacenar grandes aplicaciones de datos en grupos. Los desarrolladores de Hadoop están a cargo de desarrollar y codificar aplicaciones Hadoop. Un desarrollador de Hadoop, en esencia, proporciona programas para manejar y mantener los datos masivos de una empresa.

Informes a

  • Jefe de Tecnología
  • plomo tecnológico
  • Ingeniero principal de Hadoop
  • Desarrollador de software Sr.
  • Desarrollador de JavaScript

Responsabilidades del desarrollador de Hadoop

  • Estar a cargo de todos los diseños, desarrollo, arquitectura y documentación de la aplicación Hadoop
  • estar en orden de instalar, configurar y mantener Hadoop
  • Use un programador para administrar tareas de Hadoop
  • Reduzca el código para los clústeres de Hadoop mientras también ayuda en la creación de nuevos grupos de Hadoop
  • Traducir la metodología compleja y las especificaciones funcionales en diseños completos
  • Cree aplicaciones en línea para consultas de datos y seguimiento rápido de datos, todo a mejores velocidades
  • Proponga las mejores prácticas y estándares de la organización, luego transfiéralas a las operaciones
  • Pruebe los prototipos de software y supervise su posterior transferencia al equipo operativo
  • Use el cerdo y la colmena para preprocesar datos
  • Mantener la seguridad de los datos empresariales y la privacidad del clúster de Hadoop
  • Administración y implementación de HBase
  • Analizar los repositorios de datos masivos y obtener información

Requisitos y habilidades del desarrollador de Hadoop

  • Una licenciatura o maestría en informática
  • Comprensión básica de Hadoop y su ecosistema
  • capaz de trabajar con Linux y ejecutar la mayoría de los comandos básicos
  • Conocimiento práctico de los componentes centrales de Hadoop
  • MapReduce, Pig, Hive y HBase son ejemplos de tecnología Hadoop
  • Capacidad para lidiar con múltiples subprocesos y concurrencia en un ecosistema
  • Familiaridad con ETL y tecnologías de carga de datos como Flume y SQOOP
  • Capacidad para lidiar con la programación de back-end
  • Una comprensión sólida de los fundamentos y sistemas distribuidos de SQL
  • Experiencia de programación extensa en lenguajes como Java, Python, JavaScript y NodeJS
  • Familiaridad con Java