Hadoop -Entwickler Stellenbeschreibung Vorlage/Brief

Wir suchen einen Hadoop-Entwickler, der uns bei der Entwicklung von Datenspeichern und Verarbeitungssoftware und -infrastruktur in großem Maßstab unterstützt. Das Wissen über aktuelle Technologien und die Fähigkeit, Anwendungen zu erstellen, die die Hadoop -API nutzen, ist erforderlich.

Hadoop -Entwicklerjobprofil

Hadoop ist eine kostenlose und Open-Source-Plattform zum Verwalten und Speichern großer Datenanwendungen in Clustern. Hadoop -Entwickler sind für die Entwicklung und Codierung von Hadoop -Anwendungen verantwortlich. Ein Hadoop -Entwickler stellt im Wesentlichen Programme an, um die massiven Daten eines Unternehmens zu bewältigen und aufrechtzuerhalten.

Berichte an

  • Chief Technology Officer
  • Tech Lead
  • Blei -Hadoop -Ingenieur
  • Sr. Softwareentwickler
  • JavaScript -Entwickler

Verantwortlichkeiten für Hadoop -Entwickler

  • Seien Sie verantwortlich für alle Hadoop -Anwendungsdesigns, -entwicklung, -architektur und Dokumentation
  • Seien Sie in der Reihenfolge der Installation, Konfiguration und Pflege von Hadoop
  • Verwenden Sie einen Scheduler, um Hadoop -Aufgaben zu verwalten
  • Reduzieren Sie den Code für Hadoop -Cluster und unterstützen gleichzeitig die Schaffung neuer Hadoop -Cluster
  • Übersetzen Sie komplexe Methodik- und Funktionsspezifikationen in umfassende Designs
  • Erstellen Sie Online -Apps für Datenabfragen und schnelle Datenverfolgung mit besseren Geschwindigkeiten
  • Schlagen Sie die Best Practices und Standards der Organisation vor und übertragen Sie sie dann in den Betrieb
  • Test -Software -Prototypen testen und ihre anschließende Übertragung an das operative Team überwachen
  • Verwenden Sie Schwein und Bienenstock, um Daten vorzuproduzieren
  • Verwalten Sie die Sicherheit der Unternehmensdaten und die Privatsphäre von Hadoop -Cluster
  • HBASE -Administration und Bereitstellung
  • Analysieren Sie massive Datenrepositorys und erhalten Sie Erkenntnisse

Hadoop -Entwickleranforderungen und Fähigkeiten

  • Ein Bachelor- oder Master -Abschluss in Informatik
  • grundlegendes Verständnis von Hadoop und seinem Ökosystem
  • In der Lage, mit Linux zu arbeiten und die meisten grundlegenden Befehle auszuführen
  • Praktisches Wissen über Hadoop -Kernkomponenten
  • MapReduce, Schwein, Bienenstock und HBase sind Beispiele für die Hadoop -Technologie
  • Fähigkeit, mit Multi-Threading und Parallelität in einem Ökosystem umzugehen
  • Vertrautheit mit ETL- und Datenbelastungstechnologien wie Flume und SQOOP
  • Fähigkeit, mit Back-End-Programmierung umzugehen
  • Ein solides Verständnis von SQL -Grundlagen und verteilten Systemen
  • Umfangreiche Programmiererfahrung in Sprachen wie Java, Python, JavaScript und NodeJs
  • Vertrautheit mit Java