Hadoop -Entwickler Stellenbeschreibung Vorlage/Brief
Wir suchen einen Hadoop-Entwickler, der uns bei der Entwicklung von Datenspeichern und Verarbeitungssoftware und -infrastruktur in großem Maßstab unterstützt. Das Wissen über aktuelle Technologien und die Fähigkeit, Anwendungen zu erstellen, die die Hadoop -API nutzen, ist erforderlich.
Hadoop -Entwicklerjobprofil
Hadoop ist eine kostenlose und Open-Source-Plattform zum Verwalten und Speichern großer Datenanwendungen in Clustern. Hadoop -Entwickler sind für die Entwicklung und Codierung von Hadoop -Anwendungen verantwortlich. Ein Hadoop -Entwickler stellt im Wesentlichen Programme an, um die massiven Daten eines Unternehmens zu bewältigen und aufrechtzuerhalten.
Berichte an
- Chief Technology Officer
- Tech Lead
- Blei -Hadoop -Ingenieur
- Sr. Softwareentwickler
- JavaScript -Entwickler
Verantwortlichkeiten für Hadoop -Entwickler
- Seien Sie verantwortlich für alle Hadoop -Anwendungsdesigns, -entwicklung, -architektur und Dokumentation
- Seien Sie in der Reihenfolge der Installation, Konfiguration und Pflege von Hadoop
- Verwenden Sie einen Scheduler, um Hadoop -Aufgaben zu verwalten
- Reduzieren Sie den Code für Hadoop -Cluster und unterstützen gleichzeitig die Schaffung neuer Hadoop -Cluster
- Übersetzen Sie komplexe Methodik- und Funktionsspezifikationen in umfassende Designs
- Erstellen Sie Online -Apps für Datenabfragen und schnelle Datenverfolgung mit besseren Geschwindigkeiten
- Schlagen Sie die Best Practices und Standards der Organisation vor und übertragen Sie sie dann in den Betrieb
- Test -Software -Prototypen testen und ihre anschließende Übertragung an das operative Team überwachen
- Verwenden Sie Schwein und Bienenstock, um Daten vorzuproduzieren
- Verwalten Sie die Sicherheit der Unternehmensdaten und die Privatsphäre von Hadoop -Cluster
- HBASE -Administration und Bereitstellung
- Analysieren Sie massive Datenrepositorys und erhalten Sie Erkenntnisse
Hadoop -Entwickleranforderungen und Fähigkeiten
- Ein Bachelor- oder Master -Abschluss in Informatik
- grundlegendes Verständnis von Hadoop und seinem Ökosystem
- In der Lage, mit Linux zu arbeiten und die meisten grundlegenden Befehle auszuführen
- Praktisches Wissen über Hadoop -Kernkomponenten
- MapReduce, Schwein, Bienenstock und HBase sind Beispiele für die Hadoop -Technologie
- Fähigkeit, mit Multi-Threading und Parallelität in einem Ökosystem umzugehen
- Vertrautheit mit ETL- und Datenbelastungstechnologien wie Flume und SQOOP
- Fähigkeit, mit Back-End-Programmierung umzugehen
- Ein solides Verständnis von SQL -Grundlagen und verteilten Systemen
- Umfangreiche Programmiererfahrung in Sprachen wie Java, Python, JavaScript und NodeJs
- Vertrautheit mit Java