Location
indonesia - jakarta
Salary
IDR5,000,000 - 20,000,000
Job Number
SDG-85430
Industry
technology/online
Languages
English Level:Business Level;Japanese Level:None;
Job Category
Internal IT(Server administrator/ Network engineer etc)
Posted 2023/08/17

Job Description

<Job Responsibilities>
- Develop and design data management architectures, as well as maintain/monitor data infrastructure in the company.
- Building and optimizing Data Integration Systems
- Coordinate with Data Owner for data processing

<Tanggung Jawab Pekerjaan
- Mengembangkan dan merancang arsitektur manajemen data, serta memelihara/memantau infrastruktur data di perusahaan.
- Membangun dan mengoptimalkan Sistem Integrasi Data
- Berkoordinasi dengan Pemilik Data untuk pengolahan data

Job Requirement

<Necessary Skill / Experience >
- Solid Computer Science fundamentals, excellent problem-solving skills and a strong understanding of distributed computing principles.
- At least 3 years of experience in a similar role, with a proven track record of building scalable and performant data infrastructure.
- Expert SQL knowledge and deep experience working with relational and NoSQL databases.
- Advanced knowledge of Apache Kafka and demonstrated proficiency in Hadoop v2, HDFS, and MapReduce.
- Experience with stream-processing systems (e.g. Storm, Spark Streaming), big data querying tools (e.g. Pig, Hive, Spark) and data serialization frameworks (e.g. Protobuf, Thrift, Avro).
- Bachelor’s or Master’s degree in Computer Science or related field from a top university.
- Able to work within the GMT+8 time zone

<Keterampilan/Pengalaman yang dibutuhkan >
- Dasar-dasar Ilmu Komputer yang kuat, keterampilan pemecahan masalah yang sangat baik, dan pemahaman yang kuat tentang prinsip-prinsip komputasi terdistribusi.
- Minimal 3 tahun pengalaman dalam peran yang sama, dengan rekam jejak yang terbukti dalam membangun infrastruktur data yang dapat diskalakan dan berkinerja baik.
- Pengetahuan SQL yang ahli dan pengalaman mendalam dalam bekerja dengan database relasional dan NoSQL.
- Pengetahuan tingkat lanjut tentang Apache Kafka dan kemahiran yang ditunjukkan dalam Hadoop v2, HDFS, dan MapReduce.
- Pengalaman dengan sistem pemrosesan streaming (misalnya Storm, Spark Streaming), alat kueri data besar (misalnya Pig, Hive, Spark), dan kerangka kerja serialisasi data (misalnya Protobuf, Thrift, Avro).
- Gelar Sarjana atau Master di bidang Ilmu Komputer atau bidang terkait dari universitas terkemuka.
- Mampu bekerja dalam zona waktu GMT+8
The position has been closed.