Hadoop

Hadoop adalah framework open-source berbasis Java untuk menyimpan dan mengelola big data secara efisien mulai dari ukuran gigabyte hingga petabyte.

Software Engineering

Mau Belajar

Software Engineering

GRATIS?

Di RevoU, tidak hanya teori, penerapan, serta career coaching. Kamu juga mendapatkan akses ke Community Hub dengan 6000+ member. Di sini, kamu akan selalu terupdate informasi seputar job openings, industry news, dan upskilling events!

IKUT KURSUS GRATIS

Mau Belajar

Software Engineering

GRATIS?

Apa itu Hadoop?

pengertian hadoop

Hadoop adalah framework open-source berbasis Java untuk menyimpan dan mengelola big data secara efisien mulai dari ukuran gigabyte hingga petabyte.

Dengan menggunakan model pemrograman sederhana, Hadoop membantu memproses data paralel di banyak komputer sekaligus. Framework ini sangat cocok untuk skenario big data seperti data warehouse, business intelligence, dan machine learning, serta untuk pemrosesan, analisis, dan data mining.

Keunggulan Hadoop terletak pada skalabilitasnya, kemampuan penyimpanan data dalam jumlah besar, dan fleksibilitas dalam mengelola berbagai jenis data.

Sejarah Hadoop

Sejarah Hadoop dimulai pada awal tahun 2000-an, ketika internet berkembang pesat dan search engine dimanfaatkan untuk mengelola informasi yang melimpah.

Doug Cutting dan Mike Cafarella (yang bekerja pada proyek Apache Nutch) menyadari kebutuhan untuk mengelola data dalam jumlah besar. Mereka terinspirasi oleh karya Google pada Google File System (GFS) dan model pemrograman MapReduce, yang memungkinkan penyimpanan serta pemrosesan data terdistribusi.

Pada tahun 2006, Doug Cutting bergabung dengan Yahoo dan membawa ide-ide ini bersamanya, kemudian berkembang menjadi Hadoop. Di tahun 2008, Hadoop dirilis sebagai proyek open-source di bawah naungan Apache Software Foundation.

Hadoop dengan cepat mendapatkan popularitas sebagai framework untuk mengelola big data karena kemampuannya yang luar biasa dalam penyimpanan dan pemrosesan data skala besar.

Manfaat Hadoop

Dirangkum dari berbagai sumber, berikut beberapa manfaat Hadoop:

  • Menyimpan data terdistribusi: Hadoop menggunakan Hadoop Distributed File System (HDFS) untuk menyimpan data dalam jumlah besar secara terdistribusi di berbagai node. Proses ini mengurangi latensi jaringan dan memberikan akses data berkecepatan tinggi.
  • Mengelola sumber daya: YARN (Yet Another Resource Negotiator) dalam Hadoop bertanggung jawab untuk mengelola sumber daya komputasi di cluster dan menggunakannya untuk menjadwalkan aplikasi user. Ini memastikan alokasi sumber daya yang efisien di seluruh sistem Hadoop.
  • Memproses data skala besar: model pemrograman MapReduce di Hadoop memungkinkan pemrosesan data skala besar. Data dibagi menjadi subset yang lebih kecil dan diproses secara paralel di berbagai node, kemudian hasilnya digabungkan kembali.
  • Skalabilitas: Hadoop dirancang untuk skalabilitas, mampu menangani peningkatan data dengan menambahkan lebih banyak node ke cluster.
  • Ketahanan dan toleransi kesalahan: Hadoop dirancang untuk tahan terhadap kegagalan hardware. Data yang disimpan di satu node Hadoop juga direplikasi di node lain dalam cluster untuk memastikan keamanan data.
  • Fleksibilitas dalam pengelolaan data: Hadoop membantu penyimpanan data dalam berbagai format, termasuk data terstruktur, semi-terstruktur, dan tidak terstruktur, memberikan fleksibilitas lebih besar dalam pengelolaan data.

Komponen Hadoop

Dirangkum dari GeeksforGeeks, Hadoop memiliki dua komponen utama, yaitu:

Hadoop Distributed File System (HDFS)

HDFS merupakan fondasi dari Hadoop, dirancang khusus untuk menyimpan data dalam skala besar di seluruh cluster komputer. Sistem file ini membagi data menjadi blok-blok yang kemudian didistribusikan dan disimpan di berbagai node dalam cluster.

Keunggulan utama HDFS adalah kemampuannya dalam menyediakan akses data berkecepatan tinggi dan ketahanan terhadap kegagalan sistem. Dengan mekanisme replikasi data, HDFS memastikan data tetap aman dan bisa diakses meskipun terjadi kerusakan pada beberapa node.

Yet Another Resource Negotiator (YARN)

YARN adalah komponen Hadoop yang bertugas mengelola dan mengalokasikan sumber daya komputasi di dalam cluster. Sebagai resource manager, YARN memudahkan aplikasi yang berbeda untuk berjalan secara efisien di dalam cluster yang sama.

YARN memisahkan fungsi manajemen pekerjaan dan manajemen sumber daya, sehingga Hadoop bisa mendukung berbagai jenis aplikasi pemrosesan data, tidak hanya MapReduce. Hal ini memberikan fleksibilitas lebih besar dalam pemrosesan data dan lebih efisien dalam menggunakan sumber daya yang tersedia.

FAQ (Frequently Asked Question)

Bagaimana cara kerja Hadoop?  

Inti dari Hadoop adalah Hadoop Distributed File System (HDFS), yang menyimpan data secara terdistribusi di seluruh node dalam cluster.

HDFS membagi data menjadi blok-blok dan mendistribusikannya di berbagai node, sambil memastikan replikasi data untuk ketahanan dan ketersediaan. Tahap pemrosesan data di Hadoop dilakukan melalui model pemrograman MapReduce.

Dalam MapReduce, tugas-tugas pemrosesan dibagi dan dijalankan secara paralel di berbagai node, di mana setiap node memproses bagian data yang tersimpan secara lokal. Ini mengurangi waktu transfer data dan meningkatkan efisiensi pemrosesan.

Setelah pemrosesan, hasil dari setiap node dikumpulkan dan digabungkan untuk menghasilkan output akhir.

Selain itu, Hadoop menggunakan Yet Another Resource Negotiator (YARN) untuk mengelola sumber daya komputasi dan menjadwalkan pekerjaan di cluster. YARN memungkinkan berbagai aplikasi pemrosesan data untuk berjalan secara efisien dalam cluster yang sama.

Kata kunci lainnya

Mulai karirmu dalam

Software Engineering

Di RevoU, tidak hanya teori, penerapan, serta career coaching. Kamu juga mendapatkan akses ke Community Hub dengan 6000+ member. Di sini, kamu akan selalu terupdate informasi seputar job openings, industry news, dan upskilling events!
ikut kursus gratis
Daftar Isi