Iklan

Apache Hadoop untuk Windows

  • Gratis

  • Dalam bahasa Bahasa Indonesia
  • 4

    (12)
  • Status Keamanan

Ulasan Softonic

Apache Hadoop adalah solusi open source untuk komputasi terdistribusi pada data besar

Big data adalah istilah pemasaran yang mencakup seluruh gagasan data ditambang dari sumber seperti mesin telusur, pola pembelian toko kelontong yang dilacak melalui kartu poin, dll. Di dunia modern, internet memiliki begitu banyak sumber data, yang lebih sering daripada tidak skala membuatnya tidak dapat digunakan tanpa pemrosesan dan pemrosesan akan memakan waktu yang luar biasa oleh satu server. Masuk ke Apache Hadoop

Lebih sedikit waktu untuk pemrosesan data

Dengan memanfaatkan arsitektur Hadoop untuk mendistribusikan tugas pemrosesan di beberapa mesin di jaringan, waktu pemrosesan berkurang secara astronomis dan jawaban dapat ditentukan dalam jumlah yang wajar waktu. Apache Hadoop dibagi menjadi dua komponen berbeda: komponen penyimpanan dan komponen pemrosesan. Dalam istilah yang paling sederhana, Hapood membuat satu server virtual dari beberapa mesin fisik. Pada kenyataannya, Hadoop mengelola komunikasi antara beberapa mesin sedemikian rupa sehingga mereka bekerja sama cukup erat sehingga tampak seolah-olah hanya ada satu mesin yang mengerjakan komputasi. Data didistribusikan ke beberapa mesin untuk disimpan dan tugas pemrosesan dialokasikan dan dikoordinasikan oleh arsitektur Hadoop. Jenis sistem ini merupakan persyaratan untuk mengubah data mentah menjadi informasi yang berguna pada skala input Big Data. Pertimbangkan jumlah data yang diterima oleh Google setiap detik dari pengguna yang memasukkan permintaan pencarian. Sebagai kumpulan data total, Anda tidak akan tahu harus mulai dari mana, tetapi Hadoop akan secara otomatis mengurangi kumpulan data menjadi kumpulan data yang lebih kecil dan terorganisir dan menetapkan subkumpulan yang dapat dikelola ini ke sumber daya tertentu. Semua hasil kemudian dilaporkan kembali dan dikumpulkan menjadi informasi yang dapat digunakan.

Server mudah diatur

Meskipun sistemnya terdengar rumit, sebagian besar bagian yang bergerak tersembunyi di balik abstraksi. Menyiapkan server Hadoop cukup sederhana, cukup instal komponen server pada perangkat keras yang memenuhi persyaratan sistem. Bagian yang lebih sulit adalah merencanakan jaringan komputer bahwa server Hadoop akan digunakan untuk mendistribusikan peran penyimpanan dan pemrosesan. Ini dapat melibatkan menyiapkan jaringan area lokal atau menghubungkan beberapa jaringan bersama-sama di seluruh Internet. Anda juga dapat memanfaatkan layanan cloud yang ada dan membayar klaster Hadoop pada platform cloud populer seperti Microsoft Azure dan Amazon EC2. Ini bahkan lebih mudah untuk dikonfigurasi karena Anda dapat memutarnya ad hoc dan kemudian menonaktifkan cluster saat Anda tidak membutuhkannya lagi. Jenis cluster ini ideal untuk pengujian karena Anda hanya membayar selama cluster Hadoop aktif.

Proses data Anda untuk mendapatkan informasi yang Anda butuhkan

Big data adalah sumber daya yang sangat kuat, tetapi data tidak berguna kecuali jika dapat dikategorikan dan diubah menjadi informasi dengan benar. Saat ini, kluster Hadoop menawarkan metode yang sangat hemat biaya untuk memproses kumpulan data ini menjadi informasi.

KELEBIHAN

  • Cara terbaik untuk memanfaatkan MapReduce yang kuat dan fungsi file terdistribusi untuk memproses kumpulan data yang terlalu besar
  • Apakah open source untuk digunakan pada kluster perangkat keras Anda sendiri
  • Dapat digunakan melalui platform cloud populer seperti Microsoft Azure dan Amazon EC2

KELEMAHAN

  • Bukan untuk orang awam, harus memiliki beberapa keahlian teknis untuk mengelola dan memanfaatkan
  • Berbasis Linux, tidak untuk semua pengguna

Program tersedia dalam bahasa lain


Apache Hadoop untuk PC

  • Gratis

  • Dalam bahasa Bahasa Indonesia
  • 4

    (12)
  • Status Keamanan


Ulasan pengguna tentang Apache Hadoop

Apakah Anda mencoba Apache Hadoop? Jadilah yang pertama untuk meninggalkan pendapat Anda!


Iklan