Beranda Indeks Business Solution HDS Rilis Hyper-converged untuk Big Data

HDS Rilis Hyper-converged untuk Big Data

HDS-Icon_Product_HW-HSPJakarta, Itech- Hitachi Data Systems (HDS) meluncurkan generasi penerus dari Hitachi Hyper Scale-Out Platform (HSP). Generasi HSP terbaru ini menawarkan integrasi asli dengan Pentaho Platform Enterprise untuk memberikan platform hyper-converged yang canggih dan didefinisikan oleh software, untuk memproses big data.

HSP seri 400 menggabungkan kemampuan komputasi, storage dan virtualisasi agar mampu menciptakan infrastruktur tanpa batas untuk mendukung pemrosesan big data yang membaur, dilengkapi dengan analitik bisnis dan manajemen data yang disederhanakan.

Arsitektur scale-out HSP menyediakan infrastruktur perusahaan yang siap digunakan, lebih sederhana, dan dapat diperluas untuk mengelola big data. Arsitektur ini juga meliputi interface terpusat yang mudah digunakan untuk mengotomatisasi dan mengelola lingkungan yang tervirtualisasi bagi kerangka big data open source terkemuka, seperti Apache Hadoop, Apache Spark, dan beberapa kerangka open source komersial lainnya, seperti Hortonworks Data Platform (HDP).

“Banyak perusahaan tidak memiliki keahlian internal untuk melakukan analitik big data dengan sumber data kompleks di lingkungan produksi. Sebagian besar perusahaan ingin menghindari gagal eksperimen dari teknologi yang masih baru, mencari jalan terang untuk mendapatkan nilai dari data mereka tanpa memiliki risiko dan tanpa melalui kompleksitas.” ujar Nik Rouda, Senior Analyst di Enterprise Strategy Group (ESG). “Pelanggan perusahaan tetap menerima manfaat dari sistem turnkey seperti Hitachi Hyper Scale-Out Platform, karena sistem tersebut menjawab hambatan utama adopsi teknologi baru dengan cara memberikan nilai dan makna dengan lebih cepat, sehingga mempercepat jalan menuju transformasi digital.

“Perusahaan modern harus meleburkan lingkugan IT dan OT untuk memperpanjang nilai investasi. HSP adalah solusi tepat untuk mempercepat dan menyederhanakan integrasi IT/OT, serta mempercepat waktu untuk memberikan insight dan nilai bisnis setelah memproses big data,” jelas James Dixon, CTO Pentaho.

Dilaajutkan,  perangkat HSP-Pentaho menjadi opsi terjangkau bagi kelas enterprise untuk menyatukan semua rangkaian data dan beban kerja yang terpisah – termasuk aplikasi yang sudah digunakan sebelumnya dan gudang data – via platform hyper-converged yang modern, dapat diperluas, sehingga tidak bersifat kompleks. “Kami senang bekerja sama dengan HDS untuk menghadirkan solusi sederhana di dalam satu kotak, yang menggabungkan fungsi komputasi, analitik dan manajemen data dengan arsitektur plug-and-play dan siap untuk keperluan masa depan. Hitachi Hyper Scale-Out Platform 400 adalah langkah pertama yang kokoh untuk menyederhanakan seluruh proses analitik,” tambahnya.

“Kami terus memperhatikan pelanggan enterprise kami. Mereka mengatakan bahwa silo data dan kompleksitas adalah masalah utama – dan hanya akan memperburuk penyebaran data dalam jumlah besar. Selama bertahun-tahun, masalah ini telah kami tuntaskan, namun sekarang kami mengaplikasikan keahlian tersebut di dalam arsitektur baru platform Hitachi Hyper Scale-Out,” imbuh Sean Moser, senior vice president, global portfolio dan product management Hitachi Data Systems.

“Perangkat HSP kami memberikan infrastruktur cloud dan IoT yang mapan untuk penyebaran big data. Kami juga memberikan model pay-as-you-go yang berbanding lurus dengan pertumbuhan bisnis. Integrasi mulus dengan platform Pentaho akan membantu mereka memproses data IT dan OT menjadi lebih cepat. IT dan oT perusahaan untuk bekerja lebih cepat. Ini hanyalah solusi pertama dari banyak solusi sinergis yang diberikan oleh Hitachi dan Pentaho. Bersama-sama, kami mempermudah pelanggan untuk memaksimalkan nilai investasi IT dan OT mereka, serta mempercepat proses transformasi digital.” (red/ju)

LEAVE A REPLY

Please enter your comment!
Please enter your name here