GNU/Linux >> Belajar Linux >  >> Linux

Tantangan dan Janji Big Data

Seiring dengan berkembangnya Internet, demikian pula jumlah data dan sejauh mana data dinilai – terutama oleh pemerintah dan perusahaan publik, meskipun bisnis kecil pun menghargai wawasan yang mereka kumpulkan dari Google Analytics dan layanan serupa. Menimbun dan meneliti data dianggap sebagai cara yang luar biasa ampuh untuk menghasilkan produk yang lebih baik; memahami bagaimana orang menggunakan situs web dan aplikasi; melacak kinerja karyawan; menentukan bahasa pemasaran yang paling efektif; dan banyak lagi.

Menurut proyeksi yang dirilis oleh International Data Corporation, pasar big data akan mempertahankan CAGR sebesar 26% hingga 2018, ketika penjualan layanan big data akan mencapai $42 miliar.

Nilai pasar memberi tahu kita bahwa bisnis menginvestasikan sejumlah besar uang di perusahaan yang berspesialisasi dalam pengumpulan, pemahaman, dan integrasi kumpulan data yang sangat besar – dengan kata lain, layanan yang dapat mengubah informasi menjadi hasil yang lebih baik.

Seberapa besar fokus big data? Nah, orang-orang pesawat luar angkasa ada di dalam game.

Chris Mattman dari NASA mengatakan tentang penelitian perusahaannya di bidang ini, “NASA secara total mungkin mengelola beberapa ratus petabyte, mendekati satu exabyte.”

Forbes kontributor Joshua Steimle mencatat bahwa exabyte adalah jumlah informasi yang luar biasa besar, 1 miliar gigabyte.

Dibanjiri Lautan Angka?

Dengan teknologi yang sekarang kami miliki, data dapat bertambah dengan sangat cepat untuk perusahaan sehingga menjadi kelebihan beban untuk database tradisional – baik dalam hal menyimpannya maupun membuatnya masuk akal. Perusahaan tidak perlu membuat roket untuk merasa kewalahan oleh besarnya data di ujung jari mereka, kata Steimle .

Chris Riquier, kepala Asia-Pasifik Taylor Nelson Sofres, mengatakan dia telah melihat dampaknya di bidang lain:“Riset pasar didasarkan pada survei dan polling.” Sekarang, sebaliknya, itu dilakukan secara real time dengan informasi yang mengalir dari media sosial, mesin pencari, dan berbagai sumber lainnya. Berkat fokus para teknolog pada ilmu data dan penyempurnaan analitik yang berkelanjutan, Riquier percaya bahwa “kemampuan kami untuk bereaksi terhadap pasar dan membuat keputusan telah berubah secara drastis.”

Menemukan pola yang bermakna dalam data besar telah menjadi misteri bagi banyak perusahaan. Namun, para insinyur data sedang membangun sistem yang sangat kuat sehingga tren untuk mengumpulkan dan memproses data secepat mungkin tidak dapat dihindari, menurut Majalah Harvard 2014 laporan. Artikel tersebut menyarankan bahwa formula “algoritma besar” yang inovatif akan memungkinkan perusahaan memperoleh manfaat dari menghubungkan dan mengintegrasikan penyimpanan data, serta mengubah angka menjadi pencitraan yang lebih kuat dan ramah pengguna.

Dengan memanfaatkan teknik penelitian lama dari bidang fisika dan astronomi, para ahli teknologi dan budaya membawa perspektif mereka yang berbeda untuk membahas topik ini demi keuntungan bersama.

Penulis data besar Viktor Mayer-Schonberger dan Kenneth Cukier mencatat bahwa analitik data bukan hanya tentang pilihan individu tetapi tentang sepenuhnya mengubah cara bisnis membuat keputusan gambaran besar – bagaimanapun juga, analitik prediktif dimaksudkan untuk memenuhi namanya, memberikan mereka yang menggunakannya sebagai bola kristal yang dapat melihat semua secara logis.

Keberhasilan data besar meliputi:

Google – Google berhipotesis bahwa istilah pencarian tertentu mungkin merupakan indikator bahwa orang mulai memiliki gejala mirip flu. Dengan menerapkan tebakan mereka ke penelusuran waktu nyata, perusahaan dapat mengetahui di mana flu menyebar lebih cepat daripada yang bisa dilakukan CDC.

Bank Kanada – Di seberang perbatasan, Canadian Bank “menggunakan Hadoop, kerangka kerja perangkat lunak sumber terbuka yang dibuat oleh Apache,” Steimle menjelaskan, “untuk meluncurkan program yang memungkinkan identifikasi pencucian uang dan penipuan.”

Data &kehidupan sehari-hari

NASA dan Google adalah contoh profil tinggi dari fokus pada data besar, tetapi potensinya jauh lebih luas, meluas ke bisnis apa pun yang ingin mendapatkan perhatian online. Ini adalah bahan bakar yang menggerakkan pengoptimalan mesin telusur dan pengoptimalan media sosial. Pengusaha dapat menggunakan Alat Webmaster Google, dikombinasikan dengan data analitik dari perangkat lunak sosial, untuk mengembangkan kehadiran online yang lebih sukses.

Joe Hall, yang membantu klien meningkatkan kehadiran Internet mereka melalui Analisis Hall perusahaannya, berkomentar bahwa ada dua cara dasar yang berbeda untuk menganalisis data untuk meningkatkan hasil mesin telusur:

  1. Menjelajahi pola-pola dalam data yang sangat banyak yang terkait langsung dengan bisnis tertentu.

Salah satu klien Hall memiliki lebih dari 15 juta backlink – artinya banyak sekali halaman web yang mengirimkan lalu lintas mereka ke kliennya.

Pada level itu mengubah aturan untuk analisis backlink, ”komentar Hall. Menentukan pola dalam data menjadi jauh lebih kompleks.

  1. Mengumpulkan pemahaman yang lebih canggih tentang posisi bisnis mereka saat ini dan dinamika pasar secara keseluruhan.

Melihat hubungan antara variabel yang berbeda melalui perangkat lunak analitik memungkinkan bisnis untuk lebih memahami bagaimana menentukan peringkat secara menonjol dan bagaimana membuat lebih banyak orang menanggapi daftar ketika itu muncul di mesin pencari. Dua bidang studi yang relevan adalah analisis korelasi dan analisis perilaku pengguna , kata Hall.

Menghidupkan kembali mesin data besar Anda

Salah satu teknologi yang sangat penting bagi para ilmuwan data dan perusahaan yang menggunakan layanan mereka adalah komputasi awan premium. Bagaimanapun, solusi hosting VPS turn-key didasarkan pada pengoptimalan kecepatan, keandalan, dan efisiensi melalui distribusi sumber daya secara virtual.

Ilmuwan komputer Geoffrey Fox dari Indiana University bahkan mencatat bahwa cloud sering kali lebih cepat daripada superkomputer.


Linux
  1. Perbedaan Antara [[ $a ==Z* ]] Dan [ $a ==Z* ]?

  2. Bagaimana cara memeriksa apakah pipa kosong dan menjalankan perintah pada data jika tidak?

  3. Bagaimana saya bisa membuat tcpdump menulis ke file dan menghasilkan data standar yang sesuai?

  1. Hasil Ls * , Ls ** Dan Ls ***?

  2. Garis miring dan perintah rsync

  3. RAM 8G dan SSD - seberapa besar seharusnya swap?

  1. Apa Perbedaan Antara Sudo Su – Dan Sudo Su —?

  2. Perbedaan Nss dan Pam?

  3. Bagaimana Cloud Membuat Analisis Big Data Lebih Efisien