BIG DATA
Evolusi Manajemen Data
4000 BC
1800
1960
1980
2000
Manual Processing - Paper and Pencil Mechanical-Punched card Stored Program - sequential record processing Online - Navigational Set Processing NonProcedural - Relational Multi-Media Internetwork 2.0. Zeroth generation: Record Managers 4000BC -1900 Pemrosesan data di generasi ini masih manual. Inovasi dari representasi data yang awalnya menggunakan clay tablet berubah menjadi menggunakan kertas, dan berinovasi menjadi phonetic alphabets, novel, ledger, buku, dan koran. 2.1. First Generation: Record Managers 1900 -1955 Pemrosesan data secara otomatis dilakukan dengan menggunakan mesin untuk menghasilkan punched cards, yang menampilkan bilangan binary. 2.2. Second Generation: Programmed Unit Record Equipment 1955-1970 Pada akhir tahun 1940-an dan awal tahun 1950-an, komputer elektronik untuk penyimpanan data dikembangkan untuk kalkulasi numerik dan sains. Kemudian lebih jauh dikembangkan software yang dapat membantu dalam pemrosesan data perusahaan seperti aplikasi bisnis umum, yaitu penggajian, pengendalian persediaan, subscription management, perbankan, perpustakaan dokumen, dll. 2.3. Third Generation: Online Network Databases 1965-1980 Pemrosesan data menjadi mudah dan bersifat online. Metode Off-line Batch transaction diganti dengan Online transaction yang yang memproses informasi secara real-time. 2.4. Fourth Generation: Relational Databases and client-server computing 1980-1995 Pada generasi keempat, muncul Relational Model yang idenya adalah merepresentasikan entity dan hubungannya ke dalam bahasa yang sama. Contohnya menggunakan SQL Query. 2.5. Fifth Generation: Multimedia Databases 1995-present Banyak pengembang aplikasi memperbaiki aplikasinya menjadi aplikasi yang user-friendly, tampilannya menarik, database yang dapat didistribusikan, dan data mining.
Definisi Big Data didefinisikan sebagai sebuah problem domain di mana teknologi tradisional seperti relational database tidak mampu lagi untuk melayani. Dan Big Data membantu untuk kita mengubah apa yang akan dilakukan, bagaimana mendapatkan wawasan, membuat keputusan (tetapi, perubahan tidak menjadi pengganti ataupun ekstensi) Definisi Big di sini adalah volume, velositas dan variasi datanya. Peningkatan volume, velocity dan variety data banyak diakibatkan oleh adopsi internet. Setiap individu memproduksi konten atau paling tidak meninggalkan sidik jari digital yang berpotensial untuk digunakan untuk hal-hal baru; dari audiens targetting, rekomendasi ataupun penggunaan yang lebih tak terduga seperti Google Translate yang menggunakan machine learning di atas Big Data yang Google punya untuk translasi bahasa. Big data terdiri dari 3 atribut : a. Volume Volume berkaitan dengan ukuran, dalam hal ini kurang lebih sama dengan definisi dari MGI. Untuk menghadapi volume yang tinggi, prinsip Business Intelligence mengajak kita untuk membersihkan data yang ada. Proses pembersihan ini akan membuang residu yang dianggap tidak penting. Sedangkan prinsip Big Data adalah untuk tidak membuang data apapun karena residu tersebut mungkin akan menjadi penting sejalannya waktu. b. Variety variety berarti tipe atau jenis data, yang meliputi berbagai jenis data baik data yang telah terstruktur dalam suatu database maupun data yang tidak terorganisir dalam suatu database seperti halnya data teks pada web pages, data suara, video, click stream, log file dan lain sebagainya. Untuk menghadapi variasi data yang tinggi, prinsip Business Intelligence mengajak kita untuk menciptakan struktur melalui ekstraksi, transformasi dan membuang residu yang tersisa. Big Data memiliki pendekatan yang serupa namun tanpa harus membuang data mentah yang kita miliki. Misalnya dari sebuah unstructured data kita bisa melakukan entity resolution untuk mengekstrak konteks sebuah kata (contoh: Apple adalah perusahaan atau label rekaman atau buah). Kalkulasi ini biasanya dilakukan secara real time.
c. Velocity velocity dapat diartikan sebagai kecepatan dihasilkannya suatu data dan seberapa cepat data itu harus diproses agar dapat memenuhi permintaan pengguna. Untuk menghadapi velositas yang tinggi, prinsip Business Intelligence mengajak kita untuk melakukan operasi batch secara teratur. Operasi ini akan medorong data dari
sistem transaksi ke data warehouse untuk diproses selanjutnya. Sedangkan prinsip Big Data adalah real-time processing. Untuk Enterprise, Big Data sering dikotakkan ke dalam Business Intelligence. Miskonsepsi ini disebabkan keduanya menawarkan insight di atas data yang ada. Perbedaan yang mendasar adalah bagaimana konsep Big Data dan Business Intelligence memproses data.
Etika Big Data
Privacy isn’t dead (privasi tidak mati) Kata lain dari aturan dalam informasi. Private tidak selalu berarti rahasia, tetapi memastikan bahwa privasi data adalah mendefinisikan suatu masalah dan menegakkan aturan informasi. Aturan tersebut juga tidak selalu mengenai aturan tentang pengumpulan data tetapi juga tentang penggunaan data dan retensinya. Shared private information can still remain confidential. (berbagi informasi tetapi tidak menghilangkan nilai kerahasiaan dari informasi tersebut) Setiap data/informasi yang dibuat dan dishare tidak berarti bahwa nilai kerahasiaan pada data tersebut bisa dilihat oleh banyak orang. Big data requires transparency. (membutuhkan transparasi) Big data akan berpengaruh ketika penggunaan sekunder dari set data yang menghasilkan prediksi baru dan kesimpulan. Big Data can compromise identity. (mengganggu identitas) Perlindungan data sudah tidak cukup lagi untuk melindungi identitas dari Big Data, Analisis Big Data bisa membahyakan identitas. Maka perlu memperhatikan jenis prediksi Big Data dan kesimpulannya, mana yang layak atau tidak layak.
Salah satu rahasia keberhasilan Google adalah Google telah mampu memberdayakan Big Data dengan efektif dan efisien jauh mendahului perusahaan manapun, bahkan jauh sebelum istilah Big Data itu muncul. Google memiliki teknologi canggih yang memungkinkannya mampu mengolah dan memanfaatkan Big Data dengan tepat. Teknologi-teknologi tersebut diantaranya adalah Google File System (GFS), Google MapReduce, dan Google Bigtable.
Google Big Table - Bigtable didefinisikan sebagai system penyimpanan data terdistribusi yang ditujukan untuk mengelola data yang terstruktur dan didesain sebagai system yang handal untuk mengelola data dalam skala petabytes dan dalam ribuan mesin (komputer). Dari definisi tersebut kita bisa membayangkan bahwa Bigtable itu memang table yang benar-benar besar. Tabel yang berisi data dalam skala petabytes, bisa berukuran beberapa petabytes, bisa puluhan, ratusan bahkan ribuan petabytes. Data-data tersebut disimpan secara terdistribusi dalam ribuan komputer yang dapat diakses dan dikelola melalui Bigtable. Dalam hal kemampuan mengelola data, Bigtable dinyatakan sebagai system yang sangat fleksibel. Bigtable mampu memproses data mulai data yang berukuran kecil seperti halnya URL, data berukuran sedang seperti halnya web pages, hingga data berukuran besar berupa photo
atau citra satelit. Bigtable bisa menangani pemrosesan data mentah ‘gelondongan’ yang berorientasi pada hasil akhir dan perlu diproses dalam jangka waktu tertentu maupun pemrosesan data secara real time yang menuntut hasil seketika. Google menggunakan Bigtable dalam lebih dari 60 produk dan proyeknya termasuk Google web indexing, Google Analytics, Google Finance, Orkut, Personalize Search, Writely dan Google Earth. Google Map Reduce - MapReduce adalah model pemrograman rilisan Google yang ditujukan untuk memproses data berukuran raksasa secara terdistribusi dan paralel dalam cluster yang terdiri atas ribuan komputer. Dalam memproses data, secara garis besar MapReduce dapat dibagi dalam dua proses yaitu proses Map dan proses Reduce. Kedua jenis proses ini didistribusikan atau dibagi-bagikan ke setiap komputer dalam suatu cluster (kelompok komputer yang salih terhubung) dan berjalan secara paralel tanpa saling bergantung satu dengan yang lainnya. Proses Map bertugas untuk mengumpulkan informasi dari potongan-potongan data yang terdistribusi dalam tiap komputer dalam cluster. Hasilnya diserahkan kepada proses Reduce untuk diproses lebih lanjut. Hasil proses Reduce merupakan hasil akhir yang dikirim ke pengguna. Sampai saat ini Google tidak pernah mendistribusikan software MapReduce miliknya. Namun demikian, Apache telah merilis software open source yang dikenal dengan nama Hadoop untuk mengebangkan dan menjalankan aplikasi MapReduce. Secara garis besar Hadoop terdiri atas HDFS (Hadoop Distributed File System) dan Hadoop MapReduce. HDFS adalah versi open source-nya GFS (Google File System), dan Hadoop MapReduce adalah versi open source dari Google MapReduce.
Google File System - Google File System adalah salah satu jenis dari media penyimpanan data seperti halnya hard disk drive (HDD), flash disk, DVD-R dan sebagainya. Bedanya, GFS menyimpan data-nya secara terdistribusi pada komputer-komputer dalam suatu cluster. Lalu cluster itu apa? Cluster dalam konteks ini adalah network atau jaringan komputer yang terdiri atas ratusan atau bahkan ribuan komputer. Yang namanya network berarti komputer yang ada didalamnya sudah dalam kondisi saling berhubungan, bisa saling berkomunikasi, bisa saling tukar data. Berkat kemampuannya yang bisa menyimpan data secara terdistribusi ini GFS bisa menyimpan data super besar yang tidak bisa disimpan dalam suatu HDD paling besar sekalipun. Struktur dan Unsur-unsur Dasar. GFS memiliki tiga entitas / unsur utama, yaitu: Master Servers, Chunkservers, dan Clients. Master Servers adalah server central yang mengendalikan dan memonitor kondisi GFS secara keseluruhan. Chunkservers adalah bagian yang bertanggungjawab menyimpan dan membaca file ke/dari HDD tiap node (node: satu komputer yang berada dalam cluster GFS). Chunkservers yang jumlahnya banyak ini berada dibawah kendali Master Servers. Terakhir, Clients adalah aplikasi yang menggunakan GFS yang menyimpan dan
membaca file ke/dari GFS (Gambar 1). Tiap chunk (blok data) akan direplikasi secara otomatis dan disimpan dalam tiga Chunkservers. Ini berguna sebagai cadangan jika terdapat Chunkservers yang rusak. Kemudian Master Servers akan mengatur distribusi chunks (block-block data) ke tiap Chunkservers sedemikian rupa sehingga terdistribusi secara merata. Tidak ada yang mendapat chunk berlebih, juga tidak ada yang mendapat terlalu sedikit.
Gambar 1. Tiga unsur utama Google File System Pada saat membaca data, GFS akan memilih servers yang terdekat, sedangkan pada saat menulis/menyimpan data, GFS akan melakukannya dalam beberapa servers sekaligus. GFS tidak memfasilitasi penyimpanan / penulisan data secara bersamaan, melainkan dilakukan secara atomic. Artinya, selama data masih dalam proses penyimpanan / penulisan oleh suatu aplikasi, maka data tersebut beserta lokasinya dalam memory tidak akan bisa diakses oleh aplikasi lain sampai proses penyimpanan tersebut benar-benar selesai.
Karakteristik yang membuatnya unggul. Salah satu kelebihan GFS adalah GFS dijalankan pada cluster yang terdiri atas komputer-komputer biasa yang relatif tidak mahal. Google tidak menjalankan GFS dengan menggunakan komputer-komputer handal dengan spesifikasi dan kualitas super melebihi komputer biasa yang beredar dipasaran. Oleh karena itu, kerusakan atau kegagalan pada suatu node (titik yang mengacu pada satu komputer pada suatu cluster) adalah hal yang lumrah terjadi dan sudah diprediksi sebelumnya. Untuk mengantisipasi hal ini, GFS didesain untuk tetap dapat berjalan normal walaupun terjadi kegagalan dalam suatu node. Singkatnya, GFS itu tahan banting. Selain tahan banting, GFS juga scalable. Artinya GFS bisa di-scale up dan discala out (maaf meminjam istirlah bahasa tetangga). Di-scale up artinya GFS bisa ditingkatkan kapasitasnya dengan meningkatkan spesifikasi komputerkomputer yang mengusungnya. Sedangkan di-scale out artinya GFS dapat diperbesar kapasitasnya dengan menambah jumlah komputer pada cluster tempat ia dijalankan. Kedua proses ini dapat dilakukan tanpa harus men-set up dari awal, tidak perlu setting ulang dan tak perlu melalukan pemindahan data dari sistem lama ke sistem baru yang telah di-upgrade. Beda halnya kalau kita menggunakan system konvensional. Pada saat akan mengganti atau mengupgrade kapasitas komputer, kita harus melakukan setting ulang.
Keunggulan Mengolah Big Data dengan Hadoop Kini teknologi untuk mengolah Big Data, Hadoop Mapreduce, sudah di depan mata. Selanjutnya bergantung pada keberanian kita untuk mau memberdayakannya atau tidak. Hadoop MapReduce memiliki banyak keunggulan, diantaranya: 1. Sederhana. Walaupun Hadoop MapReduce adalah software yang mengolah data secara terdistribusi dan paralel, kita tidak diwajibkan untuk mengerti dan paham apa itu distributed computing. 2. Fleksibel dalam Ukuran. Hadoop dapat dijalankan mulai dari satu hingga ribuan PC. Jadi, dapat dimulai dengan ukuran kecil dulu atau sesuai kebutuhan. Bila ingin meningkatkan kemampuannya, cukup tambah jumlah PC tanpa harus mengubah setting dari awal. Bandingkan kalau kita menggunakan system konvensional. Pada saat komputer kita sudah tidak mampu lagi mengolah data yang semakin besar, atau ketika teknologi komputer yang kita pakai sudah mulai ketinggalan jaman, tentu kita harus membeli komputer baru yang memiliki kemampuan yang lebih tinggi, atau mengupgrade komputer yang sudah ada. Itu berarti kita harus menginstal system baru mulai dari awal, kemudian memindahkan data dari komputer lama ke komputer baru, dan melakukan setting ulang agar dapat berjalan seperti sebelumnya. Bila kita menggunakan Hadoop, kita tak perlu memindahkan data dan melakukan setting ulang, cukup dengan menambahkan satu komputer lagi, maka secara otomatis data akan terdistribusi ke komputer yang baru. 3. Handal, anti Gagal. Ketika kita bicara tentang pengolahan data yang dilakukan secara paralel dalam banyak komputer, tentu akan timbul pertanyaan: Bagaimana kalau salah satu dari komputer itu down atau rusak dan tak dapat beroperasi? Bukankah ini akan menyebabkan seluruh proses akan gagal karena kehilangan salah satu bagiannya. Tidak demikian dengan Hadoop, walaupun dalam suatu proses pengolahan data terdapat komputer yang tiba-tiba rusak, Hadoop tetap dapat berjalan normal.
Perusahaan yang menggunakan Big Data Saat ini Hadoop telah diadopsi oleh perusahaan-perusahaan besar seperti halnya Yahoo!, Amazon, IBM, Microsoft, Facebook, Twitter, HewlettPackard, LinkedIn, RECRUIT, Rakuten Japan, dan masih banyak lagi. -
Microsoft (Windows Azure Hadoop) Oracle (Big Data Appliance yang mencakup solusi Hadoop dari Cloudera) SAP (Hana) EMC (GreenPlum Hadoop)
Big Data Processing Software Pengolahan Data Big Teknologi Dalam beberapa tahun terakhir , ada permintaan besar untuk memperoleh pengetahuan / keteraturan dari data besar , terabyte / petabyte data , untuk menciptakan nilai bisnis atau membuat masyarakat yang lebih canggih dan efisien .
Pengolahan data yang besar dapat diklasifikasikan menjadi dua jenis metode dalam hal pengolahan diperlukan latency . Salah satunya adalah pengolahan data yang tersimpan bets berbasis dan yang lainnya adalah real-time pengolahan data -stream . NEC berfokus pada pengembangan teknologi tidak hanya untuk meningkatkan analisis bets berbasis dan pengolahan data - stream, tapi untuk fusi dari dua dalam rangka mewujudkan analisis real-time dalam. Distributed teknologi pengolahan data stream untuk on-the -fly analisis real-time data / peristiwa yang dihasilkan pada tingkat yang sangat tinggi . Teknologi untuk diandalkan menyimpan data terdistribusi , struktur data berkecepatan tinggi mengubah untuk membuat analisis DB dan manajemen penempatan data yang cepat . Teknologi ekstraksi data terukur untuk mempercepat fungsi query kaya, seperti query multidimensi , lebih dari sebuah toko Key - nilai . Scalable didistribusikan pemrosesan paralel dari sejumlah besar data yang disimpan untuk analisis canggih seperti mesin belajar.
10 things you shouldn't expect big data to do Setiap organisasi mengejar data yang besar dengan harapan tinggi bahwa hal itu dapat menjawab pertanyaan-pertanyaan lama bisnis yang akan membuat perusahaan lebih kompetitif di pasar dan lebih baik dalam pengiriman produk dan jasa . Namun di tengahtengah antusiasme ini , sangat mudah untuk membangun harapan palsu untuk big Data - " . Help " manfaat yang tidak akan pernah terwujud kecuali Anda memberikan jumlah yang tepat Berikut adalah 10 hal penting bahwa data besar dalam dirinya sendiri tidak akan melakukannya untuk Anda, kecuali jika Anda mengambil langkah yang tepat untuk mengoptimalkan nilainya . 1 : Memecahkan masalah bisnis Anda Data besar tidak memecahkan masalah bisnis . Orang-orang melakukan . Hanya organisasiorganisasi yang duduk dan memutuskan apa yang mereka ingin keluar dari big data mereka sebelum mereka mulai bekerja dengan itu akan menuai kaliber intelijen bisnis yang mereka cari . 2 : Bantuan manajemen data IBM mengklaim bahwa 2,5 triliun byte data yang dihasilkan setiap hari . Sebagian besar ini adalah data besar . Tidak mengherankan , jumlah data di bawah manajemen di perusahaanperusahaan di seluruh dunia telah tumbuh secara eksponensial , juga. Sebagai tumpukan data sampai tanpa retensi data tebang habis dan kebijakan penggunaan ( terutama untuk data besar) , organisasi yang berjuang untuk mengelolanya . 3 : Kemudahan kekhawatiran keamanan Anda Bagi banyak perusahaan , menentukan akses keamanan untuk data besar masih item terbuka . Hal ini karena praktik keamanan untuk data besar yang tidak didefinisikan sebagai mereka adalah untuk data yang dimiliki sistem catatan . Kami berada pada titik di mana TI harus bekerja dengan pengguna akhir untuk menentukan siapa yang mendapat akses ke mana tingkat data besar dan analisis yang sesuai . 4 : Alamat bidang keterampilan IT kritis Manajemen Big data database , manajemen server , pengembangan perangkat lunak , dan analisis usaha keterampilan dalam pasokan pendek . Mereka menambahkan beban tambahan untuk inti kemampuan IT kritis yang banyak departemen TI sudah kekurangan . 5 : Kurangi nilai sistem warisan Jika ada, sistem warisan catatan yang lebih berharga dari sebelumnya dengan data yang besar . Seringkali , itu adalah sistem warisan ini yang menawarkan petunjuk penting tentang bagaimana terbaik untuk membedah data yang besar untuk analisis yang dapat menjawab pertanyaan-pertanyaan bisnis yang penting .
6 : Sederhanakan pusat data Anda Data Big membutuhkan cluster pengolahan menghitung paralel dan gaya yang berbeda dari sistem manajemen dari transaksi dan data warehouse sistem TI tradisional . Ini berarti bahwa konsumsi energi , pendinginan , software, hardware , dan keterampilan sistem yang diperlukan untuk menjalankan sistem baru ini juga akan berbeda . 7 : Meningkatkan kualitas data Anda Keindahan sistem transaksi tradisional adalah bahwa ada data yang panjang tetap lapangan dan komprehensif suntingan dan validasi data yang membantu mendapatkan ke bentuk yang relatif bersih . Tidak demikian halnya dengan data yang besar , yang tidak terstruktur dan dapat datang dalam hampir bentuk apapun. Hal ini membuat kualitas data besar sakit kepala besar . Kualitas data sangat penting . Jika Anda tidak memilikinya , Anda tidak dapat mempercayai hasil permintaan data Anda . 8 : Validasi metrik ROI saat ini Cara yang paling umum untuk mengukur laba atas investasi dari sistem catatan adalah untuk memonitor kecepatan transaksi dan kemudian memperhitungkan apa artinya ini dalam hal pendapatan ditangkap ( seperti berapa banyak pemesanan hotel baru Anda dapat menangkap per menit ) . Kecepatan transaksi tidak metrik yang baik untuk pengolahan data yang besar , yang bisa berlangsung berjam-jam dan bahkan berhari-hari untuk engkol melalui cache data yang besar dan untuk menjalankan analisis . Sebaliknya , yang terbaik metrik untuk mengukur efektivitas pengolahan data besar adalah pemanfaatan , yang harus di atas 90 % secara teratur ( kontras ini dengan sistem transaksi , yang mungkin hanya 20 % capacitized ) . Sangat penting untuk mengembangkan ini metrik ROI baru untuk data yang besar , karena Anda masih harus menjual CFO dan pemimpin bisnis lainnya pada investasi data yang besar . 9 : Buat kurang " noise " Sembilan puluh lima persen dari data yang besar adalah "noise " yang memberikan kontribusi sedikit atau tidak ada intelijen bisnis . Memilah-milah data ini untuk mendapatkan nugget kecerdasan yang benar-benar akan membantu bisnis dapat menjadi sesuatu yang membingungkan . 10 : Bekerja setiap saat Selama bertahun-tahun , universitas dan pusat penelitian berlari percobaan data yang besar untuk mendapatkan jawaban yang sulit dipahami pada genom , penelitian obat , dan apakah ada kehidupan di planet lain . Sementara beberapa algoritma ini dan pertanyaan membuahkan hasil , masih banyak lagi yang tidak meyakinkan . Ada toleransi untuk inconclusiveness di universitas dan penelitian lingkungan , tetapi tidak dalam pengaturan perusahaan . Di sinilah IT dan pengambil keputusan utama lainnya perlu mengelola harapan .
Big Data vs Traditional BI Big Data Dengan melampaui BI Tradisional Big Data menawarkan perbaikan besar atas pendahulunya dalam analisis , intelijen bisnis tradisional ( BI ) . Ambil fakta bahwa BI selalu top-down , memasukkan data di tangan eksekutif dan manajer yang mencari untuk melacak bisnis mereka pada tingkat gambaran besar . Big Data , di sisi lain , adalah bottom-up . Bila dimanfaatkan dengan benar , memberdayakan bisnis end-user di parit , yang memungkinkan mereka untuk melakukan analisis mendalam untuk menginformasikan real-time pengambilan keputusan .
Sedangkan ruang lingkup BI tradisional terbatas pada data terstruktur yang dapat dimasukkan ke dalam kolom dan baris pada data warehouse , kenyataannya adalah bahwa lebih dari 90 % dari data hari ini adalah tidak terstruktur ( sebagai VP kami Pemasaran , Mike Smitheman dibahas di posting baru-baru ini ) . BI tidak pernah bisa mengantisipasi banyaknya gambar, file MP3 , video dan potongan media sosial bahwa perusahaan akan bersaing dengan di era Big Data , tapi itulah realitas bisnis saat ini. BI Tradisional terjebak dalam liang , yang ditinggalkan oleh bisnis berwawasan ke depan yang putus asa untuk menjinakkan dan mendapatkan keuntungan kompetitif dari data bisnis tidak terstruktur mengambang di sekitar dalam dan di luar perusahaan mereka . Tantangan Big Data Meskipun keuntungan dalam iklim saat ini , Big Data juga dapat hadir tantangan besar . Sebelum menuai manfaat apapun, perusahaan harus terlebih dahulu menyewa ilmuwan data untuk menyaring volume besar data dari berbagai sumber . Bahkan kemudian , pertanyaan tetap : Apa wawasan berharga bisa dipetik dari data ? Siapa yang akan mendapat manfaat besar dari wawasan ini ? Bagaimana bisa satu pilihan data berharga dimusnahkan , ditampilkan , dan berbagi dengan orang yang tepat ? Bahkan melampaui tahap pelaksanaan , solusi Big Data sulit untuk melaksanakan karena tuntutan kecepatan , volume dan variabilitas . Hal ini membutuhkan proses yang cepat dari volume besar tipe data variabel luas . Solusi saat ini yang mengaku menjadi obat peluru ajaib kekurangan kecanggihan dan skala untuk mengatasi tantangan ini . Dalam upaya untuk mengatasi tiga V , banyak inovator awal dalam teknologi Big Data difokuskan pada bidang komputasi dan penyimpanan . Namun di beberapa titik di sepanjang jalan , perkembangan Big Data menekan hambatan ketika banyak organisasi menjadi teralihkan dengan Hadoop infrastruktur dan teknologi tingkat rendah lainnya . Mereka terhenti sampai hari ini , di tengah-tengah sepanjang usaha yang seharusnya sekitar memberikan nilai bisnis sejati dari data. Melakukan hal ini mirip dengan bangunan setengah jembatan , hanya untuk terus re- cat dan meng-upgrade kabel suspensi yang sudah ada setelah kehilangan pandangan dari tujuan proyek aslinya .
Meskipun godaan , bisnis harus menahan diri untuk mengikuti seluruh kawanan dengan melemparkan sumber daya ke dalam sistem Hadoop besar baru atau beberapa solusi sementara lainnya . Mereka yang menghabiskan jutaan hanya memanipulasi data mereka dengan solusi cukup seperti telah kehilangan pandangan dari tujuan akhir : keuntungan dari beton , wawasan ditindaklanjuti berasal dari data bisnis . Meskipun usaha picik terus bekerja keras lebih meningkatkan jembatan setengah dibangun mereka , beberapa pilih telah ditempa depan untuk menemukan cara-cara baru yang mencakup Selat Malaka , semua dalam kenyamanan awan . Inovator ini menghindari godaan dan hambatan dengan berbagi fokus teguh pada tujuan akhir dari keuntungan dari data bisnis mereka . Mereka menyebut ini BizData monetisasi .
The New Era of BizData Monetisasi BizData Monetisasi meminjam aspek terbaik dari tradisional di rumah dan awan BI dan Big Data solusi , menggambar pada data terstruktur untuk mengoptimalkan strategi bisnis , tetapi juga menggunakan volume besar data terstruktur untuk mendapatkan tepi operasional realtime . Hasilnya adalah pendekatan baru untuk mengekstraksi nilai bisnis dari data pada skala baru . Mashup bisnis, atau bashes , sekarang dapat memberikan pandangan tingkat eksekutif dari intuitif , dashboard disesuaikan yang akan Stupefy BI - penggila tadi. Bashes melanggar kendala Big Data dengan menggabungkan petak besar data operasional dari berbagai sumber , termasuk CRM dan ERP sistem dan jaringan sosial eksternal , mengungkapkan wawasan tersedia on-demand , satu -klik mouse . Di era BizData monetisasi , bisnis yang berusaha untuk membedakan diri secara strategis tidak bisa lagi mampu untuk kios oleh sumber daya melemparkan mereka ke dalam solusi darurat yang tidak memadai , dan tidak dapat mereka mengadu Big Data melawan BI tradisional . Untuk tetap berada di depan pak , mereka harus memanfaatkan kombinasi dari dua untuk memanfaatkan data mereka dalam rangka untuk mendapatkan keuntungan dari itu . Hanya kemudian mereka akan mencapai BizData monetisasi .
Sumber : http://www.oracle.com/us/technologies/big-data/index.html http://www.webopedia.com/TERM/B/big_data.html http://adayinbigdata.com/ http://www.forbes.com/sites/oreillymedia/2014/03/28/whats-up-with-big-data-ethics/ http://searchcio.techtarget.com/opinion/Cool-or-creepy-The-ethics-of-big-data-is-on-the-table http://www.marketing.co.id/apakah-big-data-merupakan-senjata-rahasia-crm/