Seminar Nasional Teknologi Informasi dan Komunikasi 2013 (SENTIKA 2013) Yogyakarta, 9 Maret 2013
ISSN: 2089-9815
ANALISIS DAN DESAIN REAL-TIME BUSINESS INTELLIGENCE UNTUK SUBJEK KEGIATAN AKADEMIK PADA UNIVERSITAS MENGGUNAKAN CHANGE DATA CAPTURE Stephanie Pamela Adithama1, Irya Wisnubhadra2, Benyamin L. Sinaga3 1,2,3 Magister Teknik Informatika, Universitas Atma Jaya Yogyakarta Jl. Babarsari 43 Yogyakarta 55281 E-mail:
[email protected],
[email protected],
[email protected] ABSTRAK Kegiatan akademik di universitas berjalan terus menerus dan semakin menambah banyak data pada sistem operasional yang sudah ada. Data tersebut masih belum dapat dimanfaatkan oleh pihak universitas dalam pengambilan keputusan strategis. pembuatan laporan untuk keperluan akreditasi dan unit-unit akademik. Aplikasi real-time business intelligence menggunakan data warehouse menjadi solusi untuk analisa data. Proses pembuatan data warehouse meliputi perancangan data warehouse, pengambilan data akademik dari sumber data, proses extraction, transformation, loading (ETL), pembuatan cube, dan pembuatan laporan. Proses ETL dilakukan menggunakan pendekatan Change Data Capture agar perubahan data dapat dipindahkan secara real-time. Aplikasi ini diharapkan dapat memenuhi kebutuhan manajemen universitas untuk mengetahui informasi tentang kegiatan akademik, membantu dalam pelaporan, dan membantu dalam mengambil keputusan dengan lebih efektif dan efisien dibandingkan dengan hanya memanfaatkan intuisi belaka. Kata Kunci: real-time, business intelligence, data warehouse, akademik, change data capture memindahkan data dari sistem transaksional menuju area staging, mengubah data sesuai dengan kebutuhan bisnis, dan dari area staging menuju ke data warehouse (Ankorion, 2005). Kualitas data dan keefektifan data warehouse bergantung pada efisiensi proses ETL, kualitas dari proses ETL mempengaruhi kualitas pengambilan keputusan. Penelitian menemukan bahwa 70% dari implementasi BI dan pemeliharaan data warehouse dihabiskan pada sistem ETL (Behrend & Jörg, 2010). Proses ETL tradisional dijalankan secara periodik pada interval tertentu, contohnya bulanan atau mingguan. Pendekatan ini telah dilakukan oleh perusahaan bertahun-tahun, namun kondisi bisnis sekarang ini membutuhkan cara ETL baru yang lebih efisien dan real-time (Attachmate Corp, 2005; Attunity, 2006). Solusi (Change Data Capture) CDC didesain dan diintegrasikan dengan proses ETL untuk memaksimalkan efisiensi ETL, meminimalisasi penggunaan sumber daya dengan memindahkan perubahan data saja, dan meminimalisasi latensi dalam pengiriman perubahan data pada konsumen (Jörg & Deßloch, 2008). Akreditasi untuk institusi pendidikan tinggi dilakukan oleh Badan Akreditasi Nasional Perguruan Tinggi (BAN-PT). Persyaratan untuk mendapatkan akreditasi dari BAN-PT, institusi perguruan tinggi diwajibkan untuk mengisi borang akreditasi dan untuk dapat mengisi borang tersebut, diperlukan berbagai macam data dan informasi seperti yang diminta. Kebutuhan akan data dan informasi tersebut, bisa dipenuhi apabila perguruan tinggi telah memanfaatkan sistem informasi dan menggunakan BI sebagai sarana untuk melakukan
1.
PENDAHULUAN Penggunaan yang luas atas teknologi komputer dan jaringan telah membentuk basis data-basis data elektronik besar yang menyimpan berbagai transaksi bisnis (Bose & Mahapatra, 2001). Bagi sebuah organisasi hal ini sangat menguntungkan karena data yang diperlukan untuk mengambil keputusan sangat tergantung pada kelengkapan data yang dimiliki. Di lain pihak besarnya jumlah data ditambah kemungkinan tersebarnya lokasi penyimpanannya, akan lebih mempersulit pengaksesan data tersebut. Business Intelligence (BI) merupakan salah satu bentuk implementasi yang mampu menjawab kebutuhan untuk menganalisis masalah-masalah serta dalam pengambilan keputusan. Secara ringkas, BI dapat diartikan sebagai pengetahuan yang didapatkan dari hasil analisis data yang diperoleh dari kegiatan suatu organisasi (Kusnawi, 2008). BI meliputi topik-topik seperti data warehousing, Online Analytical Processing (OLAP), Extract Transform Loading (ETL), data mining, dan multidimensionalitas (Turban et.al., 2004). Kesuksesan bisnis membutuhkan analisis data dilakukan secara real-time (Azvine et.al., 2006). Real-time BI akan menjelajahi data warehouse yang bervolume besar dan secara cepat mendatangkan data dalam operasi bisnis. Real-time BI mengoptimalkan proses pengambilan keputusan dengan mengurangi untuk menghilangkan latensi dan menyediakan data kontekstual yang kaya yang secara langsung dapat ditindaklanjuti (Sandu, 2008; Botan et.al., 2009). Data warehouse merupakan tempat penyimpanan data pada BI. ETL memainkan peran penting pada arsitektur data warehouse, proses ETL 87
Seminar Nasional Teknologi Informasi dan Komunikasi 2013 (SENTIKA 2013) Yogyakarta, 9 Maret 2013
ISSN: 2089-9815
Menurut Wilarso (2008), perkembangan pemanfaatan teknologi data warehouse di perguruan tinggi Indonesia jauh tertinggal dengan di beberapa negara maju seperti Amerika. Telah ada penelitian yang mengembangkan BI di Indonesia untuk pengukuran kinerja proses belajar mengajar oleh Handojo dan Rostianingsih (2004). Namun, informasi yang didapatkan disajikan dalam bentuk pivot table pada Microsoft Excel saja. Rezalini et.al. (2010) mengimplementasikan BI untuk menilai kondisi akademik mengenai data mahasiswa dan data IPD (Indeks Prestasi Dosen). Berdasarkan segi manfaatnya, proyek data warehouse pada perguruan tinggi layak untuk diimplementasikan menurut Warnars (2009), yang meneliti Simple ROI untuk justifikasi investasi proyek data warehouse pada perguruan tinggi swasta. Penelitian BI di universitas ini, masih menggunakan ETL tradisional. Penerapan real-time BI sedikit disinggung di beberapa penelitian, dalam analisis rantai pasokan (Sahay & Ranjan, 2008) dan pada penerbangan Continental Airlines (Watson et.al., 2006; Anderson-Lehman et.al., 2004). Sedangkan penelitian mengenai CDC sebagai teknik penerapan real-time BI masih sedikit ditemukan, desain dan algoritma CDC pada aplikasi perbankan pada penelitian Jain et.al. (2012) dan penelitian yang membahas tentang teori dibalik ETL dan evolusi ETL termasuk di dalamnya CDC (Kakish & Kraft, 2012).
berbagai analisa yang mendalam (Wilarso,2008). Universitas pada umumnya, biasanya telah tersedia sistem yang digunakan untuk mengelola transaksi akademik di setiap fakultas dan pada unitunit akademik. Sistem ini digunakan untuk memenuhi kebutuhan transaksional data mahasiswa, dosen, kelas, nilai, jadwal, matakuliah, krs, transkrip, lulusan, yang berhubungan dengan bidang akademik. Proses pembuatan keputusan dengan melakukan analisa terhadap data yang dihasilkan dari sistem-sistem transaksional, tentu saja tidak efisien karena membutuhkan waktu yang cukup lama, dan juga tidak cukup akurat. Dalam penelitian ini, akan dilakukan analisis dan desain untuk sistem real-time BI menggunakan pendekatan CDC yang akan membantu pihak manajemen universitas dalam melakukan pengambilan keputusan. Dengan diterapkannya realtime BI ini, diharapkan pihak manajemen universitas dapat mengambil keputusan mengenai pengelolaan akademik dengan lebih efektif dan efisien. 2.
TINJAUAN PUSTAKA Hasil analisis Popovic & Jaklic (2010) menunjukkan bahwa sistem BI benar-benar memiliki dampak positif pada kualitas informasi. Kualitas konten informasi lebih penting untuk membuat keputusan bisnis yang lebih baik dan memberikan nilai lebih tinggi pada sistem BI. Dalam beberapa tahun terakhir, pasar BI telah mengalami pertumbuhan yang sangat tinggi, berbagai vendor terus melaporkan laba yang cukup besar. Survei menunjukkan bahwa menurut kebanyakan CIO, BI adalah aplikasi yang paling penting untuk dibeli. Hasil survei tentang pengeluaran CIO juga menemukan bahwa area dengan prioritas belanja paling banyak adalah BI (Yeoh et.al., 2008). BI dengan data warehouse menghasilkan laporan yang dapat dipercaya dalam waktu yang singkat bagi manajemen tingkat atas perguruan tinggi. Tak pelak lagi sudah saatnya data warehouse harus diimplementasikan pada perguruan tinggi (Warnars, 2008). Sudah ada beberapa penerapan BI yang digunakan pada proses pembelajaran sebagai proses utama pendidikan. Gombiro et.al. (2008) memperkenalkan konsep data warehouse untuk membantu dalam berbagi materi pembelajaran. Perancangan data warehouse untuk penerimaan mahasiswa baru dilakukan oleh Cardoso et.al. (2003) di Universitas Teknik Lisbon. Alnoukari (2009) membantu pembuatan laporan untuk top manajemen universitas untuk kinerja mahasiswa dan kinerja dosen. Vinnik & Scholl (2007) membuat prototipe data warehouse untuk manajemen beban kerja akademik di universitas. Data warehouse untuk mendukung keputusan manajemen dalam pengukuran kinerja universitas (Păunică et.al., 2010; Muntean et.al, 2010). Ta’a et.al. (2008) membuat prototipe data warehouse di area subyek kemahasiswaan.
3. LANDASAN TEORI 3.1 Data Warehouse Menurut pelopor konsep dan istilah data warehouse, William Inmon, definisi dari data warehouse adalah sebuah koleksi data yang berorientasi subjek, terintegrasi, non-volatile, dan time-variant dalam rangka mendukung keputusankeputusan manajemen (Inmon, 2005). 3.3.1. Karakteristik Data Warehouse Ponniah (2010) menyebutkan karakteristik dari data warehouse adalah sebagai berikut: a. Berorientasi Subjek : Data warehouse didesain untuk menganalisa data berdasarkan subjeksubjek tertentu dalam organisasi, bukan pada proses atau fungsi aplikasi tertentu. b. Terintegrasi : Sumber data yang ada dalam data warehouse tidak hanya berasal dari data operasional (internal source) tetapi juga berasal dari data di luar sistem (external source). c. Time-variant : Sistem operasional mengandung data yang bernilai sekarang sedangkan data dalam data warehouse mengandung data tidak hanya data terkini tetapi juga data masa lampau d. Non-volatile : Pada data warehouse hanya ada dua kegiatan memanipulasi data yaitu loading data (mengambil data) dan akses data. 3.3.2. Komponen Data Warehouse Komponen-komponen data warehouse 88
Seminar Nasional Teknologi Informasi dan Komunikasi 2013 (SENTIKA 2013) Yogyakarta, 9 Maret 2013
ISSN: 2089-9815
a. Dimensi : Sebuah kategori yang independen dari multidimensional basis data. Tipe dari dimensi ini mengandung item yang digunakan sebagai kriteria query. b. Tabel Fakta : Mempunyai dua tipe kolom, yaitu kolom yang menyimpan nilai-nilai numerik atau yang biasa disebut dengan measure dan kolom yang menyimpan foreign key yang mengacu ke tabel dimensi. c. Measure : Cerminan dari fakta dan juga mengandung informasi kolom bertipe numerik yang akan dianalisa. d. Hirarki : merupakan bentuk kesatuan dari dimensi. Sebuah dimensi bisa terbentuk dari multilevel, yang mempunyai parent-child relationship. Model dimensional yang sering digunakan pada data warehouse adalah star atau snowflake (Prasetyo et.al., 2010): a. Star schema, seperti pada Gambar3, terdiri dari satu atau lebih tabel fakta dan satu atau lebih tabel dimensi. Tabel fakta merupakan pusat dari star schema, karena fungsinya sebagai pengikat dari tabel-tabel dimensi.
menurut Ponniah (2010) digambarkan pada Gambar 1. Komponen sumber data berada di sebelah kiri. Komponen data staging sebagai blok pembangun berikutnya. Di tengah, dapat dilihat komponen penyimpanan data yang mengelola data warehouse. Komponen information delivery berada di sebelah kanan, yang terdiri dari semua hal menyediakan informasi dari data warehouse bagi pengguna.
Gambar 1. Komponen Data Warehouse (Ponniah, 2010) Sumber data yang digunakan dalam data warehouse dapat dikelompokkan menjadi empat, yaitu: Production Data, Internal Data, Archieved Data, External Data. Data staging menyediakan sebuah tempat dengan satu set fungsi untuk membersihkan, mengubah, menggabungkan, mengkonversi, mencegah duplikasi data, dan menyiapkan data sumber untuk penyimpanan dan penggunaan dalam data warehouse. Tahap pembersihan ini dikenal juga dengan istilah Extraction, Transformation, and Loading (ETL).
Gambar 3. Star Schema 3.2
Model Data Multidimensional Pembuatan data warehouse didasarkan pada model data multidimensi. Model ini menampilkan data dalam bentuk kubus (cube). Data multidimensi adalah ketika sebuah data dapat dipandang dari berbagai sudut, sebagai contoh pada Gambar 2 (Prasetyo et.al., 2010).
b. Snowflake schema merupakan pengembangan dari star schema. Pada snowflake schema tabel dimensi dinormalisasi secara sebagian atau keseluruhan untuk mengurangi nilai duplikat pada tabel, contohnya dapat dilihat pada Gambar 4.
Gambar 4. Snowflake Schema 3.3
Change Data Capture (CDC) CDC adalah pendekatan inovasi untuk integrasi data, berdasarkan identifikasi, menangkap, dan mengirimkan perubahan yang dibuat oleh data sumber. Dengan memproses hanya perubahannya, CDC membuat proses integrasi data lebih efisien
Gambar 2. Kubus Data (Prasetyo et.al., 2010) Komponen model multidimensional yang umum ditemukan dalam perancangan data warehouse (Prasetyo et.al., 2010): 89
Seminar Nasional Teknologi Informasi dan Komunikasi 2013 (SENTIKA 2013) Yogyakarta, 9 Maret 2013
ISSN: 2089-9815
bagian bawah merepresentasikan server OLAP.
dan mengurangi biaya dengan mengurangi latensi (Attunity, 2006). 3.3.1. Skenario CDC CDC harus diintegrasikan dengan tool ETL sehingga proses ETL dapat efisien. Integrasi CDC dengan tool ETL yang ada menyediakan pendekatan terintegrasi untuk mengurangi jumlah informasi yang dikirimkan sambil meminimalisasi kebutuhan sumber daya dan memaksimalkan kecepatan dan efisiensi (Tank et.al., 2010). Terdapat dua model skenario CDC yang terintegrasi dengan tool ETL (Attachmate Corp, 2005): a. Model CDC Pull: Tool ETL secara periodik meminta perubahan data, setiap waktu menerima sekumpulan record yang merepresentasikan semua perubahan yang ditangkap sejak siklus permintaan terakhir. Permintaan perubahan data dapat dalam frekuensi tinggi atau rendah. Skenario ini mirip dengan ETL tradisional, perbedaannya skenario ini menangkap dan memindahkan hanya data yang berubah saja. Organisasi sebaiknya menggunakan metode ini ketika kebutuhan latensinya tidak memerlukan periode waktu per menit atau per jam. b. Model CDC Push : Mekanisme pengiriman mengirim perubahan data ke tool ETL setelah perubahan terjadi. Dapat dilakukan dengan mekanisme event-delivery atau messaging middleware. Metode ini membutuhkan tool ETL menggunakan listeners yang menunggu event perubahan dan publisher yang digunakan untuk mengirim dan memberikan notifikasi perubahan secara real-time. Diagram pada Gambar 5 berikut menunjukkan CDC pada proses ETL secara umum:
Gambar 6. Arsitektur CDC di SQL Server 2008 (McGehee, 2008) Komponen-komponen CDC pada Gambar 6 dijelaskan sebagai berikut (McGehee, 2008): a. Tabel sumber: ketika SQL Server pertama kali diinstal, secara default CDC dimatikan sehingga langkah pertama adalah mengaktifkan CDC pada level database, kemudian CDC harus diaktifkan pada level tabel. Setiap tabel yang CDC-nya aktif disebut dengan table sumber. b. Tabel CDC: Setiap tabel sumber yang CDC-nya aktif, diciptakan tabel CDC yang berhubungan, yang digunakan untuk menyimpan perubahan yang dibuat di tabel sumber, bersama dengan beberapa metadata yang digunakan untuk menelusuri perubahan. c. Fungsi Query CDC: setiap tabel sumber yang CDC-nya aktif, beberapa fungsi query CDC diciptakan untuk mengakses tabel CDC. d. Capture
dan
Cleanup
Jobs: dua SQL Server Agent jobs juga diciptakan, yaitu Capture dan Cleanup Job. Capture job secara umum berjalan terus menerus dan digunakan untuk memindahkan perubahan data ke tabel CDC dari transaction log. Cleanup job dijalankan terjadwal untuk menghapus data lama pada tabel CDC sehingga tidak membengkak terlalu besar. Cara kerja CDC sesuai dengan Gambar 6, adalah sebagai berikut (McGehee, 2008): ketika ada statemen insert, update, atau delete yang terjadi pada tabel sumber, perubahan ini ditulis pada transaction log pada database. Hal ini normal, terjadi pula walaupun CDC tidak diaktifkan. Perbedaannya, ketika CDC diaktifkan pada tabel sumber, SQL Server Agent Capture job membaca perubahan pada transaction log dan memindahkannya ke tabel CDC yang tepat. Insert dan delete masing-masing menghasilkan
Gambar 5. Integrasi CDC Pada ETL (Attachmate Corp, 2005) 3.3.2. CDC Pada SQL Server 2008 Pada SQL Server 2008, CDC menangkap dan merekan aktivitas insert, update, dan delete pada database OLTP dan menyimpannya dalam bentuk yang mudah digunakan oleh aplikasi, seperti SSIS package. Package ini digunakan untuk mengambil data dan menyimpannya pada server OLAP. Gambar 6 merepresentasikan gambaran komponen utama pada arsitektur CDC di SQL Server 2008. Diagram ini dibagi menjadi dua bagian, bagian atas merepresentasikan server OLTP dan 90
Seminar Nasional Teknologi Informasi dan Komunikasi 2013 (SENTIKA 2013) Yogyakarta, 9 Maret 2013
ISSN: 2089-9815
9. Melihat prosentase sebaran nilai mata kuliah 10. Melihat prosentase ketidaklulusan mata kuliah 11. Melihat prosentase kehadiran dosen dan mahasiswa 12. Melihat jumlah mahasiswa tiap kelas 13. Melihat profil ipk kelas setiap mata kuliah. 14. Melihat profil ipk dan ip semester mahasiswa. Dari analisis tersebut dibuat sebuah skema model data. Gambar 8 merupakan star skema yang akan digunakan untuk membangun data warehouse.
satu baris pada tabel CDC, dan update menghasilkan dua baris: satu baris data sebelum dan satu baris data setelah perubahan. Perubahan ini terus diakumulasikan pada tabel CDC sampai dihapus oleh Cleanup Job. Perubahan data dari tabel CDC diekstrak dengan menjalankan statemen yang sesuai menggunakan fungsi query yang relevan. Sebagai contoh, SSIS package dieksekusi setiap empat jam. Statemen yang sesuai dengan fungsi query akan dijalankan, yang mengijinkan untuk mengekstrak semua perubahan yang dibuat pada tabel sumber sejak terakhir kali SSIS package dieksekusi, dan kemudian memindahkannya ke database pada server OLAP. Dengan cara ini, data pada server OLAP selalu sinkron dengan data pada server OLTP, dengan hanya empat jam penundaan.
mahasiswa NPM NAMA_MHS THN_MASUK JLR_LLS SHIF T_MHS KD_PRODI STAT_STUDI TGL_DO JNS_KEL AGAM A ID_SMA ID_KAB_ORTU STATUS_TRANS loaded_date
propinsi ID_PROPINSI NAMA_PROPINSI loaded_date
kab_kodya ID_KAB_KODYA ID_PROPINSI NAMA_KAB_KODYA loaded_date
4.
HASIL DAN PEMBAHASAN Dalam proses pembuatan data warehouse, komponen-komponen diaplikasikan menjadi tahapan seperti model pada Gambar 7. Database-database sumber yaitu database perkuliahan, kemahasiswaan, dan calon mahasiswa baru diaktifkan CDC-nya. Pada area staging CDC juga diaktifkan, agar perubahan yang dikirimkan dari database sumber ke database staging, juga diikuti dikirimkan dari database staging ke data warehouse.
mhs_lulus
sma ID_SMA NAMA_SMA ALAMAT ID_KAB_SMA loaded_date
NPM NAMA_MHS THN_MASUK JLR_LLS KD_PRODI JNS_KEL AGAM A ID_SMA ID_KAB_ORT U TGL_WISUDA TGL_YUD URUT IPK_LULUS LAMA_STUDI_THN_BLN PERIODE_WISUDA LAMA_T A PERIODE_WISUDA loaded_date
fakultas KD_FAKULT AS NAMA_FAKULTAS loaded_date
mahasi swakrs NPM NAMA_MHS KD_PRODI THN_MASUK JNS_KEL STAT _STUDI ID_SMA ID_KAB JLR_LLS VERBAL KUANTITATIF PENALARAN BHS_INGGRIS TOTAL_NILAI MAT EM AT IKA_NEM BHS_INGGRIS_NEM NEM RATA2_NEM AVG_MAT_RAPOR AVG_INGGRIS_RAPOR loaded_date
dosen NPP NAMA_DOSEN JENIS_DOSEN ID_PRODI T GL_LAHIR JNS_KEL GELAR_S1 GELAR_S2 GELAR_S3 JABAT AN_AKADEMIK loaded_date
prodi KD_PRODI KD_F AKULTAS NAMA_PRODI JENJANG SINGK_GELAR SINGKATAN loaded_date
camaba KD_CALON JALUR NAMA_CALON PILIHAN_1 PILIHAN_2 PILIHAN_3 JNS_KEL AGAM A ID_SMA ID_KAB MASUK ALASAN_M UNDUR T HN_MASUK NPM VERBAL KUANTITATIF PENALARAN BHS_INGGRIS T OTAL_NILAI MATEM AT IKA_NEM BHS_INGGRIS_NEM NEM RATA2_NEM AVG_MAT_RAPOR AVG_INGGRIS_RAPOR loaded_date
FactIps NPM ID_TIM E IPS IPK loaded_date
FactKuliah NPM ID_TIM E ID_PRODI ID_KELAS NILAI bobot status_lulus SKS totalbobot Hadir Alpa Izin loaded_date
time ID_TIM E ID_TAHUN_AKADEM IK NO_SEMEST ER SEM ESTER loaded_date
FactJumlahCamaba KD_CALON KD_PRODI jml_pilihan_1 jml_pilihan_2 jml_pilihan_3 jml_diterima jml_reg istrasi loaded_date
kelas ID_KELAS ID_MK ID_T IM E KELAS SKS NPP_DOSEN1 NPP_DOSEN2 NPP_DOSEN3 NPP_DOSEN4 ID_PRODI ev_waktu ev_materi ev_metode ev_media ev_minat ev_ni lai loaded_date
matakuliah ID_MK ID_PRODI JENIS_MK SIFAT_MK SEM EST ER KODE_MK NAMA_MK SKS NILAI_LULUS BOBOT_NILAI_LULUS loaded_date
Gambar 8. Rancangan Star Skema Tabel 1 merupakan tabel sumber data dan tabel tujuan, dimana tabel sumber akan diaktifkan CDCnya. Tabel 1. Daftar Tabel Sumber Data, Staging Area, dan Data Warehouse Database Tabel Sumber Staging Data Sumber Area Warehouse kemahas mahasiswa mahasi maha maha iswaan swa siswa siswa sk_do krs mhs_transfer calon ref_jalur mahasis wa baru kemahas mahasiswa mhs_lu mhs_l iswaan ulus histori_mahasi lus swa tbl_transkrip_ yudisium tbl_transkrip_ yudisium _migrasi wisuda wisuda_migra si calon ref_jalur mahasis wa baru perkulia tbl_krs han
Gambar 7. Rancangan Tahap-Tahap Pembangunan Dilakukan analisis terhadap sumber data untuk mengetahui informasi yang harus disediakan oleh sistem, fungsi-fungsi yang dapat ditangani seperti: 1. Melihat jumlah mahasiswa, jumlah mahasiswa DO, jumlah lulusan, jumlah mahasiswa yang diwisuda, jumlah calon mahasiswa baru dari berbagai dimensi 2. Melihat jumlah calon mahasiswa baru untuk setiap prodi 3. Melihat profil IPK dan lama studi lulusan 4. Melihat rata-rata nilai tes masuk, rata-rata nilai rapor sma, rata-rata nilai NEM calon mahasiswa baru. 5. Melihat rata-rata nilai tes masuk, rata-rata nilai rapor sma, rata-rata nilai NEM mahasiswa 6. Melihat rata-rata nilai tes masuk, rata-rata nilai rapor sma, rata-rata nilai NEM lulusan 7. Melihat rata-rata nilai evaluasi dari hasil evaluasi yang dilakukan mahasiswa untuk dosen tertentu atau matakuliah tertentu 8. Melihat profil beban sks dosen 91
Seminar Nasional Teknologi Informasi dan Komunikasi 2013 (SENTIKA 2013) Yogyakarta, 9 Maret 2013
calon mahasis wa baru
kemahas iswaan kemahas iswaan kemahas iswaan referensi kemahas iswaan referensi referensi kemahas iswaan perkulia han perkulia han perkulia han perkulia han perkulia han perkulia han
mhs_pendaftar dt_alamat_asal ref_jalur tbl_nilai dt_nem dt_prestasi_pe ndidikan ref_fakultas
camaba
Camaba, FactJumlahCa maba
fakultas
fakultas
ref_prodi
prodi
prodi
ref_propinsi
propins i
propinsi
kab_ko dya
kab_kodya
sma
sma
mst_dosen ref_jenis_dose n tbl_matakuliah ref_sifat_mk ref_jenis_mk tbl_kelas
dosen
dosen
rerata_tbl
evaluas i krs
ref_propinsi ref_kab_kodya ref_kabupaten ref_sma mahasiswa
tbl_krs tbl_prsensi
mataku liah
matakuliah
kelas
kelas, time
FactK uliah
Stagi ng Area ke Data Ware house
SQL Serve r ke SQL Serve r
SQL Server Integra tion Servic es
Pemb uatan cube
SQL Serve r ke Analy sis Servi ces Datab ase
SQL Server Analys is Servic es
Pemb uatan Repor ts dan Chart
Analy sis Servi ces Cube ke Repor t Portal
Report Portal
FactI ps
presens i
Tahapan proses yang akan dilakukan dalam membangun data warehouse dan pembuatan BI Reports menggunakan tools SQL Server 2008 dan Report Portal, dijelaskan dalam Tabel 2. Tabel 2. Tahapan Pembangunan Data Warehouse dan Pembuatan Reports Prose Sumb Tools Tahapan dalam Proses s er yang dan Digun Tujua akan n Mengaktifkan CDC pada level database dan pada level tabel. Membuat package baru Data SQL SQL Sumb Serve Server Menentukan Control Flow er ke r ke Integra Items yang akan digunakan Stagi SQL tion Menentukan sumber ng Serve Servic metadata Area r es Menentukan staging area untuk metadata Membersihkan, menggabungkan dan me-
ISSN: 2089-9815
load tabel-tabel pada staging area Execute Package Load data ke staging area Mengaktifkan CDC pada level database dan pada level tabel. Membuat package baru Menentukan Control Flow Items yang akan digunakan Menentukan sumber metadata Menentukan metadata untuk data warehouse Me-load data ke tabel dimensi dan tabel fakta Menentukan indexes dan constraints Execute Package Load data ke data warehouse Menentukan data sources Menentukan data source views Membuat cube Mengubah measure, atribut dan hirarki pada cube Mendefinisikan kalkulasi pada cube Deploy Analysis Services Database Menentukan koneksi XML Connect to cube Membuat OLAP Reports Menambahkan chart pada reports Menyimpan report Mengatur security setting
Langkah-langkah untuk membuat control flow pada SSIS package yang terintegrasi dengan CDC secara umum adalah sebagai berikut: a. Mengaktifkan CDC pada level database dan pada level tabel. b. Membuat dua SSIS package yang akan dieksekusi berurutan, package pertama akan menangani perpindahan data dari database sumber ke database staging, sedangkan package kedua akan menangani perpindahan data dari database staging ke data warehouse. c. Menentukan interval perubahan data, menghitung interval waktu mulai dan waktu selesai untuk perubahan pada sumber data yang ingin diambil. Studi kasus ini menggunakan interval tetap dan berasumsi bahwa package dijalankan setiap hari tanpa pengecualian. Waktu 92
Seminar Nasional Teknologi Informasi dan Komunikasi 2013 (SENTIKA 2013) Yogyakarta, 9 Maret 2013
d.
e.
f.
g.
h.
mulai untuk interval ini adalah waktu sekarang dikurangi 24 jam. Waktu selesai untuk interval ini adalah waktu sekarang, yang nanti akan dipicu oleh SQL Server Agents Jobs yang akan menjalankan package setiap pukul 01:00. Menentukan kesiapan data pada interval yang telah dipilih sebelumnya, diperlukan karena data yang tidak sinkron akan menyebabkan kegagalan pada pemrosesan perubahan data. Membuat table-valued function untuk mengambil perubahan data, hanya perlu diciptakan satu kali, dan berfungsi untuk mengakses tabel CDC, untuk mengambil perubahan data. Mempersiapkan query untuk mengambil perubahan data, menggunakan Script Task untuk membangun statemen SQL yang akan digunakan untuk melakukan query untuk mengambil perubahan. Statemen SQL ini akan menggunakan fungsi table-valued function yang telah dibuat pada langkah sebelumnya. Membuat prosedur, menambahkan Sequence Container dan menambahkan Execute SQL Task ke dalamnya. Prosedur-prosedur ini merupakan prosedur untuk transformasi dan permbersihan data. Mengambil perubahan data, menambahkan Data Flow task seperti pada Gambar 9, yang akan mengambil record-record perubahan data, melakukan beberapa perubahan, dan akan menyimpannya dalam recordset, sebelum dapat digunakan pada langkah selanjutnya.
ISSN: 2089-9815
Gambar 10. Desain Data Flow Pada Langkah i j. Mengeksekusi prosedur, menambahkan Execute SQL Task untuk mengeksekusi prosedur yang diperlukan untuk melengkapi proses insert dan update. k. Mengatur data flow task yang aktif (enable) sesuai dengan operasi yang terjadi pada record. Pada operasi insert, data flow task insert akan aktif (enable) jika operasi CDC adalah ‘I’, yang artinya record merupakan operasi insert dan belum ada pada tabel tujuan. Pada operasi update, data flow task update akan aktif (enable) jika operasi CDC adalah ‘U’, yang artinya record merupakan operasi update. Pada operasi delete, data flow task delete akan aktif (enable) jika operasi CDC adalah ‘D’, yang artinya record merupakan operasi delete. langkah c
langkah d
langkah f
langkah g
Gambar 9. Desain Data Flow Pada Langkah h i. Memisahkan operasi insert, update, delete, dan memprosesnya pada tabel tujuan. Menambahkan Data Flow task seperti pada Gambar 10 untuk masing-masing operasi. Data Flow task ini akan mengambil nilai-nilai pada variable package, melakukan beberapa perubahan, dan akan melakukan operasi insert, update, atau delete pada database tujuan. Script Component ini akan mengambil nilai-nilai yang disimpan pada variable package dan akan mengeluarkannya melalui Output Columns.
langkah h
langkah i langkah j
Gambar 11. Desain Control Flow camaba Pada Package Pertama 93
Seminar Nasional Teknologi Informasi dan Komunikasi 2013 (SENTIKA 2013) Yogyakarta, 9 Maret 2013
ISSN: 2089-9815
Quarterly Executive, vol. 3, no. 4, pp. 163-176. Ankorion, I. 2005. Change Data Capture: Efficient ETL for Real-Time BI. Information Management, 15(1), 36-36. Attachmate Corporation. 2005. Capturing Changes to Host-Based Data Sources. Attacmate Technical Paper, (Online), (http://www.attachmate.com/NR/rdonlyres/2F87 75C9-9CA1-411E-95D95415D7EDDB7D/0/tp_capturing_changes.pdf diakses 18 Januari 2013). Attunity. 2006. Real Time Business Intelligence Enabling Effective Decision Making: Strategic, Real Time Data Integration Platform With Change Data Capture. Attunity White Paper, (Online), (http://i.zdnet.com/whitepapers/Attunity_Real_Ti me_Biz_Intelligence.pdf diakses 18 Januari 2013). Azvine, B., Cui, Z., Nauck, D.D. & Majeed, B. 2006. Real Time Business Intelligence for the Adaptive Enterprise. The 3rd IEEE International Conference on Enterprise Computing, ECommerce, and E-Services, pp. 1-11. Behrend, A. & Jörg, T. 2010. Optimized Incremental ETL Jobs for Maintaining Data Warehouses. In Proceedings of the Fourteenth International Database Engineering & Applications Symposium (IDEAS '10). Bose, I. & Mahapatra, R.K.. 2001. Business Data Mining-a Machine Learning Perspective. Information & Management, vol. 39, pp. 211255. Botan, I., Cho, Y., Derakhshan, R., Dindar, N., Haas, L.M., Kim, K. & Tatbul, N. 2009. Federated Stream Processing Support for RealTime Business Intelligence Applications. In BIRTE 2009, pp. 14-31. Cardoso, E., Galhardas, H., Trigueiros, M.J., & Silva, R. 2003. A Decision Support System for IST Academic Information. Informatica (Slovenia), vol. 27, no. 3, pp. 313-323. Gombiro, C., Munyoka, W., Hove, S., Chengetanai, G. & Zano, C. 2008. The Need for Data Warehousing in Sharing Learning Materials. Journal of Sustainable Development in Africa, vol. 10, no.2, pp. 422-449. Handojo, A. & Rostianingsih, S. 2004. Pembuatan Data Warehouse Pengukuran Kinerja Proses Belajar Mengajar di Jurusan Teknik Informatika Universitas Kristen Petra. Jurnal Informatika vol. 5, no. 1, pp. 53-58. Inmon, W.H. 2005. Building the Data Warehouse, Fourth Edition. New York: John Wiley & Sons,Inc. Jain, T. , Rajasree S., & Saluja S. 2012. Refreshing Datawarehouse in Near Real-Time. International Journal of Computer Applications, vol. 46, no.18, pp. 24-28. Jörg, T. & Deßloch, S. 2008. Towards Generating
Control flow pada Gambar 11 merupakan contoh cuplikan untuk menangani tabel camaba, yang akan memindahkan perubahan pada tabel MHS_PENDAFTAR dari database sumber menuju ke tabel camaba di database staging. Control flow pada Gambar 12 merupakan contoh cuplikan untuk menangani tabel camaba, yang akan memindahkan perubahan pada tabel camaba dari database staging menuju ke data warehouse. Package kedua akan diekseskusi berurutan, segera setelah package pertama selesai dieksekusi.
Gambar 12. Desain Control Flow camaba Pada Package Kedua 5.
KESIMPULAN Aplikasi ini diharapkan mampu memberikan informasi real-time kepada manajemen universitas. Informasi tersebut diharapkan dapat membantu pengambilan keputusan strategis yang membawa dampak peningkatan mutu institusi dan membantu dalam penyusunan borang untuk peningkatan akreditasi. PUSTAKA Alnoukari, M. 2009. Using Business Intelligence Solutions for Achieving Organization’s Strategy: Arab International University Case Study. Internetworking Indonesia Journal, vol. 1, no. 2, pp. 11-15. Anderson-Lehman, R., Watson, H.J., Wixom, B.H. & Hoffer, J.A. 2004. Continental Airlines Flies High with Real-Time Business Intelligence. IS 94
Seminar Nasional Teknologi Informasi dan Komunikasi 2013 (SENTIKA 2013) Yogyakarta, 9 Maret 2013
ISSN: 2089-9815
Changed Data Capture (CDC). Advances in Recent Technologies in Communication and Computing (ARTCom), 2010 International Conference, pp.365-368. Turban, E., Aronson, J.E. & Liang, T.P. 2004. Decision Support Systems and Intelligent Systems, 7th Edition. New Jersey: Prentice-Hall. Vinnik, S. & Scholl, M.H. 2007. Decision Support System for Managing Educational Capacity Utilization. IEEE Transactions on Education, vol. 50, no. 2, pp 143-150. Warnars, S. 2008. Rancangan Infrastruktur E-Bisnis Business Intelligence pada Perguruan Tinggi. TELKOMNIKA, vol. 6, no. 2, pp. 115-124. Warnars, S. 2009. Simple ROI untuk Justifikasi Investasi Proyek Data Warehouse pada Perguruan Tinggi Swasta. Jurnal Ilmiah Teknik Komputer, November, 2009, pp. 1-21. Watson, H.J., Wixom, B.H., Hoffer, J.A., AndersonLehman, R. & Reynolds, A.M. 2006. Real-Time Business Intelligence: Best Practices at Continental Airlines. Information Systems Management, vol. 23, issue 1, pp. 7-18. Wilarso, I. 2008. Pemanfaatan Data Warehouse di Perguruan Tinggi Indonesia. Jurnal Sistem Informasi MTI-UI, vol.4, no.1, pp. 47-54. Yeoh, W., Koronios A. & Gao, J. 2008. Managing the Implementation of Business Intelligence Systems: a Critical Success Factors Framework. International Journal of Enterprise Information Systems, vol. 4, issue 3, pp. 79-94.
ETL Processes for Incremental Loading. In Proceedings of the 2008 International Symposium on Database Engineering & Applications (IDEAS '08). Kakish, K. & Kraft, T.A. 2012. ETL Evolution for Real-Time Data Warehousing. Proceedings of the Conference on Information Systems Applied Research. Kusnawi. 2008. Aplikasi Data Warehouse untuk Business Intelligence. Jurnal Dasi, vol. 9, no. 1, pp. 82-91. McGehee, B. 2008. Brad's
Sure
Guide
to
SQL
Server
2008. Tasmania: Simple-Talk Publishing. Muntean, M., Sabau, G., Bologa, A., Surcel, T. & Florea, A. 2010. Performance Dashboards for Universities. Proceedings of the 2nd International Conference on Manufacturing Engineering, Quality and Production Systems, pp. 206-211. Păunică, M., Matac, M.L., Manole, A.L. & Motofei, C. 2010. Measuring the Performance of Educational Entities with a Data Warehouse. Annales Universitatis Apulensis Series Oeconomica, vol. 12, no. 1, pp. 176-184. Prasetyo, M.A., Saikhu, A. & Sarwosri, 2010, Pembuatan Aplikasi OLAP Untuk Pelaporan pada PT. Aneka Tuna Indonesia Menggunakan SQL Server 2005, http://digilib.its.ac.id/public/ITS-Undergraduate9803-Paper.pdf , diakses tanggal 1 Februari 2012. Ponniah, P. 2010. Data Warehousing Fundamentals, 2nd edition. Singapore: John Wiley & Sons Inc. Popovic, A. & Jaklic, J. 2010. Benefits of Business Intelligence System Implementation: an Empirical Analysis of the Impact of Business Intelligence System Maturity on Information Quality. European, Mediterranean & Middle Eastern Conference on Information Systems, pp. 1-8. Rezalini, R., Anggraeni, W. & Wibowo, R.P. 2010. Perancangan dan Pembuatan Data Warehouse untuk Kebutuhan Sistem Pendukung Keputusan di Bidang Akademik pada Jurusan Sistem Informasi, ITS, Surabaya. SISFO-Jurnal Sistem Informasi, pp. 1-7. Sahay, B.S. & Ranjan, J. 2008. Real Time Business Intelligence in Supply Chain Analytics. Information Management & Computer Security, vol. 16, no. 1, pp. 28-48. Sandu, D.I. 2008. Operational and Real-Time Business Intelligence. Revista Informatica Economică, no.3(47), pp. 33-36. Ta’a, A., Bakar, M.S.A. & Saleh, A.R. 2008. Academic Business Intelligence System Development using SAS Tools. In: SAS Global Forum 2008, pp. 1-13. Tank, D.M., Ganatra, A., Kosta, Y.P., Bhensdadia, C.K. 2010. Speeding ETL Processing in Data Warehouses Using High-Performance Joins for 95