Literature Review

LITERATURE REVIEW

Banyak penelitian yang sebelumnya dilakukan mengenai distributed database. Dalam upaya pengembangan distributed database ini perlu dilakukan studi pustaka sebagai salah satu dari penerapan metode penelitian yang akan dilakukan. Diantaranya adalah mengidentifikasikan kesenjangan (identify gaps),  menghindari pembuatan ulang (reinventing the wheel), mengidentifikasikan metode yang pernah dilakukan, meneruskan penelitian sebelumnya, serta mengetahui orang lain yang spesialisasi dan area penelitiannya sama dibidang ini. Beberapa Literature review tersebut adalah sebagai berikut :

1. Penelitian ini dilakukan oleh Jun Lin Lin dan Margaret H. Dunham dari Southerm Methodist University dan Mario A. Nascimento berjudul “ A Survey of Distributed Database Checkpointing”. Penelitian ini membahas mengenai checkpointing pada database terdistribusi dan pendekatan-pendekatan yang digunakan. Penelitian ini bermula dari adanya banyak survey yang dilakukan berkenaan  dengan proses recovery database, dan banyak teknik yang diusulkan untuk mengatasinya. Dengan distributed database checkpointing, dapat mengurangi waktu proses recovery suatu kegagalan didalam database terdistribusi. Checkpointing dapat digambarkan sebagai suatu aktivitas menulis informasi ke penyimpanan yang stabil selama operasi normal dalam rangka mengurangi jumlah pekerjaan pada saat restart. Penelitian ini membantah bahwa sedikit batasan dan sedikit sumber daya menjadi masalah dalam pendekatan database terdistribusi, serta Membantah bahwa checkpointing hanya dapat digunakan untuk sistem distribusi yang multidatabase. Meskipun penelitian ini telah banyak dilakukan namun cukup rumit dalam implementasinya. Dengan penelitian ini kita dapat mengembangkan database terdistribusi dengan checkpointing untuk mempercepat proses recovery database[1].

2. Penelitian ini dilakukan oleh David J. DeWitt dari Universitas Wisconsin dan Jim Gray tahun 1992 berjudul “Parallel Database Systems:The Future of High Performance Database Processing”. Penelitian ini dilakukan dengan Konsep database terdistribusi yang merupakan database yang disimpan pada beberapa komputer yang terdistribusi satu sama lain. Pada penelitian ini, dijelaskan  Sistem database paralel mulai menggantikan Mainframe komputer besar untuk pengolahan data dan transaksi tugas. Paralel database komputer memiliki arsitektur yang berkembang dari penggunaan perangkat lunak yang eksotik untuk perangkat keras yang paralel. Seperti kebanyakan aplikasi, user menginginkan hardware sistem database yang murah, cepat. Ini menyangkut tentang prosesor, memori dan disk. Akibatnya, konsep  hardware database yang eksotis tidak sesuai untuk teknologi saat ini. Di lain sisi, ketersediaan microprocessors cepat, murah dan kecil menjadi paket standar murah tapi cepat sehingga menjadi platform yang ideal untuk sistem database paralel. Stonebraker mengusulkan rancangan sederhana untuk spektrum disain yaitu shared memory, shared disk dan shared nothing. Dan bahasa yang digunakan dalam database adalah SQL sesuai dengan standar ANSI dan ISO. Dengan penelitian ini, kita dapat mengembangkan sistem database agar dapat digunakan diberbagai ruang lingkup[2].

tp3

Gambar 3. Desain Shared-Nothing, Shared-Memory dan Shared-Disk

3. Penelitian ini dilakukan oleh Carolyn Mitchell dari Norfolk State University berjudul “Components of a Distributed Database” tahun 2004. Penelitian ini membahas tentang komponen-komponen didalam database. Salah satu komponen utama dalam DDBMS adalah Database Manager. “Sebuah Database Manager adalah perangkat lunak yang bertanggung jawab untuk memproses segmen data yang didistribusikan. Komponen utama lainnya adalah Query User Interface, yang merupakan sebuah program klien  yang bertindak sebagai sebuah antarmuka untuk Transaksi Manager yang terdistribusi..” Sebuah Transaksi Manager terdistribusi adalah program yang menterjemahkan permintaan dari pengguna dan mengkonversi mereka ke query database manager, yang biasanya didistribusikan. Sebuah sistem database yang terdistribusi terbuat dari kedua manajer yaitu Database Manager dan Transaksi Manager Terdistribusi[3].

tp4

Gambar 4. Arsitektur Distributed Database dan Komponennya

4. Penelitian yang dilakukan oleh Hamidah Ibrahim, “Deriving Global Integritas Dan Local Rules For Distributed Database”. Fakultas Ilmu Komputer dan Teknologi Informasi Universitas Putra Malaysia, 43400 UPM Serdang. Ibrahim mengatakan bahwa tujuan terpenting didalam database sistem adalah menjamin konsistensi data, yang berarti bahwa data yang terdapat dalam database harus  baik dan akurat. Didalam pelaksanaannya untuk menjaga konsistensi perubahan data sangat sulit, khususnya untuk didistribusikan dalam database. Dalam tulisan ini, menjelaskan sebuah algoritma penegakan aturan berdasarkan mekanisme untuk didistribusikan database yang bertujuan meminimalisir  jumlah data yang harus ditransfer atau diakses diseluruh jaringan yang menjaga konsistensi dari database di satu situs, yaitu di situs mana pembaruan perlu dilakukan. Teknik ini disebut sebagai tes integritas generasi, yang berasal dari lokal dan global integritas, dan aturan yang telah efektif dapat mengurangi biaya kendala dalam memeriksa suatu data yang telah didistribusikan dalam lingkungan. Didalam penelitian ini telah berhasil menghasilkan sebuah sistem sentralistik yang besar dengan tingkat kehandalan yang tinggi untuk integritas data[4].

5. Penelitian yang dilakukan oleh Steven P. Coy dari University of Maryland  berjudul “Security Implication of the Choice of Distributed Database Management System Model: Relational Vs Object Oriented”. Penelitian ini menjelaskan bahwa keamanan data harus dibenahi ketika mengembangkan database dan diantaranya memilih antara relational dan object oriented model. Banyak faktor yang harus dipertimbangkan, terutama dari segi efektifitas dan efisiensi, juga apakah sekuritas dan integritas ini memakan sumber daya yang terlalu besar tidak semata mata fitur keamanan. Kedua pilihan ini akan mempengaruhi kekuatan dan kelemahan dari database tersebut. Untuk centralized database kedua model ini bisa dikatakan sama baiknya. Namun untuk distributed database, relational model lebih unggul dibidang sekuritas. Ini lebih banyak disebabkan karena object oriented model database masih kurang maturitasnya. Sehingga didalam lingkungan heterogenous, proses integritasnya masih menimbulkan banyak masalah. OODBMS tetap saja masih perlu perkembangan teknologi lebih lanjut, namun di lingkungan homogenous, OODBMS dapat menjadi pilihan yang baik[5].

6. Penelitian yang dilakukan oleh Stephane Gançarski, Claudia León, Hubert Naacke, Marta Rukoz and Pablo Santini yang berjudul “Integrity Constraint Checking in Distributed Nested Transactions over a Database Cluster” adalah sebuah solusi untuk memeriksa integritas dan kendala global dalam berhubungan multi database sistem. Penelitian ini juga menyajikan hasil eksperimental yang diperoleh atas solusi PC cluster dengan Oracle9i DBMS. Tujuan adalah melakukan eksperimentasi untuk mengukur waktu yang dihabiskan dalam memeriksa kendala global dalam sistem yang terdistribusi. Alhasil menunjukkan bahwa overhead berkurang hingga 50% dibandingkan dengan pemeriksaan integritas yang terpusat. Studi menunjukkan bahwa sistem berkemungkinan besar melanggar referential integrity dan global conjunctive constraints. Namun dengan cara distributed nested transactions, dengan adanya eksekusi dan parallelism, integritas dapat lebih terjamin[6].

7. Penelitian ini dilakukan oleh Allison L. Powell James C.dkk, Perancis Departemen Ilmu Komputer Universitas Virginia, berjudul berjudul ”The Impact of Database Selection on Distributed Searching”. Penelitian ini menjelaskan bahwa distributed searching terdiri dari 3 bagian yaitu database selection, query processing, dan results merging. Cukup beberapa database yang dijadikan database seleksi (tidak semuanya) dan performa akan meningkat cukup signifikan. Bila seleksi database dilakukan dengan baik, pencarian secara distributed akan berkinerja lebih baik dibandingkan pencarian secara sentralisasi. Pencarian database juga ditambahkan proses seleksi dan ranking sehingga secara potensial meningkatkan efektifitas pencarian data[7].

8. Penelitian ini dilakukan oleh  Yin-Fu Huang dan HER JYH-CHEN  (2001) dari Universitas Nasional Sains dan Teknologi Yunlin Taiwan, berjudul ”Fragment Allocation in Distributed Database Design”. Pada penelitian ini menjelaskan mengenai Wild Area Network (WAN), fragmen alokasi adalah isu utama dalam distribusi database desain karena kekhawatiran kinerja keseluruhan didistribusikan pada system database. Disini system yang  diusulkan sederhana dan modelnya yang komprehensif mencerminkan aktivitas transaksi yang didistribusikan dalam database. Berdasarkan model dan informasi transaksi, dua bentuk algoritma dikembangkan untuk mendapatkan alokasi yang optimal seperti total biaya komunikasi yang sebisa mungkin diminimalkan. Hasilnya menunjukkan bahwa alokasi fragmentasi ditemukan dengan menggunakan algoritma yang tepat akan menjadi lebih optimal. Beberapa penelitian juga dilakukan untuk memastikan bahwa biaya rumus dapat benar-benar mencerminkan biaya komunikasi didunia nyata[8].

9. Penelitian ini dilakukan oleh Nadezhda Filipova dan Filcho Filipov (2008) dari University of Economics. Varna, Bul. Kniaz BorisI berjudul “Development of database for distributed information measurement and control system”. Penelitian ini menjelaskan mengenai pengembangan database dari pengukuran informasi yang didistribusikan dan sistem kontrol yang menerapkan metode optik untuk plasma spectroscopy fisika dan penelitian atom  collisions dan menyediakan akses untuk mendapat informasi dan sumber daya perangkat keras di jaringan Intranet/Internet, berdasarkan database pada sistem manajemen database Oracle9i. Perangkat lunak klien yang diwujudkan adalah dalam Java Language. Perangkat lunak ini dikembangkan dengan menggunakan model arsitektur, yang memisahkan aplikasi data dari komponen grafis presentasi dan masukan pengolahan logika. Berikut grafis presentasi telah dilaksanakan, pengukuran radiasi dari Spectra beam plasma dan benda, perangsangan fungsi non-elastis collisions dari berat partikel dan analisis data yang diperoleh dalam percobaan sebelumnya. Berikut grafis klien yang memiliki fungsi interaksi dengan database browsing informasi tentang percobaan dari jenis tertentu, pencarian data dengan berbagai kriteria, dan memasukkan informasi tentang percobaan sebelumnya[9].

10. Penelitian yang dilakukan oleh Lubomir Stanchev dari University of Waterloo tahun 2001 berjudul “Semantic Data Control In Distributed Database Environment”. Penelitian ini menyatakan bahwa ada tiga tujuan utama dalam semantic data control yaitu: view managemen, data security dan semantic integrity control. Dalam sebuah relasi, fungsi-fungsi ini dapat mencapai keseragaman dengan menegakkan aturan-aturan manipulasi kontrol data. Solusinya adalah dengan sentralisasi ataupun terdistribusi. Dua hal utama yang efisien untuk melakukan kontrol adalah definisi data dan penyimpanan aturan (situs pilihan) dan penegakan desain algoritma yang meminimalkan biaya komunikasi. Masalahnya adalah sulit, karena peningkatan fungsi (dan umum) cenderung meningkatkan komunikasi situs. Solusi untuk semantik data kontrol terdistribusi adalah eksistensi dari sentralisasi solusi. Masalahnya adalah sederhana jika aturan kontrol sepenuhnya direplikasi di semua situs dan sulit jika situs otonomi dipatenkan. Selain itu, khusus optimasi dapat dilakukan untuk meminimalkan biaya kontrol data tetapi dengan tambahan overhead seperti pengelolaan data snapshot. Dengan demikian, spesifikasi kontrol data terdistribusi harus disertakan pada desain database sehingga biaya kontrol update untuk program-program ini juga dipertimbangkan[10].

            Dari sepuluh literature review yang ada, telah banyak penelitian mengenai checkpointing, parallel database system, pembahasan component database system, juga mengenai security. Disamping itu juga ada pembahasan mengenai nested transaction, distributed searching, view management dan juga fragment allocation. Namun dapat disimpulkan pula bahwa belum ada peneliti yang secara khusus membahas atau mengatasi masalah proses view yang lambat akibat query bertingkat.