Seminar Nasional Pascasarjana XI – ITS, Surabaya 27 Juli 2011 ISBN No.
SIMULASI MULTI-AGENT DENGAN HEXAGONAL GRID MENGGUNAKAN METODE KNOWLEDGE-BASED SYSTEM Ibrohim Yofid Fananda 1*, Mochamad Hariadi 2, Supeno Mardi 3 Pasca Elektro, Institut Teknologi Sepuluh Nopember Surabaya, Indonesia 1*
[email protected] Jurusan Teknik Elektro, Fakultas Teknik Industri, Institut Teknologi Sepuluh Nopember Surabaya, Indonesia 2,3
Abstrak Multi-agent system melibatkan tim dengan lebih dari satu agen bekerja sama secara sosial untuk menyelesaikan tugas. Sebuah agen dapat bekerja sama dengan banyak cara. Salah satunya adalah ketika sebuah agen membantu agen lain dalam memecahkan masalah kompleks. Salah satu contoh adalah masalah mengejar menghindar atau pursuit evasion problem, diskenariokan bahwa sekumpulan agen polisi (pursuer) harus menangkap agen tersangka (evader) yang melarikan diri, dimana komunikasi dimungkinkan untuk antar agen polisi. Dalam penelitian ini, Lingkungan permainan berupa jaringan sel (grid world) dan setiap sel mempunyai bentuk segi enam atau hexagonal grid. Satu jaringan sel dapat berupa agen pengejar (pursuer), agen penghindar (evader), atau halangan (obstacle). Menurut informasi sensorik yang diperoleh, Peneliti dapat menetapkan keberadaan dari para agen (pursuer / evader) atau penghalang (obstacle) ke sel grid. Penelitian ini menjelaskan tentang bagaimana membuat simulasi multi-agent menggunakan Knowledge-Based System yang merupakan salah satu bidang Artificial Intelligence (AI) yang dalam hal ini menawarkan kemudahan pengambilan keputusan berdasarkan aturan sederhana. Kata kunci: Multi-agent system, pursuit evasion problem, Knowledge-Based System
1. Pendahuluan Multi-agent system melibatkan tim dengan lebih dari satu agen bekerja sama secara sosial untuk menyelesaikan tugas. Sebuah agen dapat bekerja sama dengan banyak cara. Salah satunya adalah ketika sebuah agen membantu agen lain dalam memecahkan masalah kompleks. Salah satu contoh adalah masalah mengejar menghindar atau pursuit evasion problem, diskenariokan bahwa sekumpulan agen polisi (pursuer) harus menangkap agen tersangka (evader) yang melarikan diri, dimana komunikasi dimungkinkan untuk antar agen polisi. Dalam penelitian ini, Lingkungan permainan berupa jaringan sel (grid world). Satu jaringan sel dapat berupa agen pengejar (pursuer), agen penghindar (evader), atau halangan (obstacle). Menurut informasi sensorik yang diperoleh, Peneliti dapat menetapkan keberadaan dari para agen (pursuit / evader) atau penghalang (obstacle) ke sel grid. Agen pengejar bergerak di grid dan mencoba untuk mendekati agen penghindar tersebut. Permainan terbatas pada grid (terbatas) berbentuk sel segi enam (hexagonal grid). Baik polisi dan tersangka dibatasi dengan gerakan horisontal dan vertikal ke sel yang berdekatan, dalam simulasi ini agen polisi dapat berkoordinasi dengan agen polisi lain dalam memburu agen tersangka, dimana agen polisi dan agen tersangka mempunyai parameter stamina yang membatasi kecepatan pergerakannya. Agen penghindar tertangkap ketika agen pengejar mencapai jarak kritis (critical distance).
Penelitian ini membahas waktu permainan dari tertangkapnya agen tersangka dengan sensor pendeteksi agen polisi serta jumlah agen polisi. Dalam permainan ini diteliti agen polisi yang bisa mengambil keputusan secara otomatis untuk mendeteksi agen tersangka, mengejar agen tersangka, dan berkomunikasi dengan sesama agen polisi berdasarkan dari state pada FSM yang merupakan AI pada game. Pada FSM terdapat state-state yang dapat digunakan sebagai variabel atau patokan awal untuk mengotomatisasi agen (baik polisi maupun penjahat). Untuk mendapatkan agen-agen yang responsif maka FSM ini dikondisikan didalam rule yang ada didalam knowledge based system. Karena knowledge based system dapat mengambil keputusan secara baik berdasarkan rule yang telah di kondisikan dengan menggunakan aturan sederhana. 2.1 Simulasi
Dalam kamus Oxford simulasi didefinisikan sebagai membuat suatu kondisi yang menghadirkan kondisi nyata untuk latihan atau tujuan pembelajaran. Untuk simulasi pergerakan agen dapat diartikan bahwa membuat suatu kondisi yang menghadirkan kondisi nyata dunia manusia pada komputer yaitu suatu dunia virtual yang didalamnya terdapat agen yang bergerak sesuai pergerakan manusia. Hal ini berarti dalam simulasi kali ini obyek yang dihadirkan dalam dunia virtual adalah agen yang mewakili keberadaan manusia dan dunia virtual itu sendiri yang didalamnya terdapat halangan
Seminar Nasional Pascasarjana XI – ITS, Surabaya 27 Juli 2011 ISBN No.
untuk mengetahui pergerakan otonom agen tersebut. 2.2. Agen
Teknologi agen telah menjadi salah satu subyek diskusi dan riset yang hangat dibicarakan dalam bidang sains dewasa ini. Mulai dari teknologi robotika yang memanfaatkan dan meniru fungsi-fungsi perilaku dari makhluk hidup sampai pada pemodelan interaksi sosial manusia ke dalam simulasi komputer. Agen adalah sesuatu yang mampu mengindera lingkungannya melalui sensor dan memberikan reaksi terhadap lingkungan tersebut melalui effectors. Pada dasarnya sebuah agen adalah autonomous, karena agen beroperasi tanpa adanya intervensi secara langsung oleh manusia atau yang lainnya dan dapat mengontrol aksi yang dilakukan serta mengkondisikan dirinya sendiri terhadap lingkungannya. Awalnya agen diciptakan untuk mengerjakan hal-hal sederhana, sehingga diciptakanlah sebuah agen untuk mengerjakan hal-hal tersebut. Seiring dengan perkembangan kebutuhan terhadap automasi sistem yang menuntut banyak tugastugas yang kompleks sehingga penggunaan single agent untuk memenuhi kebutuhan tersebut dipandang kurang tepat. Hal ini disebabkan karena dengan menggunakan sebuah single agent untuk mengerjakan tugas yang kompleks akan tidak fleksibel dalam developmennya dan membutuhkan sumber daya yang sangat besar, sehingga dipandang perlu untuk mengembangkan suatu metode dimana banyak agen bekerja secara bersama-sama untuk menyelesaikan tugas kompleks tersebut. Kondisi dimana banyak agen bekerja secara bersamaan dinamakan multi-agent. Multi agen merupakan sebuah sistem dimana sejumlah agen melakukan sejumlah tugas untuk mencapai tujuan bersama. Agen-agen pada multi-agent system dapat saling berinteraksi satu dengan yang lainnya baik secara langsung (direct, melalui komunikasi dan negosiasi) ataupun tidak langsung (indirect, berinteraksi melalui lingkungannya). Gambar 2.1 memberikan sebuah gambaran sederhana tentang sebuah agen. Pada gambar tersebut, terlihat bahwa action output ditimbulkan oleh agen tersebut untuk memberikan manfaat terhadap lingkungannya (environment). Pada kebanyakan kompleksitas dari reasonable domain bahwa sebuah agen tidak akan melakukan kontrol penuh (complete control) terhadap lingkungannya. Yang dapat dilakukan oleh agen tersebut adalah partial control (kontrol per bagian) dan hal tersebut yang dapat mempengaruhi lingkungannya.
Gambar 2.1 Agen dalam lingkungannya 2.3. AI dan Game Artificial Intelligence adalah ilmu yang mempelajari bagaimana komputer dapat berpikir sebagaimana manusia dan binatang. Komputer memang dapat melakukan hal yang sulit dilakukan manusia secara cepat, seperti masalah aritmatika, sorting, searching dan lainnya. Tapi masih banyak hal yang komputer tidak bisa lakukan. Mengenali wajah, berbicara dengan bahasa tertentu, memutuskan apa yang akan dilakukan, dan kreatif adalah beberapa contoh hal yang belum bisa dilakukan oleh komputer sebagaimana layaknya manusia saat ini. Didunia akademis, sebagian peneliti AI dimotivasi oleh filosofi: memahami proses berpikir dan membangun software untuk memodelkan bagaimana proses berpikir bisa terjadi. Sebagian lagi termotivasi oleh psikologi: memahani mekanisme dari otak manusia. Sedang sebagian yang lain termotivasi oleh engineering: membuat algoritma untuk memodelkan pekerjaan manusia. Untuk pembuat game lebih cocok untuk menggunakan pendekatan ketiga yaitu engineering. 2.3.1
Path Finding Merupakan algortima AI yang berada di antara decision making dan pergerakan. Kadang digunakan untuk mengetahui kemana akan bergerak untuk mencapai ujuan, tujuan itu diperoleh dari bagian AI yang lain sedangkan path finder mengerjakan bagaimana untuk mencapainya. Untuk mencapai ini, path finding bisa dimasukkan kedalam sistem kontrol pergerakan sehingga dia bisa dipakai jika diperlukan untuk merencanakan rute. Algoritma path finding yang paling banyak dipakai adalah A* (A Star). Tidak seperti Dijkstra, A* di desain untuk point to point path finding dan tidak digunakan untuk mencari rute terpendek pada permasalahan graph. Adapun rumus yang digunakan dalam Algoritma A* adalah: F(n) = G(n) + H(n) Dimana: • G(n) = cost yang sudah dihabiskan untuk bergerak dari posisi awal menuju posisi tujuan. • H(n) = cost perkiraan yang akan dihabiskan ketika sampai di titik tujuan atau Heuristik. Biaya ini merupakan perkiraan sementara, karena peneliti
Seminar Nasional Pascasarjana XI – ITS, Surabaya 27 Juli 2011 ISBN No.
tidak mengetahui apa yang ada di depannya nanti. • F(n) = biaya total. Biaya total dipilih yang paling kecil untuk menentukan jalan yang memiliki cost paling kecil. Algoritma A* menerapkan teknik heuristik dalam membantu penyelesaian persoalan. Heuristik adalah penilai yang memberi harga pada tiap simpul yang memandu A* mendapatkan solusi yang diinginkan. Dengan heuristik yang benar, maka A* pasti akan mendapatkan solusi (jika memang ada solusinya) yang dicari. Dengan kata lain, heuristik adalah fungsi optimasi yang menjadikan algoritma A* lebih baik dari pada algoritma lainnya. Namun heuristik masih merupakan estimasi / perkiraan biasa saja Sama sekali tidak ada rumus khususnya. Artinya, setiap kasus memiliki fungsi heuristik yang berbedabeda. Algoritma A* ini bisa dikatakan mirip dengan algoritma Dijkstra, namun pada algoritma Dijkstra, nilai fungsi heuristiknya selalu 0 (nol) sehingga tidak ada fungsi yang mempermudah pencarian solusinya. 2.3.1.1 Heuristik Seperti telah disebutkan, bagian heuristik (komponen H(n)) yang digunakan oleh algoritma A* adalah yang membedakan dari algoritma Dijkstra yaitu dengan membimbing pencarian menuju node tujuan. Jika fungsi heuristik diterima (berarti tidak pernah overestimates biaya minimum untuk tujuan), maka A* juga, seperti Dijkstra, dijamin untuk menemukan jalan terpendek / termurah. Hal ini juga keuntungan besar untuk menggunakan heuristik yang meremehkan biaya minimum sesedikit mungkin, karena hal ini akan menghasilkan node lebih sedikit untuk diperiksa. Sebuah heuristik yang ideal akan selalu mengembalikan biaya sebenarnya seminimal mungkin untuk mencapai tujuan. Heuristik jarak diagonal adalah suatu heuristik menggunakan 8adjacency dan heuristik jarak Manhattan adalah salah satu menggunakan 4-adjacency. Sebuah heuristik yang ketiga yang juga umum digunakan adalah heuristik jarak Euclidean. 1. Heuristik jarak Manhattan Heuristik Manhattan dihitung dengan menambahkan selisih antara titik asal x dengan titik tujuan x dan selisih titik awal y dengan titik tujuan y. Keuntungan menggunakan heuristik ini adalah perhitungan komputasi murah. 2. Heuristik jarak Diagonal Nilai heuristik terdiri dari dua bagian, diagonal dan bagian lurus. Untuk menemukanjumlah langkah diagonal yang dapat diambil, rumus berikut dapat digunakan:
Jumlah langkah lurus diambil ditemukan menggunakan:
yang perlu
Alasan untuk mengurangkan dua kali jumlah langkah diagonal dari jarak Manhattan adalah 1 langkah diagonal adalah setara dengan 2 langkah lurus. Jika peneliti mengasumsikan bahwa langkah diagonal dengan biaya 2 dan langkah-langkah horisontal 1, maka rumus berikut menghasilkan nilai h untuk heuristik ini: 3.
Heuristik jarak Euclidian
2.4. Decision Making System
Secara sederhana decision making dapat didefinisikan sebagai kemampuan karakter untuk memutuskan apa yang akan dikerjakan selanjutnya. Karakter memproses informasi yang akan digunakan untuk memilih aksi yang akan dilakukan. Input dari decision making system adalah pengetahuan yang dimiliki karakter, sedangkan Ouputnya adalah aksi yang akan dilakukan. Terdapat banyak algoritma decision making yang bisa digunakan di game. Satu yang paling populer adalah FSM. Belakangan juga telah dikaji implementasi algoritma AI lain seperti logika fuzzy dan neural network. 2.4.1 Finite State Machine (FSM) Finite State Machine (FSM) merupakan metode yang paling populer digunakan pada game. Metode ini seakan menjadi standard dan telah digunakan secara luas dibidang game. Hal ini karena kesederhanaan dan kemudahan FSM diimplementasikan pada game. FSM pada dasarnya adalah pemodelan dari perilaku sebuah sistem/objek dengan beberapa kondisi yang terdefinisikan. Di mana objek tersebut dapat bertransisi ke state tertentu setiap waktu. FSM terdiri dari dua elemen utama yaitu state (keadaan) dan transition (transisi). State merupakan keadaan obyek saat ini, sedangkan transisi merupakan hal yang dilakukan agar bisa berpindah dari satu state ke state yang lain. transisi bisa juga menyatakan kondisi yang harus dipenuhi oleh obyek agar bisa berpindah dari satu state ke state yang lain. Contoh sederhana dari FSM adalah seperti gambar 2.4. Pada gambar tersebut dapat dijelaskan perilaku dari obyek prajurit (misalnya). State yang ada adalah mengumpulkan harta karun, menyelamatkan diri dan bertarung. Sedangkan transisi yang ada adalah melihat monster, tidak melihat monster, terpojok dan monster mati. Jadi dapat dikatakan
Seminar Nasional Pascasarjana XI – ITS, Surabaya 27 Juli 2011 ISBN No.
jika objek tersebut sedang berada di state “mengumpulkan harta karun” lalu melihat monster maka dia akan berpindah ke state “menyelamatkan diri”. Demikian seterusnya. Gambar 2.5 Teori pembentukan Hexagon Field
Gambar 2.4 Contoh FSM 2.4.1 Knowledge-Based System DSS (decission support systems) merupakan alat bantu untuk memecahkan persoalan-persoalan yang kurang terstruktur dengan baik. KBS (knowledge-based system atau expert system) merupakan alat bantu untuk persoalan yang kurang terstruktur dengan baik. KBS (system atau expert system) merupakan alat bantu untuk memecahkan persoalan yang mengikuti cara kerja pakar (expert). Penggabungan antara KBS dan DSS yang disebut dengan KB-DSS memberi suatu alternative baru untuk memecahkan persoalan. Knowledge Based System adalah suatu system yang menggunakan set (knowledge) yang dikodekan ke bahasa mesin untuk dapat menyimpulkan dan melakukan suatu tugas. Knowledge Based System digunakan untuk dapat membantu manusia dalam menyelesaikan masalah yang dihadapi dengan berdasarkan atas pengetahuan yang telah diprogramkan ke system tersebut. Untuk hal inilah maka digunakan knowledge based system dalam memecahkan masalah yang berhubungan AI. 2.5. Hexagonal Grid Segi enam telah digunakan dalam beberapa board games dan permaianan komputer karena mereka menawarkan jarak distorsi kurang dari grid persegi. Hal ini karena segi enam masing-masing memiliki tetangga lebih nondiagonal dari persegi (Diagonal mendistorsi jarak grid). Hexagonals memiliki penampilan yang menyenangkan dan terjadi di alam (misalnya, sarang tawon). Pada artikel ini, saya akan menggunakan segi enam yang memiliki puncak datar dan sisi runcing, tetapi matematika bekerja sama jika Anda ingin puncak runcing dan sisi datar.
Dalam sistem grafis baik 2D dan 3D, peneliti harus mengubah "dunia" koordinat ke koordinat "layar" dan kembali. Dengan grid, peneliti juga harus mengubah "grid" koordinat ke koordinat "dunia" dan kembali. Transformasi terjadi pada titik. Rumus transformasi heksagon:
Dimana n = jarak x antar hexagon dan m = jarak y antar hexagon atau dapat digambarkan sebagai berikut:
Gambar 2.5 Koordinat Hexagonal Grid 3.1. Desain FSM agen Pada penelitian ini peneliti menggunakan FSM agent untuk membuat suatu kondisi dimana state yang akan dideteksi akan digunakan oleh knowledge-based system dalam mengambil suatu keputusan. Seperti dibawah ini : a. b.
Teori pembentukan Hexagonal Grid Map dari Square Grid Map dapat digambarkan sebagai berikut: c.
Pada posisi Patroli tidak terdeteksi apapun dan Agent bergerak random dengan kecepatan normal. Pada posisi Pursue / Evade terdeteksi bahwa ada musuh yang memasuki sensor pendeteksi, Agent Polisi mengejar Agent Penjahat dengan kecepatan tinggi sembari berkomunikasi dengan Agent Polisi lain, Agent Penjahat menghindari Agent Polisi dengan kecepatan tinggi, pada posisi ini stamina Agent akan berkurang. Pada agen Polisi yang menerima Komunikasi otomatis akan bergerak menuju lokasi target dengan pathfinding Algoritma A*. Pada posisi Komunikasi terdeteksi bahwa ada musuh yang memasuki sensor pendeteksi dan memberikan instruksi berupa posisi target kepada
Seminar Nasional Pascasarjana XI – ITS, Surabaya 27 Juli 2011 ISBN No.
3.2. Menentukan aturan Dalam mengejar target ada beberapa aturan yang nantinya sebagai parameter yang dimasukkan ke dalam knowledge-based system. Peraturan ini mengenai kecepatan agent dalam bergerak baik mengejar maupun menghindar. Beberapa aturan dasarnya antara lain : IF musuh = 1 THEN kecepatan = 10 IF musuh = 0 THEN kecepatan = 5 IF musuh = 1 AND stamina < 100 AND recovery = 0 THEN kecepatan = 10 IF musuh = 1 AND stamina < 100 AND recovery = 1 THEN kecepatan = 2,5 IF musuh = 0 AND stamina < 100 THEN kecepatan = 5 IF stamina = 0 THEN kecepatan = 2,5 IF stamina = 0 AND musuh = 1 THEN kecepatan = 2,5 IF stamina = 0 AND musuh = 0 THEN kecepatan = 2,5 IF recovery = 1 THEN kecepatan = 2,5 IF recovery = 0 AND musuh = 0 THEN kecepatan = 5 IF recovery = 0 AND musuh = 1 THEN kecepatan = 10 IF recovery = 0 AND musuh = 0 AND 0 < stamina < 100 THEN kecepatan = 5 IF recovery = 0 AND musuh = 1 AND 0 < stamina < 100 THEN kecepatan = 10 IF komunikasi = 1 AND recovery = 0 THEN kecepatan = 10
4. Hasil percobaan Dari simulasi yang telah dibuat akan dilakukan beberapa percobaan yang mana setiap percobaan melakukan sepuluh kali simulasi dengan kondisi yang sama. Data masukan (input) adalah Jumlah agen Polisi, Sensor pendeteksi agen Polisi dan Penjahat, serta penggunaan fitur Komunikasi untuk agen Polisi. Sedangkan output-nya adalah Waktu permainan dan Jumlah langkah agen Penjahat. Hasil Percobaan 180 160 140 120 Waktu
Gambar 3 Desain FSM Agent
IF komunikasi = 1 AND recovery = 1 THEN kecepatan = 2,5 IF komunikasi = 0 THEN kecepatan = 5 Recovery = 1 apabila stamina agent = 0 dan akan memulihkan stamina sampai penuh (100). Komunikasi = 1 apabila musuh = 1, Agent yang melihat target akan memberikan informasi berupa lokasi target kepada agent lain. Kecepatan = 2,5 = jalan, Kecepatan = 5 = normal, Kecepatan = 10 = lari
100
Jumlah Polisi = 5
80
Jumlah Polisi = 2
60 40 20 0 1
2
3
4
5
6
7
8
9
10
Percobaan
Gambar 4 Grafik hasil percobaan 1 Dimana: Sensor agen Polisi = 60 Sensor agen Penjahat = 360 Komunikasi = Ya Nilai rata-rata dari waktu dengan jumlah agen Polisi = 5 adalah 36.489 detik Nilai rata-rata dari waktu dengan jumlah agen Polisi = 2 adalah 60.746 detik Dari grafik diatas dapat dilihat bahwa Jumlah agen Polisi sangat mempengaruhi waktu penangkapan agen Penjahat, dapat dilihat juga dalam grafik percobaan 4, 6, dan 7 bahwa pergerakan agen yang random pada saat tidak mendeteksi musuh juga dapat mempengaruhi waktu penangkapan biarpun jumlah agen lebih sedikit. Hasil Percobaan 180 160 140 120
Waktu
d.
Agent lain untuk bergerak ke posisi target, posisi ini hanya dimiliki Agent Polisi. Pada posisi Recovery tidak terdeteksi musuh setelah pengejaran atau penghindaran atau juga stamina agen habis dan stamina yang berkurang akan bertambah sedikit demi sedikit, Agent bergerak dengan kecepatan normal.
Sensor agen Polisi = 360, Sensor agen Penjahat = 60
100 80
Sensor agen Polisi = 60, Sensor agen Penjahat = 360
60 40 20 0 1
2
3
4
5
6
7
8
9
10
Percobaan
Gambar 4.27 Grafik hasil percobaan 2 Dimana: Jumlah agen Polisi = 2 Komunikasi = Ya
Seminar Nasional Pascasarjana XI – ITS, Surabaya 27 Juli 2011 ISBN No.
Nilai rata-rata dari waktu dengan sensor agen Polisi = 360 dan sensor agen Penjahat = 60 adalah 11.121 detik Nilai rata-rata dari waktu dengan sensor agen Polisi = 60 dan sensor agen Penjahat = 360 adalah 60.746 detik Dari grafik diatas dapat dilihat bahwa besar sensor pendeteksi agen Polisi dan besar sensor pendeteksi agen Penjahat sangat mempengaruhi waktu penangkapan, dapat dilihat bahwa jika sensor agen Penjahat lebih besar dari sensor agen Polisi maka waktu penangkapan semakin lama karena agen Penjahat memiliki keuntungan untuk menghindari agen Polisi sebelum agen Polisi mendeteksinya.
Waktu
Hasil Percobaan 200 180 160 140 120 100 80 60 40 20 0
Komunikasi = Ya Komunikasi = Tidak
1
2
3
4
5
6
7
8
9
10
Percobaan
Gambar 4.28 Grafik hasil percobaan 3 Dimana: Jumlah agen Polisi = 2 Sensor agen Polisi = 60 Sensor agen Polisi = 360 Nilai rata-rata dari waktu dengan Komunikasi = Ya adalah 60.746 detik Nilai rata-rata dari waktu dengan Komunikasi = Tidak adalah 73.76 detik Dari grafik diatas dapat dilihat bahwa fitur Komunikasi cukup membantu (biarpun tidak signifikan) dalam mempercepat waktu penangkapan, dengan kondisi jumlah agen sedikit dan sensor pendeteksi agen Penjahat lebih besar dari sensor pendeteksi agen Polisi. Hasil Percobaan
terlalu membantu dalam mempercepat waktu penangkapan karena agen Polisi memiliki keuntungan berupa sensor pendeteksi yang besar dan jumlah agen banyak sehingga fitur komunikasi hampir tidak berpengaruh sama sekali. 5. Kesimpulan Dari Hasil Percobaan dapat disimpulkan beberapa hal, yaitu: 1. Knowledge-based system dapat mengambil keputusan dengan baik dalam kondisi yang sudah ditentukan. Kecepatan sangat mempengaruhi simulasi dalam hal kecepatan pergerakan agen, baik pengejar (pursuer) maupun penghindar (evader). 2. Aturan Komunikasi terlalu sederhana sehingga tidak banyak membantu agen pengejar (pursuer) dalam berkoordinasi menangkap agen penghindar (evader). 3. Jumlah agen pengejar (pursuer) dan besar sensor agen terbukti sangat berpengaruh dalam hasil simulasi, semakin banyak agen pengejar (pursuer) dan sensor pendeteksi agen pengejar (pursuer) lebih besar daripada agen penghindar (evader) dapat mempercepat waktu penangkapan secara signifikan hingga dicapai waktu rata-rata 8.344 detik. 6. Pustaka [1]
[2]
[3] [4]
14 12
Waktu
10 8
Komunikasi = Ya
6
Komunikasi = Tidak
4
[5]
2 0 1
2
3
4
5
6
7
8
9
10
Percobaan
Gambar 4.29 Grafik hasil percobaan 4 Jumlah agen Polisi = 5 Sensor agen Polisi = 360 Sensor agen Polisi = 60 Nilai rata-rata dari waktu dengan Komunikasi = Ya adalah 8.344 detik Nilai rata-rata dari waktu dengan Komunikasi = Tidak adalah 8.862 detik Dari grafik diatas dapat dilihat bahwa dengan kondisi jumlah agen Polisi banyak dan sensor pendeteksi Polisi lebih besar dari sensor pendeteksi Penjahat, fitur Komunikasi tidak
[6] [8] [9] [10]
Y. Uny Cao, Alex S. Fukunaga, and Andrew B. Kahng, ―Coo perative mobile robotics: Antecedents and directions", Autonomous Robots, vol. 4, no. 1, pp. 7 - 23, March 1997. M. Mataric, ―Is sues and approaches in the design of collective autonomous agents", Robotics and Autonomous Systems, vol. 16, pp. 321 - 331, December 1995. Ian Millington and John Funge, ― Artifical Intelligent for games (Second Edition)‖, Morgan Kaufmann Publisher Inc., Oxford, UK, 2009 Daniel Hladek — J´an Vaˇsˇc´ak — Peter Sinˇc´ak,‖ MULTI–ROBOT CONTROL SYSTEM FOR PURSUIT–EVASION PROBLEM‖, Journal of ELECTRICAL ENGINEERING, VOL. 60, NO. 3, pp 143–148, 2009 Peter A. Beling, Brad J. Beaulieu, Imhotep S. Durham, Ryan H. McKinstrie, Paul W. Shumate, Kyle G. Stamper, Elizabeth K. Verell, ― DYNAMIC MULTIAGENT COODINATION: ROBOCOPS‖, Proceedings of the 2005 Systems and Information Engineering Design Symposium Ellen J. Bass, 2005 Amit J. Patel, ― Amit’s Thoughts on Grids‖, 2006 http://www-cs-students.stanford.edu/~amitp/gameprogramming/grids/ ― A* Pathfinding for beginners‖, http://www.policyalmanac.org/games/aStarTutorial. htm Niels Van Reijmersdal, ― Hexagon pathfinding‖, http://www.vanreijmersdal.nl/54/ Daniel Rolf Wichmann, ― Automated route finding on digital terrains,‖ 2004