diff --git "a/data/train/.backup/text" "b/data/train/.backup/text" new file mode 100644--- /dev/null +++ "b/data/train/.backup/text" @@ -0,0 +1,2999 @@ +f01-01-001 assalamualaikum warrahmatullahi wabarakatuh +f01-01-002 selamat pagi semuanya pada pagi ini kita akan mempelajari topik seputar clustering atau unsupervised learning +f01-01-003 apa itu clustering +f01-01-004 clustering adalah proses pengelompokkan data menjadi cluster berbasis kesamaan data +f01-01-005 nah clustering ini intinya yaitu menemukan natural group dari suatu data +f01-01-006 ada beberapa istilah dalam proses peng-cluster-an yaitu ada intra class cluster ada inter class cluster +f01-01-007 high intra cluster similarity adalah data pada cluster yang sama harus semirip mungkin +f01-01-008 sedangkan low inter cluster similarity adalah data pada cluster yang berbeda harus sejauh mungkin +f01-01-009 nah pengukuran kemiripan dan jarak yang high inter dan intra ini harus jelas dan punya semantic practical sesuai domainnya +f01-01-010 mengapa kita harus melakukan clustering apa perbedaan clustering dengan supervised learning +f01-01-011 clustering ini tergantung dengan struktur internal data +f01-01-012 tujuannya sendiri yaitu mengelompokkan data berdasarkan tadi natural group-nya contohnya itu digunakan pada search engine news aggregator dan lain lain +f01-01-013 nah contoh clustering pada search engine ini yaitu mengelompokkan berita berdasarkan topiknya yang tentu tidak dapat diketahui dan tidak dapat dilabeli sebelumnya +f01-01-014 salah satu selain pada news aggregator sendiri clustering dapat digunakan juga untuk mengsegmentasi misalnya mengsegmentasi customer pada perusahaan berdasarkan usia berdasarkan penghasilan atau berdasarkan frekuensi pengunjungan ke customer tersebut +f01-01-015 tahapan dari clustering sendiri ada tiga yang pertama yaitu ada feature selection atau extraction kemudian inter pattern similarity dan yang ketiga adalah grouping +f01-01-016 nah tahapan utamanya itu yang pertama feature selection yang ini melihat original features menjadi subset of feature +f01-01-017 sedangkan feature extraction itu transformation into new features +f01-01-018 nah setelah sebuah pola dimasukkan ke dalam feature selection maka akan terlihat pattern similarity dan kemudian akan di grouping berdasarkan similarity tersebut +f01-01-019 hasil dari grouping data tersebut dapat dibagi menjadi dua jenis yaitu ada hard clustering atau soft clustering +f01-01-020 hard clustering artinya satu data hanya belong pada suatu cluster tertentu sedangkan untuk soft berarti data tersebut dapat memiliki lebih dari dua cluster +f01-01-021 tadi tahapan utama yang terdiri dari tiga nah ada tahapan opsional yaitu data abstraction dan assessment of output +f01-01-022 data abstraction ini merujuk kepada proses pengambilan informasi dari hasil yang telah di-clustering sedangkan assessment of output ini adalah penilaian apakah hasilnya sesuai good atau tidak sesuai +f01-01-023 nah setelah suatu data dikelompokkan ke beberapa grup atau yang disebut cluster dapat diambil representasi dari cluster tersebut +f01-01-024 representasi yang pertama yaitu dapat digunakan centroid atau set of distant point +f01-01-025 nah yang dari kedua cluster itu adalah pohon klasifikasi +f01-01-026 dan yang ketiga itu adalah conjuctive statements +f01-01-027 beberapa metode clustering yang kita ketahui ada lima jenis yang pertama adalah partitioning based ada hierarchical based density based grid based dan model based +f01-01-028 partitioning based ini ada beberapa algoritma contohnya yaitu k means k medoids k modes dan lain lain +f01-01-029 hierarchical ini yang terkenal yaitu birch cure rock chameleon dan lain lain +f01-01-030 density based itu ada dbscan optics dbclads denclue dan lain lain +f01-01-031 grid based ini contohnya wave cluster sting clique optigrid dan model based ini em cobweb classist dan som +f01-01-032 nah yang tadi ada metode partitioning ini mengidentifikasi partisi yang mengoptimalkan kriteria pengelompokkan +f01-01-033 konstruksi k partisi data ini k nya adalah kurang dari atau sama dengan jumlah data yang berdasarkan partisi tadi k means dan k medoids +f01-01-034 sedangkan metode hierarchical yang kedua adalah metode hierarchical ini menghasilkan rangkaian partisi bersarang contohnya agglomerative yang memakai pendekatan bottom up lalu di-merge jadi antara data akan akhirnya akan membentuk satu cluster +f01-01-035 dan kemudian ada divisive atau pendekatan top down ini dari satu cluster menjadi beberapa data yang tadi +f01-01-036 kemudian yang metode yang ketiga yaitu berbasis density +f01-01-037 densitasnya yaitu jumlah objek contohnya yang terkenal itu dbscan +f01-01-038 nah yang kemudian metode yang keempat itu berbasis grid +f01-01-039 struktur grid cepat bergantung jumlah sel dan tidak dipengaruhi jumlah objek +f01-01-040 perhitungan bisa dilakukan secara paralel contohnya yaitu sting atau statistical information grid +f01-01-041 dan yang terakhir ada metode berbasis model atau em expectation maximization +f01-01-042 kita masuk ke clustering berdasarkan partisi +f01-01-043 objektifnya adalah suatu cluster yang memiliki kemiripan lebih besar dibanding objek yang berada di cluster yang lain +f01-01-044 nah fungsi objektifnya ini disebut minimize square error function +f01-01-045 relokasi iteratifnya yaitu proses iteratif menempatkan objek ke cluster untuk memperbaiki partisi contohnya ini yaitu k means yang menekan square cluster atau disebut juga square error clustering dan k medoids +f01-01-046 square error ini adalah jumlah euclidean distance atau jarak euclidean antara suatu antara sebuah data dan cluster center-nya atau tadi yang disebut centroid centroid-nya itu +f01-01-047 nah tahapan dari square error clustering yang pertama yaitu select an initial partition of the pattern with a fixed number of cluster and cluster center jadi kita memilih jumlah partisi yang akan kita peroleh jadi kita memilih jumlah grup jumlah grup yang ingin kita dapatkan +f01-01-048 jadi misalnya kita memiliki data seratus kita akan melakukan penggrupan menuju ke dalam tiga grup +f01-01-049 setelah kita memilih berapa jumlah cluster yang akan kita hasilkan maka kita me-compute atau menghitung masing masing data terhadap cluster-nya tadi berdasarkan euclidean distance +f01-01-050 nah tahap ini terus dilakukan hingga konvergen +f01-01-051 konvergennya ini apa tergantung kepada threshold yang telah kita sepakati misalnya ketika square error minimum-nya kurang dari nol koma satu +f01-01-052 nah setelah itu barulah terbentuk grup yang yang tiga grup dengan masing masing anggota yang telah dihitung pada tahap sebelumnya +f01-01-053 nah karena tadi k means ini kita harus menginisialisasi berapa jumlah grup dan data mana yang akan kita gunakan sebagai centroid maka k means ini sangat dipengaruhi dari cluster awal +f01-01-054 misalnya ketika kita memiliki seratus data dan kita memilih data a sebagai sebuah centroid dan data b sebagai sebuah centroid hasil ini dapat mungkin dapat berbeda ketika kita memilih data c sebagai centroid dan data f sebagai centroid +f01-01-055 begitu pula dengan jumlah cluster yang akan kita hasilkan akan berbeda ketika kita memilih tiga buah cluster dibanding empat cluster untuk data yang sama +f01-01-056 nah kelemahan k means ini selain tadi telah dijelaskan bahwa penentuan jumlah cluster dan titik dari centroid dari cluster tersebut yang sangat mempengaruhi ini juga algoritma yang tidak scalable +f01-01-057 lalu mean hanya terdefinisi untuk atribut numerik jadi datanya harus memiliki atribut numerik agar dapat dihitung euclidean distance-nya +f01-01-058 dan prosesnya ini sangat sensitif dengan outliers jadi outlier dengan nilai yang ekstrim besar dapat mempengaruhi mean pada centroid +f01-01-059 nah untuk mengoptimasi dari k means ini muncullah algoritma lain yang disebut k medoids +f01-01-060 k medoids lebih handal dibandingkan k means dalam menangani noise atau outlier +f01-01-061 jadi bedanya adalah ketika tadi k means menggunakan square error nah k medoids ini menggunakan absolute error sebagai fungsi objektifnya +f01-01-062 perbedaan dari k medoids ini yang pertama itu dalam proses tahapannya ketika kita memilih sebuah objek o random atau sebuah data random yang akan dijadikan sebuah centroid objek data selanjutnya yang akan dijadikan centroid adalah data lain dan bukan mean dari grup tersebut +f01-01-063 nah selanjutnya apa kelebihan dari k medoids ini tadi kan lebih robust tehadap outlier namun k medoids juga dapat membutuhkan waktu yang lebih banyak dibandingkan dengan k means +f01-01-064 itu salah satu contoh ya dari partitioning based clustering nah kita akan memasuki metode clustering yang kedua yaitu menggunakan graph theoretic clustering +f01-01-065 jadi graph theoretic clustering ini memiliki fungsi objektif yaitu dengan meng-construct minimal dari spanning tree dari data di prosesnya yaitu dengan melihat jarak antardata dan menggunakan graf kemudian cluster-nya akan dibentuk berdasarkan graf yang memiliki nilai bobot paling besar +f01-01-066 karena menggunakan teori graf maka algoritma ini memakai kruskal salah satunya yaitu menggunakan kruskal algorithm sehingga prosesnya itu lebih condong kepada pemrosesan graf dalam hal kompleksitas algoritmanya +f01-01-067 nah jadi salah satu kelemahannya dari mst based clustering ini juga yaitu kompleksitas dari time-nya sangat bergantung kepada jumlah datanya sehingga ketika datanya besar maka dia juga memiliki time kompleksitas yang besar +f01-01-068 nah tadi kan ada lima yang partition based hierchical based nah kita akan memasuki pada hierarchical clustering +f01-01-069 salah satu yang banyak digunakan yaitu adalah agglomerative clustering yaitu dimulai ketika masing masing data dihitung jaraknya kemudian akan di-clustering berdasarkan jarak tersebut hingga mencapai konvergen dimana konvergen tesebut adalah ketika data telah membentuk satu cluster +f01-01-070 jadi kita akan mulai dengan n singleton cluster yaitu sesuai data misalnya ada seratus maka kita akan mulai dengan seratus cluster +f01-01-071 kemudian masing masing cluster tersebut akan dihitung berdasarkan jaraknya dapat salah satunya fungsinya yaitu dengan menggunakan tadi yaitu euclidean distance +f01-01-072 kemudian data dengan data yang telah dihitung itu akan disatukan ke dalam satu cluster sampe menjadi satu cluster besar +f01-01-073 salah satu produk akhir dari agglomerative clustering ini yaitu adalah dendogram +f01-01-074 nah beberapa macam agglomerative clustering ini ada single linkage complete linkage average linkage dan average group linkage +f01-01-075 apasih bedanya single complete average average group linkage ini yaitu ini adalah sebuah pemilihan metode pemilihan ketika ingin menggabungkan antar satu cluster dengan cluster lain +f01-01-076 jadi ketika tadi sebuah singleton jadi data satu dengan data dua telah dihitung jaraknya maka bagaimana data satu dan data dua digabungkan ke dalam cluster itu berdasarkan tadi linkage-nya +f01-01-077 jika menggunakan single linkage maka data satu dengan data dua akan digabungkan ketika dia memiliki minimum disimilarity atau berarti jarak antara data satu dengan data dua ini memiliki minimum distance di bandingkan data lainnya +f01-01-078 sedangkan apabila menggunakan complete linkage maka data satu dengan data dua ini akan digabungkan ke dalam satu cluster apabila mereka memiliki maximum disimilarity atau jarak terbesar antara data satu dengan data lainnya +f01-01-079 sedangkan average group linkage dan average linkage ini akan berbeda ketika cluster yang di gabungkan telah memiliki beberapa data misalnya tadi data satu dan data dua telah digabungkan menjadi satu cluster +f01-01-080 nah average group linkage ini akan membandingkan perbedaan antara data satu data dua yang kemudian di rata rata kan dengan cluster lainnya +f01-01-081 sedangkan average linkage adalah membandingkan data satu dan data satu kepada data lainnya kemudian data dua kepada data lainnya dan untuk menarik ke dalam cluster baru +f01-01-082 baiklah untuk hari ini cukup sekian +f01-01-083 terima kasih +f02-01-001 hari ini saya akan mepresentasikan mengenai tugas akhir saya yaitu yang berjudul reinforcement learning untuk penggabungan peringkasan ekstraktif dan abstraktif dengan dosen pembimbing doktor masayu leylia khodra st mt +f02-01-002 saya sendiri nama saya bethea zia davida nim satu tiga lima satu lima kosong delapan empat +f02-01-003 berikut merupakan outline presentasi dari tugas akhir saya +f02-01-004 yang pertama latar belakang lalu rumusan masalah tujuan batasan metodologi gambaran solusi umum dan rencana pengerjaan +f02-01-005 nah yang pertama adalah latar belakang +f02-01-006 menurut sherrard seribu sembilan ratus delapan puluh sembilan peringkasan dibagi menjadi dua yaitu mature dan immature +f02-01-007 mature sendiri biasa dikenal dengan peringkasan abstraktif sedangkan immature dikenal dengan peringkasan ekstraktif +f02-01-008 nah perbedaan dari metode abstraktif dan ekstraktif yaitu yang pertama untuk metode abstraktif umumnya menggunakan model sequence to sequence tetapi ada kekurangannya yaitu encoding yang dilakukan sequence to sequence masih belum akurat dan hasil ringkasannya pun mengandung kalimat yang redundan +f02-01-009 sedangkan untuk metode ekstraktif biasanya dilakukan berdasarkan metode statistik dan fitur fitur linguistik kalimat menurut gupta dua ribu sepuluh +f02-01-010 nah tetapi kelemahan dari metode ekstraktif ini adalah hasil ringkasannya panjang serta hasil ringkasannya biasanya mengandung bagian yang tidak penting karena semua kalimat yang ada di paragraf akan dimasukkan secara utuh dan tidak diubah sama sekali +f02-01-011 nah dari kedua kekurangan dari metode peringkasan tersebut maka untuk menanggulangi satu sama lain kekurangannya digabunglah antara peringkasan abstraktif dan peringkasan ekstraktif +f02-01-012 berikut merupakan arsitektur dari chen dan bansal dua ribu sepuluh dimana chen dan bansal ini adalah pelopor penggabungan abstraktif dan ekstraktif disertai dengan reinforcement learning +f02-01-013 nah tetapi fokus penelitian dari metode pada chen dan bansal ini adalah metode ekstraktif dan reinforcement learning-nya +f02-01-014 sedangkan metode abstraktifnya hanya menggunakan si dkk dua ribu tujuh belas +f02-01-015 sehingga dimana kekurangan dari si dkk dua ribu tujuh belas ini adalah memiliki kecenderungan untuk menyalin kalimat secara langsung dari hasil dari kalimat di paragraf +f02-01-016 nah yang kedua rumusan masalah +f02-01-017 rumusan masalah dari tugas akhir saya adalah bagaimana meningkatkan kinerja chen dan bansal dua ribu delapan belas dengan melakukan perubahan metode abstraktif dan reinforcement learning-nya +f02-01-018 yang ketiga tujuan +f02-01-019 tujuannya adalah menghasilkan sebuah model peringkasan teks otomatis yang memiliki kinerja lebih baik dari model chen dan bansal dua ribu delapan belas +f02-01-020 berikut merupakan batasan batasan dari tugas akhir saya +f02-01-021 yang pertama teks dan hasil ringkasan yang digunakan ditulis dalam bahasa inggris +f02-01-022 dan data latih dan data uji yang digunakan merupakan korpus berita cnn dan daily mail sesuai dengan yang digunakan oleh si dua ribu tujuh belas +f02-01-023 yang kelima metodologi +f02-01-024 berikut merupakan urutan metodologi yang akan saya kerjakan +f02-01-025 yaitu yang pertama pengumpulan data analisis masalah eksplorasi metode dan algoritma dimana ketiga ketiga yang awal ini sudah dilakukan dan yang selanjutnya adalah implementasi eksperimen dan evaluasi +f02-01-026 berikut merupakan gambaran solusi umum dari tugas akhir saya +f02-01-027 arsitektur dari solusi umum ini sendiri mirip dengan milik chen dan bansal +f02-01-028 hanya saja di bagian abstractor-nya akan dirubah serta di bagian reinforcement learning-nya akan diadaptasi dari perubahan abstractor-nya +f02-01-029 nah untuk extractor-nya sendiri terdiri dari dua bagian yaitu representasi kalimat hierarchical dan pemilihan kalimat +f02-01-030 representasi kalimat hierarchical yang tadi disebutkan memiliki dua bagian utama yaitu model temporal convolutional dan bidirectional lstm +f02-01-031 sedangkan pada pemilihan kalimat digunakan lstm dengan pointer network +f02-01-032 pada abstractor akan digunakan temporal attention network +f02-01-033 untuk reinforcement learning agen yang digunakan adalah extractor state yang akan digunakan adalah pasangan ringkasan ground truth dengan ringkasan model extractor reward-nya berupa rouge antara hasil abstraktif hasil ringkasan abstraktif dengan ground truth sedangkan aksinya adalah memilih kalimat dari teks sumber +f02-01-034 yang ketujuh rencana pengerjaan +f02-01-035 setelah ini yang akan dikerjakan adalah implementasi melakukan implementasi kode +f02-01-036 lalu eksperimen mengeksperimen hasil hasil yang mengeksperimen hasil implementasi kode +f02-01-037 lalu melakukan evaluasi +f02-01-038 terima kasih +f02-02-001 hari ini saya akan mepresentasikan mengenai tugas sistem informasi kelompok kami yang berjudul sistem manajemen keluhan pada direktorat sarana dan prasarana itb +f02-02-002 berikut merupakan outline dari presentasi kami yang pertama kami akan membahas tentang latar belakang lalu analisis solusi implementasi dan terakhir kesimpulan +f02-02-003 berikut merupakan executive summary atau ringkasan dari apa yang kami kerjakan +f02-02-004 yang pertama pada bidang bisnisnya yang kami tinjau adalah penanggungjawab sarana dan prasarana di itb +f02-02-005 lalu permasalahannya atau issue-nya yaitu belum ada sistem manajemen keluhan yang terintegrasi dan terdokumentasi +f02-02-006 opsi opsi yang dapat dilakukan adalah yang pertama membuat sop secara mandiri membuat sop dengan jasa konsultan lalu membuat sistem manajemen keluhan yang terintegrasi integrasi keluhan pada platform open source sosialisasi pelaporan keluhan online dan sosialisasi pelaporan keluhan offline +f02-02-007 tujuan atau goals yang ingin dicapai adalah keluhan yang masuk terintegrasi dan terdokumentasi dengan baik +f02-02-008 latar belakang dari direktorat sarana dan prasarana institut teknologi bandung adalah terdiri dari kurang lebih seratus delapan puluh sembilan karyawan terdiri dari sembilan seksi lalu berdiri pada tahun seribu sembilan ratus enam puluh dan merupakan organisasi internal itb +f02-02-009 untuk saat ini pelaporan dari keluhan pelapor mendatangi direktorat sarana dan prasarana itb +f02-02-010 lalu penyampaikan topik keluhan kepada front desk direktorat sarana dan prasarana itb +f02-02-011 lalu diarahkan ke seksi terkait keluhan dan yang terakhir menyampaikan keluhan kepada seksi tekait +f02-02-012 pada seksi terkait setelah keluhan diterima tidak ada keputusan yang jelas apakah keluhan akan dicatat ataupun keluhan akan diingat +f02-02-013 sehingga problem yang utama yang pertama adalah belum ada dokumentasi dan sistem terintegrasinya +f02-02-014 dari segi orang atau people terdapat keterbatasan manusia yang masih banyak belum mengetahui mengenai pelaporan keluhan ini +f02-02-015 dari segi tempat atau place lokasi direktorat sarana dan prasarana itb jauh dari pusat itb +f02-02-016 lalu dari segi procedure tidak ada sop dan tidak ada dokumentasi +f02-02-017 lalu dari segi policies atau aturan pelaporan keluhan ditangani seksi masing masing +f02-02-018 disini terdapat suatu kesempatan atau opportunity yaitu adanya teknologi dan skill karyawan dari direktorat sarana dan prasarana itb itu sendiri +f02-02-019 yaitu dari segi orangnya atau people karyawan direktorat sarana dan prasarana itb memiliki skill mengoperasikan komputer yang cukup baik +f02-02-020 lalu dari segi teknologi banyaknya software yang dapat digunakan untuk mengembangkan sistem manajemen keluhan +f02-02-021 lalu solusi yang kami pilih adalah membuat sistem manajemen keluhan yang terintegrasi +f02-02-022 yang pertama yang harus dilakukan adalah membuat sop pelaporan lalu membuat sistem manajemen keluhan yang terintegrasi dan terdokumentasi antarseksinya lalu tentunya melakukan sosialisasi pelaporan keluhan +f02-02-023 dampak yang dapat timbul dari apa yang di yang solusi yang kita ambil adalah yang pertama tidak ada keluhan yang terabaikan karena semua keluhan yang masuk akan tercatat dan terdokumentasikan dengan baik +f02-02-024 lalu juga standar pelayanan direktorat sarana dan prasarana itb dapat lebih terjaga +f02-02-025 lalu yang terakhir adalah meningkatkan kesadaran civitas akademik itb akan layanan penerimaan keluhan khususnya di direktorat sarana dan prasarana institut teknologi bandung +f02-02-026 untuk mengimplementasikan solusi yang diajukan dibutuhkan biaya sekitar sebelas juta lima ratus ribu +f02-02-027 sedangkan untuk durasi pengerjaannya sekitar empat bulan +f02-02-028 berikut merupakan timeline dari pengerjaannya +f02-02-029 oh untuk bulan april dua ribu delapan belas mulai pembuatan sop +f02-02-030 lalu pada bulan april hingga juli dua ribu delapan belas akan membuat sistem manajemen keluhan +f02-02-031 dan pada bulan juli dua ribu delapan belas membuat sosialisasinya kepada civitas akademik itb +f02-02-032 kesimpulan yang dapat diambil yaitu berdasarkan analisis yang sudah dilakukan hasil dari solusi yang kelompok kami ajukan diantaranya membuat sop membuat sistem yang terintegrasi antar divisi dan sosialisasi secara online dan offline diharapkan dapat menyelesaikan masalah masalah yang sudah disampaikan sebelumnya +f02-02-033 sekian dan terima kasih +f02-03-001 ya hari ini saya akan mepresentasikan mengenai tugas visualisasi data dan informasi yaitu mengenai contoh dari visualisasi data yang baik dan buruk atau good and bad example of data visualization +f02-03-002 nah kelompok kami terdiri dari saya bethea zia davida dan teman saya stevano hero leadervand +f02-03-003 nah yang pertama adalah contoh yang baik dari visualisasi data yaitu mengenai forestry three d infographics yang di yang di buat oleh anton egorov +f02-03-004 nah untuk key principle utama yang pertama yaitu strive for forms and functions +f02-03-005 function dari data secara umum adalah untuk memaparkan informasi mengenai hutan amerika disampaikan secara efektif dengan form pie chart untuk menjelaskan rasio antara hutan milik pribadi dan milik pemerintah +f02-03-006 warna label antara milik pribadi dan pemerintah juga dibedakan untuk mempermudah persepsi +f02-03-007 digunakan bendera amerika untuk menunjukkan kepemilikan pemerintah amerika +f02-03-008 principle key yang kedua yaitu justifying the selection of everything we do +f02-03-009 nah disini dari gambar yang ada chart digambarkan dengan lahan hutan sesuai informasi yang disampaikan yaitu hutan amerika +f02-03-010 lalu digunakan pula bendera amerika untuk menunjukkan posisi negara amerika pada skala dunia +f02-03-011 warna label pada gambar dibuat berbeda untuk menekankan informasi warna merah untuk titik kritis semakin menanjak warna lahan dibuat semakin lebih tandus untuk menekankan risiko yang semakin tinggi pada forrest corruption +f02-03-012 sedangkan pada warna biru artinya risiko yang ada cukup kecil +f02-03-013 lalu untuk principle key yang ketiga yaitu creating accessibility through intuitive design satu informasi direpresentasikan dengan satu gambar sehingga tidak terjadi overload pada gambar yang ditunjukkan +f02-03-014 penempatan gambar di bagian bawah dan label di bagian atas dilakukan secara konsisten sehingga tidak menimbulkan confusion atau kebingungan dan munculnya clutter +f02-03-015 lalu digunakan juga besar dan warna label yang berbeda untuk mengurangi confusion label yang lebih besar menyampaikan informasi umum +f02-03-016 digunakan vertical bar chart yang menunjukkan peningkatan juga +f02-03-017 lalu untuk principle key yang keempat yaitu never deceive the receiver +f02-03-018 digunakan persepsi three d pada pie chart namun tidak ditujukkan untuk menipu orang yang melihat +f02-03-019 pie chart dibagi menjadi dua bagian dan digunakan persepsi dari tampak depan secara seimbang sehingga tidak menonjolkan satu bagian informasi saja +f02-03-020 ukuran dari pie chart dari setiap presentase dibuat secara pas dengan angka yang ditunjukkan +f02-03-021 yang kedua adalah contoh dari bad example atau contoh yang buruk dari visualisasi data +f02-03-022 merupakan data dari bitcoin wealth distribution dapat dilihat dari key principle yang pertama yaitu strive for form and functions seperti yang sudah disebutkan sebelumnya +f02-03-023 pada visualisasi data tersebut dapat dilihat bahwa forms-nya lebih dominan dari fungsi yang ingin disampaikan atau dibawakan pada visualisasi tersebut +f02-03-024 lalu yang kedua untuk justifying the selection of everything we do pembagian dari daerah daerahnya tidak beralasan serta warna warna yang dipilih juga tidak dijelaskan maknanya +f02-03-025 yang ketiga yaitu creating accessibility through intuitive design pembagian dari daerah daerah visualisasi sulit dimengerti dan label yang panjang menjadikan visualisasi sulit dibaca +f02-03-026 yang keempat yaitu never deceive the receiver pada visualisasi tersebut untuk presentasi yang jauh lebih besar ukuran daerahnya tidak berbeda jauh +f02-03-027 berikut sekian presentasi dari saya terima kasih +f02-04-001 hari ini kami kita akan membahas mengenai algoritma greedy pada kuliah strategi algoritma +f02-04-002 nah untuk pendahuluan algoritma greedy merupakan metode yang paling populer untuk memecahkan persoalan optimasi +f02-04-003 persoalan optimasi atau optimization problem yaitu adalah persoalan untuk mencari solusi yang optimum +f02-04-004 hanya ada dua macam persoalan optimasi yang pertama adalah maksimasi dan yang kedua adalah minimasi +f02-04-005 contoh dari persoalan optimasi adalah persoalan penukaran uang +f02-04-006 diberikan uang senilai a tukar a dengan koin koin uang yang ada berapa jumlah minimum koin yang diperlukan untuk penukaran tersebut +f02-04-007 persoalan tersebut merupakan persoalan minimasi +f02-04-008 contoh satu tersedia banyak koin satu lima sepuluh dan dua lima +f02-04-009 uang senilai a yaitu tiga dua dapat ditukar dengan banyak cara berikut +f02-04-010 yang pertama tiga puluh dua ditukar dengan satu koin yang bernilai satu sebanyak tiga puluh dua koin +f02-04-011 koin yang bernilai lima sebanyak empat koin koin sepuluh bernilai satu dan koin sepuluh berjumlah satu dan koin satu berjumlah dua sehingga totalnya tujuh koin +f02-04-012 lalu bisa juga ditukar dengan tiga tiga koin sepuluh dan dua koin satu sehingga totalnya ada lima koin +f02-04-013 dan akan didapatkan koin minimum untuk penukaran yaitu sebesar satu koin dua puluh lima satu koin lima dan dua koin satu sehingga totalnya ada empat koin +f02-04-014 greedy biasa juga dikenal dengan rakus tamak atau loba +f02-04-015 prinsip greedy take what you can get now +f02-04-016 lalu ada algoritma greedy membentuk solusi langkah per langkah +f02-04-017 pada setiap langkah terdapat banyak pilihan yang perlu dievaluasi +f02-04-018 oleh karena itu pada setiap langkah harus dibuat keputusan yang terbaik dalam menentukan pilihan +f02-04-019 pada setiap langkah kita membuat pilihan optimum lokal atau local optimum dengan harapan bahwa langkah sisanya mengarah ke solusi optimum global atau global optimum +f02-04-020 algoritma greedy adalah algoritma yang memecahkan masalah langkah per langkah pada setiap langkah +f02-04-021 pada setiap langkah yang akan dilakukan yang pertama adalah mengambil pilihan yang terbaik yang dapat diperoleh pada saat itu tanpa memperhatikan konsekuensi ke depan +f02-04-022 yang kedua adalah berharap bahwa dengan memilih optimum lokal pada setiap langkah akan berakhir dengan optimum global +f02-04-023 sekarang kita tinjau masalah penukaran uang +f02-04-024 strategi greedy-nya pada setiap langkah pilihlah koin dengan nilai terbesar dari himpunan koin yang tersisa +f02-04-025 misal a sama dengan tiga puluh dua koin yang tersedia satu lima sepuluh dan dua lima +f02-04-026 langkah pertama pilih satu buah koin dua puluh lima +f02-04-027 lalu langkah dua pilih satu buat koin lima +f02-04-028 langkah ketiga pilih dua buah koin satu sehingga totalnya menjadi tiga puluh dua +f02-04-029 sehingga didapatkan solusi optimal yaitu jumlah koin minimumnya empat +f02-04-030 elemen elemen dari algoritma greedy yang pertama adalah himpunan kandidat c yang kedua adalah himpunan solusi s yang ketiga adalah fungsi seleksi atau selection function yang keempat adalah fungsi kelayakan atau feasibilitas yang kelima adalah fungsi obyektif +f02-04-031 dengan kata lain algoritma greedy melibatkan pencarian sebuah himpunan bagian s dari himpunan kandidat c yang dalam hal ini s harus memenuhi beberapa kriteria yang ditentukan yaitu menyatakan suatu solusi dan s optimasi s dioptimisasi oleh fungsi objektif +f02-04-032 pada masalah penukaran uang himpunan kandidatnya adalah himpunan koin yang merepresentasikan nilai satu lima sepuluh dua lima paling sedikit mengandung satu koin untuk setiap nilai +f02-04-033 himpunan solusi total nilai koin yang dipilih tepat sama jumlahnya dengan nilai uang yang ditukarkan +f02-04-034 fungsi seleksi yaitu pilihlah koin yang bernilai tertinggi dari himpunan kandidat yang tersisa +f02-04-035 fungsi layak memeriksa apakah nilai total dari himpunan koin yang dipilih tidak melebihi jumlah uang yang harus dibayar +f02-04-036 fungsi obyektifnya jumlah koin yang digunakan minimum +f02-04-037 berikut merupakan skema umum algoritma greedy +f02-04-038 pada setiap akhir lelaran solusi yang terbentuk adalah optimum lokal +f02-04-039 pada akhir kalang while do diperoleh optimum global +f02-04-040 peringatannya yaitu optimum global belum tentu merupakan solusi optimum atau terbaik tetapi sub-optimum atau pseudo-optimum +f02-04-041 alasannya adalah algoritma greedy tidak beroperasi secara menyeluruh terhadap semua alternatif solusi yang ada sebagaimana pada metode exhaustive search +f02-04-042 terdapat beberapa fungsi seleksi yang berbeda sehingga kita harus memilih fungsi yang tepat jika kita ingin algoritma menghasilkan solusi optimal +f02-04-043 jadi pada sebagian masalah algoritma greedy tidak selalu berhasil memberikan solusi yang optimal +f02-04-044 contoh yang kedua adalah peninjauan masalah penukaran uang +f02-04-045 apabila koin yang ada adalah lima empat tiga dan satu uang yang ditukar tujuh solusi greedy-nya adalah satu koin lima dan dua koin satu +f02-04-046 sedangkan solusi optimalnya adalah satu satu koin empat dan satu koin tiga +f02-04-047 apabila koinnya terdiri dari angka sepuluh tujuh dan satu dan uang yang ingin ditukar adalah lima belas solusi greedy-nya adalah satu koin sepuluh dan lima koin satu +f02-04-048 sedangkan solusi optimalnya adalah dua koin tujuh dan satu koin satu +f02-04-049 sedangkan apabila koin yang koinnya nilainya adalah lima belas sepuluh dan satu dan uang yang ingin ditukar adalah dua puluh solusi greedy-nya adalah satu koin lima belas dan lima koin satu sedangkan solusi optimalnya adalah dua koin sepuluh +f02-04-050 untuk sistem mata uang dolar as euro eropa dan crown swedia algoritma greedy selalu memberikan solusi optimum +f02-04-051 contohnya uang enam koma tiga sembilan dolar ditukar dengan uang kertas atau bill dan koin sen atau cent kita dapat memilih satu buah uang kertas senilai lima dolar satu buah uang kertas senilai satu dolar satu koin dua puluh lima sen satu koin sepuluh sen dan empat koin satu sen +f02-04-052 jika jawaban terbaik mutlak tidak diperlukan maka algoritma greedy sering berguna untuk menghasilkan solusi hampiran atau approximation +f02-04-053 daripada menggunakan algoritma yang lebih rumit untuk menghasilkan solusi yang eksak +f02-04-054 bila algoritma yang greedy optimum maka keoptimalannya itu dapat dibuktikan secara matematis +f02-04-055 contoh algoritma greedy digunakan pada masalah penukaran uang +f02-04-056 nilai uang yang ditukar a himpunan koin atau multiset d satu d dua dan seterusnya himpunan solusi x yaitu x satu x dua dan seterusnya sampai x n x i sama dengan satu jika d dipilih x i sama dengan nol jika d d i tidak dipilih +f02-04-057 objektif persoalan adalah minimisasi nilai f atau fungsi objektif dengan kendala seperti pada slide +f02-04-058 penyelesaian dengan exhaustive search dapat terdapat dua pangkat n kemungkinan solusi nilai nilai x adalah x satu hingga x n +f02-04-059 untuk mengevaluasi fungsi objektif dapat dilakukan dengan big o time yaitu o n +f02-04-060 lalu untuk kompleksitas exhaustive-nya seluruhnya adalah o n dikali dua pangkat n +f02-04-061 untuk penyelesaian dengan algoritma greedy yang pertama strategi greedy pada setiap langkah pilih koin dengan nilai terbesar dari himpunan koin yang tersisa +f02-04-062 agar pemilihan koin berikutnya optimal maka perlu mengurutkan himpunan koin dalam urutan yang menurun atau noninceasing order +f02-04-063 jika himpunan koin sudah terurut menurun maka kompleksitas algoritma greedy yaitu o n +f02-04-064 sayangnya algoritma greedy untuk masalah penukaran uang ini tidak selalu menghasilkan solusi yang optimal +f02-04-065 yang kedua adalah minimisasi waktu di dalam sistem atau penjadwalan +f02-04-066 persoalannya adalah sebuah server dapat berupa processor pompa kasir di bank dan lain lain mempunyai n pelanggan atau customer client yang harus dilayani +f02-04-067 waktu pelayanan untuk setiap pelanggan i adalah t i +f02-04-068 minimumkan total waktu di dalam sistem +f02-04-069 t sama dengan total waktu di dalam sistem +f02-04-070 ekivalen dengan meminimumkan waktu rata rata pelanggan di dalam sistem +f02-04-071 berikut merupakan contohnya +f02-04-072 penyelesaian dengan exhaustive search urutan pelangan yang dilayani oleh server merupakan suatu permutasi +f02-04-073 jika ada n orang pelanggan maka tedapat n tanda seru urutan pelanggan +f02-04-074 untuk mengevaluasi fungsi obyektif yaitu berupa o n +f02-04-075 sedangkan kompleksitas dari algoritma exhaustive search-nya adalah o n kali n tanda seru +f02-04-076 penyelesaian dengan algoritma greedy yaitu strategi greedy pada setiap langkah pilih pelanggan yang membutuhkan waktu pelayanan terkecil di antara pelanggan lain yang belum dilayani +f02-04-077 agar proses pemilihan pelanggan berikutnya optimal urutkan pelanggan berdasarkan waktu pelayanan dalam urutan yang menaik +f02-04-078 jika pelanggan sudah terurut kompleksitas algoritma greedy yaitu o n +f02-04-079 algoritma greedy untuk penjadwalan pelanggan akan selalu menghasilkan solusi optimum +f02-04-080 teorema jika t satu kurang dari sama dengan t dua kurang dari sama dengan hingga t n maka pengurutan i j sama dengan j yaitu j bernilai antara satu hingga n meminimumkan fungsi yang tadi untuk semua kemungkinan permutasi i j +f02-04-081 yang ketiga adalah an activity selection problem +f02-04-082 persoalannya misalkan kita memiliki s satu dua hingga n yang menyatakan n sebuah aktivitas yang ingin menggunakan sebuah resource misalnya ruang pertemuan yang hanya dapat digunakan satu aktivitas setiap saat +f02-04-083 tiap aktivitas i memiliki waktu mulai s dan waktu selesai f dimana s i kurang dari sama dengan f i +f02-04-084 dua aktivitas i dan j dikatakan kompatibel jika interval s i dan f i dan s j dan f j tidak bentrok +f02-04-085 masalah activity selection problem ialah memiliki sebanyak mungkin aktivitas yang bisa dilayani +f02-04-086 berikut merupakan contoh instansiasi persoalan +f02-04-087 penyelesaian dengan exhaustive search dilakukan dengan menentukan semua himpunan bagian dari himpunan dengan n aktivitas +f02-04-088 evaluasi setiap himpunan bagian apakah aktivitas di dalamnya kompatibel +f02-04-089 jika kompatibel maka himpunan bagian tersebut adalah solusinya +f02-04-090 kompleksitas waktu algoritmanya adalah o dua pangkat n +f02-04-091 apa strategi greedy-nya +f02-04-092 yang pertama adalah mengurutkan semua aktivitas berdasarkan waktu selesai dari kecil ke besar +f02-04-093 pada setiap step pilih aktivitas yang waktu mulainya lebih besar atau sama dengan waktu selesai aktivitas yang dipilih sebelumnya +f02-04-094 berikut merupakan contohnya +f02-04-095 dan berikut merupakan algoritmanya +f02-04-096 nah usulan strategi greedy yang lain adalah pilih aktivitas yang durasinya paling kecil lebih dahulu dan waktu mulainya tidak lebih besar dari waktu selesai aktivitas lain yang telah dipilih +f02-04-097 tetapi usulan strategi ini lebih rumit dari yang sebelumnya +f02-04-098 yang keempat adalah contoh integer knapsack +f02-04-099 maksimasi dari fungsi p i kali x i dengan kendala constraint yaitu w i x i dan k nya yang dalam hal ini x i sama dengan nol atau satu dan i adalah nilainya satu hingga n +f02-04-100 penyelesaian dengan exhaustive search sudah dijelaskan pada pembahasan exhaustive search +f02-04-101 kompleksitas algoritma exhaustive search untuk persoalan ini adalah o n kali dua pangkat n +f02-04-102 penyelesaian dengan algoritma greedy masukkan objek satu per satu ke dalam knapsack +f02-04-103 sekali objek dimasukkan ke dalam knapsack objek tersebut tidak bisa dikeluarkan lagi +f02-04-104 terdapat beberapa strategi greedy yang heuristik yang dapat digunakan untuk memilih objek yang akan dimasukkan ke dalam knapsack +f02-04-105 yang pertama adalah greedy by profit +f02-04-106 pada setiap langkah pilih objek yang mempunyai keuntungan paling besar +f02-04-107 lalu mencoba memaksimumkan keuntungan dengan memilih objek yang paling menguntungkan terlebih dahulu +f02-04-108 lalu ada yang kedua adalah greedy by weight +f02-04-109 yaitu pada setiap langkah pilih objek yang mempunyai berat teringan +f02-04-110 mencoba memaksimumkan keuntungan dengan memasukkan sebanyak mungkin objek ke knapsack +f02-04-111 yang ketiga ada greedy by density +f02-04-112 yaitu pada setiap langkah knapsack diisi dengan objek yang mempunyai p i per w i yang terbesar +f02-04-113 mencoba memaksimumkan keuntungan dengan memilih objek yang mempunyai keuntungan per unit terbesar itu yang dilakukan pada greedy by density ini +f02-04-114 pemilihan objek berdasarkan salah satu dari ketiga strategi di atas tidak menjamin akan memberikan solusi yang optimal +f02-04-115 berikut merupakan contohnya +f02-04-116 kesimpulannya adalah algoritma greedy tidak selalu berhasil menemukan solusi optimal untuk masalah nol atau satu pada knapsack +f02-04-117 penyelesaian dengan exhaustive search oleh karena x i itu berada diantara nol hingga satu maka terdapat tidak berhingga nilai nilai x i +f02-04-118 persoalan fractional knapsack menjadi malar atau continuous sehingga tidak mungkin dipecahkan dengan algoritma exhaustive search +f02-04-119 penyelesaian dengan algoritma greedy +f02-04-120 ketiga strategi greedy yang telah disebutkan di atas dapat digunakan untuk memilih objek yang akan dimasukkan ke dalam knapsack +f02-04-121 mari kita bahas satu per satu +f02-04-122 berikut merupakan contohnya +f02-04-123 strategi pemilihan objek ke dalam knapsack berdasarkan densitas p i per w i terbesar pasti memberikan solusi optimal +f02-04-124 agar proses pemilihan objek tersebut optimal maka kita urutkan objek berdasarkan p i per w i yang menurun sehingga objek berikutnya yang dipilih adalah objek yang sesuai dalam urutan itu +f02-04-125 teorema tiga titik dua jika p satu per w satu lebih besar sama dengan p dua per w dua hingga p n per w n maka algoritma greedy dengan strategi pemilihan objek berdasarkan p i per w i terbesar menghasilkan solusi yang optimum +f02-04-126 algoritma persoalan fractional knapsack +f02-04-127 hitung harga p i per w i dengan i satu hingga n +f02-04-128 lalu urutkan seluruh objek berdasarkan nilai p i per w i yang dari besar ke kecil +f02-04-129 lalu panggil fungsi fractional knapsack +f02-04-130 yang kelima adalah penjadwalan job dengan tenggat waktu atau job schedulling with deadlines +f02-04-131 persoalannya adalah ada n buah job yang akan dikerjakan oleh sebuah mesin +f02-04-132 tiap job diproses oleh mesin selama satu satuan waktu dengan tenggat atau deadline setiap job i adalah d i lebih besar sama dengan nol +f02-04-133 job i akan memberikan keuntungan sebesar p i jika dan hanya jika job tersebut diselesaikan tidak melebihi tenggat waktunya +f02-04-134 bagaimana memilih job job yang akan dikerjakan oleh mesin sehingga keuntungan yang diperoleh dari pengerjaan itu maksimum +f02-04-135 fungsi objektif persoalan ini adalah sebagai berikut +f02-04-136 solusi yang layak adalah himpunan j yang sedemikian sehingga setiap job di dalam j selesai dikerjakan sebelum tenggat waktu +f02-04-137 solusi optimum ialah solusi layak yang memaksimumkan f +f02-04-138 dengan melakukan contohnya pemecahan masalah dengan exhaustive search-nya adalah dengan mencari himpunan bagian atau subset job yang layak dan memberikan total keuntungan terbesar +f02-04-139 pemecahan masalah dengan algoritma greedy yaitu strategi greedy untuk memilih job yaitu pada setiap langkah pilih job i dengan p i yang terbesar untuk menaikkan nilai fungsi obyektif f +f02-04-140 contohnya merupakan sebagai berikut +f02-04-141 dengan kompleksitas algoritma greedy o n pangkat dua +f02-04-142 yang keenam adalah pohon merentang minimum +f02-04-143 atau algoritma prim +f02-04-144 strategi greedy yang digunakan pada setiap langkah pilih sisi e dari graf g v e yang mempunyai bobot terkecil dan bersisian dengan simpul simpul di t tetapi tidak membentuk sirkuit di t +f02-04-145 +f02-04-146 berikut merupakan algoritmanya +f02-04-147 yang lain adalah algoritma kruskal yaitu strategi greedy yang digunakan adalah pada setiap langkah pilih sisi e dari graf g yang mempunyai bobot minimum tetapi e tidak membentuk sirkuit di t +f02-04-148 berikut merupakan algoritmanya serta pseudocode-nya +f02-04-149 yang ketujuh adalah lintasan terpendek atau shortest path +f02-04-150 beberapa macam persoalan lintasan terpendek +f02-04-151 yaitu lintasan terpendek antara dua buah simpul tertentu a pair shortest path +f02-04-152 lintasan terpendek antara semua pasangan simpul all pairs shortest path +f02-04-153 lintasan terpendek dari simpul tertentu ke semua simpul yang lain single source shortest path +f02-04-154 dan lintasan terpendek antara dua buah simpul yang melalui beberapa simpul tertentu yaitu intermediate shortest path +f02-04-155 yang akan dibahas adalah yang lintasan terpendek dari simpul tertentu ke semua simpul yang lain yaitu single source shortest path +f02-04-156 persoalannya adalah diberikan graf berbobot g v e +f02-04-157 tentukan lintasan terpendek dari sebuah simpul asal a ke setiap simpul lainnya di g +f02-04-158 asumsi yang kita buat adalah bahwa semua sisi berbobot positif +f02-04-159 penyelesaian dengan algoritma brute force misalkan ingin menentukan jarak terpendek dari a ke b +f02-04-160 enumerasi semua lintasan yang mungkin dibentuk dari a ke b hitung panjangnya +f02-04-161 lintasan yang memiliki panjang terkecil adalah lintasan terpendek dari a ke b +f02-04-162 ulangi cara yang sama untuk jarak terpendek dari a ke c dari a ke d dan seterusnya +f02-04-163 algoritma dijkstra +f02-04-164 strategi greedy +f02-04-165 pada setiap langkah ambil sisi yang berbobot minimum yang menghubungkan sebuah simpul yang sudah terpilih dengan sebuah simpul lain yang belum terpilih +f02-04-166 lintasan dari simpul asal ke simpul baru haruslah merupakan lintasan yang terpendek diantara semua lintasannya ke simpul simpul yang sebelum terpilih +f02-04-167 edsger w dijkstra seribu sembilan ratus tiga puluh hingga dua ribu dua +f02-04-168 edsger w dijkstra adalah penemu dari algoritma dijkstra ini +f02-04-169 berikut merupakan prosedurnya +f02-04-170 yang ke lapan adalah penempatan data dengan algoritma huffman +f02-04-171 prinsip kode huffman adalah karakter yang paling sering muncul di dalam data dengan kode yang lebih pendek sedangkan karakter yang relatif jarang muncul dikodekan dengan kode yang lebih panjang +f02-04-172 berikut merupakan penjelasannya +f02-04-173 algoritma greedy untuk membentuk kode huffman +f02-04-174 dilakukan dengan cara yang pertama baca semua karakter di dalam data untuk menghitung frekuensi kemunculan setiap karakter +f02-04-175 setiap karakter penyusun data dinyatakan sebagai pohon bersimpul tunggal +f02-04-176 setiap simpul di-assign dengan frekuensi kemunculan karakter tersebut +f02-04-177 terapkan strategi greedy sebagai berikut +f02-04-178 pada setiap langkah gabungkan dua buah pohon yang mempunyai frekuensi terkecil pada akar +f02-04-179 akar mempunyai frekuensi yang merupakan jumlah dari frekuensi dua buah pohon penyusunnya +f02-04-180 ulangi langkah lagi dua sampai hanya tersisa satu buah pohon huffman +f02-04-181 kompleksitas algoritma huffman adalah o n log n +f02-04-182 berikut merupakan contohnya +f02-04-183 yang kesembilan adalah pecahan mesir atau egyptian fraction +f02-04-184 persoalannya adalah diberikan sebuah pecahan p per q +f02-04-185 dekomposisi pecahan menjadi jumlah dari sejumlah pecahan yang berbeda +f02-04-186 dalam hal ini k satu kurang dari k dua hingga k n +f02-04-187 pecahan yang diberikan mungkin mempunyai lebih dari satu representasi mesir +f02-04-188 contohnya sebagai berikut +f02-04-189 kita ingin mendekomposisikan dengan jumlah unit pecahan sesedikit mungkin +f02-04-190 strategi greedy pada setiap langkah adalah tambahkan unit pecahan terbesar ke representasi yang baru terbentuk yang jumlahnya tidak melebihi nilai pecahan yang diberikan +f02-04-191 algoritmanya adalah sebagai berikut +f02-04-192 dengan input

p per q maaf +f02-04-193 mulai dengan i sama dengan satu +f02-04-194 jika p sama dengan satu maka k i sama dengan q stop +f02-04-195 yang ketiga adalah se per k i sama dengan pecahan yang terbesar yang lebih kecil dari p per q +f02-04-196 maka p per q sama dengan p per q kurangi satu per k i +f02-04-197 lalu ulangi langkah dua +f02-04-198 contohnya adalah sebagai berikut +f02-04-199 kesimpulannya adalah algoritma greedy untuk masalah pecahan mesir tidak selalu optimal +f02-04-200 yang kesepuluh adalah connecting wires +f02-04-201 nah sebagai berikut +f02-04-202 aplikasi algoritma greedy pada permainan othello juga bisa +f02-04-203 othello atau reversi adalah permainan yang menggunakan papan atau board game dan sejumlah koin yang berwarna gelap misal hitam dan terang misalnya putih +f02-04-204 ukuran papan biasanya lapan kali delapan kotak atau grid dan jumlah koin gelap dan koin terang masing masing sebanyak enam puluh empat buah +f02-04-205 sisi setiap koin memiliki warna yang berbeda sisi pertama gelap dan sisi kedua terang +f02-04-206 pada permainan ini kita asumsikan warna hitam dan putih jumlah pemain dua orang +f02-04-207 dalam permainan ini setiap pemain berusaha mengganti warna koin lawan dengan warna koin miliknya misalnya dengan membalikkan koin lawan dengan cara menjepit atau memblok koin lawan secara vertikal horizontal ataupun diagonal +f02-04-208 barisan koin lawan yang terletak dalam satu garis lurus langsung diapit oleh sepasang koin pemain yang current diubah atau reverse warnanya menjadi warna pemain yang current +f02-04-209 setiap pemain bergantian meletakkan koinnya +f02-04-210 jika seorang pemain tidak dapat meletakan koin karena tidak ada posisi yang dibolehkan permainan kembali ke pemain lainnya +f02-04-211 jika kedua pemain tidak bisa lagi meletakkan koin maka permainan berakhir +f02-04-212 hal ini terjadi jika seluruh kotak telah terisi atau ketika seorang pemain tidak lagi memiliki koin atau ketika dua pemain tidak dapat melakukan penempatan koin lagi +f02-04-213 pemenangnya adalah pemain yang memiliki koin paling banyak di atas papan +f02-04-214 algoritma greedy dapat diaplikasikan untuk memenangkan permainan +f02-04-215 algoritma greedy berisi sejumlah langkah untuk melakukan penempatan koin yang menghasilkan jumlah koin maksimal pada akhir permainan +f02-04-216 algoritma greedy dipakai oleh komputer pada tipe permainan komputer versus manusia +f02-04-217 dua strategi greedy heuristik yang pertama adalah greedy by jumlah koin +f02-04-218 pada setiap langkah koin pemain menuju koordinat yang menghasilkan sebanyak mungkin koin lawan +f02-04-219 strategi ini berusaha memaksimalkan jumlah koin pada akhir permainan dengan menghasilkan sebanyak banyaknya koin lawan pada setiap langkah +f02-04-220 greedy by jarak ke tepi pada setiap langkah koin pemain menuju ke koordinat yang semakin dekat dengan tepi arena permainan +f02-04-221 strategi ini berusaha memaksimalkan jumlah koin pada akhir permainan dengan menguasai daerah tepi yang sulit untuk dilangkahi oleh koin lawan +f02-04-222 bahkan untuk pojok area yang sulit dilangkahi oleh lawan +f02-04-223 greedy by jumlah koin yang pertama untuk himpunan kandidatnya adalah langkah langkah yang menghasilkan jumlah koin yang diapit +f02-04-224 himpunan solusinya adalah langkah langkah dari himpunan kandidat yang memiliki jumlah koin yang diapit paling besar +f02-04-225 fungsi seleksinya adalah milih langkah yang memiliki jumlah koin diapit paling besar +f02-04-226 fungsi kelayakannya adalah semua langkah adalah layak +f02-04-227 fungsi objektifnya yaitu maksimumkan jumlah koin lawan +f02-04-228 berikut merupakan gambarnya +f02-04-229 sekian untuk algoritma greedy +f02-04-230 terima kasih +f03-01-001 selamat pagi semuanya +f03-01-002 apa kabar sehat sehat +f03-01-003 ya masih inget gak pelajaran kemarin itu tentang apa +f03-01-004 ya kita belajar tentang pembelajaran mesin yaitu learning system design desain sistem pembelajaran nah +f03-01-005 pada saat ini kita akan belajar tentang clustering khususnya unsupervised learning +f03-01-006 apasih unsupervised learning itu +f03-01-007 nah clustering sendiri adalah proses pengelompokkan data menjadi cluster berbasis kesamaan data +f03-01-008 clustering ini gunanya untuk menemukan pengelompokkan pengelompokkan yang alamiah yang natural berdasarkan data yang ada +f03-01-009 terdapat tiga karakteristik dari clustering +f03-01-010 yang pertama itu adalah high intra cluster similarity yaitu data pada cluster yang sama harus semirip mungkin +f03-01-011 kemudian yang kedua ada low inter cluster similarity yaitu data pada cluster yang berbeda harus seberbeda mungkin atau sejauh mungkin +f03-01-012 yang terakhir pengukuran kemiripan dan jarak harus jelas dan punya semantic practical nah semantic practical-nya ini akan bergantung pada domain aplikasi +f03-01-013 ya misalnya jadi pr lah ya contoh contoh semantic practical sesuai domain itu apa aja +f03-01-014 nah kenapa sih kita harus melakukan clustering +f03-01-015 terdapat tiga hal ya +f03-01-016 yang pertama data discovery +f03-01-017 jadi cluster ini sebagai struktur internal dari data contohnya ada search engine news aggregator gen +f03-01-018 kemudian yang kedua gunanya adalah partisi atau pengelompokkan contohnya segmentasi pasar +f03-01-019 ya jadi misalnya dari pembeli pembeli ini kita liat karakteristiknya kemudian kita liat nih segmentasinya pembeli yang seperti ini biasanya membeli produk produk yang seperti ini ya begitu ya +f03-01-020 kemudian yang terakhir ada bagian dari teknik lainnya jadi clustering ini bisa digunakan sebagai mungkin pendahuluan atau mungkin finishing dari teknik lainnya +f03-01-021 contohnya ada peringkasan teks berbasis clustering +f03-01-022 nah ada tahapan tahapan yang di dalam melakukan clustering +f03-01-023 ada tiga tahapan utama dan dua tahapan optional +f03-01-024 tahapan utamanya ini adalah pemilihan fitur atau bahasa inggrisnya feature selection +f03-01-025 yang dilakukan disini adalah kita memilih fitur fitur yang akan digunakan dari fitur fitur yang ada +f03-01-026 misalnya untuk mahasiswa ada nama ada tanggal lahir ada ada daerah asal dan sebagainya +f03-01-027 kemudian untuk menganalisis tentang mahasiswa mungkin kita tidak perlu mengambil namanya karena biasanya nama tidak berpengaruh pada apa apa +f03-01-028 kemudian ada lanjutan dari feature selection yaitu ekstraksi fitur atau feature extraction yaitu transformasi dari fitur fitur yang sudah kita ambil +f03-01-029 mungkin dibutuhkan transformasi lebih lanjut menjadi fitur yang lebih mudah di yang mudah di analisis lebih mudah dikomputasikan +f03-01-030 misalnya yang tadinya tanggal lahir berupa sembilan september sembilan belas sembilan delapan +f03-01-031 kemudian ditransformasi menjadi sembilan sembilan sembilan belas sembilan lapan +f03-01-032 yang kedua tahapan yang kedua dari clustering adalah pattern proximity atau similarity measure +f03-01-033 yaitu melihat kesamaan kesamaan diantara instance yang ada +f03-01-034 yang ketiga yang terakhir adalah grouping +f03-01-035 pengelompokkan dari instance instance yang ada +f03-01-036 nah output-nya ini bisa memiliki dua jenis yang satu hard yang satu soft +f03-01-037 apa itu soft clustering +f03-01-038 soft clustering itu setiap instance bisa memiliki membership nilai membership yang berbeda pada cluster cluster sedangkan hard clustering setiap instance hanya memiliki satu cluster +f03-01-039 kebayang gak bedanya ya +f03-01-040 kalau hard satu instance satu cluster kalau soft clustering satu instance memiliki persentase persentase membership ke setiap cluster +f03-01-041 nah ada tahapan lanjutan dari clustering tapi ini optional sih +f03-01-042 yaitu yang pertama abstraksi data dan yang kedua adalah penilaian terhadap output apakah output yang dihasilkan oleh sistem itu sudah baik atau masih perlu direvisi +f03-01-043 terdapat beberapa jenis atau mungkin beberapa metode ya beberapa cara untuk merepresentasikan cluster +f03-01-044 yang pertama itu menggunakan centroid +f03-01-045 jadi cluster yang ini centroid-nya siapa sih yang paling tengah gitu yang paling tengah di cluster itu +f03-01-046 kemudian cara yang kedua adalah three distant points jadi di cluster itu tiga titik mana yang terjauh +f03-01-047 kemudian ada pohon klasifikasi dan ada juga conjunctive statements +f03-01-048 nah clustering ini ada beberapa kategorinya nih metode metodenya +f03-01-049 dengan partisi ada dengan hierarki ada yang dengan density atau kerapatan ada yang dengan grid dan ada yang dengan model based berbasis model +f03-01-050 nah kita akan bahas satu satu ya +f03-01-051 mungkin ini pembukaan dari setiap jenis lebih tepatnya ya +f03-01-052 yang pertama metode partitioning itu dengan partisi +f03-01-053 dia mengidentifikasi partisi yang mengoptimalkan kriteria pengelompokkan misalnya menggunakan squared error atau absolute error +f03-01-054 jadi dia berusaha mempartisi sedemikian rupa supaya misalnya squared error-nya paling minimal absolute error-nya minimal +f03-01-055 kemudian disini itu yang dilakukan adalah konstruksi k partisi dari data jadi membuat sejumlah partisi yaitu sejumlah ini misalnya disini jumlahnya k +f03-01-056 contohnya itu ada k means k medoids kayak gitu gitu ya yang k k gak sih tapi ya dua contohnya adalah k means dan k medoids +f03-01-057 yang kedua ada metode yang hierarchical +f03-01-058 yang hierarchical ini tuh menghasilkan rangkaian partisi bersarang ada dua jenis atau dua pendekatan yang pertama itu bottom up +f03-01-059 jadi dia kalau bottom up itu berarti dari instance yang terlepas semua kemudian ada yang di-merge ada yang di-merge ada yang di-merge ada yang di-merge sampai akhirnya utuh menjadi satu cluster semua +f03-01-060 nah ini tuh namanya agglomerative ya yang kayak gitu yang bottom up dari banyak instance kemudian di-merge di-merge di-merge berdasarkan kedekatannya +f03-01-061 yang kedua itu ada yang top down jadi dari semuanya jadi satu cluster terus ada yang dipisahin ada yang dipisahin ada yang dipisahin ada yang dipisahin sampai akhirnya terbagi bagi menjadi sekian cluster sekian pengelompokkan +f03-01-062 nah yang ini namanya divisive +f03-01-063 yang ketiga itu metode berbasis kerapatan atau density +f03-01-064 nah yang dimaksud dengan density ini kalau dalam kasus clustering ini ya +f03-01-065 densitas itu bisa dikatakan jumlah objek +f03-01-066 contohnya ada dbscan +f03-01-067 dbscan itu density based spatial clustering of applications with noise +f03-01-068 yang keempat ada metode berbasis grid +f03-01-069 metode berbasis grid ini menggunakan struktur grid dia cepat bergantung dengan jumlah sel tidak dipengaruhi jumlah objek dan perhitungannya bisa dilakukan secara paralel +f03-01-070 nah ini bagus lah ya untuk jaman ini dimana komputasi komputasi biasanya ribet kompleks berat sehingga perlu digunakan perlu dihitung dengan paralel +f03-01-071 nah grid ini ternyata saudara saudara baik untuk eksekusi yang paralel +f03-01-072 yang kelima ada metode berbasis model contohnya itu e m atau expectation maximization dan s o m self organizing map +f03-01-073 sekarang kita akan bahas lebih detil mengenai metode partisi +f03-01-074 kriteria objektif dari metode partisi ini adalah objek di dalam suatu cluster memiliki kemiripan yang lebih besar dibanding dengan objek yang berada di cluster yang lain +f03-01-075 dalam kata lain partisi ini maaf +f03-01-076 semua objek di dalam data semua objek itu kita berusaha mempartisinya sedemikian rupa agar squared error itu terminimasi +f03-01-077 nah disini digunakan relokasi iteratif yaitu prosesnya iteratif menempatkan objek ke cluster untuk memperbaiki partisi +f03-01-078 jadi gak cuma sekali kita melakukan partisinya tapi selalu coba diulang misalnya kayak yang sekarang partisinya kayak gini nih yang bagus tapi setelah dilihat ternyata di iterasi berikutnya oh gak partisi yang ini masih kurang kurang baik masih besar error-nya daripada kalau partisinya seperti ini +f03-01-079 kira kira seperti itu +f03-01-080 nah contohnya itu k means k medoids dan graph theoretic +f03-01-081 input pada algoritma k means +f03-01-082 oh iya ya sekarang kita bahas yang k means dulu nih +f03-01-083 untuk k means itu input-nya ada k yaitu jumlah cluster dan d yaitu dataset-nya yang mengandung n objek +f03-01-084 output-nya adalah apa ya output-nya ya sejumlah k cluster +f03-01-085 kompleksitasnya adalah o n k t dan jumlah iterasinya maaf dimana t adalah jumlah iterasi k jauh lebih kecil dari n dan t jauh lebih kecil dari n +f03-01-086 nah langkah langkahnya nih +f03-01-087 yang pertama kita pilih k objek +f03-01-088 k objek ini random aja arbitrary +f03-01-089 kita pilih k objek untuk menjadi pusat pusat cluster awal gitu random aja +f03-01-090 kemudian yang kedua kita mengulang terus mengulang terus beberapa hal di bawah ini sampai kita tidak perlu mengubahnya lagi +f03-01-091 nah apa yang mesti kita ulang ulang +f03-01-092 yang harus kita ulang ulang adalah yang harus kita ulang ulang adalah nih yang pertama +f03-01-093 kan kita udah dapet nih k k objek yang jadi centroid di setiap cluster +f03-01-094 kemudian kita lihat objek objek yang lain itu paling deket ke yang mana sih dari k centroid itu +f03-01-095 nah kalau udah mereka jadi satu cluster kan yang deket deket itu +f03-01-096 setelah mereka udah jadi k cluster kita hitung lagi nih setiap cluster rata ratanya berapa sih dia tuh pusatnya dimana +f03-01-097 kalau udah ketemu pusatnya dimana diulang lagi setiap data yang ada instance yang ada objek yang ada kita liat yang paling deket ke pusat yang mana kayak gitu ya +f03-01-098 nah di k means ini +f03-01-099 apa ya dia tuh sangat dipengaruhi oleh cluster awalnya oleh inisiasi centroid centroid awalnya +f03-01-100 kelemahan k medoids sorry +f03-01-101 kelemahan k means itu ada disini ada lima ya +f03-01-102 yang pertama tidak ada panduan penentuan nilai k yang baik +f03-01-103 jadi bener bener apa ya ya spesifik spesifik kasus gitu tergantung kasusnya dan perlu eksperimen +f03-01-104 yang kedua hasil sangat dipengaruhi oleh inisialisasi centroid +f03-01-105 ya ini tadi kita udah bahas ya +f03-01-106 inisialisasi centroid ini dapat menjadi faktor dari dua hal ini nih +f03-01-107 misalnya sering berhenti pada optimum lokal atau hasil akhir tidak stabil +f03-01-108 nah kelemahan yang ketiga algoritmanya tidak scalable +f03-01-109 yang keempat mean hanya ter definisi untuk atribut yang numerik +f03-01-110 sehingga kalau untuk atribut yang nominal digunakan metode k mods namanya modus +f03-01-111 nah k means juga prosesnya sensitif terhadap outliers jadi outlier dengan nilai yang ekstrim bisa mempengaruhi mean pada centroid +f03-01-112 yang kedua itu ada k medoids +f03-01-113 nah k medoids itu lebih handal dibanding k means dalam menangani noise atau outlier +f03-01-114 nah ini ini bukan kata kata saya ya saudara saudara ini kata kata yang dimunculkan oleh han dan kamber tahun dua ribu enam +f03-01-115 nah kan kita udah belajar nih cara kerja k medoid seperti apa nah +f03-01-116 kalau kita lihat lihat kita perhatikan dengan seksama +f03-01-117 k medoids itu lebih robust terhadap outlier karena medoid-nya tidak sensitif terhadap nilai outliers seperti k means tapi k medoids itu prosesnya membutuhkan waktu yang lebih banyak dari k means +f03-02-001 selamat pagi semuanya +f03-02-002 pada saat ini saya akan mempresentasikan sebagian dari tugas akhir saya yaitu pencarian kata kunci pada graf al kitab +f03-02-003 mengapa perlu diteliti +f03-02-004 terdapat tiga hal +f03-02-005 yang pertama di dalam gereja terdapat perbedaan pengertian terhadap al kitab +f03-02-006 nah perbedaannya ini bukan sekadar perbedaan sudut pandang tetapi terkadang terdapat perbedaan perbedaan yang memang kontradiksi gitu satu sama lain +f03-02-007 misalnya yang satu menganggap a kemudian orang yang lain menganggap negasi a gitu +f03-02-008 kalau misalnya yang satu menganggap a dan yang satu menganggap b tetapi mereka tidak saling bernegasi hal itu masih mungkin dan masih tidak apa apa +f03-02-009 kemudian yang kedua kakas yang sudah ada open bible belum membantu manusia melakukan analisis lebih lanjut +f03-02-010 dan yang ketiga ada potensi untuk melakukan eksplorasi pada representasi graf dari al kitab +f03-02-011 nah dari segi informatika sendiri sudah banyak apa ya pengembangan pengembangan atau penelitian penelitian mengenai pencarian kata kunci pada graf +f03-02-012 biasanya yang dilakukan adalah tiga hal ini +f03-02-013 satu identifikasi simpul simpul atau himpunan himpunan simpul yang relevan dengan kata kunci yang diinginkan pengguna +f03-02-014 kemudian yang kedua pengurutan simpul atau himpunan simpul yang diidentifikasi pada langkah satu ya jadi dari nomor satu itu diurutkan lagi berdasarkan algoritma ranking tertentu +f03-02-015 dan yang ketiga pengembalian jawaban berupa urutan sorry sorry maaf +f03-02-016 pengembalian jawaban berupa simpul atau himpunan simpul kepada pengguna +f03-02-017 dalam ta ini rumusan masalahnya ada tiga +f03-02-018 yang pertama apa kriteria efektivitas pencarian kata kunci pada al kitab +f03-02-019 yang kedua algoritma apa yang paling efektif untuk melakukan pencarian kata kunci pada graf al kitab berdasarkan kriteria yang maaf berdasarkan kriteria yang diidentifikasi pada rumusan masalah sebelumnya +f03-02-020 rumusan masalah terakhir adalah bagaimana kinerja algoritma tersebut jika dibandingkan dengan open bible +f03-02-021 sehingga tujuan dalam mengerjakan tugas akhir ini adalah memanfaatkan representasi graf dari al kitab dalam rangka mengembangkan mesin pencari kata kunci untuk al kitab dan membandingkan kinerjanya dengan open bible +f03-02-022 nah terdapat beberapa batasan dalam mengerjakan tugas akhir ini ya tentu saja +f03-02-023 terdapat empat batasan +f03-02-024 yang pertama pencarian kata kunci dilakukan pada al kitab terjemahan king james version +f03-02-025 kemudian ruang solusi dibatasi pada teknik teknik yang memanfaatkan struktur data graf +f03-02-026 yang ketiga kata kunci yang dicari terdapat pada al kitab terjemahan king james version dalam kata lain +f03-02-027 kalau misalnya misalnya pengguna memasukkan kata yang seperti contohnya trinity hal itu memang sangat dekat dengan al kitab tetapi karena hal itu tidak pernah tertulis dalam al kitab maka sistem akan mengembalikan himpunan kosong +f03-02-028 yang keempat solusi akan membantu pengguna menemukan semua ayat yang perlu dipelajari tetapi tidak membantu proses hermenetikanya +f03-02-029 adapun langkah langkah pengerjaanya yaitu yang pertama analisis masalah +f03-02-030 yang kedua identifikasi alternatif solusi +f03-02-031 yang ketiga analisis alternatif solusi +f03-02-032 yang keempat perancangan solusi kemudian implementasi solusi dan yang terakhir evaluasi dan penarikan kesimpulan +f03-02-033 nah jadi apasih kriteria efektivitas pencarian kata kunci pada al kitab +f03-02-034 menurut muller pedoman pembelajaran al kitab itu adalah mengumpulkan semua ayat yang berhubungan dengan sebuah kata atau dengan sebuah konsep +f03-02-035 kemudian dilakukan analisis terhadap ayat ayat tersebut +f03-02-036 kemudian terdapat beberapa prinsip pembelajaran al kitab menurut wierner dan dave whitson +f03-02-037 tapi pada tugas akhir ini yang di-highlight adalah dua prinsip ini +f03-02-038 yang pertama ayat ayat al kitab perlu dipelajari bersama sama dengan ayat ayat lainnya yang berhubungan +f03-02-039 kedua semua bagian pada al kitab memiliki bobot yang sama +f03-02-040 nah dari pedoman dan prinsip ini diidentifikasilah dua kriteria efektivitas +f03-02-041 yang pertama mengembalikan maaf sistem harus bisa mengembalikan semua ayat yang mengandung baik kata kunci maupun kata yang terkait +f03-02-042 yang kedua sistem harus bisa memberikan kesempatan pada pengguna untuk melihat hubungan antar ayat +f03-02-043 karena itu maka yang digunakan adalah query expansion dan information complete and redundancy free keyword search over large graph data +f03-02-044 query expansion ini menggunakan basis data keterkaitan antaristilah yang diperoleh dengan menggunakan algoritma pada paper finding top k semantically related terms from relational keyword search oleh meng dan shao tahun dua ribu empat belas +f03-02-045 nah setelah query masukan dari pengguna di-expand digunakan algoritma icrf oleh kao chen dan kang tahun dua ribu dua belas untuk mengembalikan semua ayat yang mengandung kata kata pada expanded query beserta hubungannya +f03-02-046 graf hubungan antaristilah ini memiliki simpul yaitu semua kata yang ada pada basis data +f03-02-047 sisi sisinya melambangkan dua kata yang terdapat pada sebuah tuple yang sama atau dua kata yang terhubung oleh primary foreign key constraint +f03-02-048 langkah umumnya cukup sederhana yang satu hitung weight simpul yang kedua hitung weight sisi dan setiap kali setiap kali sistem menerima query maka sistem akan mencari top k istilah yang berhubungan dengan query +f03-02-049 nah mengapa sih menggunakan icrf +f03-02-050 pemilihan ini dilakukan dengan membandingkan icrf dengan xrank dbexplorer discovered backward search bidirectional search dan blinks +f03-02-051 yang pertama icrf dapat mengembalikan semua ayat yang mengandung kata kunci begitu pula kata kata yang terkait dengan kata kunci dengan melakukan query expansion +f03-02-052 yang kedua icrf dapat memperlihatkan hubungan antarsimpul kepada pengguna +f03-02-053 yang ketiga icrf dapat dikonfigurasi sedemikian rupa untuk memenuhi kebutuhan domain yang spesifik +f03-02-054 selanjutnya yang akan saya kerjakan +f03-02-055 yang pertama adalah menganalisis konfigurasi icrf yang efektif untuk domain al kitab +f03-02-056 yang kedua menganalisis konfigurasi query expansion yang efektif untuk domain al kitab +f03-02-057 yang ketiga implementasi sistem +f03-02-058 dan yang terakhir membandingkan sistem yang dibangun dengan kakas yang sudah ada yaitu open bible +f03-02-059 setelah itu dilakukan penarikan kesimpulan +f03-02-060 terima kasih +f03-03-001 mencari algoritma yang paling efektif +f03-03-002 jadi kan kriterianya adalah yang pertama mengembalikan semua ayat yang mengandung baik kata kunci maupun kata yang terkait +f03-03-003 yang kedua memberikan kesempatan pada pengguna untuk melihat hubungan antarayat +f03-03-004 nah sekarang kita akan membandingkan nih algoritma algoritma yang ada +f03-03-005 yang pertama object rank +f03-03-006 object rank mampu mengembalikan simpul yang tidak langsung mengandung kata kunci tetapi sayangnya tidak menggambarkan hubungan antarayat +f03-03-007 x rank ayat ayat al kitab tidak dapat direpresentasikan dengan xml +f03-03-008 dbexplorer dan discovered tidak dapat menggambarkan hubungan antarayat +f03-03-009 backward search bidirectional search dan blinks memiliki kapasitas untuk memanfaatkan node prestige tapi sayangnya karena karakteristik al kitab node prestige tidak dapat dimanfaatkan +f03-03-010 sedangkan icrf dapat menggambarkan hubungan antarayat secara komplet dan kriteria core node dapat disesuaikan dengan kebutuhan domain +f03-03-011 untuk menentukan top k istilah yang terkait dengan query yang pertama buat urutan istilah t i atau sebenernya tao i ya beranggotakan n jumlah istilah yang terurut mengecil berdasarkan nilai kopling istilah tersebut dengan kata pada query +f03-03-012 yang kedua hitung skor setiap istilah terhadap masing masing kata kunci dengan rumus berikut yaitu s t j given k i sama dengan n dikurang tao i dari t j ditambah satu +f03-03-013 nah kemudian diurutkannya dengan metode yang disebut threshold algorithm yaitu aksi setiap urutan out i secara round robin +f03-03-014 pada setiap iterasi hitung skor dari istilah yang ditemui dengan rumus skor t koma q sama dengan jumlah skor dari t terhadap atau given k i +f03-03-015 nilai ambang lambda pada sebuah iterasi adalah nilai skor yang ditemukan pada iterasi sebelumnya +f03-03-016 hentikan iterasi jika sudah ditemukan k istilah yang memiliki skor lebih besar atau sama dengan lambda +f03-04-001 strive for forms and functions pengembangan forms yang indah dilihat dan jelas mendukung functions untuk menggambarkan persentase pengeluaran per orang untuk makanan dan kalori per orang di sebuah negara +f03-04-002 forms dan functions mendukung satu sama lain +f03-04-003 kemudian untuk poin justifying the selection of everything they do +f03-04-004 makna dari visualisasi telah tertulis pada legenda +f03-04-005 satu tambahan untuk daily kilocalories per person titik warna merah yang lebih tua adalah titik periode lima tahun sekali +f03-04-006 semakin banyak kalori per orang pada satu periode warnanya semakin biru +f03-04-007 serta pemilihan warna yang kontras jelas dan seragam membuat visualisasi ini dinilai baik +f03-04-008 poin selanjutnya adalah creating accessibility through intuitive design +f03-04-009 desain yang simpel dan rapi membuat visualisasi ini tidak membingungkan dan pastinya membantu orang yang membacanya mendapat insight baru dari data +f03-04-010 yang terakhir never deceive the receiver +f03-04-011 dengan gambar yang proporsional besarnya sesuai dengan data visualisasi ini tidak menipu +f03-04-012 untuk contoh buruknya strive for forms and functions +f03-04-013 forms pada grafik membantu penyampaian pesan tren nilai maaf forms pada grafik membantu penyampaian pesan tren nilai persen jumlah pinjaman +f03-04-014 hanya saja terdapat kelemahan pada bagian function karena nilai nilai pada sumbu x tidak memiliki jarak yang konsisten +f03-04-015 kemudian justifying the selection of everything they do +f03-04-016 bentuk warna dan penempatan elemen pada grafik di atas tidak menghambat pengertian terhadap grafik +f03-04-017 namun untuk grafik dengan lebar yang relatif kecil penulisan label sumbu y tidak perlu dilakukan dua kali +f03-04-018 poin selanjutnya adalah creating accessibility through intuitive design/ +f03-04-019 nah kalau untuk kasus ini grafik dapat dimengerti dengan cepat +f03-04-020 yang terakhir never deceive the receiver +f03-04-021 terdapat perubahan jarak pada sumbu x dari per tahun menjadi per tiga bulan +f03-04-022 hal ini menimbulkan kesan bahwa akhir akhir ini pertumbuhan pinjaman melambat +f03-04-023 sementara jika nilai tahun dua ribu tiga belas disatukan akan terlihat bahwa terdapat peningkatan yang signifikan antara tahun dua ribu dua belas dan dua ribu tiga belas +f04-01-001 baik selamat pagi semuanya +f04-01-002 assalamualaikum warrahmatullahi wabarakatuh +f04-01-003 nah sekarang kita membahas contoh contoh visualisasi data yang baik yang buruk ataupun yang baik +f04-01-004 disini untuk menentukan apakah visualisasi data tersebut baik atau buruk kita memakai empat prinsip yang telah kita pelajari sebelumnya +f04-01-005 masih ingat +f04-01-006 coba sebutkan +f04-01-007 yang pertama apa +f04-01-008 oh iya benar +f04-01-009 strive for forms and function +f04-01-010 yang kedua justifying the selection of everything we do terus selanjutnya +f04-01-011 ya yang ketiga creating accessibility through intuitive design dan yang terakhir never deceive the receiver +f04-01-012 nah coba kalian liat ditampilan ini salah satu contoh visualisasi data +f04-01-013 menurut kalian ini visualisasi datanya baik atau buruk +f04-01-014 ya sama saya juga sependapat ini visualisasi data yang baik kenapa +f04-01-015 jika kita melihat dari empat prinsip tadi kita petakan satu per satu +f04-01-016 coba misalnya mulai dari prinsip yang pertama strive for forms and function jika dilihat dari gambar di tampilan +f04-01-017 coba kalian amati bagaimana bentuk dan fungsi pada contoh visualisasi data ini +f04-01-018 digambar ini mereka bertujuan untuk membandingkan nilai suatu brand nah caranya untuk membedakan ini yaitu dengan memberikan warna yang berbeda dari berbagai bidang +f04-01-019 liat buat yang warna merah mereka di bidang software warna hijau mereka di bidang apa itu ya fastfood kemudian warna apa itu oren di bidang pakaian dan sekaligus mereka selain memberikan warna warna yang berbeda di masing masing brand itu sekaligus memberikan pengetahuan kepada kita bahwa mereka memiliki bidang yang berbeda dan sekali kita liat jadi kita mengetahui bahwa itu berbeda bidangnya +f04-01-020 kemudian untuk yang prinsip kedua justifying the selection of everything we do coba liat lagi ke gambarnya +f04-01-021 menurut kalian kenapa mereka menggunakan lingkaran yang ukurannya berbeda beda sekaligus tadi ya yang warnanya berbeda tiap bidang +f04-01-022 coba kamu jawab +f04-01-023 ya benar jadi mereka menggunakan ukuran lingkaran yang berbeda untuk mendefinisikan jumlah nilai brand-nya dalam satuan dolar ya +f04-01-024 bisa dilihat jika jumlahnya yang besar mereka memiliki ukuran yang besar kemudian untuk yang jumlah dalam satuan dolarnya kecil mereka memiliki ukuran yang kecil +f04-01-025 nah itu mereka memiliki alasan kenapa memilih membedakan ukurannya +f04-01-026 kemudian alasannya apa coba +f04-01-027 oh iya itu alasannya untuk mengetahui perbandingan jumlahnya ya benar sekali +f04-01-028 terus selain itu apa lagi coba di prinsip ini +f04-01-029 coba liat di masing masing brand-nya mereka menonjolkan logo brand masing masing ditaruh di dalam lingkaran tesebut sehingga orang sekali liat langsung tau bahwa itu brand-nya berbeda ya ga +f04-01-030 ya bu +f04-01-031 benar nah ini penggunaan logo brand di tengah setiap lingkaran untuk mempermudah dalam mengenali brand value-nya +f04-01-032 kemudian prinsip selanjutnya +f04-01-033 apa tadi yang ketiga +f04-01-034 accessibility through intuitive design nah coba kira kira dari gambar ini kalian bisa menangkap ga bisa mendapatkan akses dari desainnya untuk dapat dimengerti +f04-01-035 nah kalo dari desain ini sangat mudah dipahami ya bahwa penggunaan ukuran lingkaran tersebut maka mudah dipahami bahwa semakin besar ukuran lingkaran maka value yang dimiliki oleh brand tersebut semakin besar bukan begitu +f04-01-036 nah terus selanjutnya kita prinsip yang terakhir +f04-01-037 apa tadi never deceive the receiver menurut kalian apakah gambar ini membohongi atau memanipulasi untuk pelihatnya +f04-01-038 enggak kan +f04-01-039 iya +f04-01-040 nah kenapa enggak karena memang ukuran lingkaran ukuran lingkaran dari setiap setiap brand ini sebanding dengan value yang dimiliki suatu brand atau apa adanya jadi disini tidak ada unsur manipulasi ya tidak ada unsur untuk membohongi para pembaca +f04-01-041 mengerti +f04-01-042 nah selanjutnya kita lanjut gambar selanjutnya +f04-01-043 coba dilihat sebentar +f04-01-044 lima detik +f04-01-045 menurut kalian ini gambar apa +f04-01-046 ini adalah gambar tentang penghasilan dari seorang pemain baseball yang terkenal pemain top-nya +f04-01-047 ini penghasilan di tahun dua ribu tujuh belas ya +f04-01-048 ini contoh yang buruk apa baik +f04-01-049 ada yang berpendapat ini baik angkat tangan coba +f04-01-050 ga ada ya +f04-01-051 ada yang berpendapat ini buruk +f04-01-052 oh berarti kalian semua berpendapat ini buruk +f04-01-053 kenapa nih +f04-01-054 kita liat dari prinsip yang pertama strive for forms and function dari bentuk dan fungsinya memang benar ya ini visualisasi datanya menunjukkan tentang perbandingan penghasilan karena memang mereka menonjolkan penghasilan dan perbedaannya dan juga nama namanya +f04-01-055 ya ga +f04-01-056 kemudian penggunaan bar juga dapat merepresentasikan jumlah penghasilannya sehingga menurut saya ini bentuk dan function-nya emang benar gitu +f04-01-057 bagaimana kalo menurut kalian +f04-01-058 sama sependapat dengan saya +f04-01-059 bagus +f04-01-060 selanjutnya coba kalo gitu kenapa ya ini bisa disebut jelek +f04-01-061 tadi yang angkat tangan semua orang kan +f04-01-062 coba salah satu kenapa ini jelek +f04-01-063 engga mau jawab +f04-01-064 saya bantu nih +f04-01-065 jadi kenapa ini jelek +f04-01-066 coba kita prinsip kedua ya +f04-01-067 apa tadi prinsip kedua +f04-01-068 justifying the selection of everything we do +f04-01-069 dari segi warna kira kira gimana +f04-01-070 cukup baik ya karena gimana dapat dilihat dapat warnanya menarik warna orange dan itu menunjukkan bar +f04-01-071 satu bar warna orange satu bar warna oren terus terdapat space sehingga tau mereka bar yang berbeda +f04-01-072 ini bagus ya itunya memilih bar dan warnanya +f04-01-073 tapi kenapa jelek disini +f04-01-074 nah coba liat panjang bar dengan jumlah penghasilannya +f04-01-075 untuk gambar yang pertama memang dia memiliki penghasilan yang banyak oleh karena itu panjang barnya juga panjang +f04-01-076 oh tetapi coba liat pemain yang kedua dan pemain yang terakhir nih +f04-01-077 itu sangat berbeda jauh kan penghasilannya tapi mereka memiliki bar yang sama +f04-01-078 pemain kedua jauh lebih kecil jumlah penghasilannya dari pemain keempat tapi mereka memiliki panjang bar yang sama +f04-01-079 ini pemilihan panjang barnya tidak proporsional begitu +f04-01-080 nah kemudian menurut saya jika tentang jumlah penghasilan seperti ini lebih baik di sort ya diurutkan begitu +f04-01-081 misal dari jumlah penghasilan paling tinggi ke paling terendah sehingga orang orang ketika menatap gambar ketika pertama kali melihat atau pokoknya melihat gambarnya jadi tau siapa yang memiliki penghasilan terbesar terus perbandingannya dengan penghasilan penghasilan pemain yang lain begitu +f04-01-082 nah disini terdapat gambar gambar ya di setiap pemainnya itu juga poin plus sebenernya untuk mengenali pemainnya +f04-01-083 coba selanjutnya prinsip ketiga accessibility through intuitive design +f04-01-084 menurut kalian gambar ini dari desainnya kalian dapat memahami ga +f04-01-085 kembali lagi ya +f04-01-086 karena tadi ada yang jumlah penghasilan yang lebih kecil tetapi memiliki panjang bar sama nah ini tidak memberi tahukan ke kita +f04-01-087 seperti contoh yang baik sebelumnya semakin besar ukuran lingkaran semakin besar nilai brandnya +f04-01-088 tapi kalau ini semakin panjang bar tidak memberikan pemahaman bahwa jumlah penghasilan dari pemain ini juga semakin besar karena ada pemain kedua dan keempat yang memiliki panjang bar yang sama padahal penghasilan berbeda +f04-01-089 itu juga minusnya ya +f04-01-090 kemudian selanjutnya yang prinsip terakhir nih +f04-01-091 prinsip terakhir yang never deceive the receiver +f04-01-092 ini sangat jelas ya kalo gambarnya sangat menipu gambarnya misleading istilahnya informasinya misleading karena itu tadi bentuk bentuk bukan ya karena panjang barnya tadi tidak sebanding dengan jumlah penghasilan +f04-01-093 nah dari dua contoh visualisasi data ini kita belajar ya untuk mendefinisikan mana visualisasi data yang baik mana visualisasi data yang buruk +f04-01-094 nah ini sebagai latihan sehingga nanti kalo ada visualisasi data kalian bisa menentukan ini baik atau buruk +f04-01-095 dan kalo misal yang buruk kalian juga bisa tau bagaimana mengimprovisenya meningkatkannya agar menjadi lebih baik +f04-01-096 oke untuk pertemuan kali ini sampai disini saja ya +f04-01-097 terima kasih +f04-01-098 wassalamualaikum warrahmatullahi wabarakatuh +f04-02-001 selamat siang semuanya +f04-02-002 assalamualaikum warrahmatullahi wabarakatuh +f04-02-003 kita lanjutkan pembahasan yang kemarin ya beberapa interface +f04-02-004 sekarang kita lanjut ke haptic interface +f04-02-005 haptic berasal dari kata yunani haptiko itu berarti being able to come into contact +f04-02-006 jadi secara definisinya haptic itu berhubungan dengan sensasi saat tersentuh touch karena haptic sendiri artinya touch atau merupakan connection gitu +f04-02-007 secara umumnya haptic ini berhubungan dengan persepsi dan manipulasi suatu objek menggunakan sensasi bersentuhan atau proprioception +f04-02-008 sedangkan antarmuka haptic itu merupakan sebuah sistem yang allows a human to interact with a computer through touch +f04-02-009 jadi manusia ini dapat berinteraksi dengan komputer menggunakan sentuhan atau secara umum komputer ini dapat merespon dari pergerakan user +f04-02-010 contohnya untuk saat ini itu ya +f04-02-011 kalian tau mengenai aplikasi levelizer +f04-02-012 tau ga +f04-02-013 itu sebuah mobile application yang berinteraksi dengan kamera smartphone jadi si levelizer ini memberikan haptic feedback pada saat pengguna ingin mengambil gambar dengan orientasi yang tidak lurus atau jadi si levelizer ini bekerja dengan bentuk landscape maupun potrait +f04-02-014 sedangkan ketika kita menggunakan aplikasi ini terus orientasinya tidak lurus maka dia akan memberikan bentuk getaran dari aplikasinya sehingga kita merasakan terdapat getaran di tangan kita yang berarti bahwa orientasinya belum benar +f04-02-015 itu salah satu contoh haptic inteface pada smartphone pada aplikasi ya +f04-02-016 kemudian ada beberapa contoh lain contohnya kalian tau keyboard +f04-02-017 keyboard yang itu yang ya keyboard biasa lah keyboard biasa juga bisa +f04-02-018 itu juga contoh haptic interface +f04-02-019 kenapa karena ketika kita menggunakan keyboard kita itu kan menekan tombol tombol atau ya menekan tombol tombolnya sehingga terjadi sensasi touch pada saat kita mengetiknya +f04-02-020 ada yang bisa ngasih contoh lagi terkait haptic interface +f04-02-021 ga ada +f04-02-022 oke kita lanjut ya +f04-02-023 oh ini contoh berikutnya +f04-02-024 contohnya cyber grasp system +f04-02-025 cyber grasp system ini merupakan wearable device coba lihat gambarnya jadi itu kayak ada mesin yang terpasang pada jari tangan kita ya pada tangan kita +f04-02-026 jadi si cyber grasp system ini merupakan wearable device yang dapat mengontrol robot secara remote dengan menggunakan tangan dan pengguna dapat merasakan objek apa yang dimanipulasi pada si komputer +f04-02-027 nah jadi kita dengan menggerakkan apa yang udah terpasang di jari kita itu seakan akan kita juga merasakan pergerakan si robotnya gitu +f04-02-028 terus di bagian eksoskeleton pada cyber grasp-nya itu juga dapat menghasilkan feedback resistive pada setiap jarinya +f04-02-029 jadi dengan memakai ini kita dapat merasakan ukuran atau ukuran dan juga bentuk objek yang dihasilkan dari si komputer +f04-02-030 ini sangat menarik ya karena kita karena kita menggunakan indra peraba kita ya jadi kita dapat merasakan secara langsung +f04-02-031 nah sebenarnya apasih keuntungan dengan penggunaan haptic interface ini +f04-02-032 karena memang semakin modern ini terdapat berbagai macam contoh ya yang menggunakan haptic inteface yang contohnya sudah saya sebutkan sebelumnya +f04-02-033 jadi keuntungannya itu salah satunya haptic interface tuh dapat meningkatkan kreatifitas dan ketelitian kitanya dalam menggunakan sebuah produk +f04-02-034 kemudian hal tersebut karena sangat mengandalkan sense of touch-nya +f04-02-035 karena kita merasakan sendiri kan jadi kita sangat terbantu nih mengembangkan kreatifitas kita dan ketelitian kita juga +f04-02-036 nah kemudian pengalaman yang diberikan oleh haptic inteface ini kan sangat bergantung dengan si penggunanya sehingga ya bisa memberikan pengalaman yang sesuai dengan keinginan pengguna dengan kebutuhan pengguna +f04-02-037 jadi pengguna merasa apa ya istilahnya satisfying lah karena apa yang mereka inginkan pengalaman apa yang mereka inginkan itu dilengkapi oleh si haptic interface ini +f04-02-038 kemudian selain itu contohnya tadi ya karena mengandalkan sense of touch maka si pengguna nih dapat menggunakan suatu produk tanpa melihat secara langsung sehingga tanpa melihat secara langsung dalam beberapa produknya +f04-02-039 contohnya yang tadi keyboard dia tidak melihat secara langsung tapi ketika dia menekan jari jarinya dia udah merasakan tuh udah merasakan sensasinya saat menekan tersebut +f04-02-040 nah sekaligus dengan adanya aplikasi aplikasi ini atau hardware ini mereka dapat meningkatkan efektifitas kerja pengguna juga +f04-02-041 kemudian dari sisi user experience haptic inteface ini dapat meningkatkan ux-nya contohnya tadi yang enjoyable ataupun engaging karena pengguna menerima feedbacksecara langsung melalui sensasi tubuhnya +f04-02-042 terus disini kita ada advantage-nya keuntungannya pasti juga ada kekurangannya kan ya disadvantage-nya +f04-02-043 apasih kekurangan dari haptic inteface ini +f04-02-044 haptic inteface jikalau berlebihan itu dari sisi user experience-nya dapat menyebabkan pengguna merasa annoy +f04-02-045 coba tiba tiba ketika kamu apa ya misalnya kamu menggunakan keyboard nih itu kan misalnya cuma menekan nekan gitu bisa kan tetapi ketika haptic interface berlebihan di setiap tombol keyboard-nya terdapat getaran itu pasti annoy banget gak sih annoy kan ya ketika neken geter neken geter neken geter gitu jadi kayak gak pengin lah nyentuh gitu +f04-02-046 nah coba kekurangan yang lain +f04-02-047 apa coba +f04-02-048 +f04-02-049 contohnya bukan contoh sih ya kekurangan haptic interface lagi ya itu dari sisi feedback-nya +f04-02-050 jadi si haptic feedback itu tidak memberikan keterangan spesifik mengenai apa yang harus dilakukan oleh pengguna +f04-02-051 contohnya hanya berupa efek getaran sehingga dapat menyebabkan kebingungan untuk pemulanya +f04-02-052 contohnya tadi kayak keyboard tadi tiba tiba ada getaran gitu ya pasti itu membuat bingung kan +f04-02-053 jadi salah satunya ya itu feedback-nya kemudian tadi yang jika berlebihan itu merasa annoy +f04-02-054 selanjutnya beberapa implementasi haptic itu cenderung kompleks ya sehingga membutuhkan perangkat keras dengan specs yang tinggi dan kekuatan pemrosesan yang besar +f04-02-055 nah itu salah satu kerugiannya +f04-02-056 kemudian terakhir itu objek yang dimanipulasi bersifat virtual sehingga interaksi dengan perangkat mengharuskan semua sifat fisik di program ke dalam aplikasi +f04-02-057 akibatnya biaya untuk implementasi teknologi haptic ini bisa sangat besar jadi haptic interface ini salah satu interface teknologi yang gak murah begitu +f04-02-058 nah itu terakhir beberapa jenis interface +f04-02-059 sekian dulu besok kita lanjut ke materi selanjutnya ya +f04-02-060 terima kasih wassalamualaikum warrahmatullahi wabarakatuh +f05-01-001 nah bahasan kali ini adalah mengenai software as a service +f05-01-002 nah software as a service itu akan dibahas nanti lebih lanjut mengenai berbagai aspek yaitu tentang cloud computing arsitekturnya karakteristik dan juga contoh contoh aplikasi yang sudah ada sekarang +f05-01-003 nah pertama itu adalah cloud computing +f05-01-004 sebagai salah satu model yang menjadi tren di bisnis perangkat lunak saat ini cloud computing memanfaatkan internet untuk memproses dan menyimpan datanya +f05-01-005 lebih tepatnya cloud computing adalah model penyampaian perangkat lunak dengan cloud vendor yang menyediakan akses ke resource-nya +f05-01-006 jadi untuk aplikasi aplikasi yang di-deploy ke cloud atau yang disebut dengan cloud computing kita tidak perlu memperdulikan tentang pengelolaan resource-nya +f05-01-007 lalu untuk bentuk bentuk resource-nya pada cloud computing itu adalah berbentuk shared resource yaitu untuk memproses komputasi dapat berupa aplikasi computing storage jaringan pengembangan platform untuk development dan juga deployment dan juga berbagai bisnis proses lainnya +f05-01-008 nah dengan cloud computing itu proses komputasi dan pengelolaan data dapat diakses melalui internet dengan menyediakan yang disebut dengan service +f05-01-009 cloud computing telah memunculkan paradigma paradigma komputasi yang didistribusikan dalam skala yang besar +f05-01-010 sebagai hasil evolusi dari computer pertama bertahun tahun yang lalu hingga berkembangnya internet saat ini jaringan komputer semakin meluas dan mencakup skalabilitas yang tinggi +f05-01-011 ketika dulu perusahaan it harus melakukan perawatan pada infrastruktur data center yang dimiliki dengan adanya cloud computing yang disediakan oleh cloud service provider membuat pengelolaan infrastruktur dapat dengan mudah dilakukan secara remote +f05-01-012 nah model cloud computing memberikan banyak peluang dan mengurangi ketergantungan pada kepemilikan juga investasi pada it resource +f05-01-013 pemilihan model service yang tepat merupakan kunci suksesnya penggunaan layanan cloud +f05-01-014 terdapat tiga cloud service model yaitu infrastructure as a service platform as a service dan software as a service yang akan kita bahas lebih lanjut +f05-01-015 nah masing masing model ini tuh memiliki abstraski level yang berbeda beda untuk memudahkan pengguna dalam membangun sistem dengan cloud +f05-01-016 nah kebutuhan pengelolaan resource dan infrastruktur dapat berkurang dengan adanya level abstraksi sehingga pengguna itu dapat lebih fokus pada permasalahan bisnis saja +f05-01-017 seperti untuk software as a service pengguna dapat men-deploy software-nya dalam cloud serta memanfaatkan platform platform yang sudah ada yang disebut juga platform as a service +f05-01-018 sedangkan infrastruktur seperti amazon web service dan juga windows azure menyediakan infrastruktur infrastruktur yang dapat dimanfaatkan oleh pengguna untuk men-deploy dan juga memberikan layanan software sebagai service-nya +f05-01-019 nah pada infrastructure as a service model penyampaian infrastrukturnya berupa storage jaringan dan juga resource lain sebagai dasar dari perangkat lunak termasuk operating system dan aplikasi lain +f05-01-020 sehingga pengguna pengguna yang ingin memanfaatkan operating system pada cloud dapat menggunakan menggunakan perusahaan perusahaan yang menyediakan infrastructure as a service +f05-01-021 dengan adanya infrastructure as a service ini berbagai kebutuhan berkaitan dengan pengelolaan dan pemeliharaan infrastruktur secara fisik atau langsung dapat dilakukan secara remote melalui kode program yang sudah dibuat maupun melalui web +f05-01-022 nah banyak vendor yang menyediakan layanan infrastructure as a service seperti yang sudah saya sebutkan sebelumnya yaitu amazon web amazon web service yang memberikan layanan yang umum diberikan oleh infrastructur as a service itu termasuk sebuah data center dan juga storage +f05-01-023 nah untuk platform as a service layanan yang diberikan adalah berupa abstraksi yang di layarnya di atas infrastruktur yaitu sebagai platform untuk aplikasi +f05-01-024 nah platform as a service ini menyediakan middleware juga deployment tools untuk aplikasi dapat dengan mudah di-deploy ke infrasktrutur yang sudah ditentukan +f05-01-025 nah umumnya platform as a service ini ditujukan untuk memudahkan pengguna dalam melakukan pengembangan perangkat lunak +f05-01-026 nah contoh contohnya itu adalah cloud share amazon yang memliki platform juga azure juga memiliki platform di atas infrastructure as a service-nya +f05-01-027 dan juga dengan adanya platform as a service ini pengembang tidak perlu lagi mengatur cloud infrastructure-nya yang digunakan namun hanya perlu mengatur aplikasi yang akan di-deploy dan juga dikonfigurasi lebih lanjut +f05-01-028 nah untuk software as a service ini adalah merupakan layanan abstraksi di atas platform as a service tadi yaitu sebagai stack paling atas +f05-01-029 pembahasan software as a service lanjut akan dibahas pada subbab +f05-01-030 software as a service akan dilanjut pada bagian berikutnya +f05-01-031 nah layanan software as a service model ini digunakan dalam pengembangan perangkat lunak yang dibangun untuk menyediakan service yang dapat diakses oleh user melalui internet +f05-01-032 jadi seperti gmail dan juga aplikasi aplikasi yang berbasis cloud itu kita dapat mengaksesnya melalui web tapi hanya mengakses service-nya saja tidak perlu men-download aplikasi ke dalam perangkat yang kita gunakan sehingga itu merupakan salah satu kemudahan yang di miliki oleh software as a service yaitu tidak perlu men-download dan juga meng-install aplikasi yang akan digunakan namun hanya perlu memanfaatkan web dan internet untuk mengakses service-nya +f05-01-033 nah untuk vendor saas sendiri menyediakan aplikasi pada cloud environment sekaligus menunjang perawatan dan juga pembaharuan dan juga sekaligus perbaikan serta berbagai aktivitas pendukung lain pada aplikasi tersebut +f05-01-034 nah semua layanan tersebut disediakan oleh vendor +f05-01-035 sedangkan untuk proses proses lain akan di akan memanfaatkan layanan layanan dari vendor yang sudah ada +f05-01-036 nah dengan adanya saas ini mengeliminasi kebutuhan perusahaan untuk menyediakan infrastruktur yang sudah saya sebutkan tadi pembangunan serta perawatan perangkat lunak sehingga cost-nya itu untuk kebutuhan tersebut dapat dikurangi +f05-01-037 nah jika dibandingkan dengan aplikasi sekarang ini seperti aplikasi on premise beberapa perbedaan umumnya yaitu pada kebutuhan dari deployment pengelolaan lokasi dan juga lisensi aplikasi +f05-01-038 lisensi aplikasi tidak lagi sama dengan aplikasi on premise namun hanya berupa service yang akan disampaikan lisensinya +f05-01-039 nah untuk aplikasi on premise itu sendiri lisensinya dimiliki untuk kepemilikannya membeli harus membeli lisensi atas kepemilikannya +f05-01-040 sedangkan untuk saas ini lisensi akan sesuai dengan pemakaian aplikasi saja +f05-01-041 contohnya seperti aplikasi aplikasi office yang sekarang ketika kita harus menggunakan kita perlu membeli lisensi satu produk tertentu untuk kepemilikannya namun untuk produk office yang bersifatnya cloud atau software as a service kita hanya perlu membeli lisensi sesuai dengan penggunaan kita saja tidak perlu memiliki lisensi untuk kepemilikan seluruhnya +f05-01-042 nah apa saja sih karakteristik dari software as a service ini +f05-01-043 model pembangunan perangkat lunak ini memiliki beberapa karakteristik yang membedakan dari perangkat lunak pada tradisional atau yang biasanya +f05-01-044 nah salah satu karakteristiknya itu adalah perangkat lunak ini dapat diakses melalui web yaitu melalui internet juga +f05-01-045 nah pengguna mengakses service ini tuh biasanya melalui web browser tanpa melakukan instalasi pada device yang sebelumnya sudah saya sebutkan +f05-01-046 selain melalui web browser service juga dapat diakses melalui wan pada personal computer client +f05-01-047 dan juga model delivery ini model delivery perangkat lunak ini dengan berbagai service yang dimilikinya memiliki kemiripan dengan apa yang disebut dengan service oriented architecture atau soa +f05-01-048 nah berbagai karakteristik lainnya dari saas adalah pengelolaan vendor dan tenant yang unik dibandingkan dengan aplikasi tradisional +f05-01-049 nah secara arsitektur sendiri software as a service memiliki kemiripan dengan prinsip software oriented design eh maaf service oriented design +f05-01-050 nah untuk service oriented design ini artinya bagian bagian kecil dari software yang akan kita sampaikan itu di jadi kan sebagai service sehingga masing-masing masing-masing komponen dari aplikasi dapat di jadikan service yang akan saling berkomunikasi +f05-01-051 nah untuk perbedaan yang signifikan adalah adanya metadata service untuk mengelola konfigurasi untuk setiap tenants atau pengguna layanan +f05-01-052 tenant itu lebih tepatnya adalah term untuk untuk yang digunakan pada software as a service yaitu untuk pengguna yang memiliki banyak end user sehingga contohnya misalkan suatu aplikasi memiliki banyak tenant misalkan tenant itu adalah perusahaan perusahaan atau instansi yang akan menggunakan software itu yang disampaikan pada service tadi +f05-01-053 nah tiap tiap instansi ataupun perusahaan itu memiliki end user end user yang dapat berjumlah banyak sehingga tenant itu seperti pengguna namun seperti kelompok pengguna pada instansi atau kelompok organisasi tertentu +f05-01-054 nah untuk konfigurasi yang saya sebutkan tadi dapat diubah ubah oleh pengguna sehingga salah satu karakteristik utama dari software as a service itu adalah pengguna dapat melakukan custom-isasi pada service service yang kini digunakan oleh tentant itu +f05-01-055 jadi misalkan suatu perusahaan memiliki layanan software as a service office yang memiliki banyak fitur +f05-01-056 nah fitur fitur tersebut dapat di custom-isasi oleh pengguna sesui dengan keinginannya masing masing termasuk tampilan ataupun data yang akan digunakan atau fitur fitur lebih lanjut yang bisa digunakan sesuai dengan subscribe-si yang di gunakan atau subscribe-si yang dipilih oleh pengguna atau yang disebut dengan tenant tadi +f05-01-057 nah subscribe-si ini lebih lanjut akan dibahas dengan apa yang disebut billing jadi setiap tenant akan memiliki billing yang berbeda beda sesuai dengan service yang digunakan +f05-01-058 nah untuk arsitektur dari saas ini menunjang kebutuhan kebutuhan aplikasi yaitu dari segi extensiability security dan juga scalability karena service yang digunakan akan service yang disampaikan akan digunakan oleh banyak user terutama banyak tenant dan juga banyak end user lain sehingga perlu adanya arsitektur dengan scalability yang tinggi +f05-01-059 nah dari segi security sendiri perlu dijamin keamanan dari data yang dimiliki oleh setiap penggunanya karena dari segi arsitektur dan juga penyampaian aplikasi yang berbeda dengan on premise tentu saja service yang digunakan oleh para pengguna harus dijamin keamanannya dari dari pengguna lain +f05-01-060 sehingga para pengguna dari aplikasi yang kita sampaikan merasa aman menyampaikan dan juga memberikan data data yang dimilikinya ke aplikasi yang kita sampaikan +f05-01-061 nah salah satu nah ini contoh contoh dari aplikasi saas +f05-01-062 nah model saas ini memberikan sebetulnya memberikan banyak solusi yang dari vendor vendor cloud biasanya dalam dalam berupa customer oriented service dan juga business oriented service +f05-01-063 nah contoh dari customer oriented service ini adalah service yang disampaikan itu lebih ditujukan untuk pengguna pengguna secara personal +f05-01-064 sedangkan untuk business oriented service ini ditujukan untuk instansi atau kelompok kelompok yang menggunakan aplikasi secara berbayar +f05-01-065 nah untuk saas yang berorientasi bisnis ini perangkat lunaknya biasanya untuk perusahaan perusahaan dan juga instansi dan juga dijual dalam bentuk subscribe-si tadi +f05-01-066 nah solusi yang ditawarkan biasanya berkaitan dengan proses bisnis seperti product management dan juga customer relationship management +f05-01-067 nah layanan layanan beroritentasi pada customer atau customer oriented service ini juga memberikan solusi untuk pengguna pada yang pengguna secara personal pada umumnya +f05-01-068 nah kebanyakan layanan ini nih tidak dijual secara berbayar namun digunakan secara gratis seperti contohnya adalah email berbasis web tadi atau gmail dan juga email lain dan juga online game +f05-01-069 apa lagi ya consumer banking seperti pada bank bank yang menyediakan layanan internet banking dan sebagainya +f05-01-070 untuk salah satu pengembangan saas sendiri saat ini yang disebut dengan saas integration platform merupakan platform yang dapat digunakan untuk mengombinasikan beberapa software as a service-nya +f05-01-071 nah jadi untuk beberapa aplikasi yang disampaikan sebagai service dapat dikombinasikan menjadi satu aplikasi tertentu +f05-01-072 nah untuk perusahaan yang menawarkan layanan sip contohnya adalah microsoft salesforce oracle dan juga dan juga perusahaan perusahaan lainnya +f05-01-073 nah berikut akan dibahas juga perusahaan perusahaan yang menawarkan layanan software as a service +f05-01-074 nah salah satu yang besar dan juga tekenal itu adalah salesforce +f05-01-075 salesforce merupakan perusahaan yang menawarkan customer relationship management atau yang disebut dengan crm itu berbasis cloud dan juga menawarkan berbagai platform untuk pembangunan aplikasi di insfrastruktur yang dimiliki oleh salesforce +f05-01-076 nah model yang digunakan oleh salesforce ini yaitu untuk pengembangan aplikasi dengan multitenancy +f05-01-077 nah akan dibahas lebih lanjut tentang multitenancy +f05-01-078 nah multitenancy itu adalah salah satu model di software as a service untuk membangun arsitektur dimana satu tenant itu berbagai banyak tenant menggunakan satu instance atau beberapa instance jadi prinsip yang digunakan dari multitenancy yaitu resource yang digunakan oleh banyak tenant itu akan dimodelkan untuk saling berbagi yaitu saling sharing resource +f05-01-079 itu akan memudahkan pemilik software untuk mengembangkan aplikasi yang lebih scalable dan juga lebih efisien dan juga efisien dalam hal resource dan juga cost-nya +f05-01-080 nah sebenarnya banyak model model yang dapat digunakan untuk membangun sebuah saas termasuk ketika tenant memiliki satu instance ketika tenant dapat meng-custom-isasi instance instance yang digunakan karena instance yang instance yang dimaksud disini adalah software yang akan digunakan sehingga misalkan suatu perusahaan tertentu meng-custom aplikasinya sedemikian rupa sesuai dengan perusahaannya +f05-01-081 nah itu berarti instance yang dimilikinya itu berbeda dengan instance instance lain yang digunakan oleh perusahaan lain yang sama menggunakan aplikasi tersebut +f05-01-082 ada juga model dimana tenant itu menggunakan instance yang sama artinya aplikasi yang digunakan itu memiliki karakteristik sama dengan yang lainnya tanpa ada custom-isasi tertentu +f05-01-083 ada juga misalkan tenant banyak tenant itu menggunakan satu instance saja nah untuk model ini yang kita sebut dengan multitenancy tadi sehingga sebenarnya satu tenant itu menggunakan resource yang sama aplikasi yang sama sejenis +f05-01-084 namun memiliki apa yang disebut dengan service level agreement yang berbeda beda untuk tiap tenant-nya +f05-01-085 ada juga yang sebenarnya yang disebut juga multitenancy model lain yaitu ketika banyak tenant itu menggunakan sebenarnya banyak instance banyak resource namun tidak tentu satu tenant itu memiliki satu resource sehingga diperlukan sebuah yang disebut load balancer yaitu ketika satu tenant tertentu akan di-assign ke instance tertentu untuk saling berbagi resource tadi +f05-01-086 nah untuk level level model atau yang disebut dengan level kematangan dari sebuah software as a service itu sebenarnya memiliki keuntungan dan kekurangan masing masing +f05-01-087 nah yang makin banyak dikembangkan saat ini yaitu untuk model saas multitenant yang disebutkan tadi nah +f05-01-088 pada sebuah aplikasi multitenant itu sebuah tenant merupakan sebuah representasi dari kelompok end user yang sebelumnya saya sebutkan jadi mereka akan saling berbagi resource saling berbagi kode saling berbagi data untuk memenuhi kebutuhan bisnis organisasi tadi +f05-01-089 namun salah satu challenge yang sekarang ada saat ini yaitu proses multitenant memerlukan sebuah model custom-isasi untuk aplikasi aplikasi yang akan digunakan oleh tenant +f05-01-090 nah seperti yang saya sebutkan tadi sebuah software as a service biasanya dapat di custom-isasi sesuai dengan kebutuhan kebutuhan dari tenant atau penggunanya tadi +f05-01-091 namun pada multitenant ini ketika sebuah atau sebuah tenant itu menggunakan satu aplikasi yang berbagi resource tentu perlu ada penanganan berbagai custom-isasi dan juga berbagai macam data yang akan digunakan oleh tenant +f05-01-092 nah +f05-01-093 model aplikasi multitenant memberikan kemungkinan untuk tenant berinteraksi dengan empat sharing level +f05-01-094 nah empat sharing level itu tadi salah satunya yaitu yang pertama fully isolated service level yaitu tenant itu dapat mengakses service yang khusus untuk setiap tenant yang khusus untuk setiap tenant yang masing masingnya akan berbeda +f05-01-095 sehingga service service yang digunakan oleh tenant tersebut fully isolated untuk satu satu tenant saja nah +f05-01-096 yang kedua yaitu shared instance and juga isolated session level yaitu setiap tenant akan berbagi dan mengakses service yang sama namun memiliki session yang berbeda +f05-01-097 yang ketiga yaitu interface level yaitu setiap tenant memiliki akses pada sebuah service dengan memanfaatkan jsp atau servlet interface yang berbeda beda +f05-01-098 sehingga level level akses dari setiap tenant itu berbeda pada interface dari yang digunakannya saja +f05-01-099 nah untuk yang ketiga yaitu database level yaitu data service-nya itu dibagi untuk banyak tenant dengan memberikan id pengenal yang berbeda beda sehingga untuk satu tenant akan memiliki level database yang berbeda beda +f05-01-100 nah untuk yang terakhir ini adalah pembahasan tentang kebutuhan dan apasih aktivitas aktivitas yang biasanya banyak dilakukan pada pengembangan dan juga perawatan dari software as a service +f05-01-101 nah pada aplikasi multitenant sendiri pola kebutuhan sangat berbeda dengan aplikasi yang single tenant atau yang sekarang mungkin disebut dengan on premise atau traditional aplikasi yang seperti biasanya +f05-01-102 nah kebutuhan dari aplikasi multitenant itu dapat dibagi menjadi dua perspektif umum yaitu pada sisi tenant dan juga pada sisi provider +f05-01-103 nah pada perspektif tenant banyak kebutuhan kebutuhan mengenai availability scalability mengenai cost dan juga mengenai isolation yang sebelumnya sudah disebutkan serta juga customizability yang terakhir yaitu regulatory compliance nah +f05-01-104 dari kebutuhan kebutuhan ini hal yang paling signifikan tentu pada customizability dan juga isolation +f05-01-105 nah customizability ini yaitu setiap tenant memiliki preferensi yang berbeda beda dan tentu memiliki kebutuhan yang berbeda beda juga sehingga tenant juga menginginkan aplikasi yang dapat di-customize yang dapat menambah atau mengurangi fitur yang dimiliki oleh aplikasi tersebut +f05-01-106 nah biasanya juga ada tenant tenant yang menginginkan user interface yang berbeda sesuai dengan perusahaan masing masing +f05-01-107 nah untuk isolation yang isolation telah dibahas sebelumnya nah salah satunya salah satu kebutuhan lain yaitu cost-nya +f05-01-108 sebagai pengguna aplikasi yang berbayar ini tenant perlu juga mengetahui sistem billing apa saja yang digunakan oleh penyedia layanan atau provider-nya sehingga tenant juga mengetahui perkiraan berapa sih biaya yang akan dikeluarkan untuk menggunakan aplikasi tersebut +f05-01-109 biasanya sistem billing yang dilakukan oleh provider itu berbeda beda sesuai dengan service yang akan disampaikan +f05-01-110 nah tentu saja dari sisi tenant ingin mengetahui seberapa besar biaya yang akan dikeluarkan sesuai dengan pengunaan service yang sudah digunakan oleh perusahaan tersebut +f05-01-111 nah untuk dari sisi provider nah dari sisi provider itu biasanya hal hal yang dilakukan itu prosesnya misalkan billing untuk penanganan multiple service level dan juga maintainability nah yang terakhir ini yang paling penting yaitu monitoring +f05-01-112 nah untuk monitoring ini penyedia harusnya memantau aplikasi setiap waktu untuk mengetahui permasalahan dan juga melakukan penanganan secara lebih efektif dan juga efisien +f05-01-113 ketika terjadi suatu masalah pada service yang disampaikannya pada penggunanya tentu provider harus menangani secara langsung dan juga efektif efisien untuk menyelesaikan masalah yang terjadi pada service-nya +f05-01-114 termasuk dalam memantau penggunaan aplikasi oleh masing masing tenant +f05-01-115 hal ini sangat diperlukan untuk mengetahui bagaimana penggunaan tenant dan juga bagaimana proses billing yang akan dilakukan pada aplikasinya +f05-01-116 nah untuk proses billing penyedia layanan biasanya memiliki metode metode yang berbeda beda +f05-01-117 nah terdapat juga berbagai pendekatan untuk melakukan perhitungan pada tagihan biaya pada penggunanya misalnya disesuaikan dengan penggunaan resource atau juga menggunakan fixed rate +f05-01-118 fixed rate biasanya untuk subscribe-si bulanan atau mungkin mingguan sesuai dengan metode yang diterapkan oleh perusahaan yang menyediakan atau provider +f05-01-119 nah salah satu pendekatan fixed rate ini biasanya tidak terlalu memperhitungkan mengenai monitoring atau penggunaan resource dari tenant-nya +f05-01-120 selain itu ada juga pendekatan lain untuk melakukan penagihan yaitu dengan metrik penggunaan layanan yang mana untuk +f05-01-121 yang mana provider akan memantau bagaimana penggunaan aplikasi bagaimana resource resource yang digunakan oleh tenant itu seberapa besar dan juga seberapa banyak digunakan nah +f05-01-122 dari kebutuhan kebutuhan itu sebetulnya yang paling signifikan dari proses billing itu adalah bagaimana memonitor penggunaan aplikasi atau service yang digunakan oleh tenant +f05-01-123 nah untuk salah satu dari kebutuhan atau aktivitas dari provider yaitu untuk mengatur multiple service level +f05-01-124 nah ini berkaitan dengan kebutuhan tenant untuk melakukan custom-isasi aplikasi yang akan digunakan +f05-01-125 nah dengan berbagai macam kebutuhan dari sisi tenant sendiri itu tadi provider harus memberikan penawaran penawaran yang beragam pula seperti bundle bundle atau macam macam subscribe-si yang bisa dilakukan oleh tenant +f05-01-126 nah banyak biasanya satu provider itu menyediakan versi langganan yang berbeda beda sesuai dengan kebutuhan tenant +f05-01-127 nah dari segi +f05-01-128 dari sisi provider itu maka harus mengatur bagaimana service level akan diterapkan seperti bagaimana service ini akan berhubungan dengan service lain atau yang juga disebut dengan multiple service level +f05-01-129 nah untuk +f05-01-130 nah untuk contoh contoh yang umumnya bisa di lihat lebih lanjut adalah arsitektur arsitekturnya pada windows azure ataupun juga amazon web service atau juga pada penyedia penyedia infrastruktur yang lain yang juga banyak memberikan platform platform untuk para pengembang dapat membangun aplikasi pada cloud +f05-01-131 mungkin itu saja sekian +f06-01-001 okay jadi saya akan menjelaskan sedikit mengenai agent based model +f06-01-002 agent based model ini termasuk dari sebuah metode pemodelan sistem kompleks sistem kompleks +f06-01-003 apa itu sistem kompleks sistem kompleks adalah suatu sistem yang terdiri dari beberapa komponen +f06-01-004 yang saling berinteraksi +f06-01-005 nah contoh sistem kompleks ini banyak ditemui dalam kehidupan sehari-hari misalkan sistem yang berjalan pada sebuah sel manusia perilaku hewan hingga fenomena sosial +f06-01-006 dalam sistem tersebut terdapat berbagai jenis komponen yang berbeda yang memiliki karakter tugas dan maupun kebiasaan yang berbeda dan saling berinteraksi satu sama lain sehingga dapat dicapai suatu tujuan tertentu secara global +f06-01-007 nah pemodelan +f06-01-008 menggunakan agent based model ini +f06-01-009 terfokus pada +f06-01-010 pemodelan terhadap +f06-01-011 pelaku kasusnya +f06-01-012 terdapat beberapa definisi mengenai agent based model menurut hiroki sayama definisi dari agent based model ialah suatu pemodelan dan simulasi yang dilakukan secara komputasional dengan melibatkan agen-agen diskrit di dalamnya +f06-01-013 sementara menurut macal dan north +f06-01-014 agent based model +f06-01-015 digunakan untuk memodelkan suatu sistem kompleks yang dibangun dari agen-agen yang saling berinteraksi secara otonom atau mandiri dan mampu melakukan pengambilan keputusan sendiri +f06-01-016 nah agent based model ini merupakan suatu paradigma pemodelan dengan menggunakan sudut pandang agen atau pelaku aktivitas seperti yang sudah dijelaskan sebelumnya +f06-01-017 pemodelan ini termasuk salah satu metode bottom up +f06-01-018 yaitu suatu kondisi dimodelkan berdasarkan +f06-01-019 tiap unit-unit yang menyusunnya yaitu masing-masing agen akan berinteraksi dengan banyak agen lainnya dan lingkungan +f06-01-020 sehingga dapat memberikan gambaran mengenai suatu kondisi secara global +f06-01-021 agent based modelling dilakukan dengan cara meperhatikan perilaku atau behaviour dari masing-masing agennya dan relasi antaragen maupun dengan lingkungan +f06-01-022 secara secara keseluruhan agent based model ini memiliki karakteristik sebagai berikut +f06-01-023 yaitu yang pertama merupakan pemodelan dengan pendekatan bottom up +f06-01-024 yang kedua +f06-01-025 aspek waktu dimodelkan secara diskrit +f06-01-026 yang ketiga pemodelan tersusun dari agen-agen yang saling berinteraksi dan yang keempat yaitu agen bisa bersifat adaptif terhadap situasi atau kondisi yang sedang terjadi +f06-01-027 +f06-01-028 sementara itu kelebihan yang ditawarkan dari paradigma ini jika dibandingkan dengan paradigma yang lain yaitu kemampuan untuk menghasilkan emergent phenomena +f06-01-029 dapat memberikan deskripsi alami sistem dan fleksibel +f06-01-030 maka dari itu paradigma ini banyak digunakan untuk memodelkan berbagai macam fenomena alam maupun sosial +f06-01-031 yang sering kali susah untuk ditransformasikan menjadi model matematis +f06-01-032 berdasarkan kelebihan tersebut +f06-01-033 agent based model biasanya digunakan untuk memodelkan suatu sistem yang tersusun dengan jumlah agen yang banyak +f06-01-034 dan tidak ditemuinya komando secara terpusat yang memberi detail secara jelas terhadap masing-masing agen yang terlibat +f06-01-035 maksudnya +f06-01-036 setiap agen disini akan +f06-01-037 berlaku sesuai dengan +f06-01-038 perilaku yang telah di-assign terhadap masing-masing agen tersebut +f06-01-039 tidak ada suatu perintah khusus secara umum yang memberitahukan kepada masing-masing agen apa yang harus dilakukannya +f06-01-040 sehingga agen biasanya bersifat independen +f06-01-041 yaitu agen melakukan pengambilan keputusan secara mandiri berdasarkan stimulus yang didapatkannya +f06-01-042 untuk mendapatkan gambaran yang lebih jelas diberikan sebuah contoh pada +f06-01-043 +f06-01-044 lampu lalu lintas +f06-01-045 suatu contoh yang terjadi pada persimpangan jalan dengan lampu lalu lintas +f06-01-046 apabila lampu merah menyala hal tersebut tidak secara langsung membuat +f06-01-047 kendaraan berhenti +f06-01-048 maksudnya lampu tersebut tidak akan membuat +f06-01-049 kendaraan serta merta berhenti +f06-01-050 sementara lampu tersebut hanya memberikan stimulus bagi +f06-01-051 pengendaranya untuk menghentikan mobilnya +f06-01-052 agen pengambil keputusan di sini tentu manusia yang bisa saja dia mengambil keputusan yang berlawanan yaitu dengan tidak memberhentikan kendaraan ketika lampu merah menyala +f06-01-053 selanjutnya +f06-01-054 sebuah agent based model memiliki tiga elemen +f06-01-055 yaitu satu sekumpulan agen +f06-01-056 yang kedua keterhubungan antar agen dan jenis interaksinya atau yang biasa disebut dengan topologi +f06-01-057 dan yang terakhir yaitu lingkungannya +f06-01-058 selanjutnya akan dibahas mengenai agen terlebih dahulu +f06-01-059 agen merupakan aspek penyusun utama dari sebuah sistem kompleks yang memiliki atribut dan perilaku tertentu +f06-01-060 agen dari sebuah sistem memiliki beberapa karakteristik sebagai berikut +f06-01-061 yang pertama yaitu diskrit dan teridentifikasi +f06-01-062 maksudnya terdapat perbedaan yang jelas antara satu agen dengan agen yang lain +f06-01-063 maupun agen dengan lingkungannya +f06-01-064 sehingga dapat diidentifikasi relasi-relasi yang terbentuk antaragen maupun antar lingkungan +f06-01-065 yang kedua yaitu autonomous +f06-01-066 maksudnya masing-masing agen secara mandiri aktif melakukan aksi-aksi tanpa ada komando secara terpusat +f06-01-067 yang ketiga yaitu agen memiliki state +f06-01-068 state atau status bisa berupa kondisi tertentu yang dianggap +f06-01-069 sebagai state +f06-01-070 yang sedang berlaku pada agen maupun kombinasi dari kondisi-kondisi tersebut +f06-01-071 sebagai contoh dalam kasus +f06-01-072 lampu merah yang tadi state disini state dari sebuah mobil +f06-01-073 bisa berarti +f06-01-074 mobil tersebut berhenti atau mobil tersebut tetap jalan seperti itu +f06-01-075 selanjutnya +f06-01-076 +f06-01-077 karakteristik selanjutnya yaitu berinteraksi +f06-01-078 dan mampu mempengaruhi lingkungannya +f06-01-079 yang kelima yaitu memiliki kemampuan beradaptasi +f06-01-080 kemampuan beradaptasi ini +f06-01-081 tegantung terhadap stimulus yang diberikan atau stimulus yang +f06-01-082 didapatkannya +f06-01-083 yang keenam +f06-01-084 yaitu goal directed +f06-01-085 yaitu agen bergerak +f06-01-086 atau melakukan aksi lainnya disadari oleh sebuah tujuan yang ingin dicapainya sebuah tujuan yang ingin dicapai oleh suatu agen +f06-01-087 bukan hanya merespon dan beradaptasi terhadap stimulus dari eksternal agent tersebut +f06-01-088 nah selanjutnya agen hanya memiliki informasi yang terbatas +f06-01-089 tidak memiliki informasi mengenai kondisi global dari sistem +f06-01-090 untuk mencapai tujuannya maka agen akan melakukan interaksi dengan agen di sekitarnya +f06-01-091 atau dengan lingkungannya untuk menentukan aksi apa yang harus dilakukan selanjutnya +f06-01-092 kembali kepada contoh mobil yang sedang dikendarai di suatu jalan +f06-01-093 nah +f06-01-094 tujuan dari sebuah agen tersebut adalah +f06-01-095 mencapai tujuannya +f06-01-096 mencapai lokasi tujuannya +f06-01-097 nah sementara +f06-01-098 stimulus yang diberikan oleh lingkungan bisa jadi +f06-01-099 sebuah jalan yang harus belok ke kanan atau belok ke kiri atau mungkin +f06-01-100 menemui lampu lalu lintas yang mengharuskan mobil tersebut berhenti atau +f06-01-101 memutuskan untuk kembali berjalan seperti itu +f06-01-102 sebuah agen dapat melakukan aksi yang bisa dipengaruhi dirinya yang bisa mempengaruhi dirinya sendiri +f06-01-103 agen lain atau lingkungannya agen didefinisikan memiliki kumpulan state aksi dan aturan yang terdiri dari sequence perubahan state yang dipengaruhi oleh aksi +f06-01-104 seperti yang +f06-01-105 terdapat pada gambar berikut +f06-01-106 nah selanjutnya akan dibahas mengenai lingkungan +f06-01-107 lingkungan agen merupakan sebuah aspek yang melingkupi seluruh kegiatan agen lingkungan dapat terpengaruh dan berubah state sebagai respon dari interaksinya dengan agen +f06-01-108 lingkungan secara tidak langsung memberikan batasan-batasan yang harus diikuti oleh agen +f06-01-109 sementara itu lingkungan juga bisa disebut sebagai dunia yang membatasi agen dan cenderung bersifat pasif +f06-01-110 meskipun demikian kondisi lingkungan sangat memberikan pengaruh terhadap agen dan kondisi global yang muncul berdasarkan perilaku agen +f06-01-111 lingkungan harus didesain sedemikian rupa +f06-01-112 agar dapat memberikan stimulus yang tepat untuk agen +f06-01-113 misalkan dalam sebuah sistem evakuasi bencana +f06-01-114 pada kondisi design ruangan tertentu akan memberikan dampak kemacetan dan tingkat efektivitas proses evakuasi +f06-01-115 sementara itu pada contoh lain +f06-01-116 yaitu kasus perilaku serangga apabila diberikan kondisi berupa suhu yang tinggi pada lingkungan +f06-01-117 maka perilakunya akan berbeda jika dibandingkan dengan suhu yang normal +f06-01-118 selanjutnya ada +f06-01-119 beberapa contoh penerapan agent based model +f06-01-120 agent based model banyak digunakan untuk memodelkan perilaku alami makhluk hidup salah satunya adalah pembentukan formasi burung +f06-01-121 yang sedang melakukan migrasi +f06-01-122 pada kasus tersebut didefinisikan agennya adalah setiap individu burung yang terlibat +f06-01-123 dan memiliki arah terbang dengan kecepatan tertentu +f06-01-124 selanjutnya ditetapkan aturan yang berlaku untuk setiap agen +f06-01-125 yang pertama yaitu +f06-01-126 agen melakukan deteksi terhadap lokasi burung terdekat +f06-01-127 aturan ini berlaku ketika suatu agen telah berkelompok dengan beberapa agen yang lain +f06-01-128 dan harus mempertahankan posisinya untuk tetap bersama +f06-01-129 aturan yang kedua +f06-01-130 apabila aturan pertama tidak berlaku yaitu dalam kondisi agen tersebut belum memiliki kelompok tertentu +f06-01-131 maka dilakukan pencarian terhadap posisi agen terdekat yang memungkinkan suatu agen tersebut untuk bergabung +f06-01-132 kondisi tersebut misalnya arahnya tidak berlawanan jadi apabila suatu agen mengarah ke utara +f06-01-133 dia tidak akan bisa bergabung dengan sekumpulan agen yang mengarah ke selatan +f06-01-134 sebaliknya +f06-01-135 apabila +f06-01-136 maka +f06-01-137 agen tersebut dapat +f06-01-138 mengikuti suatu kumpulan agen +f06-01-139 yang mengarah ke timur atau ke barat +f06-01-140 selanjutnya aturan ketiga +f06-01-141 yaitu aplikasikan aturan kedua apabila +f06-01-142 apabila terjadi pertemuan antara +f06-01-143 dua kelompok berbeda +f06-01-144 dan usaha untuk bertahan dengan kelompok sebelumnya lebih besar daripada untuk bergabung dengan kelompok baru yang ditemui agen tersebut +f06-01-145 jadi misalkan +f06-01-146 apabila suatu agen yang belum memiliki kelompok tertentu +f06-01-147 lalu dia menemukan dua kelompok +f06-01-148 agen dengan arah yang berbeda +f06-01-149 maka +f06-01-150 maka dia akan +f06-01-151 mencoba menghitung +f06-01-152 kelompok mana yang +f06-01-153 memiliki usaha lebih sedikit +f06-01-154 untuk dia mengikuti kelompok tersebut +f06-01-155 contoh bisa dilihat dalam +f06-01-156 aplikasi +f06-01-157 net logo +f06-01-158 berikut ini ada suatu segmen garis +f06-01-159 yang menunjukkan +f06-01-160 bentuk formasi kelompoknya +f06-01-161 selanjutnya +f07-01-001 langsung saja kita mulai +f07-01-002 pada hari ini akan menjelaskan mengenai studi literatur terkait di bidang hci +f07-01-003 jadi yang pertama kita akan membahas tentang definisi perancangan interaksi +f07-01-004 apa itu definisi dari perancangan interaksi +f07-01-005 perancangan interaksi merupakan sebuah pendekatan yang mengutamakan kebutuhan manusia +f07-01-006 kapabilitas atau kemampuannya dan perilaku atau behaviour-nya +f07-01-007 nah alan cooper juga menyampaikan +f07-01-008 bahwa desain yang baik itu mulai dari psikologi dan teknologi atau mengkombinasikan keduanya +f07-01-009 selain itu desain yang baik juga membutuhkan komunikasi yang baik +f07-01-010 human centered design merupakan sebuah filosofi yang disertai dengan kumpulan prosedur +f07-01-011 dan kumpulan prosedur meliputi perancangan discovery feedback conceptual model affordance signifiers mapping dan constraint +f07-01-012 definisi satu persatu itu bisa +f07-01-013 akan dijelaskan sekarang jadi discoverability mengacu pada kemudahan pengguna dalam menemukan objek yang diinginkan +f07-01-014 ini erat kaitannya dengan posisinya atau ukurannya pada halaman +f07-01-015 lalu yang kedua adalah feedback +f07-01-016 feedback ini mengacu kepada reaksi yang diberikan oleh objek setelah pengguna memberikan aksi +f07-01-017 dan saat ini feedback itu sudah mulai beragam +f07-01-018 mulai dari interaksi rancangannya bahkan sebelum pengguna itu memberikan aksi +f07-01-019 maksudnya contohnya aksi kecil seperti hanya men-scroll kemudian interaksinya sudah muncul seperti itu +f07-01-020 lalu yang ketiga adalah conceptual model +f07-01-021 conceptual model merupakan proses analisis +f07-01-022 informasi apa saja yang akan diberikan pada antar muka +f07-01-023 lalu yang keempat adalah affordance mengacu pada hubungan antara objek dengan pengguna +f07-01-024 dan signifiers +f07-01-025 mengacu kepada peletakan objek agar pengguna dapat melakukan aksi yang sesuai dengan lebih mudah +f07-01-026 kemudian mapping mengacu kepada hubungan antara objek pada aplikasi dengan objek pada dunia nyata +f07-01-027 berikutnya adalah constraint yaitu menyediakan batasan dari segi fisik logic maupun semantik +f07-01-028 selain ketujuh prosedur di atas perancangan interaksi juga memiliki usability goal dan user experience goal +f07-01-029 ada enam usability goal yaitu effectiveness efficiency keamanan utility kemudian untuk dipelajari dan kemudian untuk diingat +f07-01-030 untuk user experience goal sendiri itu ada tujuh belas +f07-01-031 yang diinginkan sedangkan aspek yang tidak diinginkan juga ada +f07-01-032 dan pada tahap perancangan desain solusi desain yang dibangun bertujuan untuk menghadirkan user experience dan usability goal yang sesuai +f07-01-033 biasanya untuk user experience mungkin dapat dipilih dua atau tiga aspek yang diinginkan +f07-01-034 untuk begitu pula hal yang sama untuk usability goal +f07-01-035 oleh karena itu perancangan desain solusi itu dapat bervariasi bergantung pada user experience dan usability goal yang kemudian dipilih +f07-01-036 lalu kemudian ada pendekatan +f07-01-037 di sini ada empat pendekatan yang pertama user user centered activity centered system design dan genius design +f07-01-038 selain daripada metode yang dilakukan +f07-01-039 pada tahapannya berbeda juga dapat diukur dari banyaknya iterasi seperti pada user centered biasanya itu minimal mungkin akan dilakukan dua iterasi +f07-01-040 kemudian +f07-01-041 seberapa kedekatan +f07-01-042 designer dengan +f07-01-043 calon penggunanya +f07-01-044 kemudian untuk alur kerja yang dipilih +f07-01-045 karena pendekatan yang dipilih adalah user centered design ada berbagai alur kerja yang dapat dipilih salah satunya adalah iso lowdermilk dan albani-lombardi +f07-01-046 dan pada tugas akhir ini yang dipilih adalah +f07-01-047 iso pendekatan alur kerja dari iso +f07-01-048 jadi bagaimana ada empat tahap utama diantaranya adalah pemahaman konteks pendefinisian kebutuhan pengguna dan pemangku kepentingan perancangan desain solusi dan evaluasi desain solusi +f07-01-049 tapi tetapi selain dari keempat tahap tersebut +f07-01-050 alur kerja itu juga diinisiasi dengan tahap perencanaan karena sering kali pada +f07-01-051 design ini sendiri pun dalam tahap pembangunan suatu perangkat lunak itu termasuk ke dalam bagian analisisnya +f07-01-052 oleh karena itu +f07-01-053 perencanaan proses ini dinilai sebagai satu tahapan yang khusus yang dinilai cukup penting untuk diletakan sebelum melakukan +f07-01-054 kegiatan-kegiatan berikutnya +f07-01-055 pada tahap perencanaan sendiri terdapat dua proses utama yaitu persiapan kuesioner dan penyebaran kuesioner +f07-01-056 pada tahap analisis ruang lingkup terdapat empat proses utama yaitu identifikasi pengguna dan pemangku kepentingan karakteristik pengguna user goal dan user task serta lingkungan sistem +f07-01-057 untuk tahap yang ketiga yaitu analisis kebutuhan pengguna +f07-01-058 terdapat +f07-01-059 lima proses utama yaitu pemilihan konteks identifikasi masalah pengguna identifikasi ergonominya identifikasi objektif serta kebutuhan organisasi +f07-01-060 kemudian di tahap keempat yaitu perancangan design solusi terdapat empat proses utama yaitu identifikasi usability goal dan user experience goal +f07-01-061 perancangan prototipenya yang biasanya terbagi menjadi dua yaitu low fidelity dan high fidelity +f07-01-062 kemudian pengujian internal prototipe +f07-01-063 dan penyerahan prototipe kepada tim terkait +f07-01-064 untuk tahap pengujian design solusi atau tahap terakhir itu terdapat lima proses utama yaitu pengalokasian sumber daya +f07-01-065 perencanaan jalur evaluasi +f07-01-066 pelaksanaan pengujian analisis pengujian dan penyerahan design solusi kepada sistem terkait +f07-01-067 +f07-01-068 +f07-01-069 sedangkan pada dua alur kerja lainnya yaitu lowdermilk dan albani-lombardi +f07-01-070 keenam tahap tersebut berturut-turut menghasilkan team mission statement detail proyek kebutuhan pengguna kebutuhan fungsionalitas diagram basis data dan prototipe +f07-01-071 alur kerja ini tidak digunakan dalam penelitian karena tidak tersedia rincian pekerjaan pada setiap tahap +f07-01-072 selain itu alur kerja ini juga lebih ditujukan untuk pengembangan programmer daripada designer +f07-01-073 kemudian berdasarkan penjelasan di atas alur kerja lowdermilk cukup berbeda dari iso namun sebaliknya alur kerja albani-lombardi sangat menyerupai iso +f07-01-074 perbedaannya hanya terdapat pada iterasi yang dilakukan +f07-01-075 pada alur kerja albani-lombardi iterasi selalu dimulai dari tahap evaluasi kemudian kembali ke tahap analisis ruang lingkup +f07-01-076 sedangkan pada iso +f07-01-077 iterasinya itu +f07-01-078 dapat ke tahap manapun sesuai dengan kebutuhan sehingga dinilai dapat menjadi lebih efisien +f07-01-079 dari segi waktu +f07-01-080 untuk e-commerce penjelasannya akan +f07-01-081 dilewat saja +f07-01-082 juga beberapa +f07-01-083 aplikasi yang sudah ada saat ini +f07-01-084 kemudian akan dibahas masalah-masalah umum yang biasa ditemui dalam perancangan interaksi speech recognition +f07-01-085 diantaranya itu terdapat pada tahap pengujian jadi pada tahap design diperlukan analisis untuk +f07-01-086 antar muka biasa fasilitator biasanya berada dalam satu ruangan bersama penguji selain itu fasilitator juga meminta penguji untuk mengucapkan hal-hal yang ada dalam pikiran penguji selama pengujian berlangsung +f07-01-087 +f07-01-088 namun pada perancangan interaksi speech recognition kedua aktivitas tersebut cukup sulit untuk dilakukan +f07-01-089 karena suara-suara yang yang diinginkan itu hanya berasal dari narasumbernya saja jadi +f07-01-090 seharusnya +f07-01-091 penguji itu +f07-01-092 tidak +f07-01-093 tidak termasuk sebagai +f07-01-094 masukan dari pengujian +f07-01-095 suaranya +f07-01-096 selama proses pengujian berlangsung fasilitator tidak berada dalam satu ruangan dengan penguji biasanya karena suara yang dikeluarkan oleh fasilitator itu akan terdeteksi oleh speech recognition +f07-01-097 padahal interaksi speech recognition hanya ditujukan untuk penerima yang menerima masukan dari penguji saja +f07-01-098 untuk mengatasi masalah tersebut fasilitator dapat menggunakan ruangan lain untuk memberikan instruksi pada penguji atau alat komunikasi tertentu seperti telepon genggam atau mungkin sistem recognition yang +f07-01-099 perlu menekan suatu tombol terlebih dahulu sebelum menerima semua masukan +f07-01-100 selain intervensi dari suara fasilitator masalah yang mungkin terjadi selama proses pengujian interaksi speech recognition adalah penguji sulit untuk mengutarakan isi pikirannya +f07-01-101 cara yang biasa digunakan oleh fasilitator untuk mendorong penguji untuk mengutarakan isi pikirannya adalah dengan menanyakan pertanyaan atau meminta penguji untuk mengatakan opini di setiap langkah pengujian +f07-01-102 ini adalah detail dari +f07-01-103 pelaksanaan +f07-01-104 +f07-01-105 +f07-01-106 jadi secara singkat saja akan dijelaskan bagaimana akhirnya dapat mendapatkan user goal ini +f07-01-107 yaitu tahap yang dilakukan adalah dengan menyebar kuesioner kemudian dari hasil kuesioner didapatkan dua masalah utama +f07-01-108 kemudian dari dua masalah utama tersebut didapatkan dua jenis persona +f07-01-109 dan dua jenis persona ini kemudian dicari fitur-fitur apa saja yang dibutuhkan +f07-01-110 dari kedua persona tersebut +f07-01-111 dan terdapat lima buah fitur +f07-01-112 sebagai berikut yaitu fitur mencari produk dengan lima user task +f07-01-113 kemudian melihat produk rekomendasi dengan tiga user task +f07-01-114 kemudian melihat produk pada keranjang belanja +f07-01-115 memesan produk dengan dua user task dan melacak status produk +f07-01-116 namun dari kelima fitur ini kemudian dilakukan wawancara untuk menggali apakah sesungguhnya fitur-fitur ini memang dibutuhkan oleh setiap persona +f07-01-117 kemudian didapatkan terdapat satu fitur yaitu +f07-01-118 melihat produk rekomendasi yang ternyata tidak dibutuhkan dengan begitu user goal itu dipangkas dari lima menjadi empat saja +f07-01-119 berikut adalah kebutuhan dari setiap persona untuk keempat fitur yang akhirnya dipilih +f07-01-120 kemudian apa yang akan dilakukan selanjutnya setelah diketahui user goal dan user task yang diinginkan maka bisa dirancang fidelity low fidelity prototipe +f07-01-121 yang akan diuji kepada masing-masing persona minimal lima orang +f07-01-122 kemudian apa parameter yang digunakan untuk mengatakan bahwa pengujian tersebut berhasil atau gagal +f07-01-123 yaitu apabila usability goal dan experience goal sudah tercapai sebanyak sembilan puluh persen +f07-01-124 apabila low fidelity prototype sudah mencapai sembilan puluh persen maka akan dilanjutkan ke high fidelity prototype +f07-01-125 kemudian akan dilakukan pengujian yang sama yang serupa +f07-01-126 kemudian untuk +f07-01-127 pengujiannya sendiri +f07-01-128 di sini ada beberapa +f07-01-129 parameter yang digunakan +f07-01-130 biasanya ada tiga jenis +f07-01-131 perhitungan tipe parameter ut yaitu yang pertama adalah seq atau single easy question +f07-01-132 kemudian yang kedua adalah +f07-01-133 ini adalah contohnya +f07-01-134 biasanya skalanya bisa tujuh atau lima +f07-01-135 minimal lima +f07-01-136 kemudian yang parameter kedua adalah system usability scale +f07-01-137 dengan jumlah pertanyaan yang sudah +f07-01-138 di bawah seperti ini sehingga bahkan terkadang +f07-01-139 ini tidak boleh di-translate karena akan mengubah artinya +f07-01-140 ya yang digunakan tetap bahasa inggris dengan asumsi +f07-01-141 peserta dapat memahami arti dari bahasa tersebut +f07-01-142 kemudian yang ketiga adalah +f07-01-143 net promote score +f07-01-144 untuk perhitungan ini lebih dari sisi marketing apakah pengguna akan mempromosikannya kepada orang lain +f07-01-145 cukup sekian kuliah hari ini +f07-01-146 terima kasih atas perhatiannya +f07-01-147 +f07-01-148 +f08-01-001 oke jadi pada pagi hari ini saya akan menjelaskan tentang tugas akhir saya +f08-01-002 jadi tugas akhir saya ini berjudul ekstraksi sentimen berbasis aspek dan entitas pada domain otomotif dengan pendekatan pembelajaran mesin +f08-01-003 jadi ini beberapa poin penting yang akan saya sampaikan untuk beberapa menit ke depan +f08-01-004 yang pertama langsung saja kita masuk ke pendahuluan +f08-01-005 jadi apa itu analisis sentimen +f08-01-006 analisis sentimen adalah suatu studi yang mengklasifikasikan teks berdasarkan sentimennya +f08-01-007 sentimennya itu bisa positif negatif maupun netral +f08-01-008 dan dari studi literatur yang telah saya lakukan sebelumnya terdapat +f08-01-009 empat jenis level sentimen +f08-01-010 yang pertama yaitu level dokumen yang mengklasifikasikan dokumen secara keseluruhannya berdasarkan sentimennya +f08-01-011 sedangkan yang kedua ada level kalimat yang mengklasifikasikan setiap kalimat dari dokumen tadi berdasarkan sentimennya +f08-01-012 kemudian yang ketiga untuk level aspek +f08-01-013 jadi ada beberapa daftar aspek +f08-01-014 kemudian dari daftar-daftar tersebut kita ambil aspek-aspek apa saja yang terkandung dalam suatu kalimat dan dicari sentimennya +f08-01-015 kemudian yang keempat yaitu level entitas yaitu mencari sentimen-sentimen terhadap entitas yang terkandung dari suatu kalimat tadi +f08-01-016 nah kemudian pada tugas akhir ini saya mencoba untuk mengkombinasikan antara level aspek dan entitas pada sentiment analysis +f08-01-017 jadi apa itu sentiment analysis yang berbasis aspek dan entitas +f08-01-018 ya tentu saja suatu studi yang mengklasifikasikan teks tadi berdasarkan sentimennya tetapi bukan terhadap keseluruhan teks +f08-01-019 namun terhadap entitas yang terkandung di dalamnya dan daftar-daftar aspek yang telah ditentukan sebelumnya +f08-01-020 jadi entitas yang dimaksud dalam domain otomotif ini dapat berupa suatu merek mobil dan bisa juga beserta tipenya contohnya seperti avanza nissan ataupun toyota +f08-01-021 kemudian untuk aspek sendiri biasanya merupakan daftar-daftar aspek yang berkaitan dengan domain otomotif tadi seperti machine parts ataupun fuel +f08-01-022 nah untuk lebih jelasnya di sini ada contoh kalimat +f08-01-023 misal ada kalimat saya tetap menyukai avanza karena struktur kendaraannya mencakup semua aspek +f08-01-024 di sini setelah kita masukan ke sistem tadi akan mengeluarkan tiga komponen utama yaitu yang pertama komponen entitas +f08-01-025 entitas di sini yaitu avanza +f08-01-026 kemudian ada komponen aspeknya yaitu parts yang bisa dilihat dari frasa struktur kendaraannya +f08-01-027 dan yang ketiga dari kata mencakup semua aspek bisa disimpulkan bahwa sentimen dari aspek parts milik entitas avanza adalah positif +f08-01-028 kemudian apa bedanya dengan aspect based biasa +f08-01-029 yaitu untuk kalimat misal kijang kapsul luas tetapi boros bensin avanza irit tetapi sempit +f08-01-030 pada kalimat ini +f08-01-031 tidak bisa hanya diselesaikan dengan aspect based karena +f08-01-032 terdapat dua entitas yang berbeda yang memiliki dua aspek yang sama tetapi sentimennya saling berlawanan +f08-01-033 jadi disini ada entitas kijang kapsul yang memiliki aspek parts dan fuel +f08-01-034 sentimennya adalah positif dan negatif +f08-01-035 sedangkan untuk entitas avanza sentimennya berkebalikan yaitu untuk parts sendiri sentimennya negatif dan untuk fuel sentimennya positif +f08-01-036 jika kalimat semacam ini dimasukkan pada sistem aspect based biasa maka dia kemungkinan akan akan hanya mengeluarkan +f08-01-037 sentimen di satu sisi saja +f08-01-038 hal hal tersebut kurang kurang sesuai karena di sini yang dibicarakan hanya bukan satu aspek saja +f08-01-039 berikut ini adalah rumusan masalah dan tujuan dari tugas akhir ini +f08-01-040 rumusan masalahnya yaitu mengetahui pengaruh penggunaan kombinasi teknik deep learning dan pembelajaran machine learning biasa dalam peningkatan sistem analisis sentimen berbasis aspek dan entitas pada ulasan berbahasa dalam domain otomotif +f08-01-041 sedangkan untuk tujuannya yaitu melakukan eksperimen untuk membangun modul analisis sentimen berbasis aspek dan entitas dari ulasan berbahasa indonesia pada domain otomotif menggunakan pendekatan pembelajaran mesin dan teknik deep learning +f08-01-042 adapun untuk metodologinya +f08-01-043 langkah pertama yaitu men-design dan analisis +f08-01-044 design itu berupa men-design rancangan-rancangan yang akan digunakan sebagai solusi pada tugas akhir ini +f08-01-045 dari hasil analisis terhadap teknik-teknik dan metode yang telah dilakukan sebelumnya pada studi yang serupa +f08-01-046 kemudian yang kedua ada persiapan data mencakup pengumpulan data pelabelan data dan qa pelabelan data +f08-01-047 yang ketiga implementasi yaitu implementasi dari ketiga modul tadi secara terpisah dan eksperimen juga secara terpisah untuk ketiga modul tadi +f08-01-048 dan yang kelima adalah integrasi +f08-01-049 setelah dilakukan eksperimen dan implementasi untuk ketiga modul tadi kemudian dilakukan penyatuan agar ketiga modul tadi dapat bekerja sebagai satu kesatuan sistem yang utuh +f08-01-050 kemudian berikutnya masuk ke analisis persoalan +f08-01-051 oh ya sebelumnya baseline yang digunakan pada tugas akhir ini adalah baseline adalah penelitian yang telah dilakukan oleh cahyadi dan khodra pada tahun dua ribu delapan belas +f08-01-052 persoalannya yang persoalan yang dihadapi oleh cahyadi dan khodra adalah melakukan sentiment analysis berbasis aspek dan entitas pada domain restoran +f08-01-053 mereka juga menggunakan pendekatan yang sama yaitu menggunakan pendekatan modular yang terdiri dari tiga modul +f08-01-054 yang pertama ada deteksi aspek +f08-01-055 yang mereka gunakan adalah cnn dan feed forward neural network +f08-01-056 kemudian untuk ekstraksi kata kunci yang digunakan adalah bi-lstm dan crf +f08-01-057 dan klasifikasi sentimen aspek yang digunakan adalan cnn +f08-01-058 untuk level aspek sendiri persoalan pada cahyadi dan khodra adalah data yang mereka gunakan ada beberapa yang mengandung kalimat tidak bersentimen yaitu bisa dibilang kalimat berita dan sering dianggap kalimat beraspek yang bersentimen positif +f08-01-059 kemudian untuk +f08-01-060 pelabelan sendiri masih terdapat human error dan subjektivitas yang cukukp banyak +f08-01-061 sedangkan untuk level entitas permasalahannya diambil dari beberapa penelitian terkait ner +f08-01-062 karena bisa dibilang modul ini memiliki karakteristik yang cukup sama dengan dengan ekstraksi dengan +f08-01-063 penelitian terkait ner yaitu namun bedanya pada modul ekstraksi entitas ini lebih spesifik ke suatu domain +f08-01-064 beberapa persoalan yaitu adanya out of vocabulary kemudian ada entitas yang bisa berupa frasa yang cukup panjang dan yang ketiga dibutuhkan modul lain seperti pos tagger dan ne tagger untuk mendapatkan informasi sintaksis yang lebih baik +f08-01-065 untuk level dataset terdiri dari terdiri dari tiga tiga jenis aspek +f08-01-066 yang pertama ada general kemudian machine parts price service dan fuel +f08-01-067 untuk rancangan solusi sendiri terdapat tiga modul yang telah dijelaskan sebelumnya tadi terdapat tiga modul yang digunakan yang pertama ekstraksi entitas yaitu untuk mengambil +f08-01-068 atau mengekstraksi entitas apa saja yang terkandung di dalamnya +f08-01-069 yang kedua ada deteksi aspek yang mendapatkan aspek apa saja dari daftar aspek yang telah ditentukan sebelumnya +f08-01-070 dan yang ketiga ada klasifikasi sentimen +f08-01-071 yaitu menghasilkan sentimen dari aspek-aspek dan entitas tadi +f08-01-072 ini dia adalah berupa +f08-01-073 arsitektur sistem secara keseluruhan bisa dilihat +f08-01-074 sebelum masuk ke tiga modul tadi masukan di proses dulu ke suatu modul praproses +f08-01-075 modul praproses terdiri dari beberapa step seperti normalisasi yang mengubah menjadi bentuk-bentuk formalnya kemudian tokenisasi case holding dan yang terakhir menambah pos tag untuk meningkatkan kinerjanya +f08-01-076 kemudian setelah dipraproses +f08-01-077 masukan akan dimasukan kedalam modul ekstraksi entitas +f08-01-078 pada pada modul ekstraksi entitas ini menggunakan teknik gabungan bi-lstm dan crf +f08-01-079 dimana dia memproses tiap kata secara individu kemudian inputnya juga berupa probabilitas tiap kata apakah dia termasuk ke dalam entitas ataupun bukan +f08-01-080 fitur yang digunakan berupa pos tag dan word embedding +f08-01-081 dan pelabelannya juga seperti teknik pelabelan token pada umumnya menggunakan beginning inside dan outside +f08-01-082 setelah didapatkan entitasnya kemudian info entitas itu akan dimasukkan ke modul selanjutnya yaitu modul deteksi aspek +f08-01-083 dalam bentuk position embedding +f08-01-084 jadi untuk modul deteksi aspek ini menggunakan bi-lstm dan svm +f08-01-085 kemudian untuk position embedding-nya +f08-01-086 mengikuti penelitian yang telah dilakukan oleh +f08-01-087 oleh +f08-01-088 oleh seseorang +f08-01-089 setelah itu setelah didapatkan aspeknya akan dimasukan ke +f08-01-090 modul klasifikasi sentimen +f08-01-091 di sini setiap aspek akan dicari sentimennya apakah positif ataupun negatif +f08-01-092 kemudian setelah itu yang terakhir itu rencana pengerjaan +f08-01-093 terdiri dari implementasi setiap modul tadi secara terpisah kemudian eksperimen juga dilakukan terpisah +f08-01-094 untuk setiap modul setelah didapatkan hasil yang terbaik dari setiap modul tadi akan diintegrasikan menjadi satu kesatuan sistem +f08-01-095 sekian dan terima kasih +f08-01-096 aku banyak ininya +f08-01-097 +f09-01-001 selamat sore semuanya jadi untuk +f09-01-002 untuk minggu ini akan dilanjutkan materi mengenai materi yang pertama yaitu tentang arsitektur komputer +f09-01-003 nah jadi +f09-01-004 komputer itu definisinya adalah suatu mesin pemroses data yang beroperasi secara otomatis sesuai dengan jadi ada daftar instruksi yang disimpan pada main memory +f09-01-005 nah jadi sederhananya komputer itu terdiri dari dua komponen yang utama yang pertama itu ada cpu central processing unit sama yang kedua itu ada main memory-nya +f09-01-006 jadi dan hubungan antara si dua komponen ini untuk komponen cpu untuk komponen cpu dan main memory nantinya akan terjadi pertukaran data +f09-01-007 dan kemudian untuk komponen cpu nanti ini akan mengontrol komponen main memory-nya +f09-01-008 nah selanjutnya kita masuk ke sistem komputer +f09-01-009 jadi kalau sistem komputer itu karena namanya juga sistem jadi dia itu terdiri dari komputer dan komponen-komponen pendukung atau tambahan yang lainnya +f09-01-010 nah jadi komunikasi antar komponen ini nantinya menggunakan satu atau lebih bus +f09-01-011 nah sebenarnya terus komponen-komponen tambahan yang menyusun sistem komputer itu ada apa aja +f09-01-012 jadi seperti yang kita tahu komponen-komponen penyusunnya itu ada yang pertama ada input device terus yang kedua ada output device terus ada juga secondary memory +f09-01-013 input device itu alat untuk memasukkan sesuatu ke dalam komputernya +f09-01-014 sementara untuk output device itu alat untuk mengeluarkan sesuatu dari komputernya +f09-01-015 jadi input device itu contohnya bisa keyboard bisa mouse bisa juga joy stick +f09-01-016 kalau output device itu bisa monitor karena dia menampilkan gambar yang yang dihasilkan oleh komputer dan juga bisa printer speaker dan lain sebagainya +f09-01-017 nah terus selanjutnya kita ke arsitektur von neumann +f09-01-018 nah jadi arsitektur von neumann ini menggambarkan general purpose computer yang artinya komputer yang bisa menyelesaikan masalah-masalah yang beragam tergantung program mana yang dieksekusi +f09-01-019 nah untuk key concept-nya sendiri itu adalah eksekusi program-program +f09-01-020 nah di arsitektur von neumann ini data dan instruksi itu sama-sama disimpan di main memory-nya +f09-01-021 kemudian +f09-01-022 isi dari suatu memori itu dapat dialamatkan dengan lokasi +f09-01-023 tapi kita +f09-01-024 kita tidak bisa tahu apa yang disimpan di lokasi tersebut +f09-01-025 nah setelah itu instruksi itu dieksekusinya secara sekuensial berdasarkan urutan lokasi instruksi di memori kecuali memang urutannya sengaja diubah +f09-01-026 nah jadi inti dari arsitektur von neumann-nya itu +f09-01-027 dia terdiri dari dua terdiri dari dua komponen yaitu cpu +f09-01-028 nah cpu ini sendiri terbagi lagi menjadi control unit dan arithmetic atau logic unit +f09-01-029 nah control unit ini akan digunakan untuk mengatur eksekusi instruksi +f09-01-030 jadi urutan instruksi mana yang akan dieksekusi terlebih dahulu +f09-01-031 sementara untuk yang arithmetic atau logic unit-nya itu dia akan melakukan operasi aritmatika dan logika +f09-01-032 selanjutnya untuk komponen yang kedua seperti biasa itu ada main memory +f09-01-033 ya selanjutnya kita akan masuk ke representasi data +f09-01-034 jadi data dan instruksi itu direpresentasikannya dalam binary format dengan simbol nol dan satu +f09-01-035 nah untuk numeric data itu direpresentasikan dengan sistem biner di mana nilai pada urutan adalah perpangkatan dari dua +f09-01-036 contohnya untuk sequence satu nol nol satu satu itu berarti jadi satu dikali dua pangkat nol ditambah nol dikali dua pangkat satu ditambah nol dikali dua pangkat dua ditambah satu dikali dua pangkat tiga dan ditambah satu dikali dua pangkat empat +f09-01-037 seperti itu +f09-01-038 nah kemudian untuk angka biner itu nanti angka biner yang tadi akan ditambah dikurangi dikalikan dan dibagi secara langsung tanpa diubah dulu ke bentuk desimalnya +f09-01-039 kemudian kalau tadi adalah representasi dari data sekarang kita masuk ke representasi dari instruksinya atau representasi machine instructions +f09-01-040 nah jadi +f09-01-041 instruksi itu direpresentasikan dengan sequence dari bits atau kepanjangannya adalah binary digits +f09-01-042 nah di bit-bit tersebut nantinya itu akan dimuat beberapa hal atau informasi yang merepresentasikan ada empat informasi yang direpresentasikan yaitu yang pertama apa yang harus diselesaikan kemudian kepada siapa operasi itu dilakukan +f09-01-043 setelah itu hasil dari operasinya itu nantinya akan diteruskan ke mana dan apa yang harus dilakukan setelah operasi selesai +f09-01-044 nah jadi untuk informasi yang pertama yaitu apa yang harus diselesaikan itu +f09-01-045 digits-nya disebut juga dengan operation code +f09-01-046 kemudian untuk siapa operasi itu kepada siapa operasi itu dilakukan itu maksudnya adalah source operands-nya +f09-01-047 hasil operasinya akan diteruskan ke mana itu masuk ke destination operand-nya dan kemudian yang terakhir apa yang harus dilakukan setelah operasi selesai +f09-01-048 nah jadi tadi itu kan sudah dijelaskan bahwa representasi machine interaction itu dibagi ke dalam fields-fields yang memang berisi satu item dari spesifikasi instruksi +f09-01-049 spesifikasi instruksi itu yang telah dijelaskan tadi yaitu ada operation code ada operands baik yang source maupun destination-nya dan mereka itu tersusun sesuai dengan instruction format-nya +f09-01-050 nah kemudian untuk tipe machine instruction-nya sendiri itu kira-kira ada empat tipe +f09-01-051 yang pertama itu instruksi untuk transfer data antara memori dan register dari cpu-nya +f09-01-052 kemudian ada juga instruksi aritmatik atau logic operations +f09-01-053 kemudian ada instruksi untuk kontrol program jadi program itu biasanya ada branching-nya nah ini instruksi untuk melakukan branching yang ada pada programnya +f09-01-054 dan tipe instruksi yang keempat itu adalah transfer input dan output-nya +f09-01-055 nah selanjutnya sebenarnya apa-apa aja sih yang penting dalam suatu instruksi +f09-01-056 jadi ini ada beberapa aspek-aspek yang penting dalam perancangan suatu set instruksi +f09-01-057 yang pertama itu ada jumlah alamat atau address-nya yang kedua ada tipe operand-nya yang ketiga ada mode alamatnya +f09-01-058 keempat ada semacam operation repertoir yaitu ini kayak semacam storage atau stack yang isinya itu operasi-operasi yang akan dilakukan +f09-01-059 kemudian ada akses register dan yang terakhir ada format instruksi itu sendiri +f09-01-060 jadi untuk membentuk suatu instruksi itu harus diperhatikan hal-hal yang tadi telah disebutkan +f09-01-061 kemudian instruksi itu dia juga punya cycle-nya sendiri +f09-01-062 jadi setiap instruksi itu dilakukan sebagai satu sequence tahapan +f09-01-063 nah tahapan-tahapannya itulah yang disebut sebagai instruction cycle +f09-01-064 di sini ada dua versi instruction cycle yang simple dan ada juga yang refined +f09-01-065 jadi untuk yang simple itu sebenarnya tahapannya cuman fetch instruction abis itu langsung execute instruction +f09-01-066 sementara kalau yang refined view atau yang lebih detail-nya itu tahapan-tahapannya ada yang pertama fetch instruction-nya abis itu ada proses decoding-nya kemudian ada fetch operand dan yang keempat itu ada execute instruction +f09-01-067 +f09-01-068 +f09-01-069 +f09-01-070 +f09-01-071 +f09-01-072 eh +f09-02-001 lalu sekarang kita akan melanjutkan ke +f09-02-002 akan membahas tentang memorinya +f09-02-003 nah jadi memori itu tuh bisa secara secara garis besarnya bisa dibagi jadi dua yang pertama itu ada main memory terus yang kedua itu adalah ada secondary memory +f09-02-004 nah perbedaannya itu jadi untuk kegunaannya main memory itu digunakan untuk menyimpan data yang sedang dimanipulasi oleh cpu +f09-02-005 sementara itu kalau secondary memory dia itu gunanya untuk menyediakan long term storage untuk data dan program yang ukurannya itu cukup besar +f09-02-006 nah kenapa data dan program yang berukuran besar ini harus disimpan di secondary memory +f09-02-007 karena memang main memory itu dia ukurannya terbatas dan data atau program itu baru dapat dimanipulasi oleh cpu ketika mereka berada di main memory +f09-02-008 jadi data-data atau program yang masih berada di secondary memory ketika akan +f09-02-009 ketika akan dimanipulasi oleh cpu maka harus di-load dulu ke main memory baru data itu bisa dimanipulasi oleh cpu-nya +f09-02-010 nah kemudian karakteristik paling penting dari memori itu adalah yang pertama itu kecepatan yang kedua itu ukuran dan yang ketiga itu adalah cost-nya +f09-02-011 nah kalau karakteristiknya main memory itu dia itu cepat tapi seperti yang telah tadi disebutkan ukurannya itu sangat terbatas dan cost-nya itu sangat besar jika dibandingkan dengan secondary memory +f09-02-012 nah secondary memory ini memang dia itu relatif lebih lambat tapi dia punya ukuran yang cukup besar +f09-02-013 nah untuk main memory arsitekturnya dapat dilihat pada gambar yang ditampilkan di slide +f09-02-014 jadi komponen-komponennya itu yang bisa kita lihat di gambar itu kan ada memory address buffer-nya kemudian ada address decoder-nya ada data buffer-nya dan juga kita bisa lihat ada +f09-02-015 bit-bit ada address address yang tersusun dari bit-bit-nya +f09-02-016 nah dapat dilihat juga pada gambar di slide bahwa suatu sel-sel penyimpanan itu tiap-tiap selnya dapat menyimpan sebuah kata +f09-02-017 nah tiap sel itu memiliki alamat yang unik dan diberikan nomor yang berurutan +f09-02-018 jadi bisa kita lihat itu untuk yang paling bawah itu address nol yang kedua address satu yang di atasnya itu ada address dua dan seterusnya +f09-02-019 nah kemudian teknologi yang sering dipakai untuk main memory itu adalah semiconductor memories dengan tipenya itu ram atau random access memory +f09-02-020 nah informasi yang disimpan di ram ini akan hilang kalau daya listriknya dihilangkan +f09-02-021 makanya itu juga adalah salah satu kekurangan dari main memory +f09-02-022 nah selanjutnya ada secondary memory +f09-02-023 contoh-contoh dari secondary memory ini ada cukup banyak +f09-02-024 yang pertama itu ada harddisk kemudian ada disket ada magnetic tape kemudian ada optical memory +f09-02-025 ya kira-kira itu adalah contoh-contoh dari secondary memory-nya +f09-02-026 nah kalau untuk harddisk itu dia terbuat dari besi yang dilapisi material magnetic +f09-02-027 fitur-fitur utama dari harddisk ini dia direct access +f09-02-028 kemudian dia juga fast access jadi dia aksesnya lumayan cepat +f09-02-029 untuk seek timenya sendiri dia sepuluh millisecond terus data transfer rate-nya itu sekitar lima megabyte per second +f09-02-030 kemudian kapasitas penyimpanannya itu cukup besar dari range delapan megabyte sampai beberapa gigabyte +f09-02-031 ini mungkin yang yang sering kita temukan saat ini itu adalah harddisk +f09-02-032 kemudian ada juga disket +f09-02-033 tapi untuk disket untuk di jaman sekarang udah sangat jarang sekali ditemukan +f09-02-034 nah jadi dia itu terbuat dari polyester materialnya polyester yang dilapisi material magnetic dan main features-nya tadi sama yaitu direct access juga dan dia itu murah portable dan juga gampang digunakan +f09-02-035 untuk standard dari disketnya sendiri itu kapasitasnya untuk yang lima seperempat inch itu sekitar tiga ratus enam puluh kilobyte per disk +f09-02-036 untuk kapasitas yang tiga setengah inch itu sekitar satu koma empat empat megabyte per disk +f09-02-037 selanjutnya itu ada magnetic tape +f09-02-038 nah dia itu terbuat dari lapisan plastik yang dilapisi dengan oksida besi +f09-02-039 main features-nya +f09-02-040 dia itu berbeda tadi harddisk yang dia direct access disket juga direct access si magnetic tape ini dia itu aksesnya sekuensial +f09-02-041 jadi access time-nya sekitar satu sampai lima detik +f09-02-042 kemudian dia itu lumayan merupakan high value storage yaitu sekitar lima puluh megabyte per tape dan dia juga murah +f09-02-043 nah dia ini biasa dipakai untuk backup atau arsip +f09-02-044 kemudian yang keempat itu ada optical memory +f09-02-045 jadi ini tuh +f09-02-046 optical memory itu kita biasanya lebih seringnya mendengar cd +f09-02-047 jadi ada cd rom dan yang jenis cd-cd yang lain yang mana untuk cd rom kapasitasnya ini lumayan besar sekitar tujuh ratus tujuh puluh lima megabyte per disk +f09-02-048 kemudian replikasinya juga murah produksinya murah terus dia juga removable +f09-02-049 nah tapi dia ini karena cd rom dia ini cuman bisa read doang jadi read only dan juga access timenya ini cukup lama yaitu sekitar nol koma lima detik +f09-02-050 nah kemudian ada worm yang dia ini bagus untuk penyimpanan arsip-arsip karena dia bisa menyediakan permanent record dari data yang berukuran besar +f09-02-051 kemudian ada juga jenis optical memory yang lain yaitu erasable optical disk +f09-02-052 yang dia bisa write dan overwrite berulang-ulang kemudian dia juga reliable dan lebih awet dari magnetic disk +f09-02-053 nah selanjutnya kita akan membahas tentang macam-macam io device +f09-02-054 nah seperti yang tadi telah disebutkan untuk device input-nya kan contohnya ada keyboard ada mouse nah ini juga ada beberapa jenis lagi +f09-02-055 kalau yang kita juga sering menemukan itu kan ada kalau misalkan untuk ipad atau untuk tablet itu ada juga pen yang untuk memudahkan kita untuk menggambar di tablet atau di ipad-nya +f09-02-056 kemudian juga ada joystick yang tadi untuk kita biasanya tuh buat main games dan controlling yang lainnya +f09-02-057 terus kita juga ada scanner jadi kita bisa bisa memasukkan dokumen +f09-02-058 yang tadinya dalam bentuk hard copy kita jadikan soft copy-nya +f09-02-059 kemudian ada juga mikrofon untuk menerima input suara +f09-02-060 nah untuk +f09-02-061 output device-nya itu yang tadi sudah disebutkan ada monitor atau display screen untuk menampilkan apa yang ada untuk menampilkan seperti gambar atau video dan yang lain-lainnya +f09-02-062 kemudian ada juga printer macam-macam printer ada entah itu inject printer atau juga laser printer +f09-02-063 terus juga ada voice output atau yang biasa kita sebut sebagai speaker untuk mengeluarkan suara dari komputer +f09-02-064 +f09-02-065 +f09-02-066 +f09-02-067 +f09-02-068 +f09-02-069 +f09-02-070 +f09-03-001 nah tadi kita udah membahas secara keseluruhan tapi memang hanya +f09-03-002 garis besarnya saja nah sekarang kita akan membahas lebih detail lagi ke komponen sistem memori yaitu main memory dan secondary memory +f09-03-003 nah jadi yang pertama kita berangkat dari masalahnya dulu +f09-03-004 jadi masalah yang ada pada sistem memori itu yang pertama kebutuhan ya +f09-03-005 jadi kita itu butuh memori yang dapat memuat program yang besar tapi dengan kecepatan yang sebanding dengan kecepatan mikroprosesor +f09-03-006 nah cuman masalah utamanya adalah mikroprosesor itu bekerja pada laju yang sangat tinggi dan membutuhkan memori yang besar +f09-03-007 nah sementara memori jauh lebih lambat dari mikroprosesor +f09-03-008 nah dan faktanya juga semakin besar memori itu dia nanti kecepatannya itu semakin rendah dan semakin cepat memori maka cost-nya juga semakin mahal gitu +f09-03-009 nah untuk solusi yang digunakan sampai saat ini itu adalah membuat yang namanya composite memory system +f09-03-010 yang nantinya itu dia akan menggabungkan memori yang cepat dan berukuran kecil dengan main memory yang lambat dan berukuran besar yang bekerja layaknya memori berukuran besar yang cepat +f09-03-011 jadi ini disebut juga +f09-03-012 prinsip ini disebut juga two level principle +f09-03-013 nah two level principle ini bisa di-extend menjadi hierarki dengan banyak level termasuk secondary memory +f09-03-014 nah efektivitas dari susunan hierarki memorinya itu sendiri nantinya tergantung properti dari program yang disebut principle of locality +f09-03-015 nah bisa dilihat pada gambar di sana +f09-03-016 jadi itu adalah hierarki dari memori +f09-03-017 bisa kita lihat yang paling bawah itu ada magnetic tape dan optical disc kemudian di atasnya ada magnetic disk +f09-03-018 kemudian yang ketiga ada main memory di atasnya main memory itu ada cache dan yang untuk puncaknya itu ada register +f09-03-019 nah selanjutnya di samping-sampingnya juga itu bisa dilihat bahwa untuk jadi semakin ke atas itu dia cost-nya itu semakin meningkat +f09-03-020 jadi increasing cost semakin ke atas semakin mahal dan semakin ke bawah itu access time-nya yang meningkat dan juga kapasitasnya yang meningkat +f09-03-021 nah jadi kira-kira seperti itu untuk hierarki memorinya +f09-03-022 kemudian kita akan membahas mengenai karakteristik dari beberapa jenis memori yang tadi juga terdapat di hierarki memori +f09-03-023 jadi untuk register dia itu kapasitasnya sangat kecil yaitu sekitar kalau misalkan ada tiga puluh dua register brarti nanti dia akan dikalikan dengan tiga puluh dua bits nanti maka kapasitasnya itu sekitar seratus dua puluh delapan bytes +f09-03-024 cuman access time-nya ini dia cuman beberapa nanosecond jadi sangat cepat sekali +f09-03-025 nah kemudiah untuk on chip cache memory dia kapasitasnya sekitar delapan sampai tiga puluh dua kilobytes +f09-03-026 kemudian access time-nya itu sekitar sepuluh nanosecond +f09-03-027 untuk off chip cache memory kapasitasnya bisa mencapai ratusan kilobytes dan access time-nya bisa sekitar puluhan nanosecond +f09-03-028 kemudian untuk main memory dia ukurannya lumayan besar bisa mencapai puluhan megabytes kemudian access time-nya itu sekitar seratus nanosecond +f09-03-029 nah untuk harddisk ini dia memang sangat besar sekali bisa mencapai beberapa gigabytes +f09-03-030 cuman memang access time-nya itu sekitar puluhan millisecond +f09-03-031 nah selanjutnya kunci dari kunci kesuksesan hierarki memori apabila data dan instruksi dapat didistribusikan ke memori sehingga ketika dibutuhkan most of the time ketika dibutuhkan itu tersedia pada top level hierarchy +f09-03-032 jadi bagaimana mengatur sedemikian sehingga data dan instruksi yang memang sedang akan yang sedang diperlukan itu bisa tersedia pada top level hierarchy seperti register cache dan memori ketika diperlukan +f09-03-033 selanjutnya +f09-03-034 data oh ya data yang tadi tersimpan di top level hierarchy yaitu register itu dia berada dibawah kontrol langsung dari compiler atau assembler programmer-nya +f09-03-035 nah kemudian untuk isi dari yang level-level yang lainnya selain register itu diatur secara otomatis +f09-03-036 jadi untuk migrasi data dari dan ke cache akan dilakukan dibawah hardware control +f09-03-037 sementara untuk migrasi antara main memory dan backup store itu nanti akan diatur langsung oleh operating system dengan hardware support +f09-03-038 nah kemudian setelah tadi kita membahas hierarki memori secara keseluruhan dan juga sedikit membahas tentang register kita akan ke cache memory +f09-03-039 nah jadi cache memory ini seperti yang tadi telah disebutkan dia memang kecil tapi cepat dan dia juga menyimpan salinan informasi yang baru saja digunakan dari main memory +f09-03-040 nah arsitekturnya juga unified +f09-03-041 jadi cache data dan instruksi itu sama +f09-03-042 kemudian performa sistem itu secara keseluruhan bergantung pada proporsi akses terhadap memori yang dapat dipenuhi oleh cache +f09-03-043 nah jadi di sini ada beberapa terminologi yang berhubungan dengan cache +f09-03-044 yaitu ada hit miss ada hit rate terus juga ada miss rate +f09-03-045 jadi hit itu apabila kita ingin mengakses suatu item di cache dan memang ternyata item tersebut ada di cache-nya +f09-03-046 jadi itu terhitungnya sebagai hit +f09-03-047 untuk miss itu kalau kita mau mengakses suatu item tapi ternyata item itu tidak ada di cache-nya maka akan terjadi miss +f09-03-048 nah hit rate ini kalau misalkan hit rate berarti kan dia itu proporsi dari seluruh akses terhadap memori yang dapat dipenuhi oleh cache +f09-03-049 kalau untuk miss rate-nya berarti dia kebalikannya yaitu proporsi dari seluruh akses terhadap memori yang tidak dapat dipenuhi oleh cache-nya +f09-03-050 nah untuk cache yang well designed atau cache yang di-design dengan baik ini untuk miss rate itu hanya beberapa persen saja jadi miss rate-nya itu tidak besar +f09-03-051 nah karena ukuran cache yang jauh lebih kecil dari main memory maka item itu harus disimpan di dalam cache sehingga tersedia ketika dibutuhkan +f09-03-052 dan dan diusahakan itu sebisa mungkin hanya jika dibutuhkan baru dia disimpan di cache +f09-03-053 nah jadi untuk menyimpan yang hanya dibutuhkan saja berarti nantinya itu yang udah tidak dibutuhkan itu harus di-replace dengan yang baru +f09-03-054 nah ini untuk me-replace-nya itu ada beberapa strategi yang pertama ada seperti lru yaitu least recently used terus ada juga fifo atau first in first out dan juga ada lfu yaitu kependekan dari least frequently used +f09-03-055 kemudian +f09-03-056 selain ada replacement strategies ada juga write strategies +f09-03-057 jadi kenapa sih dibutuhkan write strategies +f09-03-058 write strategies ini diperlukan agar isi cache-nya itu koheren dengan main memory-nya +f09-03-059 nah contoh-contoh dari write strategies itu sendiri ada write through write through with buffered write dan copy back +f09-03-060 nah kemudian setelah itu kita akan membahas tentang konsep mengenai locality +f09-03-061 jadi locality ini ada temporal locality dan juga special locality +f09-03-062 nah apa yang dimaksud dengan temporal locality +f09-03-063 jadi temporal locality ini maksudnya itu adalah locality in time +f09-03-064 jadi jika suatu item di-refer maka item tersebut akan cenderung untuk di-refer lagi dalam waktu dekat +f09-03-065 nah untuk special locality ini dia itu maksudnya adalah lokal maksudnya adalah locality in space +f09-03-066 jadi ketika suatu item di-refer maka item yang alamatnya dekat dengan item tersebut cenderung untuk di-refer dalam waktu dekat seperti itu +f09-03-067 nah jadi tadi kalau untuk +f09-03-068 arsitekturnya itu +f09-03-069 ada juga arsitektur yang tadi tadi ada arsitektur cache yang unified yaitu cache data dan instruksi digabungkan kemudian ada juga arsitektur split jadi cache data dan instruksi dipisah +f09-03-070 nah untuk keuntungan dari unified itu dia dapat menyeimbangkan load antara instruksi dan pengambilan data dengan lebih baik tergantung kedinamisan eksekusi program +f09-03-071 kemudian perancangan dan implementasinya juga lebih murah +f09-03-072 nah tapi untuk arsitektur split dia juga punya keuntungan +f09-03-073 jadi untuk kompetisi antara cache kompetisi untuk cache antara pemrosesan instruksi dan unit-unit eksekusi itu menjadi dihilangkan dan sehingga berakibat pada fetch instruksi itu dapat dilakukan secara paralel dengan akses memori dari unit eksekusinya +f09-03-074 nah setelah membahas tentang tadi ada main memory kemudian secondary memory nah sekarang kita akan membahas tentang virtual memory +f09-03-075 nah virtual memory ini jadi sebenarnya dia merupakan memori yang +f09-03-076 virtual jadi tidak benar-benar ada +f09-03-077 jadi dia itu biasanya kan karena berawal dari ruang untuk alamat yang dibutuhkan dan dilihat oleh program-program itu biasanya jauh lebih besar daripada main memory yang tersedia +f09-03-078 nah jadi hanya satu bagian program yang dimuat di main memory sementara bagian yang lain akan disimpan di secondary memory +f09-03-079 nah kemudian dengan virtual memory techniques ini itu berarti adanya perpindahan program dan data antara main memory dan secondary storage secara otomatis oleh sistem operasi +f09-03-080 nah binary address yang diberikan oleh prosesor adalah virtual logic address +f09-03-081 dan memperhitungkan suatu virtual address space itu jauh jauh lebih besar daripada ruang fisik yang tersedia di main memory +f09-03-082 +m01-01-001 selamat pagi bapak imam selaku pembimbing bapak riza selaku penguji serta teman teman sekalian +m01-01-002 pada kesempatan kali ini saya akan menyampaikan presentasi tugas akhir saya yang berjudul eliminasi tail latency akibat garbage collection pada ssd raid +m01-01-003 sebelum menjelaskan latar belakang dari tugas akhir saya izinkan saya untuk menyampaikan terlebih dahulu mengenai konsep konsep penting yang ada dalam tugas akhir saya +m01-01-004 yang pertama adalah mengenai ssd +m01-01-005 berikut merupakan gambaran dari dua buah jenis media penyimpanan yakni hard disk drive atau yang biasa kita kenal sebagai hard disk serta ssd +m01-01-006 ssd atau solid state drive merupakan media penyimpanan data yang lebih modern +m01-01-007 dapat dilihat pada gambar di depan kita bahwa hard disk drive memiliki piringan sedangkan ssd menggunakan ram yang tertanam dalam ssd tesebut +m01-01-008 hal ini berdampak pada kecepatan akses data dimana ssd relatif lebih cepat ketimbang hard disk namun memiliki kekurangan yakni harganya saat ini lebih mahal +m01-01-009 hard disk dan ssd memiliki arsitektur perangkat keras yang berbeda hal ini memiliki implikasi yang sangat besar pada mekanisme penulisan penghapusan dan update data +m01-01-010 pada hard disk drive baik pembacaan penulisan maupun penghapusan dilakukan pada level blok +m01-01-011 kita dapat menuliskan a ke blok menghapusnya menuliskan data a aksen sebagai update dan menggantinya lagi terus menerus namun hal ini tidak dapat dilakukan pada ssd pada ssd pembacaan serta penulisan dilakukan pada level yang disebut page +m01-01-012 sedangkan penghapusan dilakukan pada level blok yang menampung beberapa page misalkan blok satu sedang terisi dengan data a b c dan d kemudian kita ingin menghapus data meng-update data d maksud saya meng-update data d menjadi d aksen kita tidak bisa hanya menghapus page d saja kita harus menghapus seluruh blok +m01-01-013 akan tetapi pada blok ini terdapat data a b c dan d yang tidak ingin kita hapus maka kita harus membaca seluruh blok tersebut ke memori mengganti d dengan d aksen di memori menghapus seluruh isi blok kemudian mengisinya lagi dengan a b c dan d aksen +m01-01-014 pengembangan dari cara ini yang lebih efisien dari segi latency dan ketahanan umur adalah dengan tidak menghapus kemudian mengisi blok yang sama melainkan langsung mengisi d aksen ke page yang kosong dan menandai page sebelumnya sebagai invalid atau usang +m01-01-015 data yang invalid atau usang tidak akan dipakai untuk pembacaan data namun tetap akan tersimpan di ssd +m01-01-016 akan tetapi dapat dibayangkan apa yang akan terjadi jika update dengan cara ini dilakukan terus menerus +m01-01-017 ssd dengan cepat akan dipenuhi oleh blok yang sudah usang yang berisi data data yang tidak terpakai maka ssd memiliki mekanisme untuk mengosongkan ruang yang dipakai oleh blok invalid ini yang disebut garbage collection dan kedepannya akan saya sebut gc +m01-01-018 gc akan mencari page page yang tidak usang memindahkannya ke suatu blok baru kemudian menghapus blok berisi page yang sudah usang tersebut +m01-01-019 konsep lain yang penting adalah raid +m01-01-020 raid merupakan teknik untuk menggabungkan beberapa ssd menjadi telihat seperti satu ssd bagi file system +m01-01-021 misalkan kita memiliki raid dengan empat ssd masing masing seratus giga byte kapasitasnya +m01-01-022 file system akan melihatnya sebagai satu ssd dengan kapasitas empat ratus giga byte dan kecepatan akses hampir empat kali lipat dari ssd individu +m01-01-023 dengan menggunakan raid data yang ditulis akan dipecah ke empat ssd dan pembacaan juga akan dilakukan dari keempat ssd tesebut sehingga memungkinkan peningkatan performa empat kali lipat +m01-01-024 akan tetapi meskipun menawarkan keuntungan yang cukup besar terdapat risiko yang muncul dalam penggunaan raid +m01-01-025 karena penyimpanan data dipecah ke seluruh ssd maka apabila salah satu saja ssd tidak dapat mengirimkan data bagiannya misalnya karena disfailure karena listrik mati atau sebagainya maka request akan gagal dilayani +m01-01-026 salah satu solusi untuk menanggulangi kegagalan disk adalah rekonstruksi data berdasarkan paritas +m01-01-027 paritas seperti yang kita tahu dapat disimpan pada suatu ssd dengan melakukan operasi xor terhadap data data yang ada di ssd lain +m01-01-028 misalkan raid menerima operasi untuk menuliskan konten file foo ke disk +m01-01-029 raid akan menuliskan konten foo ke ssd satu dua dan tiga kemudian melakukan xor untuk mendapatkan paritas dan menyimpannya di ssd empat +m01-01-030 dengan cara ini apabila ssd mengalami dua mengalami failure datanya dapat diketahui dari isi ssd satu tiga dan rekonstruksi dari paritas di ssd empat +m01-01-031 dengan keseluruhan hal yang telah saya ceritakan sebelumnya latar belakang tugas akhir saya adalah sebagai berikut +m01-01-032 raid ssd sangat umum sangat digunakan di server dengan tujuan meningkatkan kapabilitas reliabilitas dan kecepatan akses +m01-01-033 selain itu dalam banyak sistem raid dituntut untuk memiliki latency yang stabil +m01-01-034 stabil yang disini yang saya maksud adalah memiliki latency pembacaan data kurang dari seratus milisecond +m01-01-035 dan pada konteks ini artinya raid dikatakan stabil apabila dari seratus request maksimal hanya terdapat dua request yang latency-nya lebih besar dari seratus millisecond +m01-01-036 namun kondisi ini seringkali tidak terpenuhi karena adanya fenomena tail latency +m01-01-037 tail latency merupakan fenomena kemunculan latency yang sangat tinggi secara tiba tiba +m01-01-038 contohnya dapat dilihat pada gambar berikut +m01-01-039 seiring berjalannya waktu ssd terus menerima request dan mayoritas latency berada pada kisaran delapan millisecond +m01-01-040 namun secara tiba tiba latency dapat meningkat berkali lipat kemudian kembali ke kisaran delapan millisecond lagi +m01-01-041 salah satu penyebab utama dari tail latency pada server yang menggunakan raid adalah keberlangsungan gc +m01-01-042 seperti yang telah saya sampaikan sebelumnya saat ssd melakukan gc akan memasuki kondisi blocking dan tidak akan dapat melayani request +m01-01-043 kondisi ini menjadi lebih parah dalam raid +m01-01-044 dalam raid apabila satu saja ssd mengalami blocking maka seluruh raid tersebut akan ikut blocking dan tidak dapat melayani request +m01-01-045 apabila ada permintaan untuk membaca data katakanlah pembacaan data x pembacaan data x tersebut harus menunggu gc selesai sebelum dapat dilayani +m01-01-046 kondisi inilah yang membuat latency menjadi sangat tinggi +m01-01-047 hal yang penting untuk diperhatikan adalah kondisi ssd ssd lain di mana selama salah satu ssd tersebut melakukan gc ssd ssd lain sebenarnya sedang idle atau sumber dayanya dapat kita gunakan namun tidak dapat digunakan dikarenakan keseluruhan raid mengalami blocking +m01-01-048 salah satu solusi yang sudah teruji untuk mengatasi hal ini adalah ttrais +m01-01-049 sebelumnya saya sudah menyinggung parity reconstruction +m01-01-050 ttrais merupakan sebuah mekanisme yang idenya adalah memanfaatkan kondisi idle dari ssd ssd yang tidak mengalami blocking untuk melakukan parity reconstruction +m01-01-051 pada gambar berikut ssd dua seolah olah dianggap failure namun ssd satu tiga dan empat sebenarnya sedang idle +m01-01-052 dengan menggunakan ttrais kita dapat merekonstruksi data pada ssd dua berdasarkan data pada ssd satu tiga dan empat dengan menganggap ssd dua failure kemudian melakukan parity reconstruction +m01-01-053 dengan cara ini raid tidak perlu menunggu gc selesai untuk melayani request +m01-01-054 ttrais terbukti dapat mengeliminasi tail latency hampir seratus persen +m01-01-055 saat ini ttrais diimplementasikan pada program ssd emulator yang disebut vssim +m01-01-056 vssim dapat kita temui pada link berikut +m01-01-057 vssim merupakan open source project yang dapat diunduh pada github secara bebas dan ia merupakan sebuah program berbasis virtual machine +m01-01-058 kemampuan ini sangat bermanfaat untuk melakukan penelitian terkait ssd +m01-01-059 kita dapat bereksperimen dengan algoritma kita dapat merancang ssd model baru dan vssim telah menjadi platform penelitian ssd yang sangat bermanfaat dalam beberapa tahun terakhir +m01-01-060 akan tetapi sayangnya justru vssim-lah yang bukannya melampaui ssd dalam perancangan model justru tertinggal dari kemampuan ssd model terbaru saat ini +m01-01-061 ssd model terbaru memililki kemampuan paralelisme sedangkan vssim dalam implementasinya belum memiliki kemampuan paralelisme yang baik sehingga tidak dapat mengemulasi secara akurat kemampuan ssd model terbaru +m01-01-062 hal ini membuat vssim tidak lagi cocok digunakan sebagai platform penelitian atau setidak tidaknya vssim harus kita upgrade untuk mendukung paralelisme +m01-01-063 alternatif yang lebih baik dari vssim adalah femu sama seperti vssim femu juga merupakan software emulator ssd berbasis virtual machine +m01-01-064 dibandingkan dengan vssim femu lebih lengkap karena memungkinkan eksperimen pada level kernel level ssd serta mendukung kemampuan paralelisme +m01-01-065 demikianlah latar belakang yang dapat saya sampaikan terkait dengan tugas akhir saya +m01-01-066 berdasarkan latar belakang tersebut saya merumuskan masalah saya sebagai berikut +m01-01-067 bagaimana mengimplementasi ttrais untuk berjalan di atas femu +m01-01-068 untuk menjawab permasalahan utama ini dua rincian masalah yang harus saya jawab adalah terkait perbedaan yang pertama arsitektur vssim dan femu serta yang kedua terkait dengan perbandingan kinerja ttrais pada vssim dan femu +m01-01-069 dengan mengetahui perbedaan arsitektur diharapkan saya dapat dalam tanda kutip meng-copy ttrais dari vssim ke femu dan dengan membandingkan kinerjanya saya akan dapat memastikan bahwa ttrais di femu juga dapat mengeliminasi tail latency seperti ttrais di vssim +m01-01-070 tujuan dari tugas akhir saya sejalan dengan hal tersebut adalah mengimplementasi ttrais pada femu dan membandingkan kinerjanya dengan ttrais pada vssim +m01-01-071 ttrais telah diimplementasi pada vssim dengan melakukan modifikasi pada bagian bagian vssim serta modifikasi pada kernel linux +m01-01-072 karena baik vssim maupun femu keduanya berbasis virtual machine vm image berisi kernel termodifikasi pada vssim juga dapat digunakan oleh femu sehingga saya tidak perlu lagi melakukan modifikasi ulang kernel +m01-01-073 saya dapat menggunakan vm image yang telah dibuat dan menggunakan vssim yang telah dimodifikasi sebagai acuan untuk memodifikasi femu saya +m01-01-074 berikut saya sampaikan modifikasi kernel untuk ttrais pada gambar ini garis hitam menunjukkan skema eksekusi program raid pada kernel sebelum dimodifikasi dan warna hijau setelah dimodifikasi +m01-01-075 sebelum modifikasi ssd akan memberikan sinyal error jika menerima request saat sedang melakukan gc +m01-01-076 modifikasi utamanya dilakukan untuk melakukan penambahan jenis sinyal e busy yang menandakan bahwa ssd sedang melakukan gc +m01-01-077 kernel harus melakukan parity reconstruction tapi tidak menggagalkan request tersebut +m01-01-078 modifikasi lain yang tidak kalah penting adalah algoritma yang akan mengaktifkan parity reconstruction apabila kernel menerima sinyal e busy dari ssd +m01-01-079 itu merupakan sisi kernel sedangkan untuk sisi femu yang harus saya lakukan adalah modifikasi sesuai dengan vssim +m01-01-080 vssim telah dimodifikasi pada bagian ide host interface seperti yang dapat dilihat pada gambar +m01-01-081 saya berikan lingkaran merah pada bagian yang harus dimodifikasi +m01-01-082 dan untuk melakukannya saya harus mencari padanan dari bagian tersebut di dalam femu +m01-01-083 metodologi yang akan saya lakukan adalah yang pertama mempersiapkan environment-nya terlebih dahulu +m01-01-084 mengukur kinerjanya kemudian saya melakukan modifikasi femu untuk mengimplementasi ttrais dan mengukur membandingkan kinerjanya dengan kinerja yang telah saya ukur pada vssim sebelumnya +m01-01-085 hal ini akan melibatkan analisa perbedaan arsitektur antara vssim dengan femu +m01-01-086 vssim telah memiliki dokumentasi yang baik untuk arsitekturnya akan tetapi femu belum memiliki dokumentasi yang sebaik demikian +m01-01-087 oleh sebab itu saya harus secara manual mencari file file kemungkinan apa saja yang antara femu yang merupakan padanan dari bagian yang harus saya modifikasi pada vssim +m01-01-088 saya telah berhasil menemukan file file terkait tersebut dan file tersebut saya tampilkan daftarnya pada gambar berikut +m01-01-089 dan demikianlah analisa yang telah saya lakukan untuk pengerjaan selanjutnya saya harus mengidentifikasi alur eksekusi fungsi struktur data serta algoritma yang ada pada masing masing file +m01-01-090 kemudian saya harus memodifikasinya dengan mengacu pada hasil modifikasi vssim +m01-01-091 terakhir saya akan membandingkan kinerja hasil implementasi untuk membuktikan bahwa ttrais pada femu telah sama efektifnya dengan ttrais pada vssim di mana dalam kondisi ini implementasi saya dapat dikatakan berhasil +m01-01-092 demikian yang dapat saya sampaikan terkait tugas akhir saya terima kasih atas kesempatan yang diberikan apakah ada pertanyaan +m01-02-001 oke selamat sore semuanya +m01-02-002 kita akan melanjutkan pembelajaran kita terkait dengan hyper performance server architecture +m01-02-003 terakhir kita telah membahas tentang c ten k problem yaitu bagaimana kita mendesain socket server yang dapat secara sekaligus meng-handle banyak client pada waktu yang bersamaan +m01-02-004 c ten k problem ini merupakan singkatan dari concurrent ten thousand connections atau koneksi konkuren dari sepuluh ribu client +m01-02-005 yang menjadi permasalahan dari problem ini yaitu yang pertama kita harus mempertimbangkan copy data yang kedua kita harus mempertimbangkan context switching yang ketiga memory allocation dan yang keempat adalah lock contention +m01-02-006 selama ini kita mengetahui cara yang sangat sederhana untuk menangani banyak client yaitu yang pertama kita membuat satu proses untuk setiap client +m01-02-007 kita buat listener proses kita membuka socket dan menunggu koneksi dari client dan untuk setiap setiap koneksi baru kita membuat proses baru untuk melayani koneksi tersebut +m01-02-008 hal ini dapat diefisienkan sedikit dengan cara membuat satu proses untuk satu client namun kita melakukannya dengan pre-forking +m01-02-009 kodenya dapat dilihat pada gambar berikut +m01-02-010 atau yang serupa dengan itu kita juga dapat membuat satu thread untuk satu client +m01-02-011 akan tetapi permasalahannya adalah satu thread dengan satu client menggunakan resource yang sangat besar +m01-02-012 sebagai contoh pada http server untuk respon sebesar seratus kilobyte ini merupakan respon yang ukurannya sangat tipikal web server membutuhkan waktu singkat untuk mengambil file namun mungkin membutuhkan waktu lama untuk mengirimkan respons ke client +m01-02-013 jika ada seribu client yang mengakses server secara bersamaan dan setiap thread dialokasikan satu megabyte maka kita memperlukan ukuran sebesar satu gigabyte pada server untuk menangani seribu concurrent connection +m01-02-014 http server modern mendukung persistent connection +m01-02-015 jumlah concurrent connection bisa sangat bertambah besar namun koneksi koneksi sebelumnya tidak dimatikan sehingga akhirnya memori akan tersedot habis +m01-02-016 sehingga dapat kita katakan karakteristik aplikasi jaringan distributed ini bersifat i o bound +m01-02-017 sebagian besar waktu proses menunggu i o event +m01-02-018 salah satu solusi dari hal ini yang pertama adalah multiplexing +m01-02-019 multiplexing memungkinkan sebuah server meng-handle beberapa client sekaligus +m01-02-020 setiap ada koneksi client server memasukkannya ke dalam daftar watchlist +m01-02-021 kita dapat menggunakan select untuk menunggu event dari koneksi client +m01-02-022 ini merupakan signature dari function-nya yang pertama ada n ada f d set ada f d set untuk read f d set untuk write f d set untuk exception dan yang terakhir adalah waktu timeout +m01-02-023 select mengembalikan jumlah descriptor yang ready +m01-02-024 f d set merupakan array integer yang merepresentasikan socket descriptor sebagai kumpulan bit +m01-02-025 bit bernilai satu jika descriptor tersebut diperlukan +m01-02-026 contohnya berikut merupakan f d set yang merepresentasikan socket yang memiliki descriptor satu empat dan lima +m01-02-027 kita akan tulis pertama tama kita akan deklarasikan terlebih dahulu f d set bernama riset kemudian kita panggil fungsi bernama f d zero lalu kita melakukan f d set untuk descriptor satu +m01-02-028 f d set buka kurung satu koma kita masukkan pointer dari alamat r set lalu kita lakukan yang sama untuk empat dan lima +m01-02-029 saat pemanggilan developer yang bertanggung jawab menentukan socket mana saja yang akan dicek untuk pembacaan penulisan dan eror +m01-02-030 setelah pemanggilan developer harus memeriksa setiap socket tersebut apakah ada event yang terjadi +m01-02-031 kita dapat mengeceknya dengan potongan kode yang ada di depan +m01-02-032 pertama kita melakukan is set kemudian kita membaca setiap line dari file socket tersebut +m01-02-033 apabila kita menemui eror kita akan memanggil eror quit jika tidak kita akan memanggil f puts dan menampilkannya ke layar +m01-02-034 namun select ini juga memiliki problem +m01-02-035 select mengharuskan aplikasi mengirimkan seluruh set descriptor yang ingin dimonitor untuk setiap pemanggilan +m01-02-036 sehingga aplikasi harus iterasi setiap descriptor pada list untuk menemukan apakah ada event pada descriptor tersebut +m01-02-037 pemanggilan ulang set descriptor untuk setiap event yang ada tidak efisien +m01-02-038 kita dapat melakukannya dengan lebih efisien menggunakan mekanisme yang disebut k queue +m01-02-039 mekanisme ini merupakan penanganan event yang diperkenalkan oleh bsd jauh lebih efisien dan general purpose dan pada k queue ini kita memiliki k event data structure yaitu data structure yang merepresentasikan sebuah event atau interest ke event tertentu +m01-02-040 k event sendiri terdiri dari ident filter flags data dan user data +m01-02-041 ident dan filter merepresentasikan sebuah identitas k event +m01-02-042 ident dapat berupa file descriptor process id atau signal number +m01-02-043 filter mengidentifikasikan kernel filter yang digunakan untuk memproses event sebagai contoh ada filter read ada juga filter write +m01-02-044 dan untuk flag sendiri merupakan operasi yang diinginkan terhadap k event sebagai contoh add delete enable oneshot dan eror +m01-02-045 k event dapat di set menggunakan makro e v set +m01-02-046 k queue bekerja dengan cara menyimpan list event yang ingin di monitor +m01-02-047 pertama tama kita harus mendeklarasikan terlebih dahulu k queue +m01-02-048 lalu kita mengisinya dengan loop sebagai berikut +m01-02-049 karena k event digunakan untuk memonitor secara terus menerus kita dapat melakukan loop yang tidak berhenti berhenti untuk mengawasi event event yang ingin kita perhatikan +m01-02-050 ini contoh lengkapnya bisa dicek juga pada tautan berikut +m01-02-051 sampai pada tahap ini kita telah membahas dua jenis pendekatan yang pertama berdasarkan thread yang kedua berdasarkan event +m01-02-052 event sendiri tidak terlalu mahal sinkronisasinya +m01-02-053 kelebihan lainnya juga dia memiliki overhead yang lebih sedikit schedulling-nya lebih baik locality memorinya juga lebih baik dan control flow-nya lebih fleksibel +m01-02-054 sedangkan thread sendiri merupakan abstraksi yang lebih yang lebih natural +m01-02-055 kita bisa melakukan improvement pada compiler kita bisa membuatnya lebih efisien saat runtime sehingga performanya lebih baik +m01-02-056 ada konsep lain juga yang penting yaitu yang pertama adalah level triggered dan edge triggered +m01-02-057 saat sebuah paket datang berisi n bytes sistem akan memberikan notifikasi ke aplikasi +m01-02-058 jika aplikasi hanya membaca b kurang dari n bytes maka sisa n kurang b bytes yang belum terbaca akan membuat terjadinya salah satu event yaitu level triggered ataupun edge triggered +m01-02-059 level triggered merupakan event yang dibangkitkan berdasarkan sisa dari data yang belum dibaca +m01-02-060 apabila ada sisa data yang belum dibaca event ini akan ter-triggered seberapa kecilnya pun data data tersebut +m01-02-061 sedangkan edge triggered dibangkitkan berdasarkan perubahan level pembacaan data akan tetapi memiliki batas tertentu +m01-02-062 apabila data yang belum dibaca itu merupakan kelipatan dari batas yang kita tentukan baru event ini terdeteksi +m01-02-063 selanjutnya kita masuk kedalam beberapa jenis desain server yang pertama ada apache +m01-02-064 apache kita lihat dia memiliki multi process atau multi threading +m01-02-065 kita dapat mengatur jumlah proses dan thread-nya ketika kita mengkonfigurasi event server apache dan implementasi alokasi proses disediakan menggunakan mpm kita telah mempelajari mpm pada semester sebelumnya +m01-02-066 salah satu desain server yang lain merupakan nginx ini dirancang untuk menangani concurrent request yang jumlahnya besar +m01-02-067 server ini juga event based dan menggunakan worker threads yang masing-masing mampu menerima multiple connection +m01-02-068 kita dapat lihat arsitektur dari nginx pada gambar berikut +m01-02-069 kita bisa lihat ada satu master beberapa worker dan setiap orang dapat terhubung dengan server master lewat worker worker yang tersedia +m01-02-070 worker merupakan thread yang memiliki run loop yang mencek aktivitas pada sejumlah socket yang kita share bersama sama +m01-02-071 untuk bahan bacaan lebih lanjut bisa baca dan kegel the c ten k problem atau bisa juga lihat pada paper paper berikut dan untuk pertemuan selanjutnya kita akan membahas tentang event handling library ya harap setiap dari kita baca terlebih dahulu sehingga besok kita bisa mendiskusikan apa saja yang menarik dari event handling library ini +m01-02-072 sekian selamat sore +m02-01-001 assalamualaikum warahmatullahi wabarakatuh +m02-01-002 selamat siang semuanya +m02-01-003 jadi untuk hari ini kita akan melanjutkan belajar nlp-nya +m02-01-004 sekarang kita akan mulai belajar tentang sentiment analysis +m02-01-005 kenapa sih kita butuh sentiment analysis +m02-01-006 jadi sentiment analysis itu memiliki beberapa manfaat pertama kita dapat mengerti bagaimana opini masyarakat terhadap suatu public figure seperti pemerintah maupun orang orang yang memiliki jabatan terus perusahaan produk produk apapun makanan otomotif hotel restoran dan lain lain +m02-01-007 analisis sentimen juga lebih mudah +m02-01-008 kan sebenernya kita bisa mengerti opini masyarakat terhadap sesuatu itu dengan dilakukan survei namun survei membutuhkan tenaga dan biaya yang lebih besar jadi analisis sentimen ini lebih cenderung digunakan karena sekarang sudah tersedianya banyak media online +m02-01-009 media online-nya bisa dari review di halaman produk tersebut di social media dan lain lain +m02-01-010 beberapa pendapat tentang sesuatu itu bisa langsung ataupun tak langsung +m02-01-011 begitu juga dengan biasanya terdapat orang yang mengatakan maksudnya itu dengan implisit maupun eksplisit +m02-01-012 sentimen juga bisa seperti itu contoh sentimen yang maksudnya itu eksplisit itu misalkan lukisan ini bagus kata bagus ini menunjukkan bahwa lukisan ini memiliki sentimen positif +m02-01-013 tapi misalkan kita punya kalimat lain berupa setelah liat lukisan ini mataku sakit aku enggak bisa liat yang jelek jelek +m02-01-014 sebenernya bisa kita lihat bahwa di situ ada eksplisitnya karena ada kata aku enggak bisa lihat yang jelek jelek dan yang jelek jelek ini mengacu pada lukisan yang disebutkan sebelumnya +m02-01-015 namun juga ada bagian dari kalimat tersebut yang implisit yaitu setelah melihat itu mataku sakit gitu kan itu menyatakan bahwa enggak enak untuk dipandang +m02-01-016 beberapa jenis opini juga berupa komparasi jadi sebenernya itu bisa dikatakan positif dan negatif pada waktu yang sama misalkan lukisan a lebih bagus daripada lukisan b berarti sentimen pada lukisan a itu positif dan sentimen pada lukisan b itu negatif +m02-01-017 nah apa sih sebenernya definisi dari opini itu +m02-01-018 jadi pertama opini terdiri dari empat hal pertama target sentimen opinion holder dan waktu di mana sentimen itu disebutkan +m02-01-019 nah target itu bisa berupa entitas seperti yang telah disebutkan sebelumnya produk orang organisasi lokasi dan lain lain dan sentimen dapat berupa positif negatif maupun netral +m02-01-020 opinion holder adalah entitas yang menyebutkan sentimen tersebut +m02-01-021 jadi misalkan tadi saya menyebutkan kalimat kalimatnya maka opinion holder-nya itu saya gitu cuma dalam kalimat tersebut gak disebutkan bahwa ada opinion holder-nya +m02-01-022 kecuali terdapat kalimat yang menyatakan bahwa pak rahman mengatakan bahwa lukisan a bagus gitu berarti opinion holder-nya adalah pak rahman +m02-01-023 yang terakhir adalah time yaitu waktu di mana sentimennya itu disebutkan +m02-01-024 ini enggak selalu ada dalam sebuah opini yang menurut saya selalu ada dalam sebuah opini itu biasanya target dan sentimennya +m02-01-025 nah tapi kenapa waktu itu menjadi hal yang penting karena bisa jadi sentimen itu berubah seiring berubahnya waktu gitu +m02-01-026 nyah analisis sentimen ini memiliki beberapa level jadi yang paling umum adalah document level kemudian lebih khusus itu adalah ada level kalimat kemudian setelah level kalimat ada namanya level aspek +m02-01-027 nah tapi sebenernya ada satu level lagi yang tidak disebutkan di slide ini yaitu level entitas +m02-01-028 document level mengekspresikan sentimen dari biasanya satu artikel atau paragraf dengan asumsi bahwa tulisan tersebut paragraf atau artikelnya itu mengacu atau membahas suatu hal yang sama dari awal sampai akhir +m02-01-029 jadi misalkan artikel tersebut berisi tentang perbandingan barang barang itu susah untuk dilakukan analisis sentimen +m02-01-030 kemudian karena sebelumnya kita memiliki asumsi bahwa sebuah tulisan itu memiliki hanya satu entitas berarti ada kemungkinan satu tulisan dapat memiliki beberapa entitas maka dari itu bisa dapat memiliki beberapa sentimen yang berbeda +m02-01-031 maka terdapat analisis sentimen pada level kalimat +m02-01-032 nah namun dalam kalimat itu juga ada asumsi bahwa kalimat itu hanya membahas satu entitas yang sama gitu +m02-01-033 kemudian lanjut lagi karena ada kebutuhan untuk analisis yang lebih khusus lagi maka ada aspek dan entitas +m02-01-034 nah level aspek itu sebelumnya kita harus menentukan aspek aspek apa saja yang ingin diteliti misalkan kalau kita melakukan analisis sentimen pada domain e commerce gitu kan +m02-01-035 apa sih yang penting di domain e commerce itu +m02-01-036 kalau menurut saya sih yang penting di domain e commerce itu pertama akurasi atau ketepatan barang +m02-01-037 misalkan di fotonya barangnya bagus ya harusnya pas barangnya sampai ya barangnya sebagus di fotonya gitu itu yang saya sebut sebagai aspek akurasi +m02-01-038 kemudian ada aspek komunikasi misalkan bagaimana bagaimana penjual barangnya itu bisa merespon pertanyaan dari calon pembeli +m02-01-039 kemudian ada pengiriman apakah ada masalah di pengirimannya apakah pengirimannya lama salah alamat +m02-01-040 kemudian bisa juga ada aspek harga jadi apakah dengan barang segitu harganya sesuai gitu dan bisa lagi ada aspek aspek lain +m02-01-041 sepertinya sih ada kakak tingkat kalian yang udah punya paper di aspect based tentang e commerce coba aja sih dicari kalo enggak salah itu namanya kak zulfa fachrina ya juga ada sih tahun dua ribu lima belas itu abdurrahman sama arfinda ya coba dicari aja ya ya ok +m02-01-042 lanjut kalau tadi analisis sentimen itu kita lakukan pada level apa +m02-02-001 nah sekarang kita akan membahas lebih detail lagi bagaimana analisis sentimen itu dilakukan +m02-02-002 menurut kalian bagaimana sih kalimat yang bersentimen itu +m02-02-003 apakah kalimat yang bersentimen itu pasti subjektif +m02-02-004 ternyata kalimat yang objektif pun itu bisa memiliki sentimen +m02-02-005 contohnya di sini adalah saya baru saja beli mobil sebulan yang lalu dan sekarang sudah copot +m02-02-006 jadi kan kalau kalian beli mobil baru sebulan spionnya sudah copot berarti kualitas mobilnya jelek dong itu +m02-02-007 jadi ga selalu kalimat yang subjektif saja yang memiliki sentimen +m02-02-008 tapi karena kebanyakan yang memiliki sentimen adalah kalimat subjektif maka sebelum analisis sentimen dilakukan bisa sebelumnya dilakukan subjectivity classification +m02-02-009 jadi memisahkan kalimat yang subjektif dan kalimat yang tidak gitu +m02-02-010 analisis sentimen ini berkaitan erat dengan deteksi emosi +m02-02-011 iya sih deteksi emosi saja sih +m02-02-012 ini untuk detection of deceptive language itu saya kurang tau +m02-02-013 ya nanti saya cek lagi ya +m02-02-014 nah sekarang kita akan membahas fitur fitur yang penting pada analisis sentimen +m02-02-015 pertama kita bisa menentukan kalimat itu memiliki sentimen apa jika kita tau ada kata bersentimen apa di situ +m02-02-016 misalkan dari awal kita tau bahwa bagus adalah kata yang bersentimen positif maka biasanya kalimat yang memiliki kata bagus itu bakal bersentimen positif +m02-02-017 tapi belum tentu juga kan +m02-02-018 misalkan ternyata kalimatnya itu katanya itu tidak bagus gitu +m02-02-019 makanya salah satu tantangan di analisis sentimen itu juga adalah negation handling yaitu bagaimana kita mengatasi kalimat kalimat yang menunjukan yang memiliki misalkan sentimen positif tapi ternyata memiliki kata-kata yang menunjukkan sentimen kebalikannya seperti tidak engga bukan gitu +m02-02-020 nah tapi yang penting juga untuk kita mengetahui kata kata mana saja yang memiliki sentimen positif maupun negatif +m02-02-021 nah untuk mendapatkan daftar kata sentimen ini ada beberapa cara +m02-02-022 pertama dibuat manual +m02-02-023 jadi ya tentu saja kita telah memiliki pengetahuan tentang kata apa saja yang positif maupun negatif +m02-02-024 tapi kalau kita yang melakukan seringkali kekurangannya adalah kita ga bisa menuliskan seluruhnya +m02-02-025 kita bisa menentukan kata ini itu positif atau negatif tapi kita ga bisa mengingat seluruhnya gitu +m02-02-026 mungkin saja aku bisa ingat kalau kata sentimen positif itu misalkan bagus cakep rapih megah mewah gitu tapi saya pun ga bisa menyebutkan semuanya gitu jadi seringkali ada yang terlewat +m02-02-027 kemudian ada namanya wordnet yaitu daftar kata sentimen yang udah dibuat +m02-02-028 itu ada studinya lagi +m02-02-029 kekurangannya wordnet ini ya masih sama ada engga ya pasti tetap ada kata kata yang terlewat tapi mungkin lebih sedikit gitu +m02-02-030 korpus itu sebenarnya sama dengan kamus +m02-02-031 terus kemudian ada namanya senti wordnet +m02-02-032 jadi kalo wordnet itu cuman mengelompokkan kata berdasarkan pengertiannya gitu jadi seperti kata kata yang memiliki pengertian sama dikelompokkan dalam satu kelompok kalo senti wordnet itu hanya apa fokus pada apakah kata ini bersentimen positif atau negatif +m02-02-033 pada paham ga +m02-02-034 kalau saya jelasinnya terlalu cepat tolong bilang ya ga apa +m02-02-035 nah dalam analisis sentimen kan kita tahu bahwa bisa positif negatif maupun netral +m02-02-036 saya juga dalam beberapa studi seringkali penting untuk mengetahui bagaimana kekuatan dari sentimen tersebut gitu +m02-02-037 kan kalian kalau mau beli barang pasti milih barang yang bintang lima kan dari pada yang bintang empat +m02-02-038 ya kan hehe +m02-02-039 saya pun begitu +m02-02-040 jadi ada studi yang melakukan analisis sentimen itu dalam lima kelas +m02-02-041 jadi yang lima yang lima itu ya positif gitu yang empat juga positif tiga itu netral satu dua itu negatif gitu +m02-02-042 ini menurut saya ya menarik tapi mungkin ya kalau misalkan ini analisis sentimen sudah dilakukan dengan bisa diketahui confidence-nya menurut saya itu sudah cukup sih gitu +m02-02-043 arsitektur dalam analisis sentimen masih sama mungkin seperti klasifikasi teks lainnya +m02-02-044 nanti ada masukan kemudian ada ekstraksi fitur +m02-02-045 masukan ini jadi kalian menentukan udah menentukan mau pakai fitur apa saja sedangkan di ekstraksi fitur itu bagaimana kalian merepresentasikan fiturnya +m02-02-046 kemudian setelah tahap ektraksi adalah tahap klasifikasi +m02-02-047 nah beberapa fitur yang sering dipakai dalam analisis sentimen seperti berikut +m02-02-048 ada fitur yang sifatnya dalam level kata +m02-02-049 jadi misalkan ada kata apa saja sih yang terdapat dalam kalimat tersebut +m02-02-050 jadi itu seperti unigram gitu ya +m02-02-051 nah untuk setiap katanya bisa direpsentasikan apakah katanya ada atau engga kan kalau gitu berarti nilainya satu atau nol aja atau bisa berupa frekuensi juga +m02-02-052 misalkan kata ini itu muncul berapa kali dikali empat gitu +m02-02-053 nah tapi ada representasi yang lebih apa lebih apa ya lebih bagus karena kalo tadi hanya mempertimbangkan nilainya dalam satu kalimat saja dalam satu data +m02-02-054 nah terkadang bagus untuk mengetahui bagaimana nilai kata tersebut dalam seluruh dokumen gitu makanya ada fitur namanya term frequency sama inverse document frequency gitu +m02-02-055 jadi term frequency itu berapa kali terdapat banyak dalam kata tersebut dan dan dan berapa perbandingannya terhadap seluruh data gitu +m02-02-056 jadi misalkan kalian tau di suatu data positif itu sering menyebutkan kata kata ini saja berarti kata kata itu penting gitu +m02-02-057 misalkan kata bagus itu pasti cuma di data yang positif aja kan meskipun di data negatif itu bisa ada tapi ga selalu gitu +m02-02-058 ya tadi juga udah dibahas ada fitur daftar kata sentimen +m02-02-059 jadi kita bisa mempertimbangkan lebih lebih penting yang memiliki kata kata yang memiliki sentimen dibandingkan yang tidak +m02-02-060 terus ada lingkungan syntaxis +m02-02-061 jadi misalkan tadi kita pakai representasi kata yang ada atau engga gitu ya +m02-02-062 tapi misalkan kita tau bahwa ada kata tidak sama kata enak ada kata bagus gitu ya tapi kita ga tau bahwa kata tidaknya ini berpasangan dengan enak atau bagus gitu +m02-02-063 jadi kan itu menghilangkan informasi dari kalimatnya gitu kalau kita merepresentasikannya dengan bag of word saja +m02-03-001 makanya beberapa analisis sentimen tuh masih mempertimbangkan posisi katanya +m02-03-002 jadi kalau ingin masih mempertimbangkan posisi katanya berarti kita harus merepresentasi katanya tuh berurutan +m02-03-003 oke lanjut jadi ada namanya rules of opinions jadi sebenernya negation handling itu juga ada disini +m02-03-004 dimisalkan kita udah punya kata kata yang sentimen positif tapi tidak berpasangan dengan kata yang berupa negasi maka kita jadikan token tersebut itu token sebaliknya jadi bagus karena berpasangan dengan tidak maka jadi token negatif +m02-03-005 ini beberapa contohnya ada bag of words +m02-03-006 jadi bag of words itu udah berupa unigram bigram dan selanjutnya n gram bisa tiga empat lima +m02-03-007 ini sentimen leksikon yang tadi yang positif negatif gitu +m02-03-008 jadi meskipun kalau kita sering bilang bahwa leksikon itu berada pada level kata ya tapi sentimen leksikon itu tidak terbatas pada kata saja +m02-03-009 jadi bisa kita masukkan bagus itu di leksikon positif terus tidak bagus di leksikon negatif gitu +m02-03-010 bisa juga kita misalkan kita menemukan frasa yang sering dipakai untuk menunjukkan sentimen tertentu misalkan tidak bertanggung jawab gitu itu kan tiga kata dan itu cenderung ke sentimen negatif gitu jadi gak terbatas pada satu kata saja +m02-03-011 untuk domain dari analisis sentimen jadi bisa di-review bisa di sosial media tapi untuk sekarang itu paling gampang itu mengumpulkan data dari twitter +m02-03-012 twitter itu karena juga udah ada api-nya kan jadi lumayan gampang untuk di kumpulkan datanya +m02-03-013 +m02-03-014 tadi sudah saya sebutkan bahwa salah satu tantangannya adalah bagaimana mengatasi negasi nah disini juga ada beberapa permasalahan lainnya yaitu bagaimana mendeteksi named entity +m02-03-015 jadi dengan named entity tertentu kita kan penginnya bisa tahu sentimen terhadap +m02-04-001 tadi permasalahan dalam sentimen analisis ya +m02-04-002 yang belum disebutkan oleh saya itu sebenernya ini sih sarcasm ironi jadi bisa saja kita kan bilang niatnya mau bilang jelek tapi kata katanya bagus gitu +m02-04-003 pernah gak sih kalian misalkan bagus banget bajunya gitu kayak badut deh gitu +m02-04-004 ya emang ini ya unik ya orang itu kepikiran aja ya bisa bilang sentimen negatif tapi pakai kata kata positif bikin kita yang berurusan sama analisis sentimen tuh kesusahan nih +m02-04-005 nah kemudian seperti yang disebutkan sebelumnya ada bisa saja kita melakukan analisis sentimen dengan mempertimbangkan entitas dan aspek gitu +m02-04-006 nah ini tergantung lagi dari analisis yang dilakukan itu perlu sedetail apa +m02-04-007 mungkin ada lebih dari tiga kelas yang tadi jadi sentimen berupa ordinal satu dua tiga empat lima dengan satu duanya negatif tiga netral empat lima positif +m02-04-008 ini yang perbandingan lagi jadi kalau ada perbandingan terhadap entitas yang pertama bisa positif kemudian yang entitas kedua bisa negatif gitu +m02-04-009 ini masih difficulty sama +m02-04-010 kemudian saya ingin lebih lanjut membahas tentang level aspek karena saya suka ini analisis sentimen berbasis aspek +m02-04-011 jadi kalau tadi definisi opini itu terdiri dari empat informasi yaitu target berupa entitas kemudian opinion holder sentimennya apa dan waktu penyebutan sentimen tersebut +m02-04-012 nah kalau di level aspek ya berarti setelah entitas itu entitasnya terhubung terhadap beberapa aspek tertentu gitu +m02-04-013 jadi bisa saja satu entitas itu bisa memiliki beberapa aspek +m02-04-014 jadi kalau awalnya kita bilang entitas itu netral eh ternyata kenapa kita sebut netral itu karena dia memiliki dua aspek yang aspek pertama positif dan aspek kedua itu negatif +m02-04-015 ini salah satu contohnya +m02-04-016 udah lah ya udah cukup jelas dari contoh contoh yang saya sebutkan sebelumnya +m02-04-017 nah yang menarik itu dari tadi kita tuh membicarakan bagaimana mengklasifikasikan yaitu satu data menjadi sentimen tertentu +m02-04-018 nah tapi kan balik lagi ke tujuan awal bahwa kita ingin melakukan analisis sentimen agar kita mengetahui pendapat masyarakat maupun kelompok orang tertentu terhadap suatu entitas +m02-04-019 maka kita perlu merepresentasikan nanti data yang telah kita kumpulkan itu dengan persentase +m02-04-020 jadi di misalkan dari hasilnya kita tahu bahwa tujuh puluh persen bilang entitas ini bagus tiga puluh persen sisanya bilang entitas ini jelek gitu +m02-04-021 jadi udah menurut saya cukup segitu +m02-04-022 yang belum sempet dibahas adalah bagaimana melakukan analisis sentimen jika domain datanya tuh berupa social media +m02-04-023 kenapa sih kalau social media dibahas sendiri lagi kenapa yaudah social media ya sama aja kayak data data sebelumnya gitu +m02-04-024 ada yang tau +m02-04-025 karena di social media itu orang itu grammar-nya itu bisa unik unik pemakaian katanya itu juga bisa apa tidak baku dan bisa saja itu berupa singkatan yang mungkin di artikel biasanya itu gak disebutkan gitu +m02-04-026 misalkan nih kalau di bahasa indonesia kita bilang itu setelah subjek itu predikat kan ya tapi kalau di social media itu bisa loh sebaliknya kayak laper aku gitu +m02-04-027 ya kan ya +m02-04-028 jadi ya begitu juga di kalimat kalimat yang mengandung sentimen itu bisa saja yang sebelumnya kita merhatikan urutan kata dan kita melakukan data latihnya itu di daftar artikel yang baku katanya terus kita cobakan ke data yang berupa social media mungkin model kita akan kesusahan untuk mengetahui sentimennya gitu +m02-04-029 jadi mungkin kalau kita ingin melakukan analisis sentimen pada social media berarti kita juga harus mengumpulkan data latihnya itu dengan data social media juga gitu +m02-04-030 ada praproses seperti normalisasi gitu +m02-04-031 jadi normalisasi ini akan mengatasi misalkan singkatan dan juga kata kata lain yang tidak terdapat dalam kata baku +m02-04-032 oke cukup sekian jika tidak ada pertanyaan saya cukupkan +m02-04-033 assalamualaikum warrahmatullahi wabarakatuh +m03-01-001 oke semuanya selamat pagi +m03-01-002 assalamualaikum warahmatullahi wabarakatuh +m03-01-003 jadi +m03-01-004 jadi data visualisasi di sini agak berbeda dengan kebutuhan data visualisasi pada umumnya +m03-01-005 dikarenakan kita seringkali memvisualisasikan data dengan dengan tujuan untuk menyampaikan informasi kepada khalayak umum +m03-01-006 misalkan ada pada suatu kasus kita punya katakanlah kita ingin menggambarkan suatu krisis +m03-01-007 kemudian kita buat visualisasi tersebut sedramatis mungkin gitu +m03-01-008 agar orang orang melihat itu sebagai krisis yang sangat ekstrim +m03-01-009 nah tapi di sini di data visualisasi yang kali ini kita akan lebih membahas visualisai data dengan kacamata seorang data analyst +m03-01-010 yang dia ingin mendapatkan suatu insight insight baru dari datanya +m03-01-011 atau apa ya dia ingin mendapatkan informasi lah dari situ +m03-01-012 jadi dia sudah mendapatkan konteksnya bahwa data ini berbicara tentang apa yang ingin dia lakukan adalah mendapatkan informasi lebih dengan cara melakukan visualisasi pada data itu +m03-01-013 nah ini alasan kenapa data visualisasi itu sangat penting +m03-01-014 yang pertama seperti yang dijelaskan tadi bahwa untuk mengerti tentang datanya lebih baik +m03-01-015 kamu harus mengetahui datanya dan bagaimana data tersebut dibentuk agar kamu dapat membuat model yang sangat baik +m03-01-016 karena di sini data analyst atau data scientist itu banyak sekali berhubungan dengan pembuatan model +m03-01-017 nah visualisasi data ini sangat penting dikarenakan ya itu salah satunya deh untuk membuat kita lebih mengerti tentang data yang akan kita olah +m03-01-018 nah ini beberapa kepentingannya juga seperti untuk mengkomunikasikan data +m03-01-019 ya jadi setelah biasanya setelah data scientist membuat suatu model dia akan mempresentasikan tentang hasilnya +m03-01-020 itu juga ada peran visualisasi data di situ dikarenakan biasanya kita mempresentasikan kepada orang orang bisnis +m03-01-021 lalu bagaimana kita bisa membuat visualisasi data yang simpel yang mudah bisa mereka pahami namun tetap tidak dengan membohongi mereka dengan trik trik tertentu +m03-01-022 kemudian yang jelas seperti yang saya bilang tadi bahwa untuk mengeksplorasi datanya untuk mengerti datanya dengan lebih +m03-01-023 nah ini tentang eksplorasi data biasanya seorang data scientist itu melakukan exploratory data analysis +m03-01-024 jadi di sini kita ya sekedar meng-explore datanya +m03-01-025 salah satunya dengan cara melakukan visualisasi terhadap datanya +m03-01-026 ya kita tidak pernah tahu apa yang kita cari sampai kita benar benar menemukannya jadi visualisasi terhadap data untuk melakukan eksplorasi dan data analysis itu seperti itu simpel +m03-01-027 yah di sini ada suatu quotes +m03-01-028 nilai yang sangat penting dari suatu gambar itu ketika gambar itu memaksa kita untuk melihat apa yang tidak pernah kita ekspektasikan untuk dilihat +m03-01-029 nah kemudian alasan berikutnya adalah bahwa statistic descriptive itu tidaklah cukup untuk menggambarkan suatu data yah jadi di sini ada ascombes quartet +m03-01-030 dimana ada empat dataset yang punya rata rata sama kemudian variasi sama korelasinya sama dan punya garis linear regression yang sama jika kita membuat model di di data tersebut +m03-01-031 nah bisa kita lihat dia punya data yang jelas jelas berbeda di situ x dan y nya tapi punya rata rata variasi korelasi dan dan model linear yang sama +m03-01-032 nah ini seperti kita bisa lihat di gambarnya sangat berbeda gambar yang pertama oke gambar yang pertama bisa bisa kita terima modelnya seperti itu +m03-01-033 namun yang kedua datanya lebih ke tingkat dua ya polinomial dan sejenisnya kemudian di ketiga itu ada outlier satu satu data dimana akan membuat modelnya akan akan sedikit lebih buruk +m03-01-034 dan yang keempat ini kalau kita visualisasikan itu tidak cocok dengan model linear regression jadi sangat penting untuk memvisualisasikan data sebelum kita membuat model agar kita bisa mengetahui dan mengerti datanya lebih baik +m03-01-035 dan kemudian kita bisa menjadikannya sebagai dasar pemilihan model yang akan kita gunakan +m03-01-036 nah ini contohnya lagi sama seperti yang tadi tapi lebih menarik kita lihat bahwa visualiasinya dia memvisualisasikan juga datnaya datanya yang data dengan mean standar deviasi dan korelasi yang sama di sini +m03-01-037 kita bisa lihat di situ ada gambar dinosaurus ada gambar bintang dan sebagainya namun dengan mean standar deviasi dan korelasi yang sama ya nah itu kan jadi apa ya kalau kita mengolah satu data itu jangan hanya percaya pada satu +m03-01-038 satu indikator gitu seperti yang tadi yang statistic descriptive karena di sini visualisasi data menurut saya perannya penting sekali karena sangat sangat bisa melihat banyak hal di sini ya tergantung kita juga bagaimana memvisualisasikan datanya +m03-01-039 seperti misalnya kita pakai oh mungkin kita kalau pakai pie chart kita tidak melihat informasi ini namun dengan chart yang lain kita bisa melihat +m03-01-040 nah kemudian ini juga ada yang namanya simpsons paradox yah jadi dia +m03-01-041 kalau kita pakai semua datanya itu akan membuat garis linear regression yang sebagus ini korelasinya negatif ya negatif nol koma tujuh empat ya +m03-01-042 namun jika kita visualisasikan datanya bisa kita lihat dengan jelas bahwa mereka punya lima grup di dalam data tersebut +m03-01-043 yang yang lima grup itu punya korelasi yang berbeda namun semuanya positif nah itu salah satu lagi pentingnya +m03-01-044 untuk memvisualisasikan data karena kita bisa saja ternyata datanya punya paradoks paradoks seperti ini yang secara statistic descriptive itu tidak bisa ditangkap dengan baik +m03-01-045 nah setelah tau tadi pentingnya bagaimana pentingnya visualisasi data sekarang kita akan bicara mengenai bagaimana sih memvisualisasikan data dengan cara lebih yang efektif gitu +m03-01-046 mungkin di sini saya akan memberikan caranya dengan melihat contoh contoh ya kita belajar dari contoh saya kira lebih baik +m03-01-047 yang pertama jangan melakukan distorsi skala ya ini sanga t penting dan dan prinsip yang harus dipegang oleh orang orang pendata visualisasi di sini +m03-01-048 mau itu tujuannya untuk memberikan informasi pada khalayak umum mau itu untuk exploratory data analysis atau sebagainya iya kan sekali kali melakukan scale distortion +m03-01-049 ya jadi kalau kita memberi informasi kepada khalayak umum dengan melakukan distorsi skala ini ya secara tidak langsung kita secara langsung atau tidak langsung kita membohongi orang yang melihat visualisasi tersebut gitu +m03-01-050 dan itu sangat tidak baik ya tidak beretika seperti itu +m03-01-051 jadi di sini misalkan kita lihat di bagian kiri itu contoh yang jelek dimana yang kanan yang yang baik ya +m03-01-052 perbedaannya hanya empat koma enam persen namun kita bisa lihat itu bahwa dramatis sekali perbedaannya +m03-01-053 namun yang di kanan kita melihatnya lebih jelas bahwa bedanya hanya empat koma enam persen dan +m03-01-054 dan dia mulai skalanya dari nol di situ ya jelas makanya salah satu cara untuk tidak melakukan distorsi skala adalah dengan memulai dari nol +m03-01-055 semuanya ya mungkin ada beberapa kasus dimana kita mulai dari nol akan kurang bagus gitu visualisasinya +m03-01-056 namun secara umum mulai dari nol dulu kalau ternyata grafiknya atau visualisasinya kurang bagus kita pikirkan lagi +m03-01-057 bagaimana membuat visualisasi kita bagus namun tetap mempertahankan nilai nilai integritas ya yang ada di datanya +m03-02-001 nah ini contoh yang kedua +m03-02-002 dia lagi-lagi tidak mulai dari nol mulai dari lima puluh tiga koma nol +m03-02-003 sehingga pada bar chart yang terakhir disini yang dua ribu dua belas terlihat seperti sangat berbeda jauh gitu dari tahun tahun sebelumnya +m03-02-004 ya padahal kalau kita mulai dari nol itu akan lebih berintegritas ya visualisasinya nah ini juga mengenai median income dari berbagai orang disini ya +m03-02-005 sangat dramatis sekali keliatannya disini karena dia lagi lagi tidak mulai dari nol +m03-02-006 nah ini juga yang sama seperti tadi ya +m03-02-007 jadi kalau misalkan ini bar chart-nya kita rotate ya rotate sembilan puluh derajat ke berlawanan arah jarum jam itu terlihat seperti yang biru +m03-02-008 namun kalau kita tidak menggunakan skala yang baik itu bisa seperti yang biru +m03-02-009 nah kemudian ini dari visualisasi ini apa kita bisa menarik kesimpulan bahwa terjadi pemanasan global +m03-02-010 tentu tidak ya kan +m03-02-011 kemudian jika kita lihat secara lingkup lebih luas akan menjadi seperti ini +m03-02-012 kalau kita buat garis linear regression-nya kita akan punya korelasi yang positif punya nilai koefisien yang positif +m03-02-013 apakah ini terjadi global warming +m03-02-014 ya mungkin sebagian orang ada yang berpikiran begitu ya +m03-02-015 nah tapi yang paling bagus-nya ini salah satu ini penting juga ya untuk visualisasi data itu bahwa kalau kita memvisualiasikan data yang time series seperti ini +m03-02-016 itu penting untuk memilih range yang tepat untuk menggambarkan apa yang kita maksud +m03-02-017 jadi kita disini punya data mengenai suhu rata rata +m03-02-018 suhu rata rata bumi kemudian kita ingin memberikan informasi bahwa telah terjadi global warming +m03-02-019 tapi yang seperti gambar sebelum-nya di visualisasi-kan ini dia hanya melihat beberapa tahun belakangan saja +m03-02-020 jika kita melihat secara lebih luas dia akan menjadi lebih baik gitu +m03-02-021 maksud yang akan kita berikan kepada orang yang melihat data ini itu bisa menjadi lebih tercapai yah +m03-02-022 jadi penting juga untuk memilih size data yang akan dipakai untuk visualisasi +m03-02-023 dipastikan cukup ya untuk tujuan tujuan yang kita inginkan +m03-02-024 nah kemudian ini presentasi dari steve jobs mengenai market share dari smartphone-nya di us +m03-02-025 apa yang salah disini +m03-02-026 ya benar +m03-02-027 disini kelihatan sembilan belas koma lima persen-nya terlihat seperti lebih besar gitu +m03-02-028 jika dibandingkan dengan dua puluh satu koma dua persen sih +m03-02-029 padahal secara eksak-nya lebih besar yang dua puluh satu koma dua +m03-02-030 jadi ya kalau mau menggunakan pie chart lebih baik yang dua dimensi saja ya jangan yang tiga dimensi +m03-02-031 kecuali kita bisa memastikan bahwa secara sudut pandang itu baik gitu atau ya gunakan bar chart saja untuk kalau ingin membandingkan satu dengan yang lainnya +m03-02-032 ini lebih aman lebih mudah lebih simple juga +m03-02-033 ya ini yang tadi yang kaca tiga dimensi mengapa ini tidak baik karena tadi ya masalah sudut pandang bisa saja berbeda +m03-02-034 kalau diputus sedikit bisa punya sudut pandang yang berbeda +m03-02-035 nah ini salah satu lagi kekurangan dari pie chart adalah tidak scalable dengan kalau data yang dimiliki semakin banyak data dalam hal ini x-nya +m03-02-036 ya jadi +m03-02-037 tapi ya kadang kadang juga seperti ini +m03-02-038 nah catat berikutnya tips berikutnya untuk visualisasi ini mengenai memaksimalkan rasio dari tinta yang dipakai +m03-02-039 yah ini basisnya itu adalah simplicity ya dimana kita lebih menyukai disini membuat suatu yang simple +m03-02-040 selain memudahkan untuk membuatnya gimana ya juga lebih mudah untuk dicerna +m03-02-041 ya jadi kalau disini kan kita bisa lihat kan dia pakai warna yang sangat pekat kemudian dia pakai tiga dimensi kemudian pakai apa itu warnanya yang garis garis belakang +m03-02-042 nah itu ya secara estetika mungkin lebih baik yang pertama namun bagi saya yang lebih berkutat ke analisis data +m03-02-043 saya lebih suka melihat yang grafik yang seperti ini karena lebih jujur ya visualisasinya lebih jujur +m03-02-044 dan kita dengan mudah membaca visualisasi yang seperti ini +m03-02-045 nah ini lagi lagi jangan kalau pakai bar chart juga gak perlu-lah tiga dimensi karena akan menyulitkan saja sorry +m03-02-046 oke kemudian gak perlu alay alay gak perlu alay alay kayak gini kita pakai bar chart-nya pakai kado +m03-02-047 ya kadang perlu tapi pada kasus kita yang cenderung ingin melihat sesuatu informasi atau mendapat informasi dari data-nya itu ya gak perlu melakukan ini +m03-02-048 kita lebih baik melakukan hal hal yang lain gitu kan daripada cuma menghias hias visualisasi data yang kita lakukan +m03-02-049 atau itu pakai background yang tidak perlu atau di rotate sembilan puluh derajat yang malah jadi kita lebih sulit untuk membaca visualisasi-nya +m03-02-050 nah ini beberapa guideline yang bisa dipakai untuk comparison untuk distribusi untuk komposisi dan untuk relationship +m03-02-051 ada beberapa grafik yang bisa teman teman pakai disini nanti akan dijelaskan selanjutnya +m03-02-052 nah untuk comparison yak yang paling banyak dipakai itu bar chart yak +m03-02-053 ya karena disini lebih jujur daripada pie chart kemudian lebih mudah kemudian lebih scalable yah untuk banyak x untuk banyak x lebih scalable bar chart +m03-02-054 asalkan kita punya ruang yang cukup di dimensi x +m03-02-055 nah ini lagi lagi bar chart kita bisa gunakan kiri dan kanan warna merah dan warna hijau untuk menunjukkan bahwa ini positif ini negatif sangat menarik sekali +m03-02-056 coba kita gunakan pie chart di kasus ini akan sulit karena jumlah x nya banyak terus ada yang negatif lagi ya kan susah kan kalau pakai pie chart +m03-02-057 nah ini kalau untuk tren kita bisa gunakan line chart +m03-02-058 biasanya ini menggambarkan data time series line chart-nya itu yang terhubung ya pasti +m03-02-059 nah ini kemudian kapan kita menggunakan bar chart kapan kita menggunakan line chart untuk kategorikal data seharusnya kita pakai yang bar chart ya +m03-02-060 dikarenakan sebenarnya yang kategorikal data kan tidak punya auto korelasi nah kita bukan ingin menggambarkan sebuah data time series makanya kita pakai yang bar chart +m03-02-061 kalau ada auto-korelasi antar data-nya yang terhadap sumbu x-nya ya oke baru kita pakai yang bar chart +m03-02-062 nah ini misalkan kita ingin membandingkan rating dari sebuah buku +m03-02-063 dalam kasus ini yang memberikan rating dari buku itu tidak punya auto korelasi jadi untuk apa menggunakan bar chart +m03-02-064 nah ini untuk korelasi kita bisa pakai scatter plot yang banyak dipakai disini kita bisa lihat visualisasi mengenai buah-buahan yang mudah atau sulit kemudian yang tasty atau untasty disini +m03-03-001 nah ini salah satu yang visualisasinya bagus dan +m03-03-002 mendalam menyampaikan apa yang ingin disampaikan +m03-03-003 terus mereka tidak melakukan distorsi skala di situ +m03-03-004 stroberi dibuat kecil +m03-03-005 ini saya ambil dari xkcd ya di sini komik-komiknya menarik sekali +m03-03-006 kalau teman-teman mau baca komik mengenai data science ya ada lah ya versi xkdc-nya +m03-03-007 nah ini +m03-03-008 kalau mau pakai tiga dimensi gimana +m03-03-009 gunakan dimensi dimensi-dimensi yang lain ya +m03-03-010 jangan gunakan dimensi ruang tiga dimensi tapi misalkan kita bisa pakai warna yang lain ya +m03-03-011 atau pakai ini circle ya pakai lingkaran kemudian punya diameter yang berbeda nah seperti itu +m03-03-012 itu bisa dipakai untuk menggambarkan data yang tiga dimensi +m03-03-013 nah ini jelas seperti yang tadi saya sampaikan bahwa pie chart versus bar chart di sini +m03-03-014 lanjut saja +m03-03-015 nah untuk komposisi bisa gunakan stacked bar chart +m03-03-016 yang bertingkat seperti itu ya +m03-03-017 dia untuk distribusi ya ini yang paling banyak dipakai ya ini histogram +m03-03-018 histogram di sini normal ya distribusinya +m03-03-019 normal rata-ratanya sekitar enam puluh dua +m03-03-020 nah hal yang penting untuk kita mengenal histogram di sini adalah penggunaan ukuran bin-nya ya +m03-03-021 jadi +m03-03-022 kita harus memilih bin yang tepat gitu yang sesuai dengan distribusi dari datanya gitu +m03-03-023 di sini kita bisa lihat bahwa yang di kiri itu bin size-nya besar yang di kanan nih bin size-nya kecil +m03-03-024 yang bagus yang mana +m03-03-025 yang kiri atau yang kanan +m03-03-026 yang kiri ya yang kiri lebih jelas +m03-03-027 lebih stabil ya lebih menggambarkan secara umum distribusinya seperti apa dibandingkan yang kanan ya ini bin size-nya jauh lebih kecil +m03-03-028 kita bisa lihat di situ inkonsistensi visualisasi data yang dilakukan +m03-03-029 jadi itu penting sekali untuk memilih bin size-nya juga kalau pakai histogram +m03-03-030 nah ini untuk komposisinya juga bisa gunakan box plot atau whisker plot ya +m03-03-031 yang di luar ini +m03-03-032 tapi apakah itu data anomali belum tentu ya +m03-03-033 jadi kita harus analisis lagi setelah melihat ini dengan lebih dalam +m03-03-034 nah bagaimana yang ini +m03-03-035 lagi-lagi contoh-contoh buruk ya yah ketawan deh contoh buruknya +m03-03-036 ya ini contoh dari steve jobs eh dari apple aksi ya ini siapa sih +m03-03-037 bukan bukan +m03-03-038 nah bagaimana ini +m03-03-039 dia dia menggambarkan penjualan kumulatif dari iphone +m03-03-040 ya buruk ya +m03-03-041 nah di sini ada data integrity yang dia salahi di sini +m03-03-042 bahwa jika lihat secara pertahunnya penjualannya seperti ini bukan superior-superior banget gitu kan +m03-03-043 tapi kalau kita gunakan kumulatif +m03-03-044 namun pada kenyatannya ya biasa-biasa saja bahkan untuk tiga tahun belakangan +m03-03-045 nah disinilah visualisasi data menjadi hal yang apa ya +m03-03-046 hal ini mungkin hal yang baik bagi apple gitu ya +m03-03-047 yah +m03-03-048 balik lagi kalau tujuan kita untuk eksplorasi data +m03-03-049 ya kita harus benar-benar melihat data itu secara jujur gitu +m03-03-050 apa yang ingin kita lihat +m03-03-051 jangan ada fakta yang tertutupi akibat itu +m03-03-052 nah ini salah satu contoh yang bagus +m03-03-053 ini data mengenai perbandingan populasi berdasarkan jenis kelamin di berbagai negara +m03-03-054 yang ingin kita lihat di sini bahwa rasio laki-laki dan perempuan di dunia ini secara general ya +m03-03-055 kita bisa lihat di situ +m03-03-056 lebih banyak laki-laki sedikit dibanding perempuan +m03-03-057 kalau kita lihat yang +m03-03-058 kemudian di negara yang perempuannya rasionya lebih tinggi itu di ukraina misalnya +m03-03-059 nah di sini apa yang kita lihat +m03-03-060 yang kita lihat bahwa +m03-03-061 ada negara yang sangat jomplang sekali laki-lakinya sangat banyak +m03-03-062 nah di sini kita bisa lihat lagi bahwa kita bisa menelusuri +m03-03-063 kemudian kita bisa google-ing atau segala macamnya untuk mendapatkan informasi atau insight bahwa +m03-03-064 sepertinya halnya di saudi arabia atau china gitu +m03-03-065 bagaimana china bisa punya laki-laki yang cukup lebih banyak gitu +m03-03-066 apakah karena peraturannya yang dahulu mengharuskan satu +m03-03-067 nah itu kan jadi sangat penting +m03-03-068 kalau visualisasi ini kita gunakan kita pakai yang hal-hal yang mengganggu +m03-03-069 kalau di indonesia sendiri +m03-03-070 di sini sedikit lebih banyak perempuannya +m03-03-071 ya seperti itu ya +m03-03-072 jadi +m03-03-073 mendapatkan informasi-informasi lebih +m03-03-074 nah +m03-03-075 nah +m03-03-076 tentang +m03-03-077 nah itu beberapa tips yang umum dipakai gitu sih +m03-03-078 dan ini tentunya berbeda untuk seorang desainer ya +m03-03-079 jadi mungkin itu saja ya +m03-04-001 kita akan ada tugas mungkin +m03-04-002 nanti akan dirilis di situs kuliah dan teman teman bisa pakai bisa gunakan juga disitu tools tools untuk melakukan visualisasi data ini +m03-04-003 kemudian ada tugas tugas beberapa yang kemudian kita bisa melihat apa ya bisa kita bandingkan lah antara konfigurasi yang a dan b +m03-04-004 bisa nanti teman teman akan dituntut juga untuk melihat mana sih yang lebih bagus menurut teman teman untuk tujuan analisis data +m03-04-005 deadline-nya minggu depan kemudian dikumpulkan di situs kuliah saja berbentuk notebook ya jadi di ada dua file satu notebook dan satu lagi yang file pdf +m03-04-006 jadi untuk tugas ini satu kelompok dua orang dua orang saja agar tidak terlalu besar kelompoknya biar tidak gabut ya +m03-04-007 ya ini sumber utama dari materi kali ini +m03-04-008 ya ini saya ambil dari kelas data science satu nol sembilan di harvard dibawakan oleh joe biltzstein +m03-04-009 ini sangat bagus kalau teman teman ingin belajar lebih dalam itu bisa lihat kelas yang itu slide-nya juga terbuka untuk umum +m03-04-010 kemudian ini saya blend juga dengan slide dari pacmann ai +m03-04-011 jadi dulu saya pernah ikut kemudian ada materinya seperti ini kira kira +m03-04-012 ya sudah cukup lah apa yang sampaikan di slide ini dengan slide yang mereka berikan +m03-04-013 kemudian satu lagi data yang menarik ya eh bukan buku yang menarik sumber saya disini storytelling with data +m03-04-014 kalau teman teman ingin baca buku suka baca buku itu rekomendasi banget untuk dibaca ya buku storytelling with data +m03-04-015 oke kelas kita sampai sini saja terima kasih jangan lupa kerjakan tugasnya ya deadline minggu depan +m03-04-016 ya selamat siang +m04-01-001 ya jadi pengembangan sistem autograding menggunakan pc pengguna sebagai worker +m04-01-002 nah jadi untuk tahu tentang autograding pertama tama kita harus mengenal apa yang namanya competitive programming +m04-01-003 jadi di competitive programming itu semacam perlombaan untuk kalangan programmer misalnya bisa mahasiswa bisa anak sma untuk menyelesaikan suatu persoalan yang terkait di bidang computer science +m04-01-004 jadi peserta akan menulis kode program untuk menyelesaikan persoalan yang diberikan oleh juri +m04-01-005 jadi persoalan ini bisa mencakup persoalan misalnya tentang searching atau traversal atau tentang tree atau tentang graf shortest path dan sebagainya +m04-01-006 kemudian peserta akan membuat kode program yang menjawab persoalan tersebut kemudian akan dikumpulkan dan dinilai oleh juri +m04-01-007 ada banyak berbagai jenis lomba competitive programming yang dilakukan +m04-01-008 kadang bisa individu kadang bisa berkelompok +m04-01-009 dan biasanya lomba ini dibatasi waktunya misal lima jam atau satu hari +m04-01-010 semacam itu +m04-01-011 kemudian ada beberapa jenis style style yang digunakan dalam perlombaan jenis ini +m04-01-012 yang pertama adalah icpc style ini biasanya digunakan untuk kalangan mahasiswa +m04-01-013 di icpc style ini standarnya adalah setiap soal dapat bernilai benar atau salah +m04-01-014 kemudian setiap soal akan diberi nilai seratus jika benar dan nol bila salah +m04-01-015 jika soal itu salah maka akan mendapatkan pinalti waktu misal dua puluh menit atau tiga puluh menit +m04-01-016 kemudian peringkat dari peserta akan ditentukan berdasarkan jumlah soal yang berhasil dijawab +m04-01-017 misal peserta a berhasil menjawab lima soal peserta b berhasil menjawab empat soal maka peringkat peserta pertama tadi akan lebih tinggi dibanding peserta kedua +m04-01-018 nah bila ada dua buah peserta yang memiliki jumlah soal yang diselesaikan sama maka akan dilihat dari waktu menyelesaikan soal +m04-01-019 nah pinalti waktu tadi ketika seseorang menjawab dengan salah akan dimasukkan ke dalam waktu pengerjaan soal +m04-01-020 sehingga semakin banyak salah maka peringkatnya juga akan semakin turun +m04-01-021 kemudian biasanya icpc style ini digunakan untuk peserta secara berkelompok misalnya tiga orang +m04-01-022 beberapa lomba yang beberapa lomba yang menggunakan style ini antara lain arkavidia compfest gemastik dan acm icpc +m04-01-023 kemudian ada jenis lomba lain yaitu ioi yang biasanya digunakan oleh anak-anak sma +m04-01-024 pada kompetisi ioi ini standarnya adalah setiap soal bisa bernilai benar secara parsial +m04-01-025 jadi di satu soal itu ada beberapa subtask misalnya subtask satu dua tiga empat +m04-01-026 setiap subtask itu memiliki nilai sendiri sendiri +m04-01-027 dan jika dijumlah semua subtask-nya akan bernilai seratus +m04-01-028 seseorang bisa menyelesaikan suatu soal secara parsial misalnya hanya subtask satu dan dua kemudian mendapatkan nilai misal lima puluh semacam itu +m04-01-029 kemudian perlombaan yang menggunakan style ioi biasanya dilakukan secara individu +m04-01-030 selain itu terdapat banyak perlombaan lain di bidang competitive programming yang tidak mengikuti standar manapun +m04-01-031 misalnya google code jam pada google code jam ini peserta tidak mengirimkan source code melainkan hanya mengirimkan output dari source code-nya jadi source code-nya dijalankan secara lokal kemudian hasilnya dikirimkan ke juri tanpa mengirim source code-nya +m04-01-032 selain itu ada facebook hacker cup +m04-01-033 di facebook hacker cup ini nilai soal itu bervariasi tidak hanya seratus +m04-01-034 dan nilai soal ini akan turun setiap jamnya +m04-01-035 jadi misal pertama nilainya lima ratus kemudian setelah lewat satu jam nilainya akan berkurang jadi misal empat ratus semacam itu +m04-01-036 kemudian masih banyak lagi jenis jenis competitive programming yang ada +m04-01-037 kompetisi competitive programming ini biasanya dilakukan secara tahunan atau mingguan jadi ada beberapa platform seperti misalnya code force yang melakukan competitive programming secara bulanan +m04-01-038 acm icpc biasanya tahunan seperti compfest gemastik dan arkavidia juga biasanya tahunan +m04-01-039 kemudian untuk menyelenggarakan kompetisi ini ada suatu platform yang bernama online judge +m04-01-040 online judge ini yang digunakan oleh peserta dan juri untuk saling berkomunikasi +m04-01-041 peserta dapat melihat soal di platform online judge ini dapat mengirimkan jawabannya dapat melihat apakah jawabannya benar atau salah dapat melihat scoreboard dan lain sebagainya +m04-01-042 juri dapat mengirimkan pengumuman kepada peserta misal jika ada soal yang diralat atau terdapat perubahan test case atau hal lain +m04-01-043 nah scoreboard ini biasanya berupa halaman web yang bisa diakses oleh peserta dan juri melalui komputer yang disediakan +m04-01-044 semacam itu +m04-01-045 kemudian beberapa kompetisi kompetisi programming juga telah menggunakan beberapa jenis online judge misalnya +m04-01-046 ada beberapa online judge yang bersifat open source misalnya seperti toki learning center atau dome judge dan lain sebagainya +m04-01-047 kemudian ada juga online judge yang tidak open source tapi dapat digunakan secara gratis misalnya seperti seperti hacker rank +m04-01-048 selain itu kebanyakan online judge biasanya gratis digunakan +m04-01-049 tapi hanya dapat digunakan oleh peserta juri tidak dapat menggunakan online judge tersebut untuk membuat kontes sendiri +m04-01-050 semacam itu +m04-01-051 kemudian ini adalah contoh gambar online judge yang bernama code force +m04-01-052 di sini kita bisa lihat terdapat tiga jenis persoalan a b c dan ada satu pengumuman di bawah +m04-01-053 kemudian di samping ada status lomba misal apakah ini lombanya sudah selesai atau belum semacam itu +m04-01-054 kemudian halaman ini menunjukkan jika suatu soal dibuka maka akan ditampilkan deskripsi soal seperti pada gambar dan kemudian di sebelah kanan akan terdapat menu untuk men-submit jawaban peserta +m04-01-055 kemudian selain itu peserta juga bisa melihat scoreboard dari kompetisi yang sedang berlangsung +m04-01-056 beberapa online judge yang sekarang banyak digunakan memiliki arsitektur tree-tier seperti ini +m04-01-057 peserta berkomunikasi dengan online judge untuk mengirimkan jawaban +m04-01-058 kemudian online judge memiliki database yang menyimpan jawaban peserta soal soal pengumuman dan lain sebagainya +m04-01-059 kemudian online judge ini juga akan berkomunikasi dengan autograder untuk menilai jawaban peserta +m04-01-060 jadi ketika peserta mengirimkan jawabannya pertama tama ia akan mengirimkan source code-nya ke platform online judge misal dalam bahasa c kemudian dia mengirim file +m04-01-061 dot c ke platform online judge +m04-01-062 kemudian platform online judge ini akan menyimpan jawabannya pada database +m04-01-063 misalnya menggunakan mysql atau atau mongodb dan lain sebagainya +m04-01-064 kemudian setelah jawaban tersimpan online judge akan berkomunikasi dengan autograder untuk menilai jawaban peserta +m04-01-065 autograder kemudian akan menilai jawaban peserta secara otomatis dan mengirimkan hasilnya ke platform online judge +m04-01-066 platform online judge kemudian akan menyimpan hasil dari jawaban peserta dan akan menghitung ulang scoreboard dari kontes tersebut +m04-01-067 jadi untuk menilai jawaban peserta autograder berfungsi sebagai suatu sistem yang dapat menentukan nilai dari suatu source code secara otomatis +m04-01-068 dengan menggunakan autograder proses penilaian bisa selesai dengan kurang lebih sepuluh detik sedangkan jika dilakukan dengan manual +m04-01-069 maka satu persoalan dapat diselesaikan kira kira tiga menit +m04-01-070 oleh karena itu autograder ini sering sekali digunakan untuk mempercepat penilaian jawaban peserta +m04-01-071 yang dilakukan oleh autograder adalah +m04-01-072 pertama tama jawaban peserta akan dikompilasi menjadi suatu file executable +m04-01-073 kemudian hasil kompilasi tersebut akan dijalankan menggunakan file test case yang sudah dibuat oleh juri +m04-01-074 setelah program peserta dan test case tersebut dijalankan maka akan menghasilkan suatu file output +m04-01-075 kemudian file output ini akan dibandingkan dengan file output juri +m04-01-076 apakah hasilnya sama +m04-01-077 atau sedikit berbeda +m04-01-078 kemudian terdapat suatu program checker yang menilai output peserta dan output juri +m04-01-079 berapa nilainya +m04-01-080 apakah program tersebut diterima atau tidak diterima +m04-01-081 kemudian hasil dari checker tersebut akan dikirimkan kembali ke platform online judge +m04-01-082 untuk melakukan penilaian ini secara otomatis +m04-01-083 autograder perlu melakukan kompilasi dan menjalankan program peserta +m04-01-084 sedangkan program peserta ini memungkinkan ada suatu kode kode yang berbahaya misalnya seperti compile bomb di mana +m04-01-085 jika compile bomb ini dikompilasi hasilnya bisa sangat besar misal bisa mencapai bergiga giga misal dua puluh giga +m04-01-086 hal tersebut akan memberatkan sistem autograder dan membuat sistem tersebut menjadi sulit untuk berjalan +m04-01-087 kemudian ada jenis serangan lain yaitu fork bomb di mana peserta dapat membuat proses pada sistem autograder secara terus menerus sehingga menghabiskan memori autograder +m04-01-088 hal ini harus dihindari karena jika hal tersebut terjadi maka autograder akan crash dan tidak dapat berfungsi lagi +m04-01-089 selain itu terdapat jenis serangan lain yaitu reverse shell di mana peserta dapat mengirimkan kode reverse shell ke autograder sehingga peserta dapat mengakses secara full +m04-01-090 peserta dapat mematikan autograder atau dapat melihat jawaban dari peserta lain +m04-01-091 kemudian untuk mengatasi hal hal tersebut yang dilakukan oleh autograder adalah membuat suatu lingkungan yang bernama sandbox untuk mengeksekusi dan mengkompilasi jawaban peserta +m04-01-092 sesuatu yang dieksekusi dalam sandbox ini tidak akan bisa keluar dari sandbox tersebut +m04-01-093 jadi ketika peserta melakukan melakukan fox bomb +m04-01-094 memorinya sudah dibatasi sehingga peserta tidak dapat membuat memori autograder melebihi suatu batas tertentu +m04-01-095 semacam itu +m04-01-096 kemudian terdapat permasalahan di mana untuk menggunakan autograder ini +m04-01-097 yang pertama adalah mahal dan lama +m04-01-098 karena peserta biasanya jumlahnya bisa mencapai ratusan untuk membuat autograder yang banyak itu membutuhkan banyak komputer sehingga cost-nya menjadi sangat tinggi +m04-01-099 selain itu juga menggunakan autograder yang sedikit maka proses grading-nya akan menjadi sangat lama +m04-01-100 oleh karena itu akan dibuat suatu sistem di mana komputer dimanfaatkan untuk melakukan proses autograding +m04-01-101 akan tetapi hal ini dapat menimbulkan celah untuk peserta memberikan serangan kepada sistem autograder +m04-01-102 hal tersebut dikarenakan proses penilaian dilakukan oleh komputer peserta sehingga peserta dapat melakukan apapun terhadap penilaian tersebut +m04-01-103 kemudian tujuan dari sistem ini adalah meningkatkan kinerja penilaian jawaban peserta +m04-01-104 pada kompetisi kompetisi programming dengan menciptakan sistem autograder yang dapat berjalan pada komputer peserta +m04-01-105 pada sistem ini dibatasi peserta hanya menggunakan sistem operasi yang berbasis linux dan digunakan untuk competitive programming saja +m04-01-106 kemudian solusinya adalah bagaimana menghitung apakah solusi peserta ini waktunya lolos apakah solusi peserta ini memiliki time limit yang lolos +m04-01-107 pertama tama yang dapat dilakukan adalah melihat spesifikasi sistem operasi dan cpu +m04-01-108 jika cpu-nya misalnya memiliki clock speed yang tinggi maka solusi peserta yang cepat ini belum tentu diterima +m04-01-109 karena bisa saja solusi peserta ini cepat karena berjalan pada cpu yang memiliki clock speed yang tinggi +m04-01-110 oleh karena itu clock speed dari cpu dapat dihitung untuk menentukan seberapa batas solusi peserta ini diterima +m04-01-111 selain itu akan tetapi hal tersebut sangat sulit dilakukan karena cpu dengan clock speed tinggi belum tentu menyelesaikan suatu program dengan cepat +m04-01-112 bisa saja karena load-nya sedang tinggi maka cpu tersebut menjadi lambat +m04-01-113 selain itu cara lain adalah menggunakan cpu benchmarking +m04-01-114 dengan cpu benchmarking pertama tama komputer grader akan menjalankan suatu program dummy dan dihitung waktunya +m04-01-115 misalnya program dummy ini berjalan selama satu detik +m04-01-116 maka solusi peserta ini akan dibatasi hanya dapat berjalan selama satu detik +m04-01-117 kemudian cara ketiga adalah menggunakan solusi juri untuk benchmarking +m04-01-118 hal ini dilakukan dengan menjalankan solusi peserta dan solusi juri secara bersamaan +m04-01-119 apabila selesainya hampir bersamaan maka dianggap solusi peserta ini diterima +m04-01-120 secara garis besar pertama tama solusi peserta dan solusi juri akan dieksekusi menggunakan test case input yang sama +m04-01-121 dan menghasilkan output juri dan output peserta +m04-01-122 kemudian waktu eksekusi tersebut akan dihitung +m04-01-123 kemudian dibandingkan apakah solusi juri dan solusi peserta ini masih dalam batas toleransi jika iya maka diterima +m04-01-124 masalah lain yang ditimbulkan dari sistem autograding pada komputer peserta ini adalah load balancing +m04-01-125 bagaimana membagi tugas tugas penilaian peserta ini agar setiap komputer pada sistem ini dapat menerima job yang sama besar +m04-01-126 cara pertama adalah menggunakan push based load balancing +m04-01-127 dengan push based load balancing sistem online judge akan menentukan komputer peserta mana yang akan melakukan penilaian pada jawaban peserta +m04-01-128 hal ini sangat sulit dilakukan karena pada sistem online judge perlu adanya logic untuk melakukan load balancing +m04-01-129 cara kedua adalah menggunakan pull based load balancing +m04-01-130 dengan pull based setiap komputer peserta yang sedang idle akan meminta solusi kepada sistem online judge +m04-01-131 kemudian sistem online judge akan mengirimkan job yang sedang eh job yang butuh untuk dinilai +m04-01-132 kemudian komputer peserta akan menilai kemudian jika sudah idle lagi dia akan meminta job lagi +m04-01-133 dengan menggunakan pull based load balancing ini pekerjaan akan lebih mudah karena load balancing akan rata secara sendirinya tanpa harus membuat logic untuk melakukan load balancing +m04-01-134 akan tetapi hal ini memiliki celah keamanan di mana peserta dapat saja menilai jawaban dari peserta lain +m04-01-135 jika hal tersebut terjadi maka peserta dapat melihat kode dari peserta lain dan hal ini harus dihindari +m04-01-136 oleh karena itu dilakukan load balancing menggunakan self grading di mana setiap peserta akan menilai jawabannya sendiri +m04-01-137 kemudian masalah lain adalah tentang sandboxing bagaimana menjaga agar kode kode yang dijalankan pada komputer peserta ini tidak menghabiskan resource dari komputer peserta +m04-01-138 cara pertama adalah menggunakan virtual machine di mana solusi peserta akan dijalankan pada sistem virtual machine dengan sistem operasi sendiri +m04-01-139 dengan cara tersebut sebenarnya tidak terlalu efisien karena untuk menjalankan suatu virtual machine ini membutuhkan waktu yang lama dan memori yang besar +m04-01-140 sehingga sangat memberatkan komputer peserta +m04-01-141 oleh karena itu dilakukan sistem container dengan menggunakan semacam docker dengan memanfaatkan fitur linux yaitu cgroup chroot dan namespace +m04-01-142 pada container peserta tidak perlu membuat suatu sistem operasi terpisah akan tetapi menggunakan kernel linux untuk menjalankan solusi peserta +m04-01-143 kemudian masalah lain adalah bagaimana mengirimkan test case ke worker +m04-01-144 test case merupakan sesuatu yang bersifat rahasia dan tidak boleh diketahui oleh peserta +m04-01-145 oleh karena itu pengiriman test case ke komputer peserta ini harus dapat sebisa mungkin rahasia +m04-01-146 oleh karena itu diperlukan suatu teknik enkripsi pada level aplikasi sehingga peserta tidak dapat mengetahui test case yang masuk ke komputernya +m04-01-147 masalah lain adalah bagaimana mengirim test case yang berukuran besar kepada komputer peserta +m04-01-148 dengan mengirim test case yang berukuran besar yang biasanya mencapai beberapa megabyte akan membutuhkan bandwidth yang besar dan waktu yang sangat lama +m04-01-149 oleh karena itu solusinya adalah dengan membuat test case generator +m04-01-150 jadi test case akan dibangkitkan langsung dari komputer peserta +m04-01-151 secara garis besar solusi peserta pertama tama akan dikirim ke sistem online judge +m04-01-152 kemudian sistem online judge akan menyimpan solusi tersebut di sistem database +m04-01-153 kemudian online judge akan mengirimkan solusi juri solusi peserta checker dan tc generator ke pc peserta +m04-01-154 kemudian test case generator solusi peserta solusi juri dan checker akan dikompilasi menjadi suatu file executable +m04-01-155 file executable tersebut akan digunakan untuk pertama men-generate test case +m04-01-156 kemudian solusi peserta akan menggunakan test case tersebut untuk menghasilkan output peserta +m04-01-157 kemudian solusi juri akan melakukan hal yang sama dengan menggunakan test case yang di-generate untuk menghasilkan output juri +m04-01-158 kemudian checker akan menilai output peserta dan output juri apakah sama jika nilainya sama maka akan diberikan verdict +m04-01-159 accepted sedangkan jika berbeda akan diberikan verdict wrong answer +m04-01-160 kemudian pc peserta akan mengirimkan hasil penilaian tersebut ke sistem online judge +m04-01-161 kemudian sistem online judge akan menyimpan nilai tersebut di dalam database +m04-01-162 terima kasih +m05-02-001 materi kriptografi hari ini adalah advance encryption standard atau aes +m05-02-002 latar belakang aes adalah karena des dianggap sudah tidak aman +m05-02-003 perlu diusulkan standard algoritma baru sebagai pengganti des +m05-02-004 national institute of standards and technology atau nist mengusulkan kepada pemerintah federal as untuk sebuah standard kriptografi kriptografi yang baru +m05-02-005 nist mengadakan lomba membuat standard algoritma kriptografi yang baru +m05-02-006 standard tersebut kelak diberi nama aes +m05-02-007 persyaratan algoritma yang baru adalah yang pertama termasuk ke dalam kelompok algoritma kriptografi simetris berbasis cipher block +m05-02-008 seluruh rancangan algoritma harus publik tidak dirahasiakan +m05-02-009 panjang kunci fleksibel yaitu seratus dua puluh delapan seratus sembilan puluh dua dan dua ratus lima puluh enam bit +m05-02-010 ukuran blok yang dienkripsi adalah seratus dua puluh delapan bit dan algoritma yang diimplementasikan baik sebagai software maupun hardware +m05-02-011 lima finalis lomba yang ada adalah rijndael dari vincent rijmen dan joan daemen dari belgia serpent dari ross anderson eli biham +m05-02-012 two fish dari tim yang diketuai oleh bruce +m05-02-013 dari amerika +m05-02-014 rc enam dari laboratorium rsa amerika dan mars dari ibm +m05-02-015 pada bulan oktober tahun dua ribu nist mengumumkan untuk memilih rijndael +m05-02-016 ternyata dibaca rijndael +m05-02-017 pada november dua ribu dua ribu satu rijndael ditetapkan sebagai aes +m05-02-018 diharapkan rijndael menjadi standard kriptografi yang domain paling sedikit selama sepuluh tahun +m05-02-019 spesifikasi dari rijndael adalah mendukung panjang kunci seratus dua puluh delapan bit sampai dua ratus lima puluh enam bit dengan step tiga puluh dua bit +m05-02-020 panjang kunci dan ukuran blok dapat dipilih secara independen +m05-02-021 setiap blok dienkripsi dalam sejumlah putaran tertentu sebagaimana halnya pada des +m05-02-022 karena aes menetapkan panjang kunci adalah seratus dua puluh delapan seratus sembilan puluh dua dan dua ratus lima puluh enam dikenal aes seratus dua puluh delapan seratus sembilan puluh dua dan dua ratus lima puluh enam +m05-02-023 secara de facto hanya dua varian aes yaitu aes seratus dua puluh delapan dan dua ratus lima puluh enam karena akan sangat jarang pengguna menggunakan kunci yang panjangnya seratus sembilan puluh dua bit +m05-02-024 dengan panjang kunci seratus dua puluh delapan bit maka terdapat sebanyak dua pangkat seratus dua puluh delapan kemungkinan kunci +m05-02-025 jika komputer tercepat dapat mencoba satu juta kunci setiap detik maka akan dibutuhkan waktu lima koma empat kali sepuluh pangkat dua puluh empat tahun untuk mencoba seluruh kunci +m05-02-026 jika +m05-02-027 jika tercepat yang dapat mencoba satu juta kunci setiap milidetik maka dibutuhkan lima koma empat kali sepuluh pangkat delapan belas tahun untuk mencoba seluruh kunci +m05-02-028 tidak seperti des yang berorientasi bit rijndael beroperasi dalam orientasi byte +m05-02-029 setiap putaran menggunakan kunci internal yang berbeda disebut round key +m05-02-030 enciphering melibatkan operasi substitusi dan permutasi +m05-02-031 garis besar algoritma rijndael yang beroperasi pada blok seratus dua puluh delapan bit dengan kunci seratus dua puluh delapan bit adalah sebagai berikut di luar proses pembangkitan round key +m05-02-032 add round key merupakan xor antara state awal plain text dengan cipher key +m05-02-033 pada tahap ini disebut juga initial round +m05-02-034 putaran sebanyak nr min satu kali +m05-02-035 proses yang dilakukan pada setiap putaran adalah sub bytes yang berarti substitusi byte +m05-02-036 shift rows pergeseran baris-baris awal state dengan cara wrapping +m05-02-037 mix columns mengacak data masing-masing kolom array state +m05-02-038 dan add round key melakukan xor antara state sekarang +m05-02-039 +m05-02-040 antara state sekarang round key +m05-02-041 dan final round yaitu proses untuk putaran terakhir yaitu sub bytes shift row dan add round key +m05-02-042 algoritma rijndael mempunyai tiga parameter yaitu plain text cipher text dan key +m05-02-043 plain text berupa array berukuran delapan belas byte yang berisi data masukan +m05-02-044 cipher text berupa array berukuran enam belas byte yang berisi hasil enkripsi dan key merupakan array enam belas byte yang berisi kunci ciphering disebut juga cipher key +m05-02-045 +m05-02-046 blok plain text disimpan dalam matrix of byte yang bernama state dan berukuran n rows kali n cols +m05-02-047 +m05-02-048 untuk blok data seratus dua puluh delapan bit ukuran state empat kali empat +m05-02-049 +m05-02-050 pada awal enkripsi enam belas enam belas byte data masukan disalin ke dalam array state direalisasikan oleh fungsi copy plain text to state +m05-02-051 berikut ini adalah contoh elemen state dalam notasi hex +m05-02-052 nah untuk transformasi sub bytes +m05-02-053 nah sub bytes ini memetakan setiap byte dari array state dengan menggunakan s box +m05-02-054 nah untuk transformasi shift rows +m05-02-055 dilakukan pergeseran secara wrapping atau siklik pada tiga baris terakhir pada array state +m05-02-056 jumlah pergeseran bergantung pada nilai baris r +m05-02-057 baris r satu digeser sejauh satu byte baris r dua digeser sejauh dua byte dan baris r tiga digeser sejauh tiga byte +m05-02-058 baris r nol tidak digeser +m05-02-059 nah untuk mix columns dilakukan pengalian matriks state dengan sebuah matriks tertentu sebagai berikut +m05-02-060 selanjutnya xor selanjutnya xor-kan semua hasil antara tersebut +m05-02-061 nah untuk transformasi add round key transformasi ini melakukan operasi xor terhadap sebuah round key dengan array state dan hasilnya disimpan dalam disimpan dalam array state +m05-02-062 ekspansi kunci algoritmanya yaitu salin elemen-elemen key ke dalam array w nol w satu w dua w tiga +m05-02-063 array w nol berisi empat elemen pertama key +m05-02-064 w satu berisi empat elemen berikutnya dan seterusnya +m05-02-065 mulai dari i empat sampai empat puluh tiga lakukan simpan w i min satu +m05-02-066 ke dalam ke dalam peubah temp +m05-02-067 jika i kelipatan empat lakukan fungsi g berikut +m05-02-068 geser w i min satu satu byte ke kiri secara sirkuler +m05-02-069 lakukan substitusi dengan s box terhadap hasil pergeseran tersebut +m05-02-070 xor-kan hasil di atas dengan round constant ke i per empat atau r con i per empat +m05-02-071 nilai r con berbeda-beda untuk setiap j i per empat yaitu r con j rc j nol nol nol +m05-02-072 +m05-02-073 url yang terkait dengan aes adalah sebagai berikut +m05-02-074 ya dapat dilihat ada beberapa algoritma kriptografi kriptografi simetri +m05-02-075 seperti blow fish des idea rc empat rc lima rijndael serpent triple des two fish +m05-02-076 +m06-01-001 ya assalamualaikum warrahmatullahi wabarakatuh +m06-01-002 ya selamat pagi anak anak +m06-01-003 kita lanjutkan perkuliahan untuk minggu ini +m06-01-004 jadi sekarang yang akan dibahas adalah tentang speech production and classification +m06-01-005 ya bisa dilihat referensinya quatieri discrete time speech signal processing principles and practice bab tiga +m06-01-006 nah pada hari ini akan dijelaskan mekanisme produksi ucapan terus bermacam macam pola suara dan elemen elemen dalam bahasa +m06-01-007 speech signal jadi sinyal suara itu adalah unit dasar yang membentuk ucapan +m06-01-008 jadi sinyal ini terbentuk dari gelombang suara yang merambat di udara +m06-01-009 nah untuk dapat mengenali ucapan kita harus bisa membedakan suara suara tersebut +m06-01-010 nah di sini ada beberapa term yang kita harus pahami terlebih dahulu ada fonem phonemics phonetics dan prosodi +m06-01-011 apa itu fonem fonem adalah kelas bunyi yang paling dasar +m06-01-012 terus phonemics adalah studi untuk mempelajari fonem +m06-01-013 terus ada phonetics yaitu mempelajari variasi sorry ya mempelajari variasi fonem yang sama tapi realisasinya berbeda +m06-01-014 jadi bunyinya berbeda cuman sebenarnya itu adalah fonem yang sama +m06-01-015 terus ada prosodi yaitu rythm ritme intonasi yang berbeda beda diucapkan oleh orang ketika berbicara +m06-01-016 jadi ini nanti akan bisa menentukan intonasi emosi dan lain lain +m06-01-017 nah bagaimana suara itu ucapan itu bisa dihasilkan +m06-01-018 ini prosesnya bermula dari otak di mana kata kata itu dirangkai dan kemudian dihasilkan sinyal ke otot penghasil suara di tenggorokan dan kemudian dibunyikan +m06-01-019 nah kemudian telinga menerima gelombang suara tersebut dan melakukan pemrosesan ucapan di otak +m06-01-020 nah berikut ini diagram produksi ucapan +m06-01-021 jadi di sini ada power supply yaitu paru paru +m06-01-022 jadi power yang dihasilkan itu dari udara yang keluar dari paru paru melalui pita suara +m06-01-023 dan kemudian melalui rongga mulut dan rongga hidung yang bisa membedakan bermacam macam jenis suara yang bisa dikeluarkan oleh manusia +m06-01-024 di sini bisa kita lihat realisasi dari kata shop yaitu dari secara fonem bisa dibagi tiga yaitu fonem sh dan o dan fonem p +m06-01-025 nah di sini bisa kita lihat bentuk gelombang suaranya kalo sh itu noisy jadi dia gak jelas gitu +m06-01-026 nah terus untuk o dia bentuknya periodik jadi ada polanya +m06-01-027 sedangkan kalo p dia ada impulsif itu stok jadi ada kayak hentakkan gitu di waktu realisasi bunyi p nya +m06-01-028 nah ini bisa kita lihat di sini ada gambar gelombangnya ada gambar spektogram +m06-01-029 nah nah di sini bisa kita lihat di bagian noise-nya gak jelas terus bagian periodiknya ada garis garis gitu dan waktu bagian impulsifnya kita bisa lihat ada seperti hentakkan gitu +m06-01-030 jadi tidak ada terus tiba tiba ada bunyinya +m06-01-031 nah bunyi itu bisa dibedakan dari eh tiga yaitu sumber bunyi yaitu yang ditentukan oleh secara genetik ya manusia dan different vocal tract configuration yaitu bagaiamana bentukan dari rongga mulut tiap orang untuk membunyikan masing masing fonem +m06-01-032 dan yang ketiga adalah kombinasi ke ke duanya +m06-01-033 nah ini ada gambar anatomy of speech production +m06-01-034 jangan dilihat next next next +m06-01-035 nah mekanisme produksi suara seperti saya jelaskan tadi yaitu udara dari paru paru akan melalui melalui trakea dan melalui pita suara nah dan pita suara itu bergetar dan menghasilkan suara +m06-01-036 nah jadi udara itu dihasilkan dari paru paru bernafasnya dengan rongga dada itu membesar karena diafragma turun menurunkan tekanan udara yang ada di rongga dada sehingga menghisap udara yang ada di lingkungan di sekitar manusia tersebut untuk masuk ke paru paru +m06-01-037 nah ketika udara keluar diafragma itu naik dan tekanan udara di dalam rongga dada itu menjadi meningkat sehingga udara dalam rongga dada itu keluar dari paru paru +m06-01-038 nah dari situlah udara itu keluar dan melalui pita suara sehingga bisa menghasilkan bunyi +m06-01-039 nah bedanya waktu bernapas biasa dengan ketika berbicara itu ketika bernafas biasa nafas itu secara ritmik sama jadi waktu udara masuk dan waktu udara keluar itu waktunya sama +m06-01-040 sedangkan kalo untuk ketika berbicara lebih ada kontrol terhadap aliran udara itu jadi kalo misalnya untuk waktu menghirup napas itu lebih cepat tapi waktu berbicara lebih lama +m06-01-041 di sini bisa kita lihat ada gambar pita suara jadi ini yang bisa menyebabkan bunyi itu jadi karena bunyi itu berupa getaran getaran ini dihasilkan oleh pita suara +m06-01-042 nah di sini ada beberapa bagian ya bentuknya segitiga di sebelah belakang itu iya yang belakang ini atasnya dia terbentuk dari ada jaringan tulang lunak dan ada jaringan yang berupa selaput tipis yang menghasilkan bunyi itu +m06-01-043 jadi yang bisa bergetar itu selaput tipisnya bergetar bergetar bergetar sehingga dia bisa menghasilkan bunyi +m06-01-044 nah ada beberapa state yang bisa dihasilkan oleh pita suara yaitu ketika bernafas ketika berbicara dan maaf ketika bernafas biasa terus menghasilkan voice sound dan unvoice sound +m06-01-045 jadi waktu ketika berbicara pita suara kita itu akan mengendur +m06-01-046 jadi dia akan rileks sehigga tidak bergetar +m06-01-047 sedangkan ketika berbicara pita suara akan mengencang sehingga bisa bergetar +m06-01-048 nah bagaimana untuk menghasilkan +m07-01-001 nyantai dong mas +m07-01-002 ya hari ini saya akan menjelaskan mengenai dasar-dasar dari javascript engine atau bagaimana javascript itu bekerja di pada browser +m07-01-003 jadi +m07-01-004 sebagai developer javascript mempunyai pemahaman yang dalam mengenai bagaimana javascript engine bekerja itu sangat membantu dalam jadi dapat membantu memahami bagaimana performa dari kode yang ditulis bekerja +m07-01-005 pertama dimulai dari kode yang kalian tulis +m07-01-006 pertama javascript engine akan melakukan parsing dari source code yang kalian tulis menjadi sebuah objek yang bernama abstract syntax tree atau disingkat ast +m07-01-007 jadi berdasarkan ast yang telah dihasilkan +m07-01-008 ada bagian dari search engine yang bernama interpreter yang memulai untuk mengolah objek ast ini menjadi +m07-01-009 sebuah byte code yang akan dieksekusi +m07-01-010 jadi dalam tahap ini javascript engine baru benar-benar menjalankan kode dari javascript yang telah ditulis +m07-01-011 nah untuk menjalankan program ini dengan lebih cepat byte code yang telah diproduksi tadi dikirim ke sebuah komponen dari javascript engine yang bernama +m07-01-012 +m07-01-013 optimizing compiler atau bagian yang khusus digunakan untuk mengoptimasi dari kompilasi kode dan data tersebut dikirim berbarengan dengan profiling data +m07-01-014 optimizing compiler ini membuat beberapa asumsi yang didasarkan kepada profiling data yang dikirim sehingga memproduksi +m07-01-015 kode mesin yang telah dioptimisasi dengan baik +m07-01-016 jika pada sewaktu-waktu asumsi ini ternyata salah maka optimizing compiler akan melakukan deoptimisasi dan kembali ke interpreter pada awal proses kompilasi +m07-01-017 sekarang mari kita fokus ke dalam urutan proses yang menjalankan kode javascript yang telah ditulis +m07-01-018 jadi pertama kode yang ditulis akan dikirimkan ke interpreter +m07-01-019 dan menghasilkan byte code +m07-01-020 kemudian dari byte code tersebut akan dikirim ke optimizing compiler berdasarkan profiling data +m07-01-021 nah profile optimizing compiler akan melakukan optimisasi dari kode yang telah ditulis dan hasil optimasi kode yang telah dioptimasi tersebut akan dijalankan oleh browser +m07-01-022 jadi awal +m07-01-023 awal kompilasi kode akan +m07-01-024 pertama pertama kali pertama kali kode akan dijalankan belum dioptimisasi namun apabila ada eksekusi selanjutnya +m07-01-025 optimisasi kode yang telah dihasilkan akan dijalankan sehingga akan berjalan lebih cepat seiring dengan waktu +m07-01-026 bagian interpreter yang digunakan oleh browser google chrome dan node js bernama javascript v8 engine +m07-01-027 interpreter yang digunakan oleh v8 engine dinamakan dengan ignition dan ini bagian ini bertanggung jawab untuk menghasilkan dan mengeksekusi byte code +m07-01-028 selama byte code tersebut dijalankan +m07-01-029 interpreter ignition akan mengumpulkan profiling data yang akan digunakan untuk mempercepat eksekusi kode di eksekusi kode selanjutnya +m07-01-030 saat fungsi +m07-01-031 menjadi sebuat state yang bernama hot +m07-01-032 contohnya saat kode tersebut dijalankan berulang-ulang kali +m07-01-033 byte code yang dihasilkan dan profiling data yang dikirimkan ke turbo fan +m07-01-034 atau turbo fan itu adalah optimizing compiler yang digunakan oleh v8 +m07-01-035 hal tersebut akan menghasilkan machine code yang sangat teroptimisasi yang berdasarkan dengan profiling data yang dikirimkan sebelumnya +m07-01-036 kemudian spider monkey atau mozilla firefox browser mozilla firefox spider monkey atau +m07-01-037 javascript engine yang digunakan oleh mozilla firefox bernama spider monkey +m07-01-038 engine yang digunakan mozilla firefox agak berbeda +m07-01-039 spider monkey mempunyai dua optimizing compiler +m07-01-040 kalau javascript engine yang digunakan oleh v8 mempunyai satu +m07-01-041 +m07-01-042 optimizing compiler yang bernama turbo fan untuk spider monkey mempunyai dua optimizing compiler +m07-01-043 yang pertama adalah baseline dan yang kedua adalah ion ion monkey +m07-01-044 jadi pertama interpreter akan menghasilkan sebuah byte code yang kemudian akan dikirimkan ke optimizing compiler yang pertama yaitu baseline dan menghasilkan +m07-01-045 kode yang agak agak teroptimisasi +m07-01-046 kemudian apabila dieksekusi selanjutnya dari baseline dari hasil optimasi kode yang dihasilkan oleh baseline akan dikirimkan kembali ke +m07-01-047 compiler kedua yaitu ion ion monkey bersamaan dengan profiling data yang dibutuhkan +m07-01-048 dan dari optimization compiler ion monkey tersebut akan dihasilkan kode yang sudah teroptimisasi maksimal +m07-01-049 dan apabila profiling data yang dikirimkan tidak sesuai maka akan dilakukkan deoptimisasi kembali ke baseline +m07-01-050 yang selanjutnya adalah javascript engine yang digunakan oleh microsoft edge yaitu chakra +m07-01-051 javascript engine yang digunakan oleh browser microsoft edge ini mirip dengan +m07-01-052 javascript engine yang digunakan oleh browser mozilla firefox +m07-01-053 yang di yang membedakannya adalah nama-nama yang digunakan +m07-01-054 pertama optimizing compiler optimization compiler yang digunakan oleh +m07-01-055 microsoft edge juga ada dua yang pertama adalah simple git dan yang kedua adalah full git +m07-01-056 dan cara kerjanya mirip namun perbedaannya microsoft edge adalah dari awal eksekusi dari interpreter menghasilkan byte code akan langsung dikirim +m07-01-057 ke simple git kemudian setelah simple git menghasilkan kode yang telah teroptimisasi sebagian +m07-01-058 akan dikirimkan profiling data ke full git untuk +m07-01-059 mengoptimisasi lebih lanjut dalam eksekusi selanjutnya +m07-01-060 dalam full git akan dikumpulkan profiling data yang dihasilkan dari +m07-01-061 interpreter dan +m07-01-062 simple git +m07-01-063 javascript engine selanjutnya adalah javascript core yaitu javascript engine yang digunakan oleh apple yang pada browser safari +m07-01-064 pada javascript core atau disingkat dengan jsc +m07-01-065 optimizing compiler dibagi menjadi tiga +m07-01-066 jadi lebih jauh lagi dari javascript engine sebelum-sebelumnya yang memiliki dua optimizing compiler +m07-01-067 browser safari memiliki tiga optimizing compiler yang pertama adalah baseline +m07-01-068 yang akan mengoptimisasi +m07-01-069 sebagian kode kemudian tahap selanjutnya akan dioptimisasi lagi oleh +m07-01-070 data flow graph compiler akan mengoptimisasi sebagian besar kode dan tahap selanjutnya akan optimisasi lagi oleh +m07-01-071 faster than light compiler +m07-01-072 jadi akan dilakukan optimisasi lebih lanjut +m07-01-073 kemudian kita akan membahas mengapa beberapa search kok jadi javascript engine memiliki jumlah optimizing compiler yang berbeda dengan yang lainnya +m07-01-074 hal tersebut merupakan trade off +m07-01-075 jadi interpreter bisa memproduksi byte code dengan cepat namun byte code tersebut secara umum tidak sangat efisien +m07-01-076 kemudian optimizing compiler membutuhkan waktu yang lebih lama untuk memproduksi byte code atau machine code yang dihasilkan dari kode namun dalam eksekusinya lebih efisien +m07-01-077 jadi ada trade off +m07-01-078 jadi ada trade off diantara bagaimana menghasilkan +m07-01-079 kode dengan cepat atau yang yang dilakukan oleh interpreter menghasilkan machine code dengan cepat yang untuk yang untuk selanjutnya dijalankan atau +m07-01-080 +m07-01-081 atau mengambil +m07-01-082 sedikit waktu untuk +m07-01-083 mengambil sedikit waktu lebih banyak untuk menghasilkan machine code yang lebih efisien +m07-01-084 beberapa engine memilih untuk menambahkan beberapa optimizing compiler dengan +m07-01-085 waktu dan efisiensi karakteristik yang berbeda +m07-01-086 jadi semakin banyak compiler optimizing compiler yang digunakan oleh search engine semakin efisien kode yang dapat dihasilkan namun akan menambahkan kompleksitas yang dimiliki +m07-01-087 trade off selanjutnya adalah penggunaan memori yang dibutuhkan jika memiliki banyak optimizing compiler +m08-01-001 oke asalamualaikum warohmatulohi wabarokatu +m08-01-002 selamat siang semuanya +m08-01-003 sekarang kita akan belajar tentang security foundation +m08-01-004 nah di sini +m08-01-005 hal yang terkait security yang penting ada tiga yang pertama confidentiality integrity serta availability +m08-01-006 apa itu ketiga hal tersebut +m08-01-007 dapat dilihat pada slide di atas +m08-01-008 yang pertama confidentiality +m08-01-009 jadi confidentiality itu hanya orang-orang tertentu yang dapat melihat atau mengakses data tersebut +m08-01-010 selanjutnya integrity +m08-01-011 jadi data yang diakses tersebut haruslah benar atau tidak diubah oleh pihak-pihak yang tidak bertanggung jawab +m08-01-012 selanjutnya yaitu availability +m08-01-013 jadi +m08-01-014 data yang sudah diakses tersebut harus ada +m08-01-015 percuma kita mengakses data yang tidak ada +m08-01-016 nah selain konsep ketiga tadi terdapat beberapa konsep lain +m08-01-017 nah diantaranya yaitu authentication authorization +m08-01-018 accountability serta non repudiation +m08-01-019 untuk penyelesaiannya sendiri dapat juga dilihat pada slide diatas +m08-01-020 yang pertama authentication +m08-01-021 jadi di sini gimana cara bob dapat +m08-01-022 memastikan bahwa dia berkomunikasi dengan alice +m08-01-023 nah ada tiga cara yang pertama yaitu something you know selanjutnya something you have dan yang terakhir something you are +m08-01-024 untuk something you know contohnya yaitu password +m08-01-025 seperti yang kita ketahui kita sama-sama memiliki password akun-akun social media atau hal-hal yang lainnya +m08-01-026 selanjutnya yaitu something you have +m08-01-027 contohnya yaitu misal kartu kartu atm +m08-01-028 jadi itu kita punya sendiri +m08-01-029 dan yang terakhir yaitu something you are misalnya yaitu biometrik retina dan lain-lain +m08-01-030 nah dari ketiga aspek tadi sebenarnya kita bisa meningkatkan keamanannya bagaimana caranya yaitu dengan menggabungkan dari ketiga hal tadi +m08-01-031 contohnya seperti kartu atm +m08-01-032 ketika kita ingin mengambil uang di atm otomatis kita harus tahu pin serta harus punya kartu atm +m08-01-033 nah itu salah satu contoh menggabungkan something you have dan something you know +m08-01-034 selanjutnya yaitu authorization +m08-01-035 nah apa beda authorization dan authenticity +m08-01-036 nah di sini authorization berfungsi sebagai pembuktian apabila si a itu berhak untuk mengakses objek a +m08-01-037 nah untuk konsep selanjutnya yaitu non repudiation +m08-01-038 intinya non repudiation yaitu bagaimana cara alice membuktikan bahwa yang berkomunikasi dengannya yaitu bob bukan yang lain +m08-01-039 oke untuk selanjutnya ada security control yaitu gimana kita dapat mengontrol vulnerability serta ancaman yang ada +m08-01-040 nah disini dapat dilihat terdapat tiga aspek yang penting yaitu threat asset serta kontrol +m08-01-041 nah threat berfungsi untuk me-reduce value dari asset tersebut sedangkan kontrol yaitu gimana caranya kita mem-protect value yang dimiliki oleh asset tersebut +m08-01-042 untuk pengertiannya sendiri vulnerability merupakan suatu kelemahan yang dimiliki oleh sistem security sedangkan threat yaitu computing +m08-01-043 nah sedangkan kontrol yaitu gimana cara kita mengatur +m08-01-044 sistem yang kita miliki +m08-01-045 selanjutnya yaitu threat versus security requirement +m08-01-046 nah terdapat beberapa threat seperti yang di slide bisa dilihat ada lima threat +m08-01-047 yang pertama yaitu information disclosure +m08-01-048 nah ini tuh dia +m08-01-049 security requirement yang dipengaruhi yaitu confidentiality +m08-01-050 jadi orang yang tidak berwewenang untuk mengakses file tersebut dapat mengakses +m08-01-051 selanjutnya yaitu tampering with information +m08-01-052 nah di sini hal yang dipengaruhi yaitu integrity bagaimana penyerang dapat melakukan intercept terhadap request yang kita lakukan sehingga dapat mengubah data yang dikirimkan +m08-01-053 selanjutnya yaitu denial of service seperti yang kita ketahui denial of service yaitu melakukan request banyak sehingga server yang kita miliki down sehingga aspek yang dipengaruhi yaitu availability +m08-01-054 selanjutnya yaitu spoofing +m08-01-055 nah spoofing di sini mempengaruhi aspek authentication karena orang yang melakukan spoofing dapat melihat username dan password yang kita masukan ke dalam suatu website contohnya +m08-01-056 selanjutnya yaitu ancaman unauthorized access +m08-01-057 nah di sini security yang dipengaruhi yaitu access control karena sebagai contoh mahasiswa dapat berperilaku sebagai dosen yang dapat mengubah nilai mahasiswa itu sendiri contohnya +m08-01-058 selanjutnya terdapat beberapa security control yang dapat kita lakukan +m08-01-059 yang pertama prevent yaitu dengan memblok semua attack-attack yang ada atau threat yang ada terhadap sistem yang kita miliki +m08-01-060 selanjutnya yaitu +m08-01-061 deter yaitu dengan membuat suatu serangan yang lebih kuat +m08-01-062 namun tidak impossible +m08-01-063 masa ini gajadi +m08-01-064 selanjutnya yaitu melakukan deteksi pendinian yaitu dengan mendeteksi serangan atau ancaman-ancaman yang mungkin terjadi +m08-01-065 dan yang terakhir yaitu melakukan recover dari serangan yang ada +m08-01-066 oke selanjutnya kita masuk ke bagian software security +m08-01-067 apa sih software security itu +m08-01-068 yang pertama +m08-01-069 bagaimana kita dapat melakukan securing terhadap kode yang kita miliki +m08-01-070 selanjutnya yaitu bagaimana kita melakukan +m08-01-071 melakukan securing terhadap library yang kita miliki +m08-01-072 selanjutnya bagaimana kita melakukan securing terhadap backend yang kita miliki dan yang terakhir bagaimana kita melakukan securing terhadap website dan aplikasi-aplikasi lainnya yang digunakan oleh server +m08-01-073 nah untuk software security sendiri biasanya tidak memperhatikan network security yaitu tentang firewall ssl operating system serta database +m08-01-074 nah oke selanjutnya biar lebih paham kita akan lanjut terkait owasp top ten jadi di sini ada serangan-serangan yang sering muncul tiap tahunnya dan dirangkum oleh owasp suatu organisasi security +m08-01-075 nah untuk yang pertama yaitu yang paling sering muncul yaitu injection +m08-01-076 di sini kenapa injection sering muncul karena banyaknya form atau input yang terdapat pada suatu aplikasi web +m08-01-077 dan input-an tersebut tidak dilakukan filter sehingga banyak terjadi attack atau penyerangan +m08-01-078 salah satu kerugiannya yang terbesar yaitu adanya kerusakan database serta bypass otentikasi yang dimiliki oleh website tersebut +m08-01-079 selanjutnya yaitu cross site scripting yaitu gimana suatu web menginterpretasikan input dari pengguna menjadi suatu tag html yang akan di-interpret oleh website +m08-01-080 contohnya yaitu apabila pengguna memasukkan tag script sehingga dijalankan oleh website nah itu akan membahayakan user +m08-01-081 untuk yang ketiga yaitu ada broken authentication and session management +m08-01-082 jadi di sini contohnya yaitu ketika user login dan user tidak dikasih token sehingga token tersebut dapat diubah menjadi token yang menjadi user yang lain +m08-01-083 nah selanjutnya yang keempat yaitu ada insecure direct object reference +m08-01-084 nah contohnya ketika user mengakses resource yang dimiliki biasanya ada tuh di url id id sama dengan misal id user tersebut yaitu lima +m08-01-085 maka di url terdapat id sama dengan lima +m08-01-086 nah gimana kalau misalnya user tersebut mengganti url-nya secara manual dengan id sama dengan enam +m08-01-087 nah apabila user tersebut melihat informasi terkait user lain maka website tersebut dapat dikatakan memiliki vulnerability yang keempat ini yaitu insecure direct object reference +m08-01-088 selanjutnya ada security misconfiguration +m08-01-089 nah contohnya di sini ketika password yang disimpan oleh sistem tidak di-hash atau tidak dienkripsi terlebih dahulu sehingga apabila website tersebut bobol dan database-nya ketahuan maka username dan password dari user itu akan bocor semuanya +m08-01-090 nah itu tadi beberapa contoh-contoh attack yang sudah dirangkum oleh owasp +m08-01-091 selanjutnya kalian dapat googling saja lihat ada di internet +m08-01-092 cari saja di situ owasp top ten maka akan muncul dan gimana juga cara nge-attack-nya gimana cara nge-prevent-nya +m08-01-093 oke mungkin sekian buat hari ini terima kasih yang sudah datang +m08-01-094 wassalamualaikum warohmatulohi wabarokatu +m08-01-095 +m09-01-001 assalamualaikum warohmatulohi wabarokatu +m09-01-002 ya hari ini kita akan belajar mengenai information extraction +m09-01-003 apa sih information extraction itu +m09-01-004 information extraction itu suatu cara untuk mengubah informasi dari bentuk yang tidak terstruktur seperti teks bebas ya paragraf biasa gitu nah menjadi bentuk yang terstruktur +m09-01-005 information extraction sendiri bisa dibagi menjadi dua +m09-01-006 menurut sumber informasi bentuk sumber yang diekstraknya +m09-01-007 yang pertama itu traditional information extraction +m09-01-008 traditional information extraction itu bentuk informasi yang diekstrak sebelumnya yaitu semi terstruktur +m09-01-009 ya seperti kaya undangan gitu kan ada tempat ada tanggal dan letaknya tuh cukup jelas di mana +m09-01-010 nah sedangkan yang satunya lagi open information extraction itu +m09-01-011 sumber informasinya bentuknya tidak terstruktur ya atau seperti teks biasa tadi +m09-01-012 nah +m09-01-013 lalu menurut domainnya information extraction ini bisa dibagi menjadi dua yaitu domain terbuka atau open ie atau domain spesifik ie +m09-01-014 nah bedanya apa kalau domain ie ini dia ga punya fokus pada suatu domain tertentu jadi +m09-01-015 semua informasi yang ada pada teks atau pada +m09-01-016 ya informasi tadi diekstrak semuanya jadi bentuk relasi argumen dan tuple +m09-01-017 bentuk tuple relasi dan argumen maksudnya +m09-01-018 nah bedainnya dengan domain ie apa +m09-01-019 domain ie ini ada fokus-fokus di suatu domain tertentu +m09-01-020 ya misalnya domain kesehatan atau domain apa pasti ada memiliki fokus ya informasi yang ingin diambil atau yang ingin diabaikan begitu +m09-01-021 nah caranya bagaimana +m09-01-022 nah kalau open ie ini sudah cukup banyak caranya ada text runner ada reverb ada text runner crf ada r dua a dua ada wikipedia based open extractor terus juga ada open language learning information extraction atau disingkat ollie +m09-01-023 nah pertama saya akan menjelaskan sedikit tentang text runner +m09-01-024 text runner ini memiliki tiga komponen +m09-01-025 komponen pertama yaitu supervised learner +m09-01-026 supervised learner ini memiliki tugas untuk menghasilkan classifier +m09-01-027 classifier dari data-data yang ada +m09-01-028 jadi dari data-data yang ada dia akan memberi label sendiri secara otomatis untuk membuat classifier +m09-01-029 nah classifier-nya ini nanti digunakan pada komponen selanjutnya yaitu di single pass extractor +m09-01-030 single pass extractor ini dia akan membuat beberapa hasil pasangan relasi dan argumennya yaitu hasil ekstraksi tadi dari beberapa kalimat +m09-01-031 nah nanti hasil-hasil ekstraksi ini akan diproses lagi oleh komponen selanjutnya yaitu redundant based assessor +m09-01-032 nah ini komponen ini memiliki tugas untuk menghapus +m09-01-033 hasil ekstraksi yang dianggap sama atau mungkin confidence value-nya kecil gitu +m09-01-034 nah ada lagi selanjutnya itu text runner crf +m09-01-035 sedikit berbeda dengan text runner sebelumnya bedanya itu di komponen single pass extractor +m09-01-036 kalau tadi text runner sebelumnya classifier-nya itu biasanya pakai naive bayes +m09-01-037 nah kalau di text runner crf dia menggunakan algoritma conditional random value random field maksudnya maaf +m09-01-038 nah itu untuk text runner crf +m09-01-039 ada sedikit pendekatan lain yaitu reverb +m09-01-040 reverb ini pendekatannya kaya rule based gitu jadi +m09-01-041 dia pertama akan mencari relasinya terlebih dahulu +m09-01-042 dia akan mencari relasi terpanjang berdasarkan aturannya yang dapat dilihat di slide ini +m09-01-043 nah setelah ditemukan relasinya baru reverb ini akan mencari argumen argumen-argumennya +m09-01-044 argumen sebelah kiri dan argumen sebelah kanan +m09-01-045 nah ada lagi pengembangan dari reverb yaitu r dua a dua +m09-01-046 r dua a dua ini menambahkan komponen learning-nya yaitu untuk mencari argumen di kiri dan kanannya untuk argumen kesatu dan argumen keduanya +m09-01-047 lalu +m09-01-048 ya tadi kan untuk r dua a dua +m09-01-049 ada lagi ya itu tadi wikipedia based open extractor +m09-01-050 wikipedia based open extractor ini memanfaatkan informasi-informasi yang ada di wikipedia untuk membuat untuk membuat sistem ie ini +m09-01-051 ada juga yang lainnya yaitu ollie +m09-01-052 ya coba silakan dicari itu bagaimana caranya +m09-01-053 nah selanjutnya +m09-01-054 jenis informasi ekstraksi sistem informasi ekstraksi yang lain yaitu yang domain spesifik +m09-01-055 nah yang domain spesifiknya spesifik ini tekniknya beda-beda macam-macam +m09-01-056 biasanya tergantung dari domain-domainnya +m09-01-057 cuman ada salah satu teknik yang yang saat ini bisa digunakan dengan memanfaatkan open ie +m09-01-058 jadi membuat sistem informasi ekstraksi domain spesifik dengan memanfaatkan sistem ekstraksi domain terbuka +m09-01-059 tolong itu di +m09-01-060 +m09-01-061 nah cara yang ini itu menambahkan dua komponen lagi +m09-01-062 komponen pertama yaitu class recognizer dan komponen yang kedua domain relation mapper +m09-01-063 class recognizer ini memiliki fungsi untuk mengenali kelas-kelas yang menjadi fokus pada suatu domain +m09-01-064 ya contohnya misalnya domain kesehatan mungkin akan memiliki fokus di obat-obatan gitu atau mungkin penyakit nama-nama penyakit +m09-01-065 nah selanjutnya di domain relation mapper +m09-01-066 domain relation mapper ini memiliki fungsi untuk mengubah bentuk relasinya bentuk hasil ekstraksinya +m09-01-067 ya yang sebelumnya masih bersifat umum karena hasil dari open ie menjadi relasi domain spesifik yang diinginkan +m09-01-068 nah bisa dilihat itu contoh relasi hasil ekstraksi open ie dan hasil relasi domain spesifiknya seperti di slide itu +m09-01-069 nah cara komponen ini melakukan pemetaan itu menggunakan aturan-aturan tetap +m09-01-070 aturan-aturannya ini dibangun menggunakan algoritma yang bernama covering algorithm +m09-01-071 covering algorithm ini salah satu algoritma pembelajaran pembelajaran aturan +m09-01-072 jadi algoritma ini membutuhkan +m09-01-073 data latih untuk untuk membuat aturan-aturan pemetaan tersebut +m09-01-074 nah nanti aturan-aturan yang sudah dibangun akan digunakan untuk memetakan hasil ekstraksi open ie menjadi hasil ekstraksi domain spesifik +m09-01-075 +m09-01-076 untuk lebih detail-nya coba silakan dicari lagi bagaimana covering algorithm itu bekerja ya +m09-01-077 ya sekian pelajaran kita hari ini +m09-01-078 apabila ada yang belum jelas boleh ditanyakan +m09-01-079 ya apabila tidak ada yang ditanyakan mari kita sudahi +m09-01-080 nanti slide kuliah ini akan di-upload +m09-01-081 slide ini akan di-upload di apa website perkuliahan +m09-01-082 tolong dibaca lagi terus juga tolong dibaca-baca lagi tentang tadi covering algoritm dan ollie dan sistem-sistem informasi ekstraksi yang lainnya +m09-01-083 ya untuk tugas besarnya masih kami diskusikan dengan asisten +m09-01-084 ya tolong ditunggu aja +m09-01-085 mungkin nanti akan diberi tahu lewat email jadi sering-sering cek email-nya ya +m09-01-086 terima kasih +m09-01-087 wassalamualaikum warohmatulohi wabarokatu +m10-01-001 +m10-01-002 ya oke selamat siang +m10-01-003 +m10-01-004 yang langsung saja kita ke materi selanjutnya +m10-01-005 kali ini kita akan membahas tentang naming system dalam komputer +m10-01-006 naming system itu udah sering sebenernya artinya sangat familiar kita jumpai sehari-hari tapi mungkin sekarang terasa asing istilah itu +m10-01-007 +m10-01-008 naming itu ada di mana-mana itu tujuannya untuk membedakan satu instansi dengan instansi lain +m10-01-009 itu tentu saja kita sudah tahu betapa pentingnya penamaan dalam sebuah objek +m10-01-010 contohnya itu seperti menamai nama laptop atau nomor-nomor komputer di lab atau apa ip address dns +m10-01-011 itu semua termasuk sebagai dalam scope sistem penamaan +m10-01-012 nah apa saja yang biasanya dinamai dalam sebuah sistem komputer +m10-01-013 antara lain itu username nama mesin nama file sama device variabel kalau di pemrograman sama service-service dalam jaringan +m10-01-014 terus di dalam komponen naming itu ada yang namanya naming service +m10-01-015 itu tujuannya untuk mencari nama misalnya di windows explorer itu ada search itu termasuk sebagai naming service +m10-01-016 kita bisa mencari objek yang kita inginkan sesuai apa namanya +m10-01-017 terus bisa lagi diimplementasikan sebagai query atau client server program atau ya google search itu juga termasuk naming service +m10-01-018 jadi nama itu apa +m10-01-019 nama itu tuh mengidentifikasikan objek yang kita inginkan atau kita cari +m10-01-020 terus objek itu sendiri punya beberapa komponen +m10-01-021 ada nama itu sendiri ada alamatnya +m10-01-022 ada route route itu menggambarkan apa jalur yang harus ditempuh buat agar kita bisa mencapai objek tersebut +m10-01-023 lalu ada binding +m10-01-024 binding itu yang mengikat antara sebuah nama dengan alamat tempatnya berada +m10-01-025 nama bisa digunakan untuk macam-macam tadi seperti sudah saya jelaskan bisa digunakan untuk mengidentifikasi layanan atau objek-objek yang ada di dalam sebuah service +m10-01-026 terus sifat penamaan yang paling utama itu yaitu dia harus unik karena kalau ga unik percuma aja dinamain +m10-01-027 karena ga ada gunanya +m10-01-028 jadi dalam skala kecil sangat mudah buat buat me-manage keunikan nama tapi kalau misalnya udah skala besar ya susah +m10-01-029 kayak kalau satu kampung mungkin yang namanya zaki cuma ada satu tapi satu itb ternyata ada banyak +m10-01-030 bukan nama yang unik lagi +m10-01-031 jadi gimana caranya kita buat mengolah keunikan nama mempertahankan keunikan nama dalam scope besar +m10-01-032 contohnya itu cara yang dipakai itu dengan menggunakan hierarki +m10-01-033 jadi misalnya kalau ethernet address atau mac address itu tiga byte pertama itu apa buat kode organisasinya tiga byte selanjutnya itu tuh controller-nya +m10-01-034 jadi nama dari device itu sendiri +m10-01-035 terus kalau ip address ada network sama host +m10-01-036 jadi hierarki itu bisa menjamin uniknya sebuah nama dalam scope yang besar +m10-01-037 terus konvensi penamaan itu ada macam-macam dan itu satu dengan apa dari satu domain dengan domain yang lain itu bisa apa sangat berbeda +m10-01-038 misalnya apa +m10-01-039 konvensi buat penamaan file itu beda dengan konvensi buat naming ip address alamat apa alamat komputer dalam jaringan itu kan kelihatan banget bedanya +m10-01-040 terus misalnya iya bisa dilihat kalau kayak file name itu dibacanya dari kiri ke kanan dengan ada separator-nya ada apa garis miring +m10-01-041 kalau misalnya internet domain itu justru dari kanan ke kiri dan ada apa dibatasi oleh titik +m10-01-042 +m10-01-043 nah jadi tadi kita udah ngomongin soal unik kita udah ngomongin soal konteks +m10-01-044 jadi keunikan nama ini tuh berhubungan erat sama konteksnya +m10-01-045 jadi kita cuman bisa ngomongin apa +m10-01-046 konvensi nama itu sesuai konteksnya tertentu saja +m10-01-047 +m10-01-048 jadi contoh apa naming system +m10-01-049 kalau ada berbagai jenis ada sistem-sistem yang berhubungan dengan tipe yang sama menyediakan operasi yang sama +m10-01-050 naming space itu adalah +m10-01-051 apa namanya +m10-01-052 ruang yang yang diciptakan ya +m10-01-053 jadi ruang penamaan dari tiap konteks +m10-01-054 misalnya kalau file folder misalnya berarti naming space-nya itu ya apa seluruh folder itu sendiri seluruh isi harddisk +m10-01-055 nah terus ada lagi yang namanya itu resolution +m10-01-056 resolution itu +m10-01-057 kayak buat ngehubungin antara satu satu nama dengan nama lain di binding +m10-01-058 tadi yang kita sebut sebagai binding itu ada istilah di sini itu resolution +m10-01-059 ya naming service itu service yang menyediakan yang dapat meresolusi sebuah nama +m10-01-060 misalnya kalau di apa domain internet itu dns gitu naming server dynamic naming server +m10-01-061 kalau dari apa di level ftp sendiri ada apa directory service +m10-01-062 directory service itu yang kita pakai sehari-hari buat bikin folder dan file +m10-01-063 terus lightweight directory access protocol tuh buat +m10-01-064 apa namanya ngakses directory secara remote itu bukan bahasan di sini sebenarnya +m10-01-065 terus ini naming resolution yang tadi udah kita jelasin +m10-01-066 nah +m10-01-067 jadi ada berapa dari +m10-01-068 kan tadi nama di-binding ke sebuah alamat agar bisa dipakai dan ditemukan +m10-01-069 nah binding itu sendiri itu ada beberapa jenis ada ya ada beberapa jenis +m10-01-070 yang paling jelas itu static binding jadi namanya itu di-hard code ke apa namanya alamatnya +m10-01-071 misalnya seperti +m10-01-072 url itu kelihatannya itu itu static binding +m10-01-073 terus selain itu ada early binding sama late binding +m10-01-074 nah di sini kita mulai ngelihat yang namanya lookup +m10-01-075 jadi naming service itu melakukan lookup untuk +m10-01-076 apa bertujuan jadi naming service itu dalam dalam melakukan resolusi melakukan lookup +m10-01-077 pokoknya kalau misalnya resolusi itu aktivitas untuk apa untuk apa yang nge-bind nama ke sebuah alamat +m10-01-078 nah lookup itu tuh tujuannya buat memakai alamat tersebut buat nyari name yang diinginkan tadi +m10-01-079 contohnya ada beberapa pendekatan lookup antara lain central coordinator +m10-01-080 flooding atau distributed hash table +m10-01-081 yang pertama central coordinator +m10-01-082 kalau central coordinator itu dia jadi ada satu satu komputer yang perannya itu khusus buat apa sebagai buat nyimpen seluruh informasi +m10-01-083 dari nama-nama yang apa dalam konteksnya dia jadi kayak +m10-01-084 apa kalau misalnya name server itu dia itu cuman satu semua misalnya kita di labtek lima ini tuh kalau misalnya pingin nyari alamat apa-apa yang masih di dalam labtek lima itu selalu ngacu ke satu router aja +m10-01-085 jadi satu router itu tau semua alamat ip di labtek lima misalnya atau yang lebih jelas lagi itu kayak kalau di labdas +m10-01-086 di labdas itu nge-ping komputer a mau nge-ping komputer b dia itu mereka itu cuma punya satu sumber informasi yaitu router labdas itu sendiri +m10-01-087 jadi mereka ga mungkin nyari ke tempat lain kecuali situ +m10-01-088 itu satu apa satu poin tunggal yang ngadung informasi tentang penamaan seluruh apa objek di scope itu +m10-01-089 terus yang +m10-01-090 apa jenisnya lookup yang kedua itu ada query flooding +m10-01-091 node-node yang memiliki file akan memberi tahu anchor +m10-01-092 kalau misal jadi kalau query flooding itu +m10-01-093 ya ke node apa yang tadi node dengan peran utama tadi itu dia sendiri ga tahu semua apa seluruh informasi tentang nama-nama yang terkandung dalam scope-nya tapi +m10-01-094 apa dia bisa nanyain ke node-node lain +m10-01-095 jadi ini tuh lebih arsitekturnya lebih simple tapi apa seringkali ga efisien soalnya +m10-01-096 misalnya kita kita pingin misalnya satu ada aja komputer pingin ngirim informasi pingin nyari tahu informasi node lain +m10-01-097 ya apa +m10-01-098 harus nanya ke semua komputer yang ada di jaringan tersebut jadi ga efisien +m10-01-099 nah terus yang terakhir itu distributed hash table +m10-01-100 yang ini ya seperti namanya dia pakai pakai hash table buat nentuin buat nyimpen alamatnya +m10-01-101 dan ini biasanya dipakai di torrent +m10-01-102 iya seperti itu +m10-01-103 ada berapa problem dalam menjaga hash jadi hash table ini sebenarnya yang paling efisien dalam skala besar hingga saat ini +m10-01-104 tapi ada beberapa masalah +m10-01-105 antara lain itu yang pertama itu gimana +m10-01-106 cara mempartisi data dengan balance dan ngelakuin lookup +m10-01-107 terus +m10-01-108 yang kedua gimana agar cara menjaga sistem tetap terdesentralisasi terus bikin sistemnya biar scalable dan fault tolerant +m10-01-109 contohnya apa namanya contoh kasus naming itu di sini pakai yang pakai hash table itu adalah content addressable network +m10-01-110 misalnya jadi +m10-01-111 kalau content addressable network tuh akan bikin sebuah grid +m10-01-112 jadi dan jadi misalnya ada dua node yang berperan sebagai naming service maka +m10-01-113 sistem ini akan buat +m10-01-114 secara logical grid dan mereka apa yang dibagi di tengah jadi node pertama bertanggung jawab terhadap semua name di satu grid node yang kedua bertanggung jawab juga terhadap name di grid lain +m10-01-115 nah setiap kali ada node baru masuk dia bakal ngelakuin split +m10-01-116 jadi +m10-01-117 ketiga node ini terus akan saling berkomunikasi buat tahu tentang grid satu sama lain +m10-01-118 nah jadi tiap ada data baru ada node baru yang data yang terkait itu mesti dipindahin dan semua tetangganya yang lain harus tahu range berapa aja yang ada di node tersebut +m10-01-119 tetangga itu node yang mengandung node yang memiliki zone yang bersebelahan +m10-01-120 +m10-01-121 +m10-01-122 nah terus ada lagi contoh yang lain tuh dari distributed hash table tuh dengan adalah dengan arsitektur ring +m10-01-123 mungkin kalian udah pada familiar ini ada di apa namanya +m10-01-124 +m10-01-125 apache spark +m10-01-126 jadi misalnya +m10-01-127 ada sekian apa namanya semua node +m10-01-128 yang apa semua node +m10-01-129 untuk search-nya itu +m10-01-130 dibentuk menjadi sebuah arsitektur cincin terus +m10-01-131 ada dan sebenernya ini mirip mirip kayak arsitektur hierarkis cuman +m10-01-132 di sini itu hierarkinya itu tiap berapa berapa node +m10-01-133 biasa ada satu node yang bertanggung jawab +m10-01-134 buat ngelola +m10-01-135 temen-temennya +m10-01-136 +m10-01-137 +m10-01-138 nah untuk menangani request cara yang sederhana adalah ngatur agar setiap node-nya itu bisa apa mencatet suksesornya tuh siapa aja +m10-01-139 ketika sebuah peer menerima request itu bakal memeriksa apakah key yang dia cari itu ada di rentang yang dikelola node tersebut kalau engga bakal di-forward ke apa suksesor selanjutnya +m10-01-140 nah di sini ada tiga masalah utama yaitu +m10-01-141 cara buat nge-handle penambahan dan penghapusan node terus cara buat menambah +m10-01-142 biar lookup time-nya bagus sama biar sistem ini fault tolerant +m10-01-143 buat nambahin node itu misalnya ada apa node baru ditambahin ke di id enam ini +m10-01-144 nah +m10-01-145 data key value yang terkait itu mesti dipindahin ke id enam kayak mirip kayak yang barusan apa sistem yang can barusan +m10-01-146 sedangkan kalau apa datanya ada node yang dihapus sistemnya sama datanya mesti dilempar ke suksesor yang selanjutnya +m10-01-147 nah untuk mencegah agar apa +m10-01-148 sistem ini fault tolerant tuh key value di setiap node itu harus direplikasi +m10-01-149 di mereka akan bikin r buah replika +m10-01-150 jadi kalau misalnya nanti ada node yang mati maka akan dicari replika selanjutnya yang masih deket +m10-01-151 terus agak apa biar performance-nya bagus itu semua node harus saling ngetahui apa sih range nilai yang tanggung jawabnya satu sama lain terus +m10-01-152 lookup value akan mencari node yang menyimpan data dan dilakukan dengan apa kompleksitas +m10-01-153 o satu +m10-01-154 ya kayaknya itu aja +m10-01-155 sekian +m10-01-156 sekian kuliah dari saya +m10-01-157 terima kasih ada pertanyaan +m10-01-158 bagus +m10-01-159 selamat siang +m11-01-001 ya jadi selamat pagi semuanya +m11-01-002 pagi +m11-01-003 hari ini kita akan lanjutkan kuliah pembelajaran mesin atau machine learning +m11-01-004 untuk minggu lalu +m11-01-005 overview-nya kalian sudah ringkas atau belum +m11-01-006 o ya sebelumnya saya akan mengulas sedikit tentang kuliah sebelumnya yaitu pengertian learning +m11-01-007 pengertian learning adalah di sini adalah meng-improve dengan cara memanfaatkan pengalaman atau experience e dengan menggunakan task t dengan mengacu pada performance measure p itu menurut mitchell tahun sembilan belas sembilan tujuh melalui bukunya +m11-01-008 kemudian design learning system itu ada empat poin besar yaitu pertama pemilihan training experience +m11-01-009 di situ di dalamnya meliputi feedback yaitu direct dan indirect +m11-01-010 kemudian ada tingkat kontrol dan distribusi training data dan future testing data +m11-01-011 kemudian pemilihan fungsi target misalnya di sini adalah choose move untuk kasus yang papan catur +m11-01-012 choose move itu choose move board +m11-01-013 output-nya adalah move itu meliputi indirect feedback +m11-01-014 v board menghasilkan bilangan real +m11-01-015 kemudian pemilihan representasi fungsi target contohnya adalah kombinasi linear fitur board +m11-01-016 kemudian pemilihan algoritma pembelajaran contohnya adalah least mean square atau lms +m11-01-017 hari ini kita akan melanjutkan tentang fungsi target +m11-01-018 fungsi target untuk masalah checkers masalah permainan checkers kemarin adalah +m11-01-019 untuk fungsi targetnya adalah choose move di mana input-nya adalah board dan keluarannya adalah move dan dataset-nya berupa +m11-01-020 move yang bernilai boolean +m11-01-021 kemudian fungsi estimasi untuk checker +m11-01-022 adalah input-nya board keluarannya bilangan real +m11-01-023 untuk prediksi harga misalnya fungsi targetnya adalah predict price dengan data berupa bertipe data date dan bilangan real dan output-nya bilangan real +m11-01-024 kemudian dataset input-nya adalah bilangan real dan date atau tanggal +m11-01-025 kemudian prediksi top games contohnya adalah ranker yang input-nya adalah date atau game dan keluarannya adalah rank dari game tersebut +m11-01-026 kemudian dataset-nya sama yaitu date dan game +m11-01-027 kemudian deteksi fraud atau penggelapan +m11-01-028 itu adalah fungsi targetnya adalah is fraud +m11-01-029 input-nya adalah transaction kemudian output-nya adalah bilangan nol sampai seratus +m11-01-030 kemudian dataset terdiri dari transaction dan boolean +m11-01-031 kemudian fungsi estimasinya adalah is fraud input-nya transaction dan out-nya adalah nilai nol sampai seratus +m11-01-032 kemudian pembelajaran konsep +m11-01-033 pembelajaran di sini yang dimaksud adalah specific training data kemudian dijadikan general concept +m11-01-034 jadi dari spesifik menjadi general +m11-01-035 konsep di sini adalah +m11-01-036 yang dimaksud dengan konsep di sini adalah deskripsi subset contohnya bilangan positif adalah anggota dari bilangan bulat +m11-01-037 fungsi boolean yang didefinisikan untuk suatu himpunan contohnya is a +m11-01-038 is a dalam kurung x x adalah anggota dari himpunan +m11-01-039 pembelajaran konsep adalah pengertiannya di sini inferring atau approximating atau memperkirakan suatu fungsi boolean berdasarkan kumpulan anggota dan bukan anggota dari konsep tersebut +m11-01-040 persoalan pencarian hipotesis yang best fit terhadap training data +m11-01-041 kemudian +m11-01-042 ada yang disebut dengan design learning system seperti minggu lalu sudah dijelaskan +m11-01-043 ada istilah training experience +m11-01-044 training experience adalah contohnya adalah sky air temperature humidity wind water forecast ya seperti minggu lalu dijelaskan juga yaitu adalah salah satu instance dari perkiraan cuaca +m11-01-045 kemudian kalau fungsi target contohnya adalah enjoy sport input-nya adalah x output-nya adalah bilangan boolean nol atau satu +m11-01-046 kalau nol itu berarti tidak tidak enjoy dan satu berarti enjoy +m11-01-047 kemudian representasi fungsi target di sini pengertiannya adalah conjunction of constraint on instance attribute +m11-01-048 jadi adalah konjungsi atau gabungan dan dari constraint atau batasan terhadap atribut instance +m11-01-049 kemudian algoritma pembelajaran di sini ada tiga macam algoritma find s list then eliminate dan candidate elimination algorithm +m11-01-050 untuk representasi hipotesisnya +m11-01-051 misalkan didefinisikan h adalah konjungsi constraint on attributes +m11-01-052 constraint-nya dapat berupa specific value misalnya water-nya warm +m11-01-053 atau bisa juga don't care misalnya water diisi dengan tanda tanya yang artinya don't care +m11-01-054 atau juga bisa dengan no value atau water diisi dengan bilangan null seperti itu +m11-01-055 yaitu bernilai tidak ada atau no value +m11-01-056 jika instance x satisfy h atau memenuhi h maka h x sama dengan satu +m11-01-057 di sini dapat di lihat bahwa contohnya di sini untuk untuk properti sky bernilai don't care air temp bernilai cold humid bernilai high wind don't care water don't care forecast don't care +m11-01-058 dan konsep learning task yang akan dibahas di sini misalnya instance x +m11-01-059 itu adalah misalnya possible days atau kemungkinan hari di mana memiliki deskripsi atribut sky air temperature humidity wind water forecast +m11-01-060 kemudian fungsi targetnya adalah enjoy sport yang tadi yang bernilai nol atau satu +m11-01-061 kemudian hipotesis h adalah konjungsi dari literal +m11-01-062 literal yang tadi sudah disebutkan +m11-01-063 dan training example d di sini diisi dengan contoh positif dan negatif dari fungsi target +m11-01-064 misalnya tentukan menentukan bahwa hipotesis h hipotesis h kecil di h besar yang memenuhi h x sama dengan c x untuk semua x di dalam d itu adalah pengertian dari +m11-01-065 fungsi target +m11-01-066 kemudian kita masuk ke asumsi fundamental dalam pembelajaran induktif +m11-01-067 jadi asumsi-asumsi di sini sebetulnya bias bias +m11-01-068 inductive saya baca sendiri ya di sini di inductive learning hypothesis any hypothesis found to approximate the target function well over a sufficiently large set of training examples will also approximate the target function well over any other unobserved example +m11-01-069 jadi di sini yang dimaksud adalah +m11-01-070 apapun hipotesis yang digunakan untuk memperkirakan suatu fungsi target yang +m11-01-071 yang sudah digunakan untuk suatu training sample yang cukup besar akan dapat digunakan untuk memperkirakan contoh-contoh yang belum diamati atau belum diobservasi karena sudah memiliki training experience yang cukup banyak +m11-01-072 kemudian di sini masuk ke pencarian hipotesis +m11-01-073 contoh atribut instance sky itu memiliki beberapa kemungkinan nilai +m11-01-074 sunny cloudy rainy air temp memiliki dua kemungkinan nilai warm sama cold +m11-01-075 humidity normal sama high +m11-01-076 untuk wind ada strong dan weak water warm dan cool forecast terdiri dari same dan change +m11-01-077 di sini jumlah instance-nya tadi ada ada enam ada enam properties +m11-01-078 jadi jumlah instance-nya adalah tiga +m11-01-079 yang pertama kan ada tiga nilai kali dua kali dua kali dua kali dua kali dua duanya ada lima kali +m11-01-080 sepuluh pangkat lima dikali tiga sembilan puluh enam instance yang distinct yang berbeda +m11-01-081 jadi untuk hipotesisnya nilai atributnya bisa positif bisa juga tanda tanya atau don't care bisa juga null atau no value +m11-01-082 jumlah hipotesisnya satu ditambah empat dikali tiga sebanyak lima kali +m11-01-083 itu didapat dari untuk satunya adalah nilai +m11-01-084 don't care-nya eh maaf untuk nilai no value +m11-01-085 kemudian empat tadi sebenarnya kan nilai instance-nya cuma nilai jumlah nilai yang mungkin untuk atribut sky kan hanya tiga sunny cloudy rainy +m11-01-086 tapi bisa juga ditambah satu dengan don't care jadinya masing-masing yang tadi ada lima properti yang dua akhirnya jadi lima buah tiga +m11-01-087 jadi tiga dikali tiga sebanyak lima kali tiga pangkat lima dikali dikali empat ditambah satu yang nilai no value tadi jadi sembilan ratus tujuh puluh tiga distinct hypothesis +m11-01-088 jadi jumlah hipotesis ini berbeda dengan jumlah hipotesis berbeda dengan jumlah instance +m11-01-089 untuk instance sembilan puluh enam hipotesisnya sembilan ratus tujuh puluh tiga +m11-01-090 kemudian masuk ke bagian instance hypothesis dan more general than +m11-01-091 kita lihat di gambar kiri nih +m11-01-092 sebut itu adalah instance x +m11-01-093 kemudian gambar kanan hipotesis h +m11-01-094 di sini disebutkan adalah +m11-01-095 semakin ke bawah itu sifatnya semakin general sedangkan semakin ke atas spesifik +m11-01-096 x satu di sini melambangkan instance satu yaitu yaitu satu instance dengan properti sunny warm high strong cool same sedangkan x dua sunny warm high light warm same +m11-01-097 kemudian h h kemudian h satu atau hipotesis satu terdiri dari sunny tanda tanya atau don't care tanda tanya strong tanda tanya tanda tanya +m11-01-098 h dua sunny dan lima buah tanda tanya +m11-01-099 h tiga sunny tiga buah tanda tanya cool dan tanda tanya +m11-01-100 kita masuk ke find s algorithm atau algoritma find s +m11-01-101 di sini ada tiga step besar yang dilakukan yang pertama menginisialisasi h h kecil +m11-01-102 untuk diisi dengan nilai yang paling spesifik dari h besar atau kemungkinan hipotesis yang ada diisikan ke h kecil itu yang diisikan adalah paling spesifik +m11-01-103 kemudian langkah ke dua untuk setiap +m11-01-104 positive training instance x atau nilai instance x yang positif lakukan untuk setiap atribut konstan ai di dalam h jika constraint ai di dalam h itu dipenuhi oleh x do nothing atau tidak lakukan apa-apa +m11-01-105 else saat itu replace a i pada h dengan constraint berikut yang lebih general +m11-01-106 yang dipenuhi oleh x jadi +m11-01-107 kalau sudah dipenuhi tidak dilakukan apa apa tapi kalau belum dipenuhi cari yang lebih general constraint-nya yang dipenuhi oleh x +m11-01-108 kemudian tiga output hipotesis h kecil atau sebagai output +m11-01-109 ya disini digambarkan contoh yang tadi dikerjakan menggunakan find s algorithm +m11-01-110 h nol atau hipotesis nol itu tentu saja yang paling spesifik adalah no value semua untuk enam buah property tersebut enam enamnya bernilai no value kemudian h satu +m11-01-111 kita melihat tadi instance satu tadi x satu yang tadi bernilai sunny warm normal strong warm same dan positif karena dia positif maka kita salin atau sama persis untuk nilai h satu dengan x satu tadi itu sunny warm normal strong warm same +m11-01-112 kemudian untuk liat instance kedua yaitu x dua yang bernilai sunny warm high strong warm same positif juga +m11-01-113 nah untuk ini untuk h duanya yaitu hipotesis berikutnya untuk iterasi berikutnya untuk sunny dan warm tentu saja masih sama karena x satu dan x dua sama sama bernilai sunny warm +m11-01-114 tapi untuk property ketiga yang tadi kan normal kemudian yang x dua bernilai high nah kali ini berarti karena tidak sama diisi dengan dont care atau tanda tanya +m11-01-115 kemudian berikutnya strong warm same masih sama +m11-01-116 kemudian x tiga itu adalah instance bernilai negatif yang berisi rainy cool high strong warm change +m11-01-117 nah +m11-01-118 karena dia bernilai negatif maka kita tidak melakukan apapun jadi h tiga +m11-01-119 akan disamakan dengan h dua karena dia adalah instance yang bernilai negatif jadi h tiga masih sunny warm tanda tanya strong warm same +m11-01-120 kemudian x empat dilihat adalah instance positif berarti kita memperhitungkan +m11-01-121 nilainya sendiri adalah sunny warm high strong cool change +m11-01-122 jadi h empatnya sunny warm-nya tetap kemudian tanda tanya tadi tetap strong-nya tetap nah yang berikutnya +m11-01-123 karena disini berbeda tadinya warm sekarang cool jadi ganti tanda tanya terus yang tadinya juga change sekarang same +m11-01-124 maaf tadinya same tadinya same sekarang change jadi tanda tanya juga jadi hasil hipotesis untuk find s algorithm-nya adalah h empat +m11-01-125 sunny warm tanda tanya strong tanda tanya tanda tanya +m11-01-126 nah disini dijelaskan find s ini mencari hipotesis yang lebih general secara progresif dari hipotesis yang paling spesifik +m11-01-127 find s menjamin menghasilkan hipotesis yang konsisten dengan contoh contoh positif dan tetap konsisten dengan contoh negatif +m11-01-128 sedangkan persoalan yang belum terjawab dengan algoritma ini adalah hipotesis yang paling spesifik +m11-01-129 apa yang konsisten dengan contoh contoh pelatihan +m11-01-130 apakah cukup general +m11-01-131 kemudian telah menghasilkan konsep target yang tepatkah +m11-01-132 kemudian inconsistency training data bisa juga find s ini misleading soalnya +m11-01-133 kemudian yang terakhir adalah +m11-01-134 satu hipotesis unik yang paling spesifik atau bisa beberapa sebenarnya +m11-01-135 kemudian ce algorithm atau candidate elimination +m11-01-136 kalau tadi find s adalah satu hipotesis yang konsisten dari training data +m11-01-137 satu dari beberapa hipotesis yang konsisten +m11-01-138 selainkan ce ini candidate elimination itu set dari semua hipotesis konsisten atau ini berupa version space +m11-01-139 kalau find s itu hanya terdiri dari satu hipotesis saja sedangkan ce ini bisa banyak +m11-01-140 masalahnya disini adalah belum bisa menangani noisy training data +m11-01-141 version space apa sih tadi disebutkan version space atau vs adalah +m11-01-142 +m11-01-143 subset hipotesis dari h besar yang konsisten terhadap semua training +m11-01-144 yang berada di d atau data +m11-01-145 jadi satu hipotesis h kecil konsisten dengan himpunan training sample d kalau dia memenuhi untuk semua instance-nya +m11-01-146 jadi version space itu subset dari hipotesis yang konsisten dengan semua training data +m11-01-147 ya berikutnya jelaskan disini algoritma brute force yang digunakan pada version space di list then eliminate +m11-01-148 +m11-01-149 jadi kita langsung masuk saja ke algoritmanya candidate elimination +m11-01-150 yaitu g besar diisi dengan +m11-01-151 g besar adalah maximally general hypotheses in h jadi hipotesis paling general s adalah yang paling spesifik +m11-01-152 then for in each training sample d do +m11-01-153 if d is a positive example kalau dia instance positive remove from g any hypothesis inconsistent with d +m11-01-154 jadi hilangkan dari g semua hipotesis yang inkonsisten dengan d +m11-01-155 kemudian untuk setiap hipotesis s kecil di s besar yang tidak konsisten dengan d di-remove juga +m11-01-156 kemudian tambahkan kepada s besar semua +m11-01-157 generalisasi h pada s yang paling minimal +m11-01-158 tapi juga harus memenuhi syarat ada dua +m11-01-159 harus h itu konsisten dengan d dan beberapa anggota g harus lebih general daripada h +m11-01-160 kemudian terakhir remove from s any hypothesis that is more general than another hypothesis in s +m11-01-161 jadi di-remove hipotesis yang lebih general daripada hipotesis di s +m11-01-162 sedangkan kalau kalau d nya adalah contoh negatif atau instance yang negatif remove from s and hypothesis yang inkonsisten dengan d +m11-01-163 kemudian dari setiap hipotesis g kecil di g besar yang tidak konsisten lakukan remove ya sama seperti tadi remove +m11-01-164 kemudian add ke g tambahkan ke g semua spesialisasi nah kali ini nih spesialisasi karena s sendiri adalah singkatan dari spesifik +m11-01-165 jadi disini tambahkan ke g semua spesialisasi h yang minimum dimana h harus konsisten juga terus sama masih datanya beberapa anggota s harus lebih spesifik daripada h +m11-01-166 kemudian remove from g any hypothesis that is less general than another hypothesis in g +m11-01-167 jadi disini bisa dilihat dari tabel ini untuk masalah enjoy sport version space-nya bisa dilihat untuk inisialisasi untuk g yang general adalah tanda tanya semua +m11-01-168 tanda tanya itu berarti dont care +m11-01-169 untuk s nya yang spesifik diisi dengan no value semua +m11-01-170 ada enam buah +m11-01-171 property +m11-01-172 kemudian untuk instance satu sunny warm normal strong warm same yes yes disini berarti kan positif +m11-01-173 untuk g nya tetap tanda tanya semua +m11-01-174 untuk s nya ini mirip dengan algoritma yang find s jadi untuk s mirip dengan find s kalau g beda +m11-01-175 s nya karena ini yes dan tadinya no value semua diganti dengan yang instance satu yaitu sunny warm normal strong warm same +m11-01-176 liat instance dua yang ditanya yes juga +m11-01-177 karena itu masih yes jadi dia belum berpengaruh pada g masih tanda tanya semua sedangkan untuk s akan berpengaruh sunny dan warm-nya tetap yang property ketiganya jadi tanda tanya sisanya masih sama strong warm same +m11-01-178 kemudian data ketiga itu bernilai negatif atau no +m11-01-179 untuk g nya akan berpengaruh disini jadi +m11-01-180 +m11-01-181 disini akan menghasilkan tiga buah hipotesis yang konsisten tapi yang lebih general daripada yang sudah ada sebelumnya tapi yang seminimal mungkin general-nya +m11-01-182 kemudian untuk s nya dia tidak pengaruh karena dia data negatif jadi diabaikan +m11-01-183 untuk data keempat yes berarti positif +m11-01-184 untuk g nya dia akan berpengaruh yaitu akan dieliminasi yang tidak konsisten +m11-01-185 jadi akan didapat dua hipotesis saja yaitu sunny dan lima tanda tanya kemudian tanda tanya warm empat tanda tanya +m11-01-186 sedangkan untuk s akan berpengaruh diliat lagi sunny dan warm dan tanda tanya tetap strong-nya tetap dan tanda tanya berikutnya ada dua karena berbeda +m11-01-187 yang tadinya warm jadi cool yang tadinya same jadi change +m11-01-188 version space dari enjoy sport ini yang kita gunakan disini itu adalah algoritma ce atau candidate elimination itu menghasilkan satu dua tiga +m11-01-189 enam buah hipotesis nah disini bisa dilihat bahwa +m11-01-190 penentuan version space ini juga selain menggabungkan g dan s +m11-01-191 jadi tadi hasil g ada dua s ada satu +m11-01-192 tapi tidak serta merta hasil akhirnya adalah dua plus satu tiga tapi bisa juga selain tiga itu ada lagi beberapa hipotesis yang diantaranya gitu antara general dan spesifik itu diantaranya +m11-01-193 jadi ternyata ada tiga jadi tadi dua yang general spesifiknya satu dan ada tiga diantaranya jadi total enam +m11-01-194 kita bandingkan untuk hipotesis tadi ce dan find s ce itu menghasilkan version space +m11-01-195 yang memiliki set of hypothesis yang spesifik sampai general yang konsisten sedangkan find s menghasilkan satu hipotesis yang paling spesifik dan konsisten +m11-01-196 sedangkan untuk masalah inconsistent training data tidak ada perbaikan antara ce dengan find s +m11-01-197 asumsi ce dan find s training data akurat aturan hipotesis memiliki hipotesis target +m11-01-198 +m11-01-199 nah terakhir ini biased hypothesis space +m11-01-200 misalnya liat pada tabel masih enjoy sport ya masalahnya +m11-01-201 disini di pengertian very biased hypothesis space adalah ruang hipotesis dimana konjungsi nilai atributnya yang tadi sembilan ratus tujuh puluh tiga itu terdapat sembilan puluh enam instance dengan possible dataset +m11-01-202 karena ada sembilan puluh enam instance maka sedangkan setiap instance itu bernilai satu atau nol berarti possible dataset-nya ada dua pangkat sembilan enam atau sekitar sepuluh pangkat dua delapan +m11-01-203 berarti ada sepuluh pangkat dua puluh delapan konsep target +m11-01-204 nah desain ruang hipotesis yang lebih ekspresif itu terdiri dari konjungsi ditambah disjungsi ditambah negasi +m11-01-205 ya itu sekian untuk kuliah hari ini +m11-01-206 terima kasih dan sampai jumpa