Apa Itu Analisis Data? Pengertian dan Materi Analisis Data

Apakah kalian pernah memakai mesin pencari seperti Google, Bing, Yahoo atau lainnya untuk mencari data? Dengan mengetikkan satu atau lebih kata kunci, semua halaman web yang mengandung apa yang kalian ketikkan tersebut muncul. Bagaimana mesin pencari melakukan itu?

Materi Informatika : Analisis Data
Materi Informatika : Analisis Data

Pernahkah kalian mengalami saat sedang mencari informasi menemukan bahwa informasinya bertebaran di beberapa, bahkan di banyak halaman web? Mungkin pada saat itu kalian melakukan pencarian dengan mesin pencari dan mendapatkan hasil berupa daftar halaman yang memuat informasi yang kalian cari. Contohnya misalnya kalian ingin membanding-bandingkan harga barang dari beberapa situs toko online. Kalian harus membuka halamannya satu per satu, kemudian membandingkan, dan memutuskan akan membeli barang sesuai dengan kriteria yang kalian tetapkan. Jika membuka semua halaman web tersebut harus dilakukan manual, akan sangat melelahkan dan membosankan bukan? Bayangkan jika ada robot yang dapat melakukannya untuk kalian, sehingga mudah untuk menganasis. Tentunya pengambilan keputusan akan menjadi lebih cepat. Robot itu tidak harus berwujud seperti manusia lho. Robot dapat berupa sebuah perangkat lunak komputer. Nah, pada unit ini kalian akan membuat sebuah robot seperti ini yang akan membantu kalian 

Setelah lulus kuliah, apa yang kalian lakukan jika ingin mencari pekerjaan? Atau mungkin selama kuliah juga ingin mencari pekerjaan sambilan (part time)? Untuk mencari lowongan pekerjaan, kita menggunakan koran atau pun halaman web, misalnya JobsID. Coba ketik https:// www.jobs.id/ di browser. Di halaman ini, kalian dapat mencari pekerjaan dengan memasukkan kata kunci pekerjaan di form pencarian yang ada, misalnya pekerjaan sambilan atau “part time”

Dari halaman tersebut kita peroleh daftar pekerjaan yang ditampilkan cukup detail dalam beberapa halaman. Dengan tampilan tersebut, kita perlu melakukan scroll sekitar delapan kali untuk mendapatkan sekitar 23 lowongan pekerjaan. Bagaimana caranya kita dapat merangkum lowongan pekerjaan tersebut sehingga lebih mudah untuk melihat dan memilih pekerjaan yang kita inginkan?

Dalam kajian analisis data, terdapat teknik yang disebut sebagai scraping. Scraping adalah salah satu bentuk penyalinan, di mana data tertentu dikumpulkan dan disalin dari sebuah halaman web, bisa ke dalam basis data, spreadsheet atau tampilan tertentu untuk pengambilan atau analisis data. Scraping bisa dilakukan dengan menggunakan sebuah bahasa pemrograman yang mendukung. Dengan scraping, kita bisa mendapatkan rangkuman dari suatu halaman web sehingga 23 lowongan yang sebelumnya ditampilkan dalam beberapa scroll kini menjadi diringkas dalam satu tampilan dengan data penting yang kita inginkan saja. Dalam aktivitas di unit pembelajaran ini, kita akan melakukan scraping dengan membuat program yang mengambil data dari sebuah halaman website.

Untuk membangun sebuah scraper, kita perlu menentukan bahasa pemrograman yang memudahkan kita. Setiap bahasa pemrograman akan diimplementasi oleh sebuah lingkungan pengembangan terintegrasi (Integrated Development Environment/IDE) tertentu. Ada banyak pilihan bahasa pemrograman beserta IDE-nya. Disini kita akan menggunakan bahasa pemrograman Python. Bahasa Python dipilih karena menjadi bahasa yang sering digunakan dalam analisis data. Python memiliki banyak sekali fungsi dan library (pustaka) yang memudahkan kita untuk melakukan analisis data, salah satunya untuk melakukan scraping ini.

Kemudian untuk membuat program Python, kita memerlukan alat bantu IDE atau lingkungan kerja untuk menulis dan menjalankan program Python tersebut. Salah satu alat bantu yang bisa kita gunakan ini yaitu Google Collaboratory atau Google Colab. Google Colab dipilih karena dapat digunakan secara online untuk mengambil data dari website yang online pula. Selain itu, banyak fungsi dan pustaka Python yang sudah terpasang dalam Google Colab sehingga bisa langsung digunakan

Kita akan mulai dengan pengenalan alat bantu Google Colab dan Python. Setelah cukup mengenal dua alat bantu analisis data ini, mulailah kita membuat proyek untuk scraping halaman website yang dipilih. Kemudian setelah itu, data hasil scraping ini divisualisasikan ke dalam berbagai bentuk diagram dan chart.

A. Pengenalan Perkakas Analisis Data


1. Google Colaboratory (Google Colab)  


Google Colab atau Google Colaboratory adalah salah satu lingkungan pengembangan aplikasi terintegrasi yang disediakan oleh Google secara online (Online IDE). Karena sifatnya yang online, maka pengguna tidak perlu melakukan instalasi dan dapat langsung menggunakan Google Colab untuk menulis program dan melakukan pengolahan data dari Internet. Selain itu, Google Colab juga memiliki banyak fungsi serta library yang dapat digunakan untuk membantu pengolahan data, termasuk untuk melakukan scraping.

2. Python


Untuk membantu berkomunikasi dengan komputer, kita perlu sebuah bahasa yang dipahami baik oleh manusia maupun komputer, dalam hal ini bahasa Pemrograman. Secara umum, bahasa pemrograman adalah bahasa yang digunakan untuk membuat program yang akan memberikan perintah kepada komputer untuk melakukan sesuatu. Ada berbagai jenis bahasa pemrograman yang dapat digunakan untuk membuat program. Salah satu bahasa pemrograman yang sering digunakan untuk melakukan analisis data karena menyediakan library untuk berbagai tahap proses analisis data, ialah bahasa Python. Python merupakan bahasa pemrograman yang cukup populer, seperti halnya bahasa C yang digunakan dalam unit pembelajaran Algoritma dan Pemrograman. Pada bagian ini, akan dibahas beberapa dasar pemrograman Python, terutama yang terkait dengan analisis data. Perhatikan bahwa pemrograman di materi analisis data ini hanya digunakan sebagai alat bantu. Algoritma dan pemrograman juga akan sedikit disinggung dalam unit pembelajaran ini sebagai bentuk latihan dan eksplorasi, memahami eksekusi yang terjadi khususnya dalam setiap proses analisis data. Jadi, kalian tidak perlu terlalu bingung memikirkan aturan bahasa pemrograman Python yang diberikan.

B. Koleksi Data


Setelah editor siap digunakan, scraping bisa dimulai dengan proses parsing. Parsing adalah mengambil kode program dari sebuah halaman website secara utuh yang masih dalam bentuk kode HTML. Selanjutnya, kode HTML tersebut diproses setiap elemennya untuk mendapatkan data yang penting yang akan dirangkum. Hasilnya berupa kumpulan data yang diperlukan saja (yang diambil dari data mentah HTML yang utuh sebelumnya). Hasil keluaran sebelumnya masih berupa daftar atau array teks data pekerjaan yang mungkin masih sulit dibaca. Data tersebut perlu ditampilkan secara lebih tertata sehingga mudah dibaca. Proses membingkai data atau framing ini bisa dilakukan dengan mudah jika data sudah diperoleh. Salah satu tampilan yang memudahkan pembacaan daftar teks tersebut ialah dalam bentuk tabel. Dengan demikian, kita peroleh hasil dari proses scraping ini dalam bentuk tabel data.

C. Visualisasi Data


Pada proyek sebelumnya, data website diambil (scraping) dan ditampilkan dalam bentuk tabel. Tabel adalah salah satu bentuk analisis data dasar. Kita bisa melihat persebaran data secara baris per baris dalam bentuk tekstual. Analisis data dapat dilanjutkan dengan mengubah data tekstual tersebut menjadi data visual sehingga lebih mudah untuk dipahami. Data divisualkan dalam berbagai diagram seperti diagram batang, diagram lingkaran, diagram garis, dan lain sebagainya. Berikut ini data pada proyek sebelumnya akan disajikan dalam diagram batang. Sebelum data bisa diolah dan disajikan menjadi diagram, data tersebut perlu dipersiapkan terlebih dahulu. Dalam analisis data, proses persiapan ini disebut pra-pemrosesan data (data preprocessing). Setelah dipersiapkan, baru kemudian data bisa diolah dan divisualisasikan.


Baca Juga :
Guru, Desainer, Programmer

Posting Komentar