Tujuh tantangan riset perkotaan kedepan

Kedepan, riset bidang studi perkotaan akan semakin beragam. Tidak hanya mengandalkan kuesioner dan form wawancara untuk mendapatkan data. Justru data-data itu bakal tersedia secara terbuka dan bisa kita download begitu mudah. Tidak lagi hanya mengandalkan 100 sampel dari berapapun jumlah populasinya. Lebih dari itu, mungkin bisa ribuan atau justru jutaan data. Dari tipe datanyapun akan lebih banyak, yang mengharuskan kita memanipulasi agar bisa memiliki arti. Kata manipulasi disini tidak bermakna negatif, atau tindak kecurangan atas data tetapi justru hal positif untuk memperjelas data. Contoh manipulasi data adalah mengubah alamat rumah menjadi titik koordinat. Sekali lagi, ini juga disebut manipulasi.

Kembali ke beragamnya tipe data tadi. Data gambar seperti foto dan citra satelit akan menjadi raw data yang harus kita olah guna mendapatkan sebuah informasi. Contoh riilnya adalah dikala kita ingin mengetahui jenis perumahan teratur dan tidak teratur. Dulu kita harus datang langsung, melihat, memfoto kemudian menyimpulkan ‘ini adalah perumahan tidak teratur’. Kalau itu dilakukan di satu kawasan perumahan mungkin saja bisa selesai dalam kurun waktu 1 – 4 minggu, tetapi bagaimana kalau yang dibutuhkan adalah se-kota, se-provinsi, se-pulau atau justru satu negara. Tidak usah dibayangkan berapa lama dan berapa biaya yang mesti dikeluarkan. Bakal time consuming dan high cost. Meski demikian, ini adalah kebutuhan baru dalam riset ke depan. Memperpendek waktu, mengurangi biaya tetapi untuk luasan yang semakin gede. Dari kebutuhan baru itu, setidaknya kita perlu mempertimbangkan 7 hal baru dalam riset studi perkotaan ke depan, yaitu:

Data science akan menjadi kebutuhan dasar baru

Tuntutan baru untuk menganalisis data yang berjumlah banyak dalam waktu singkat bakal menjadi kebutuhan skill baru. Microsoft excel, Google Spreadsheet dan mungkin SPSS akan menjadi software konvensional untuk analisis data banyak. Ini belum masuk kategori Big Data yang kapasitasnya ber – tera-terabyte itu. Hanya untuk eksekusi data yang berjumlah lebih dari 1.000. Mereka memiliki keterbatasan.

Inipun akan menghadapi persoalan baru yaitu bagaimana kita handle data yang begitu banyak. Akan ada data anomali yang mungkin saja tidak berjumlah sedikit sehingga dengan mudah kita hapus. Data anomali ini kalau di statistik sering disebut dengan outliers, yaitu data yang berada di luar kecenderungan umum distribusi data. Kurang lebih begini, kalau seluruh data kita buat scatter plot maka akan ada data-data yang terkumpul di salah satu area dan ada data yang diluar itu, nah bisa dibayangkan kan mana yang outliers dan mana yang data normal. Biasanya data outliers ini diperlakukan khusus, kadang didelete begitu saja atau terkadang justru dianalisis lebih lanjut. 

Bayangkan saja kalau outliers data itu berjumlah ribuan atau jutaan. Apa mungkin kita scroll down dan scroll up mouse kita di layar microsoft excel, kemudian delete row? Bisa tambah tebal itu kacamata. Nambah biaya lagi untuk periksa mata dan beli kacamatanya. Meskipun proses itu mungkin dilakukan di excel atau spreadsheet-nya google, tetapi itu sangatlah lambat dan maaf itu jadul banget. Nah disiplin baru, data science menjadi kebutuhan baru saat ini. Data science atau ilmu data adalah suatu bidang ilmu yang secara khusus mempelajari data, khususnya data kuantitatif baik yang bersifat terstruktur atau tidak terstruktur (Wikipedia). Kita dituntut untuk belajar matematika dasar lagi, belajar mengenai tipe data, mengkategorikannya, memanipulasinya, hingga memvisualisasikan untuk menyajikan informasi. Lebih jauh dari itu sebenarnya adalah bagaimana kita memperlakukan data yang sangat banyak?.

Trend baru open data

Dunia semakin terbuka. Dulu sebelum memanfaatkan software, kita harus registrasi, membayar dan pakai. Bagaimana dengan sekarang? – semakin banyak alternatifnya baik yang freeware ataupun open source. Itu untuk software, bagaimana dengan data? – sama saja. Data juga akan semakin terbuka. Literaturpun akan semakin terbuka dengan maraknya open access journal. Indonesia, negeri tercinta ini menjadi salah satu penyumbang open access journal terbesar di dunia. Itu bicara literatur, data juga serupa. Sepuluh tahun lalu dikala saya membutuhkan data kota dalam angka, saya musti datang ke BPS kemudian cari bukunya, dan foto copy. Sekarang bagaimana? Tinggal masuk ke website BPS kemudian download saja. Mau se Indonesia, ada tuh tinggal siapkan paket datanya. 

Data akan semakin accessible, karenanya tantangan kedepan adalah memperluas cakupan wilayah riset. Dan tidak cukup hanya download data satu kota, lebih banyak lagi dan lebih banyak lagi. Ditambah sekarang sudah ada open data yang disediakan pemerintah sebagai salah satu wujud good governance. Asik.. semakin melimpah saja resource data ini. Data sudah ada, berarti tidak perlu survei dong? – jawabannya tidak! Tetep survei. Bedanya adalah kalau dulu kita survei untuk mengambil data sekarang kita survei untuk memverifikasi data. Sampel tetep ada, tetapi untuk tujuan verifikasi data yang sebelumnya didapatkan. Artinya fenomena open data ini akan mengubah cara kita memperlakukan data di dalam riset.

Analisis bertingkat untuk mendapatkan ‘data baru’

Kita akan kembali ke raw data. Contohnya dikala kita mau melakukan traffic counting, rasanya tidak perlu lagi nongkrong di trotoar kemudian kita gunakan telunjuk kita untuk menunjuk setiap kendaraan yang lewat didepan kita sambil menghitungnya. Sudah ada CCTV yang tersebar di jalan-jalan utama. Bahkan kalau di Kota Semarang itu ada program 1 RT 1 CCTV, semakin banyak lagi cakupan datanya. Hitung saja dari data CCTV itu untuk menggantikan traffic counting yang musti dilakukan di pinggir jalan. Melalui data rekaman CCTV kita bisa analisis juga time series datanya. Itu hanya contoh!

Dulu, dari data traffic counting kita bisa menganalisis LHR (lalu lintas harian rata-rata). Bisa dihitung tundaan, bisa dipetakan untuk mengetahui diffusi spatialnya dan jadilah artikel. Ke Jurnal Sinta 2 atau Sinta 1, pasti laku ini. Tetapi itu dulu, kedepan akan berbeda. Butuh analisis bertingkat. Bisa jadi data LHR yang dulu bisa dijadikan 1 paper yang bersumber dari 1 riset akan menjadi 1 variabel saja dari rangkaian riset besar. Dulu dikerjakan oleh 4 – 10 peneliti, sekarang cukup dikerjakan 1 peneliti dibantu 2 pembimbing. Akan ada kebutuhan data baru yang semakin tinggi, semakin presisi dan semakin banyak. Analisis 1 ruas jalan sudah cukup, itu dulu. Kedepan kita harus menganalisis semua ruas jalan di suatu kota. Dimana raw data lama tidaklah cukup menjawab research question

Data mining menjadi trend baru perolehan data

Saat ini kita bisa download data BPS begitu mudah. Itu adalah salah satu bentuk data mining, mendownload. Tapi tidak semua platform menyediakan link download ini. Terkadang kita perlu registrasi ke suatu layanan kemudian mendapatkan API (application programming interface) untuk mendapatkan kuncinya. Kemudian barulah kita download. Tidak semata-mata download sederhana, harus ada sedikit coding. Nah inilah pentingnya data science di bidang studi perkotaan kedepan. 

Saya ambil contoh ingin mendownload data sarana prasarana perkotaan. Cukup kita registrasi ke Google Cloud Platform, buat google API (contoh: Google Place API) kemudian silakan download fasilitas perkotaan yang saat ini sudah dimiliki google, dari ATM, Cafe hingga Universitas ada semua. Tidak perlu lagi datangi satu-satu membawa GPS kemudian marking, itu metode lama. 

Realtime data, bagaimana kita menyikapinya?

Data tidak bersifat statis tetapi justru dinamis, realtime akan selalu terupdate dalam satuan waktu tertentu. Bisa saja terupdate setiap tahun, setiap bulan, atau bahkan setiap mili second. Data traffic, sebagai contoh, google sudah mengupdatenya setiap kita bergerak, canggih bukan? Melalui smarphone, kita bukan lagi sebagai warga netizen tetapi juga sebagai data producer yang akan diberikan ke raksasa-raksasa internet dunia. Seperti data traffic tadi. Kita bergerak, GPS nyala, data secara real time akan terupload ke google (bagi pengguna android). Betul-betul real time, bagaimana kita mengakomodasi dalam studi atau bahkan perencanaan kota kita?

Tidak bisa hanya mengandalkan metode lawas dengan menunjukkan telunjuk jari kita ke setiap kendaraan yang lewat sambil menghitung. Tidak cukup itu, sama sekali tidak cukup. Kita akan kembali ke raw data, mengolahnya, memanipulasinya kemudian memvisualisasikannya. Dan tantangan selanjutnya adalah mengintegrasikannya.

Kolaboratif dan integratif

Kerja kolaboratif sudah menjadi kebutuhan baru saat ini. Kedepan ini akan menjadi new normal pekerjaan. Kita bisa bekerja secara online untuk satu pekerjaan dilakukan bersama-sama. Sebagai contoh adalah kita mengerjakan laporan yang dibuat dalam 1 file kemudian kita bisa sama-sama mengakses file itu dan mengeditnya secara real time. Sudah bukan barang mewah lagi. Itu hanya collaborative working untuk menyusun laporan. Lebih dari itu, kita juga bisa membuat software dengan membuat code-code pemrograman tertentu secara live dan kolaboratif. Sebut saja github, platform kerja kolaborasi terbesar di dunia saat ini. Kita bisa masukkan kode pemrograman di situ kemudian rekan kerja lain yang entah berada di mana bisa melakukan proses editing secara langsung. Membuat mesin digitalpun sekarang sudah bisa dilakukan secara kolaboratif. Kerja bareng.

Tidak hanya itu, kerja integratif juga akan menjadi trend baru. Seperti kita bekerja di excel yang kemudian kita bagi data di setiap sheet-nya. Sebagai contoh sheet 1 berisi data mentah, sheet 2 berisi function untuk membuat summary. Itu contoh integratif yang dibuat dalam 1 file namun beda sheet, selain itu juga bisa dibuat integratif antar file. File excel yang diedit oleh peneliti tertentu secara online bisa secara otomatis masuk ke RStudio dan secara integratif akan terdisplay di website menggunakan tableau.com. Ini adalah contoh lain yang lebih kompleks dan itu tentunya akan menjadi kecenderungan kebutuhan baru kedepannya.

Self learning dan blended skill

Bagi yang suka belajar secara otodidak, atau belajar mandiri (self learning), ini adalah waktu anda. Semakin maraknya open source mengharuskan kita berkolaborasi antara kita dengan rekan-rekan kerja kita di seluruh dunia yang sama sekali tidak kita kenal secara fisik. Kita mengenal mereka dari dunia maya, di Internet dari karya-karya mereka. Sebagai contoh, bagi anda yang menggunakan CNN (Convolutional Neural Network) untuk membuat machine learning, itu adalah buah karya Yann LeChun, seorang professor di Universitas New York. Apakah anda pernah bertemu dengannya? Apakah anda pernah mendapatkan kuliah secara langsung darinya? Mungkin hanya sebagian kecil dari kita yang mendapatkan kesempatan itu. Saya sendiri belum pernah bertemu. Belajar sendiri dari tutorial-tutorial di Youtube, di Blog dan jurnal-jurnal yang semakin banyak dan open.

Belajar sendiri dan itu di luar pendidikan formal di kampus. Selain belajar sendiri, kita juga akan belajar lintas umur, lintas generasi dan lintas keilmuan. Kembali ke contoh machine learning tadi, apakah itu hanya milik mereka yang belajar dan bekerja di bidang ilmu komputer? – Itu dulu, sekarang kita juga akan berkecimpung di dalamnya. Sudah banyak sekarang anak-anak sosial seperti yang belajar psikologi, antropologi dan sosiologi yang belajar data science untuk mendukung riset mereka. Bagi anda yang masih mendikotomi keilmuan, maka siap-siap saja akan semakin menyendiri di tengah hiruk-pikuk keramaian diskusi keilmuan. Saya rasa sudah bukan waktunya lagi mendikotomi keilmuan berdasarkan disiplin ilmu, berdasarkan metode penelitian apalagi berdasarkan almamater. “Keilmuan saya lebih mumpuni karena saya meneliti ilmu perkotaan, saya meneliti theory of planning dan bukan theory for planning”, pikirkan lagi kalo mau mengatakan itu. Atau lebih parahnya bilang begini ‘Keilmuan saya lebih baik karena saya lulusan universitas A dari negara B dan dari planet X’, sudahlah kelaut saja sana. Harus blanded, semua berintegrasi kalau tidak, anda akan ter-disrupsi.

Ilustrasinya begini, sangat memungkinkan saat ini kita menganalisis data hasil wawancara untuk penelitian kualitatif menggunakan software statistik. “Penelitian saya kualitatif, tidak mungkin menggunakan software statistik” – pikirkan kembali pernyataan itu. Sangat memungkinkan saat ini kita membuat transkrip wawancara dengan mudah dan bahkan otomatis. Hasil rekaman wawancara berupa voice bisa kita transformasi kedalam bentuk text (voice to text) kemudian dari text itu bisa dengan mudah kita cari intisari pemikiran narasumber. Kita bikin wordcloud, kemudian kita tentukan link atau hubungan antara satu ide dengan ide lainnya. Kita crosscheck dengan narasumber lain. Itu hanya contoh saja, dan itu sangat memungkinkan dilakukan saat ini. Jadi akan sangat mungkin sebenarnya penelitian dengan pendekatan kualitatif tetapi menggunakan software statistik untuk mengolahnya. Sekali lagi, itu hanya contoh bahwa kita sedang berada di lintas keilmuan.

Sumber gambar: GarryKillian, freepik.com