MENTERI Komunikasi dan Informatika (Kominfo) Budi Arie Setiadi mengaku kementeriannya sedang mempersiapkan dewan media sosial. Dewan ini dicanangkan akan berfungsi layaknya Dewan Pers.
Budi menyebut gagasan ini merupakan usulan dari organisasi masyarakat sipil (OMS) dan UNESCO.
Apa yang sesungguhnya memantik diskursus dewan media sosial ini? Barang apa sebenarnya dewan media sosial ini?
Riset yang dilakukan oleh PR2Media berjudul "Pengaturan Konten Ilegal dan Berbahaya di Media Sosial" (2023) menemukan bahwa mayoritas responden yang merupakan pengguna media sosial di Indonesia (YouTube, Facebook, TikTok, Instagram, dan X) menyatakan sering dan sangat sering menjumpai konten ilegal dan berbahaya di platform media sosial.
Dari 1.500 responden, lima jenis konten yang paling sering dijumpai adalah akun palsu (72,9 persen), ujaran kebencian (67,2 persen), misinformasi/kabar bohong/hoaks (66,4 persen), perundungan (62,4 persen), dan penipuan (57,9 persen).
Temuan senada dapat dilihat dalam riset SAFEnet bertajuk "Ragam Serangan Daring terhadap Kelompok Rentan di Masa Pemilu". Riset itu menunjukkan, dalam momentum pemilihan umum 2014 dan 2019, kelompok rentan selalu menjadi sasaran konten kebencian.
Konten-konten kebencian ini menyasar kelompok perempuan, LGBTIQ+, penyandang disabilitas, aktivis dan jurnalis, oposisi politik, serta masyarakat lain yang aktif menggunakan media sosial.
Konten kebencian disebarkan dengan beragam bentuk, seperti ujaran kebencian, berita bohong, kekerasan berbasis gender online (KBGO), hingga doxxing.
Dua riset di atas tentu mengkhawatirkan, apalagi melihat jumlah pengguna media sosial di Indonesia yang terus meningkat.
Mengutip Direktur Pusat Penelitian Media dan Demokrasi LP3ES, Wijayanto, informasi yang benar itu bagaikan oksigen bagi demokrasi. Ruang publik yang penuh dengan konten-konten berbahaya bagai gas beracun yang dapat membunuh demokrasi.
Sayangnya, regulasi yang ada tidak mampu merespons keadaan ini. Regulasi yang ada justru digunakan untuk mengkriminalisasi pengguna secara serampangan.
Ini bisa kita lihat dalam Kitab Undang-Undang Hukum Pidana (KUHP) dan Undang-Undang Informasi dan Transaksi Elektronik (UU ITE) yang baru. Keduanya masih mempertahankan pasal-pasal penghinaan, pencemaran nama, ujaran kebencian, dan berita bohong.
Padahal jika kita tilik, ada faktor struktural yang mengamplifikasi konten-konten berbahaya: kapitalisme pengawasan.
Istilah kapitalisme pengawasan diperkenalkan oleh filsuf Amerika Serikat, Shoshana Zuboff pada 2018. Teori ini mengkritisi model bisnis iklan microtargeting yang dijalankan oleh perusahaan platform digital.
Dalam kurun kurang dari 25 tahun, model bisnis ini telah menghasilkan pundi-pundi uang yang sangat besar bagi perusahaan raksasa seperti Google dan Meta. Mereka menjual data perilaku pengguna kepada agregator iklan.
Untuk mengumpulkan data perilaku pengguna sebanyak-banyaknya, mereka perlu membuat pengguna betah mengakses produk mereka selama mungkin.
Caranya termasuk dengan membiarkan konten-konten berbahaya yang umumnya bersifat sensasional seperti ujaran kebencian, berita bohong, dan perundungan. Padahal, penyebaran konten-konten itu secara masif dapat berujung pada kekerasan di dunia nyata.
Contoh terbaru dapat kita lihat saat gelombang konten kebencian yang masif dan sistematis menyasar pengungsi Rohingya di akhir 2023 lalu. Kala itu, Instagram, Facebook, X, TikTok, hingga YouTube dipenuhi oleh konten kebencian.
Akun-akun palsu UNHCR Indonesia menjamur di TikTok. Bahkan ada yang jumlah pengikutnya melebihi akun resmi badan PBB itu.
Rangkaian serangan digital yang sistematis dan masif berujung pada persekusi fisik terhadap etnis Rohingya yang dilakukan oleh sekelompok mahasiswa lokal pada 27 Desember 2023.
Melihat fakta bahwa demokrasi kita diancam gas beracun, sementara perusahaan media sosial panen uang dari model bisnis iklan bertargetnya, negara perlu hadir untuk menuntut tanggung jawab perusahaan media sosial dalam memoderasi konten. Namun, moderasi konten tidak boleh jadi dalih penyensoran baru.
Sejauh ini, Peraturan Menteri Komunikasi dan Informatika No. 5 Tahun 2020 tentang Penyelenggara Sistem Elektronik Lingkup Privat (Permenkominfo 5/2020) menjadi regulasi yang paling banyak mengatur tanggung jawab perusahaan media sosial.
Namun, peraturan ini mengandung banyak pasal karet. Penggunaan frasa “mengganggu ketertiban umum” dan “meresahkan masyarakat” sangat berpotensi multitafsir.
Lalu, siapa yang dapat menafsirkan kedua frasa itu? Kominfo menjadi pihak yang berwenang di sini.
Ini menimbulkan masalah lainnya: terlalu kuatnya peran pemerintah dalam mengontrol ruang digital. Di sini, dewan media sosial-lah yang seharusnya memainkan peran, bukan pemerintah.
Kewenangan untuk menilai suatu konten layak atau tidak berada di internet tidak boleh dimonopoli oleh pemerintah karena berpotensi menyensor suara-suara kritis.
DMS harus bersifat independen, bukan di bawah lembaga eksekutif maupun perusahaan media sosial.
Dalam konteks Indonesia, bentuk DMS dapat menjadi lembaga negara independen seperti Dewan Pers. Jika kedudukan DMS yang dibayangkan oleh Kominfo berada di bawah kementeriannya, sama saja DMS kehilangan esensinya.
Salah satu prinsip DMS yang juga penting untuk diperhatikan adalah keterwakilan kelompok. DMS harus melibatkan representasi dari kelompok-kelompok rentan dan marjinal yang selama ini menanggung ekses buruk dari operasi perusahaan media sosial.
DMS juga harus melibatkan pihak-pihak lain yang relevan seperti pakar kebebasan berekspresi, akademisi, asosiasi dan regulator media, serta organisasi masyarakat sipil. Tujuannya, agar pengaturan moderasi konten dapat melihat berbagai perspektif secara inklusif.
Hal penting yang harus digarisbawahi adalah DMS tidak boleh memiliki peran aktif untuk melakukan pengawasan (surveillance) terhadap konten-konten yang dibuat pengguna.
Pengawasan aktif oleh lembaga negara (walau independen sekalipun) dapat memicu swasensor, baik dari pengguna maupun platform media sosial.
Oleh karenanya, DMS hanya dapat memutuskan sengketa antara pengguna dengan perusahaan media sosial seandainya pengguna merasa mengalami kerugian.
Sebagai contoh, pengungsi Rohingya yang mengalami persekusi akibat maraknya ujaran kebencian dan berita bohong berhak mengadu ke DMS. Mereka dapat meminta pertanggungjawaban perusahaan media sosial yang membiarkan penyebaran konten-konten itu di platformnya.
DMS kemudian akan berunding, berdiskusi, dan berdebat untuk memutuskan langkah apa yang harus diambil dan ganti rugi apa yang harus dibayarkan oleh perusahaan media sosial.
Semua penilaian ini harus dilakukan dengan menggunakan standar-standar HAM internasional dan memperhatikan konteks lokal sebagai tolok ukurnya.
Pembatasan atau takedown konten harus dilakukan secara proporsional. Ia hanya bisa dilakukan apabila tidak ada pilihan lain serta memiliki tujuan yang sah.
Pendirian lembaga negara independen dengan bentuk dan fungsi seperti di atas tentu tidak dapat hanya diatur pada level peraturan menteri. Layaknya Dewan Pers yang diatur dalam UU Pers, DMS juga perlu diatur oleh regulasi setingkat UU.
SAFEnet sudah mengusulkan ini saat pembahasan revisi kedua UU ITE. Namun, masukan itu nyatanya tidak diakomodasi. Kominfo malah memperkuat dirinya sendiri lewat revisi pasal 40 ayat 2.
Ketika wacana ini kembali dikemukakan pada Mei 2024, muncul pertanyaan baru: Apa sebenarnya motivasi Kominfo menghidupkan kembali gagasan yang tidak ia akomodasi saat revisi kedua UU ITE?
Simak breaking news dan berita pilihan kami langsung di ponselmu. Pilih saluran andalanmu akses berita Kompas.com WhatsApp Channel : https://www.whatsapp.com/channel/0029VaFPbedBPzjZrk13HO3D. Pastikan kamu sudah install aplikasi WhatsApp ya.