Sewaktu menelusuri linimasa media sosial, kecil kemungkinan Anda akan menemukan konten pembunuhan, penyiksaan, terorisme, pornografi anak dan sederet konten melewati batas lainnya. Ini merupakan hasil moderasi konten daring.

Namun, moderasi konten daring bukan pekerjaan sederhana. Jumlah pengguna dan konten yang luar biasa membuat tugas menyeleksi informasi tak semudah yang dilakukan media cetak di abad ke-20. Berbagai kebobolan sudah terjadi sebelumnya dan dampaknya tak berhenti di ranah maya. Berita bohong yang sempat berseliweran di Facebook berujung pada kerusuhan yang membidik minoritas Muslim di Sri Lanka. Ujaran kebencian yang disebarkan militer Myanmar lewat platform yang sama diduga berkontribusi kepada genosida etnis Rohingya.

Praktik moderasi daring sendiri menyeret Facebook berulang kali ke tengah kemelut politik. Pada 2017 silam, Facebook dituding punya andil untuk kemenangan pilpres Donald Trump. Facebook dikritik karena tidak sanggup menghentikan hoaks yang berkembang pesat dan menguntungkan pihak Trump. Berita seperti Hillary Clinton terlibat dalam jaringan perdagangan anak hingga Paus mendukung Trump dibagikan tak henti-henti lewat jejaring sosial ini.

Lantas, belum lama ini Mark Zuckerberg kembali menjadi sasaran kritik karena kebijakannya terkait moderasi. Ia menolak untuk memoderasi pernyataan Trump yang memprovokasi kekerasan.
 

Permasalahan Moderasi Konten Daring

Terlepas dari bantuan algoritma dan pelaporan pengguna, konten bermasalah ujung-ujungnya melewati penilaian manusia. Dengan kata lain, moderasi konten bukanlah proses otomatis. Pada 2017, The Listening Post melaporkan ada lebih dari 150.000 pekerja yang memoderasi konten daring. Tahun ini laporan dari NYU Stern mencatat sekitar 15.000 pekerja memilah konten di dalam Facebook/Instagram, 10.000 orang bekerja untuk Google/YouTube, dan 1.500 orang untuk Twitter.

Angka-angka tersebut, walau terdengar fantastis, tidak sebanding dengan skala konten yang ada. Konten bermasalah di Facebook saja berjumlah tiga juta setiap harinya. Jika dari setiap sepuluh konten bermasalah ada satu saja yang lolos moderasi (tingkat eror 10%), artinya ada 300.000 konten bermasalah masih berkeliaran di Facebook setiap harinya. Dan ini baru satu platform.

Belum lagi, tekanan untuk melakukan moderasi dengan serba cepat. Pihak media sosial rata-rata menjanjikan respons terhadap konten bermasalah dalam jangka 24 jam, waktu respons yang juga dimandatkan beberapa regulasi pemerintah. Akibatnya, penilai konten-konten ini hanya punya waktu hitungan detik untuk menentukan kelayakan sebuah konten. 

Mirisnya, mayoritas pekerja yang memilah konten-konten ini hanyalah pekerja lepas yang direkrut oleh perusahaan media sosial melalui perusahaan penyedia jasa tenaga kerja. Orang-orang yang membuat platform lebih aman dan nyaman ini bahkan tidak dianggap sebagai bagian dari platform bersangkutan. Hal ini membuat legalitas hak pekerja jadi semakin rentan dan eksploitasi jadi tak terelakkan, mulai dari kondisi pekerjaan yang tidak layak, upah yang tidak sebanding, hingga pekerjaan yang menyisakan trauma psikologis mendalam. 

Posisi para pekerja yang sengaja dipinggirkan dan dipandang rendah bukan tanpa alasan. Pertama, alasan biaya karena tentu saja merekrut pekerja kontrak lebih murah dibandingkan menjadikannya karyawan tetap. Kedua, pekerjaan moderasi daring ini tidak sejalan dengan representasi modern media sosial yang lebih sering dikaitkan dengan inovasi produk daripada menonton video-video pembunuhan sadis selama delapan jam.

Perlu diingat, sebagai perusahaan berbasis iklan media sosial tak peduli moralitas konten-konten yang ada di dalamnya. Keterikatan penggunanya adalah fokus mereka. Seperti dijelaskan dalam dokumenter Dispatches Channel 4, semakin ekstrem konten yang beredar, semakin banyak dan lama orang hadir di platform, semakin besar untung yang didapatkan.
 

Lalu adakah jalan keluar dari fenomena pelik ini?

Perubahan harus dimulai dari perusahaan media sosial itu sendiri. Mereka harus sadar bahwa moderasi konten adalah bagian integral dan penting dari sistem kerja platform daring. Laporan NYU Stern menyarankan beberapa rekomendasi, di antaranya tidak lagi merekrut pekerja lepas untuk memoderasi konten, melipatgandakan jumlah pekerja, hingga menyediakan pelayanan kesehatan yang serius.

Tapi, selagi menunggu mereka insaf dan melakukan langkah-langkah tersebut, pihak lain harus juga turun tangan: masing-masing pemerintah tiap negara. 
 

Aturan Hukum

Selama ini, media sosial mengelak dari tanggung jawab atas apa yang terjadi di dalam platformnya melalui kebijakan yang dikenal sebagai “Section 230”. Section 230 merupakan ketentuan Undang-Undang Kesetaraan Komunikasi Tahun 1996 Amerika Serikat yang mengatur bahwa perantara internet tidak bertanggung jawab atas apa yang dikatakan oleh penggunanya. Media sosial tidak berperan sebagai “penerbit” atas penggunanya. Maka dari itu, mereka tidak perlu menjaga ketertiban ekosistem daringnya (Gillespie, 2018).

Jikapun media sosial beritikad baik untuk meregulasi ranahnya dengan mengatur apa yang dikatakan penggunanya, perannya tidak sekonyong-konyong berubah menjadi “penerbit” (Gillespie, 2018). Dengan kata lain, kebijakan ini melindungi media sosial dengan memberikannya hak—bukan kewajiban—untuk mengatur konten di dalamnya.

Jadi, jangan heran jika di negara asalnya, isu tanggung jawab media sosial masih menjadi perdebatan publik sementara di belahan dunia lain, beberapa negara sudah mengambil tindakan jelas.

Sejak 2018, Jerman mendenda individu maupun perusahaan terkait penyebarluasan konten yang sifatnya ilegal apabila tidak diturunkan selama 24 jam. Australia mengambil langkah serupa. Namun, selain memberikan denda, hukuman penjara juga diberikan bagi karyawan tinggi perusahaan media sosial. Konten kekejaman, pelecehan, dan revenge porn merupakan beberapa topik yang dilarang beredar di Australia. Uni Eropa lebih berfokus pada pihak platform. Platform harus membayar denda jika melanggar ketentuan tak menurunkan konten ekstrem satu jam setelah diunggah serta yang terkait penggunaan hak cipta di kanalnya.
 

Lalu bagaimana dengan Indonesia?

Pada 2019, setidaknya sudah ada perbincangan terkait isu ini oleh Kementerian Komunikasi dan Informatika. Kemenkominfo menyiapkan regulasi untuk mendenda Facebook dan Twitter jika ketahuan memuat konten negatif, mulai dari pornografi hingga terorisme. Rencananya, aturan ini akan mulai berlaku pada akhir 2021 mendatang.
 

Gillespie, T. (2018). Custodians of the Internet: Platforms, content moderation, and the hidden decisions that shape social media. Yale University Press.