Meta mengumumkan awal bulan ini bahwa mereka akan berhenti menggunakan organisasi pemeriksa fakta independen untuk memoderasi konten di platform perusahaan Facebook, Instagram, dan Threads.
CEO Mark Zuckerberg mengatakan pemeriksa fakta "terlalu bias secara politis".
Ia juga mengatakan perubahan yang ia buat akan membantu menegakkan kebebasan berekspresi.
SCROLL TO CONTINUE WITH CONTENT
Namun, Koordinator Cek Fakta, Adi Marsiela, mengatakan perubahan aturan tersebut mengkhawatirkan bagi Indonesia, dengan tingkat literasi digitalnya yang rendah.
Indonesia memiliki lebih dari 119 juta pengguna Facebook aktif dan sedikitnya 100 juta pengguna Instagram tahun lalu.
Adi mengatakan berita bohong seperti iklan pekerjaan palsu dan konten bencana lingkungan yang dimonetisasi masih sering menyebar di Indonesia.
Menurutnya media di Indonesia "dalam konteks isu kepemilikan sarat atau dekat dengan kekuasaan".
"Di tengah kondisi literasi digital yang seperti sekarang ini, kehadiran pemeriksaan fakta ini justru jadi sangat mendukung," katanya.
Adi mengatakan pandemi COVID-19 di Indonesia menunjukkan pentingnya sebuah tim khusus untuk mengecek kebenaran berita.
"Kita dapat pelajaran bahwa ketika ada hal baru hoax itu justru bisa lebih banyak berkembang," katanya.
"Di saat kita ada kekosongan informasi."
Adi mengatakan Community Guidelines bukanlah solusi bagi pencegahan menyebarnya berita bohong di Meta.
"Maksud saya apakah itu kemudian yang memang benar? Karena kita tahu di algoritma itu bukan berita yang penting, tapi yang menarik buat publik," katanya.
"Jika mereka mendapatkan padangan dari pihak luar yang cukup independen, caranya terukur, integritasnya diketahui, pemeriksaan faktanya secara akuntabilitas, publik bisa melihat itu semua."
Dibutuhkan juga di negara lain
Tidak hanya di Indonesia.
Di negara seperti India, pasar terbesar Meta dengan lebih dari 500 juta pengguna, informasi yang tidak diperiksa juga menimbulkan ancaman serius bagi keselamatan publik.
Di India utara, seorang pria Muslim berusia 20 tahun dipukuli hingga tewas oleh massa setelah dituduh mengangkut sapi, yang merupakan hewan suci bagi umat Hindu, untuk disembelih.
Ia adalah korban dari para pembela hak sapi yang telah mendokumentasikan serangan mereka atas nama "perlindungan sapi" dalam setidaknya 166 video lainnya di Instagram.
Kasus seperti inilah yang menurut para ahli menumbuhkan kekhawatiran tentang kebijakan pengecekan fakta terhadap konten media sosial.
"Ujaran kebencian yang tidak terkendali tidak hanya menyebar secara daring β tetapi juga menyebar ke dunia nyata dengan konsekuensi yang mematikan," kata Raqib Hameed Naik, kepala Pusat Studi Kebencian Terorganisasi (CSOH).
Pakar memperingatkan jika kebijakan Meta ini meluas ke negara dengan demokrasi yang rapuh seperti India, Myanmar, dan Filipina, polarisasi, kekerasan, dan kekacauan sosial akan menjadi konsekuensinya.
"Beberapa negara ini sangat rentan terhadap misinformasi yang memicu ketidakstabilan politik, campur tangan pemilu, kekerasan massa, dan bahkan genosida," kata Jaringan Pemeriksa Fakta Internasional (IFCN).
Platform media sosial seperti Facebook, Instagram, dan WhatsApp mendominasi sebagai sumber berita bagi miliaran orang, sehingga membuat mereka rentan terhadap disinformasi, ujaran kebencian, dan propaganda politik.
Di Filipina, mitra pemeriksa fakta Meta, termasuk AFP dan Vera Files, berperan penting dalam melawan disinformasi terkait pemilu.
Pemenang Nobel dan jurnalis Filipina Maria Ressa memperingatkan masa depan jurnalisme dan demokrasi "sangat berbahaya."
Celine Samson, pemeriksa fakta di Vera Files, mengatakan peran organisasi tersebut sangat penting selama pemilihan umum lalu.
Vera Files menemukan semakin banyaknya unggahan misinformasi yang menggunakan taktik berbahaya di Filipina, di mana mereka menggambarkan pemimpin oposisi sebagai komunis.
Istilah "komunis" mungkin tampak relatif tidak berbahaya di tempat lain, tapi di Filipina, istilah tersebut bisa mengancam jiwa.
Ketika pemeriksa fakta menandai konten palsu, Meta dapat membatasi jangkauannya atau menghapusnya jika melanggar standar.
"Jika ada pelanggar misinformasi yang berulang, mereka akan diberi label dan visibilitas yang lebih rendah dan mereka kehilangan kemampuan untuk memonetisasi di platform yang menurut saya paling banyak terkena dampaknya," ujar Celine.
"Menghapus program ini berarti mengurangi satu lapisan perlindungan terhadap misinformasi."
Dikenal sebagai internet di Myanmar
Di Myanmar, Facebook sudah dianggap sebagai "internet".
Selama krisis Rohingya tahun 2017, Facebook diketahui telah memainkan peran penting dalam penyebaran ujaran kebencian, yang berkontribusi terhadap kekerasan terhadap minoritas Muslim.
Meskipun telah berjanji untuk mengatasi kegagalan, Facebook tetap menjadi sarang disinformasi di sana.
Naw Wah Paw, direktur The Red Flag yang berfokus pada penelitian dan pemantauan media sosial, mengatakan militer dan aktor lainnya sudah berpengalaman dalam menghindari deteksi dan memicu kekerasan.
"Kita menghadapi peningkatan misinformasi, propaganda, dan kampanye disinformasi militer," kata Naw Wah Paw.
"Kami telah melacak unggahan yang menggunakan istilah seperti 'bertelur' yang berarti mengebom atau 'berdandan' yang berarti memukul seseorang.
"Tanpa pemeriksa fakta, platform seperti Facebook berisiko menjadi lebih kacau."
Ia mengatakan mitra pemeriksa fakta Meta, yang diharuskan memenuhi standar nonpartisan yang ketat, sangat penting dalam hal memahami bahasa dan konteks setempat.











































