September 27, 2022

Pada tahun 2019, CEO Meta (neé Facebook) Mark Zuckerberg mengumumkan pembuatan dewan pengawas konten mandiri. Dewan yang terdiri dari 23 ahli dan pemimpin sipil ini ditugaskan untuk meninjau keputusan moderasi yang kontroversial menyusul tekanan dari para kritikus dan pengguna mengenai kebijakan perusahaan yang kompleks dan tampaknya tidak merata. Menurut Zuckerberg pada saat itu, keputusan dari Mahkamah Agung media sosial yang dijuluki dirinya sendiri “akan mengikat, bahkan jika saya atau siapa pun di Facebook tidak setuju dengan itu.” Sejak itu, dewan tersebut telah mengeluarkan sejumlah keputusan tentang masalah—termasuk ujaran kebencian, informasi yang salah, dan ketelanjangan. Tapi keputusan terakhir grup ini mungkin yang paling memberatkan dari strategi internal perusahaan Meta dan kemampuan untuk mengatasi yang sedang berlangsung moderasi masalah.

Sebelumnya hari ini, Dewan Pengawas mengumumkan temuannya dari proses banding mengenai penghapusan kartun politik Kolombia yang menggambarkan kebrutalan polisi sebelumnya. Dalam sebuah pernyataan yang diterbitkan secara online pagi ini, dewan menjelaskan mengapa Facebook harus menghapus karya seni dari bank Layanan Pencocokan Media yang dibantu AI Facebook, sebuah sistem yang menggunakan pemindaian AI untuk mengidentifikasi dan menghapus gambar yang ditandai yang melanggar kebijakan konten situs web. Mereka juga berpendapat mengapa seluruh sistem saat ini cacat besar-besaran.

[Related: Meta could protect abortion-related DMs, advocates say.]

“Meta salah menambahkan kartun ini ke bank Layanan Pencocokan Media, yang menyebabkan penghapusan gambar secara massal dan tidak proporsional dari platform, termasuk konten yang diposting oleh pengguna dalam kasus ini,” tulis Dewan Pengawas, sebelum memperingatkan bahwa “Meskipun 215 pengguna mengajukan banding atas penghapusan ini, dan 98 persen dari banding tersebut berhasil, Meta tetap tidak menghapus kartun tersebut dari bank ini sampai kasus tersebut sampai ke Dewan.”

See also  Katak fosil mengungkapkan seks seram melewati rawa Jerman

Dewan Pengawas selanjutnya menjelaskan bahwa sistem penghapusan konten otomatis Facebook yang ada dapat—dan telah—memperkuat keputusan yang salah yang dibuat oleh karyawan manusia. Hal ini terutama bermasalah mengingat efek riak dari pilihan tersebut. “Taruhan penambahan yang salah pada bank semacam itu sangat tinggi ketika, seperti dalam kasus ini, kontennya terdiri dari pidato politik yang mengkritik aktor negara,” memperingatkan. Dalam rekomendasinya, dewan meminta agar Facebook membuat tingkat kesalahan bank Layanan Pencocokan Media menjadi publik dan dirinci oleh kebijakan konten untuk transparansi dan akuntabilitas yang lebih baik.

[Related: Meta’s chatbot is repeating users’ prejudice and misinfo.]

Sayangnya, di sinilah “Mahkamah Agung” media sosial berbeda dari yang ada di Washington, DC—meskipun merupakan komite independen, Facebook tidak memiliki kewajiban hukum untuk mematuhi saran ini. Namun, dalam membuat opini Komite Pengawas diketahui publik, eksekutif Zuckerberg dan Meta setidaknya mungkin menghadapi tekanan tambahan untuk terus mereformasi strategi moderasinya.