ISLAMTODAY ID-Laporan Meta menyatakan bahwa kebijakan Facebook dan Instagram selama serangan Israel di Gaza tahun lalu merugikan hak asasi manusia Palestina.
Studi yang dilakukan oleh konsultan Business for Social Responsibility (BSR), diperoleh oleh The Intercept, sebelum dipublikasikan akhir pekan ini.
Pada Mei 2021, Meta secara luas dituduh melakukan sensor dan bias selama serangan Israel di Gaza, yang menewaskan 256 warga Palestina, termasuk 66 anak-anak.
Di Israel, 13 orang tewas oleh roket Palestina, termasuk 2 anak-anak.
“Tindakan Meta pada Mei 2021 tampaknya memiliki dampak hak asasi manusia yang merugikan… pada hak-hak pengguna Palestina atas kebebasan berekspresi, kebebasan berkumpul, partisipasi politik, dan non-diskriminasi, dan oleh karena itu pada kemampuan warga Palestina untuk berbagi informasi dan wawasan tentang pengalaman mereka saat itu terjadi, ”ungkap laporan itu, seperti dilansir dari MEE, Kamis (22/9).
Middle East Eye melaporkan tahun lalu bahwa kekhawatiran telah muncul tentang konten media sosial yang dihapus dan penangguhan akun sehubungan dengan lingkungan Syekh Jarrah di Yerusalem Timur yang diduduki, tempat tindakan keras Israel terhadap protes terhadap pengusiran paksa memicu eskalasi kekerasan.
Menurut laporan itu, Meta menghapus konten berbahasa Arab yang terkait dengan kekerasan tahun lalu pada tingkat yang jauh lebih besar daripada postingan berbahasa Ibrani. Ini ditemukan di antara posting yang ditinjau oleh layanan otomatis dan karyawan.
BSR menghubungkan perbedaan dalam pengobatan dengan kurangnya keahlian.
Disimpulkan bahwa Meta kekurangan staf yang memahami budaya, bahasa, dan sejarah lain – meskipun memiliki lebih dari 70.000 karyawan dan cadangan tunai USD 24 miliar.
“Konten yang berpotensi melanggar bahasa Arab mungkin tidak diarahkan ke pengulas konten yang berbicara atau memahami dialek spesifik dari konten tersebut,” ungkap laporan tersebut.
Selama pecahnya kekerasan, pengguna media sosial Palestina dan Arab menghidupkan kembali font Arab lama dalam upaya untuk mengalahkan algoritme Facebook dan menyatakan dukungan mereka untuk Palestina.
‘Bias yang Tidak Disengaja’
Laporan BSR gagal menuduh Meta melakukan bias yang disengaja, sebaliknya menunjuk pada “bias yang tidak disengaja” yang mengarah pada “dampak hak asasi manusia yang berbeda pada pengguna berbahasa Palestina dan Arab”.
Ditemukan bahwa kebijakan Individu dan Organisasi Berbahaya Meta, yang disebut dalam laporan sebagai DOI, yang mencegah penggunanya memuji atau mewakili sejumlah kelompok, berfokus terutama pada entitas Muslim dan karenanya berdampak tidak proporsional terhadap warga Palestina.
“Kebijakan DOI Meta dan daftarnya lebih cenderung berdampak pada pengguna berbahasa Palestina dan Arab, keduanya berdasarkan interpretasi Meta tentang kewajiban hukum, dan karena kesalahan,” ungkapnya.
“Palestina lebih cenderung melanggar kebijakan DOI Meta karena kehadiran Hamas sebagai entitas pemerintahan di Gaza dan kandidat politik yang berafiliasi dengan organisasi yang ditunjuk.”
Studi ini diakhiri dengan 21 rekomendasi yang tidak mengikat, yang mencakup peningkatan kapasitas staf untuk menganalisis pos-pos berbahasa Arab dan mereformasi kebijakan Individu dan Organisasi Berbahaya.
Meta secara samar-samar berkomitmen untuk menerapkan 20 rekomendasi, menurut The Intercept.
Perusahaan tidak segera menanggapi permintaan komentar. Tanggapannya terhadap laporan akan disertakan ketika dokumen diterbitkan secara lengkap.
Dalam catatan kaki untuk tanggapan yang dilihat oleh The Intercept, dikatakan: “Publikasi Meta dari tanggapan ini tidak boleh ditafsirkan sebagai pengakuan, persetujuan dengan, atau penerimaan dari setiap temuan, kesimpulan, pendapat atau sudut pandang yang diidentifikasi oleh BSR, juga tidak boleh pelaksanaan setiap reformasi yang disarankan dianggap sebagai pengakuan kesalahan.”
(Resa/MEE)