ISLAMTODAY ID-Raksasa media sosial Facebook gagal memantau dengan benar ujaran kebencian di India yang tidak memiliki kemauan dan sumber daya untuk mengatasi kesalahan informasi, menurut dokumen yang bocor.
Facebook di India telah selektif dalam mengekang ujaran kebencian, informasi yang salah dan posting yang menghasut, terutama konten anti-Muslim, menurut dokumen bocor yang diperoleh The Associated Press, bahkan ketika karyawannya sendiri meragukan motivasi dan kepentingan perusahaan.
Dari penelitian baru-baru ini pada bulan Maret tahun ini hingga memo perusahaan yang berasal dari tahun 2019, dokumen internal perusahaan di India menyoroti perjuangan terus-menerus Facebook dalam menghentikan konten kasar di platformnya di negara demokrasi terbesar di dunia dan pasar pertumbuhan terbesar perusahaan.
Ketegangan komunal dan agama di India memiliki sejarah menegang di media sosial dan memicu kekerasan.
File-file tersebut menunjukkan bahwa Facebook telah menyadari masalah ini selama bertahun-tahun, menimbulkan pertanyaan apakah sudah cukup untuk mengatasi masalah ini.
Banyak kritikus dan pakar digital mengatakan itu gagal, terutama dalam kasus di mana anggota Partai Bharatiya Janata (BJP) yang berkuasa, Perdana Menteri Narendra Modi, terlibat.
Di seluruh dunia, Facebook telah menjadi semakin penting dalam politik, dan India tidak berbeda.
Modi telah dikreditkan karena memanfaatkan platform untuk keuntungan partainya selama pemilihan, dan pelaporan dari The Wall Street Journal tahun lalu meragukan apakah Facebook secara selektif menegakkan kebijakannya tentang ujaran kebencian untuk menghindari pukulan balik dari BJP.
Baik Modi dan ketua dan CEO Facebook Mark Zuckerberg telah memancarkan bonhomie, diabadikan oleh gambar 2015 dari keduanya berpelukan di markas besar Facebook.
Dokumen yang bocor termasuk sejumlah laporan internal perusahaan tentang ujaran kebencian dan informasi yang salah di India.
Dalam beberapa kasus, sebagian besar diintensifkan oleh fitur dan algoritme “yang direkomendasikan” sendiri.
Tetapi mereka juga memasukkan kekhawatiran staf perusahaan atas kesalahan penanganan masalah ini dan ketidakpuasan mereka yang diungkapkan tentang “konten buruk” viral di platform.
Menurut dokumen tersebut, Facebook melihat India sebagai salah satu “negara paling berisiko” di dunia dan mengidentifikasi bahasa Hindi dan Bengali sebagai prioritas untuk “otomatisasi pelanggaran ucapan bermusuhan.”
Namun, Facebook tidak memiliki cukup moderator bahasa lokal atau penandaan konten untuk menghentikan informasi yang salah yang terkadang menyebabkan kekerasan di dunia nyata.
Dalam sebuah pernyataan kepada AP, Facebook mengatakan telah “berinvestasi secara signifikan dalam teknologi untuk menemukan ujaran kebencian dalam berbagai bahasa, termasuk bahasa Hindi dan Bengali” yang telah menghasilkan “pengurangan jumlah ujaran kebencian yang dilihat orang hingga setengahnya” pada tahun 2021.
“Ujaran kebencian terhadap kelompok-kelompok yang terpinggirkan, termasuk Muslim, sedang meningkat secara global. Jadi kami meningkatkan penegakan dan berkomitmen untuk memperbarui kebijakan kami saat ujaran kebencian berkembang secara online,” ujar juru bicara perusahaan, seperti dilansir dari TRTWorld, Ahad (24/10).
Kisah AP ini, bersama dengan yang lain yang diterbitkan, didasarkan pada pengungkapan yang dilakukan kepada Komisi Sekuritas dan Bursa dan diberikan kepada Kongres dalam bentuk yang disunting oleh mantan penasihat hukum mantan karyawan Facebook yang menjadi pelapor, Frances Haugen.
Versi yang disunting diperoleh oleh konsorsium organisasi berita, termasuk AP.
Sementara itu, pada Februari tahun 2019 dan menjelang pemilihan umum ketika kekhawatiran informasi yang salah semakin tinggi, seorang karyawan Facebook ingin memahami apa yang dilihat pengguna baru di negara itu di umpan berita mereka jika yang mereka lakukan hanyalah mengikuti halaman dan grup yang semata-mata direkomendasikan oleh platform tersebut.
Karyawan tersebut membuat akun pengguna uji dan menyimpannya selama tiga minggu, periode di mana peristiwa luar biasa mengguncang India — serangan militan di Kashmir yang disengketakan telah menewaskan lebih dari 40 tentara India, membawa negara itu ke perang yang dekat dengan saingannya, Pakistan.
Dalam catatan, berjudul “An Indian Test User’s Descent into a Sea of Polarizing, Nationalistic Messages,” karyawan yang namanya disunting mengatakan bahwa mereka “terkejut” oleh konten yang membanjiri umpan berita yang “telah menjadi rentetan konstan polarisasi konten nasionalis, informasi yang salah, dan kekerasan dan darah kental.”
Grup yang tampaknya jinak dan tidak berbahaya yang direkomendasikan oleh Facebook dengan cepat berubah menjadi sesuatu yang lain sama sekali, di mana ujaran kebencian, desas-desus yang tidak diverifikasi, dan konten viral merajalela.
Kelompok yang direkomendasikan dibanjiri dengan berita palsu, retorika anti-Pakistan, dan konten Islamofobia. Sebagian besar isinya sangat grafis.
Salah satunya termasuk seorang pria yang memegang kepala pria lain yang berlumuran darah yang ditutupi bendera Pakistan, dengan bendera India di tempat kepalanya.
Fitur “Popular Across Facebook” menunjukkan banyak konten yang belum diverifikasi terkait dengan serangan balasan India ke Pakistan setelah pengeboman, termasuk gambar bom napalm dari klip video game yang dibantah oleh salah satu mitra pemeriksa fakta Facebook.
“Mengikuti Umpan Berita pengguna uji ini, saya telah melihat lebih banyak gambar orang mati dalam tiga minggu terakhir daripada yang saya lihat sepanjang hidup saya,” tulis peneliti.
Ini memicu kekhawatiran mendalam tentang apa yang dapat menyebabkan konten yang memecah belah seperti itu di dunia nyata, di mana berita lokal pada saat itu melaporkan tentang warga Kashmir yang diserang dalam kejatuhan tersebut.
“Haruskah kita sebagai perusahaan memiliki tanggung jawab ekstra untuk mencegah kerusakan integritas yang diakibatkan oleh konten yang direkomendasikan?” peneliti bertanya dalam kesimpulan mereka.
Memo itu, yang diedarkan bersama karyawan lain, tidak menjawab pertanyaan itu.
Tapi itu memang mengekspos bagaimana algoritme platform itu sendiri atau pengaturan default berperan dalam memacu konten yang tidak diinginkan tersebut.
Karyawan tersebut mencatat bahwa ada “titik buta” yang jelas, terutama dalam “konten bahasa lokal.”
Mereka mengatakan mereka berharap temuan ini akan memulai percakapan tentang bagaimana menghindari “kerusakan integritas,” seperti itu, terutama bagi mereka yang “berbeda secara signifikan” dari pengguna AS pada umumnya.
Meskipun penelitian dilakukan selama tiga minggu yang bukan merupakan representasi rata-rata, mereka mengakui bahwa itu menunjukkan bagaimana konten yang “tidak dimoderasi” dan bermasalah “dapat sepenuhnya mengambil alih” selama “peristiwa krisis besar.”
Juru bicara Facebook mengatakan studi uji “mengilhami analisis yang lebih dalam dan lebih ketat” dari sistem rekomendasinya dan “berkontribusi pada perubahan produk untuk meningkatkannya.”
“Secara terpisah, pekerjaan kami untuk mengekang ujaran kebencian terus berlanjut dan kami semakin memperkuat pengklasifikasi kebencian kami, untuk memasukkan empat bahasa India,” ujar juru bicara itu.
(Resa/AP/The Wall Street Journal/TRTWorld)