Audit BSR mengungkapkan warga Palestina terluka di Facebook dalam perang Israel Gaza

Sebuah tinjauan independen tentang penanganan Meta atas konten online selama perang dua minggu tahun lalu antara Israel dan gerakan Palestina Hamas menemukan bahwa raksasa media sosial itu melucuti kebebasan berekspresi pengguna Palestina. Dengan tidak sengaja menghapus konten mereka dan konten Arab. Mereka dihukum lebih keras daripada penutur bahasa Ibrani.

Laporan tersebut, oleh konsultan Bisnis untuk Tanggung Jawab Sosial, merupakan dakwaan lain atas kemampuan perusahaan untuk memantau ruang publik globalnya dan menyeimbangkan kebebasan berekspresi dengan potensi bahaya dalam konteks internasional yang tegang. Ini juga merupakan salah satu akun internal paling awal tentang kegagalan platform sosial di masa perang. Ini muncul di atas keluhan aktivis Palestina bahwa sensor internet telah sangat mempengaruhi mereka, Washington Post dan media lainnya melaporkan pada saat itu.

“Laporan BSR Mengonfirmasi Sensor Dilanggar oleh Meta #Palestina Hamla, Pusat Arab untuk Promosi Media Sosial, sebuah kelompok yang mengkampanyekan hak digital Palestina, mengatakan hak atas kebebasan berekspresi bersama dengan hak asasi manusia lainnya melalui peningkatan penggunaan konten Arab dibandingkan dengan konten Ibrani, telah sangat dirusak. Pernyataan di Twitter.

Perang Mei 2021 awalnya dipicu oleh perselisihan mengenai kasus yang akan datang di hadapan Mahkamah Agung Israel mengenai apakah pemukim memiliki hak untuk mengusir keluarga Palestina dari rumah mereka di lingkungan Yerusalem yang disengketakan. Selama protes kekerasan terhadap persidangan, polisi Israel menyerbu Masjid Al-Aqsa, salah satu situs paling suci umat Islam. Hamas, yang menguasai Jalur Gaza, menanggapi dengan menembakkan roket ke Israel, dan Israel menanggapi dengan kampanye pengeboman selama 11 hari yang menewaskan lebih dari 200 warga Palestina. Lebih dari selusin orang tewas di Israel sebelum kedua pihak mengumumkan gencatan senjata.

Selama perang, Facebook dan platform sosial lainnya dipuji karena peran penting mereka dalam berbagi cerita langsung dan di lapangan tentang konflik yang berkembang pesat. Warga Palestina memposting foto-foto rumah yang tertutup puing-puing dan peti mati anak-anak selama pengepungan, memicu kemarahan global untuk mengakhiri konflik.

Tetapi masalah dengan modifikasi konten juga muncul segera. Saat protes dimulai, Instagram yang dimiliki Meta bersama WhatsApp dan Facebook mulai membatasi konten menggunakan tagar #Aqsha. pekerjaan pertama Dituduh Masalahnya adalah dengan kesalahan menyebarkan program secara otomatis. Setelah The Post menerbitkan artikel yang menyoroti masalah ini, juru bicara Meta menambahkan bahwa “kesalahan manusia” menyebabkan masalah, tetapi tidak memberikan informasi lebih lanjut.

Laporan BSR menyoroti insiden tersebut. Menurut laporan itu, tagar #Aqsa secara keliru ditambahkan ke daftar istilah terkait terorisme oleh seorang karyawan perusahaan pihak ketiga yang memoderasi konten perusahaan. Menurut laporan itu, karyawan tersebut secara tidak benar menarik diri “dari daftar terbaru kondisi Departemen Keuangan AS yang mencakup Brigade Al Aqsa, yang mengakibatkan #Al Aqsa disembunyikan dari hasil pencarian.” Brigade Al-Aqsa adalah kelompok teroris terkenal (BuzzFeed News telah melaporkan diskusi internal tentang deskripsi terorisme yang salah pada saat itu).

Ketika kekerasan menyebar di Israel dan Gaza di media sosial, para aktivis khawatir tentang campur tangan perusahaan teknologi

Laporan tersebut, yang hanya melihat pada saat perang 2021 dan segera setelahnya, mengkonfirmasi laporan selama bertahun-tahun oleh jurnalis dan aktivis Palestina bahwa Facebook dan Instagram tampaknya menyensor posting mereka lebih banyak daripada juru bicara Palestina. Ibrani. Misalnya, BSR menemukan bahwa setelah memperhitungkan perbedaan demografis antara penutur bahasa Ibrani dan Arab di Israel dan Wilayah Palestina, Facebook menghapus lebih banyak posting dari orang Palestina daripada orang Israel atau menambahkan serangan. Data internal yang ditinjau oleh BSR juga menunjukkan bahwa program lebih cenderung melaporkan konten yang melanggar dalam bahasa Arab daripada konten dalam bahasa Ibrani.

Laporan tersebut mencatat bahwa ini kemungkinan karena sistem ujaran kebencian berbasis AI Meta, yang menggunakan daftar istilah yang terkait dengan organisasi teroris asing, banyak di antaranya adalah kelompok dari wilayah tersebut. Oleh karena itu, konten yang diposting seseorang dalam bahasa Arab kemungkinan besar terkait dengan kelompok teroris.

Selain itu, laporan tersebut menyatakan bahwa Meta telah mengembangkan program deteksi ini untuk secara proaktif mengidentifikasi ujaran kebencian dan bahasa permusuhan dalam bahasa Arab, tetapi tidak melakukan hal yang sama untuk bahasa Ibrani.

Laporan tersebut juga menemukan bahwa karena tidak ada moderator untuk konten berbahasa Arab dan Ibrani, perusahaan mengirimkan konten yang berpotensi berbahaya kepada pengulas yang tidak berbicara atau memahami bahasa tersebut, terutama dialek Arab. . Hal ini menyebabkan lebih banyak kesalahan.

Laporan tersebut, yang ditugaskan oleh Facebook atas rekomendasi dewan pengawas independennya, membuat 21 rekomendasi untuk perusahaan. Ini termasuk mengubah kebijakannya dalam mengidentifikasi organisasi dan individu yang berbahaya, memberikan transparansi yang lebih besar kepada pengguna saat memberikan sanksi pada postingan, mengalokasikan kembali sumber daya untuk memodifikasi konten Ibrani dan Arab berdasarkan “formasi pasar”, dan mengalihkan potensi pelanggaran konten Arab ke penutur yang menggunakan bahasa Arab yang sama. bahasa. Dialek seperti saat memposting di media sosial.

dalam sebuah jawaban. Miranda Seasons, direktur hak asasi manusia Meta, mengatakan perusahaan sepenuhnya menerapkan sepuluh rekomendasi dan sebagian menerapkan empat. Perusahaan “mengevaluasi kelayakan” dari enam lainnya dan “tidak mengambil tindakan lebih lanjut” pada satu.

“Banyak dari rekomendasi ini tidak memiliki perbaikan cepat dalam semalam, seperti yang ditunjukkan PSR,” kata Seasons. “Meskipun kami telah membuat perubahan signifikan sebagai hasil dari latihan ini, proses ini akan memakan waktu – termasuk waktu untuk memahami cara terbaik untuk mendekati beberapa rekomendasi ini dan apakah secara teknis layak.”

Bagaimana Facebook mengabaikan seluruh dunia dan memicu ujaran kebencian dan kekerasan di India

Dalam pernyataannya, Pusat Arab untuk Kemajuan Media Sosial (Helma) mengatakan bahwa laporan tersebut menggambarkan bias Meta yang tidak disengaja sebagai tidak disengaja.

Kami percaya bahwa penyensoran telah berlangsung selama bertahun-tahun [Palestinian] Suara mengkonfirmasi, terlepas dari laporan dan argumen kami tentang bias ini, bahwa ini adalah penyensoran yang disengaja kecuali Meta berkomitmen untuk mengakhirinya.”

Baca Juga!

Para ilmuwan mengatakan bahwa jika kita mengubah sistem pangan global, kita dapat memberi makan satu miliar orang lagi

Program Pangan Dunia Perserikatan Bangsa-Bangsa melaporkan tahun ini bahwa 345 juta orang di seluruh dunia …