Meskipun Facebook dapat membatasi konten yang tidak dapat dipercaya, penelitian baru menunjukkan bahwa Facebook sering kali memilih untuk tidak membatasi konten tersebut
Sebuah tim peneliti interdisipliner yang dipimpin oleh University of Massachusetts Amherst baru-baru ini menerbitkan karyanya di jurnal bergengsi tersebut Sains mempertanyakan kesimpulan dari penelitian yang dilaporkan secara luas — diterbitkan di Sains pada tahun 2023 dan didanai oleh Meta — menemukan bahwa algoritme platform sosial tersebut berhasil menyaring berita-berita yang tidak dapat dipercaya seputar pemilu tahun 2020 dan bukan merupakan pendorong utama misinformasi.
Hasil kerja tim yang dipimpin UMass Amherst menunjukkan bahwa penelitian yang didanai Meta dilakukan dalam waktu singkat ketika Meta untuk sementara memperkenalkan algoritme berita baru yang lebih ketat daripada algoritme standarnya, dan bahwa peneliti sebelumnya tidak memperhitungkan perubahan algoritme tersebut. Hal ini turut menciptakan kesalahan persepsi, yang diberitakan secara luas oleh media, bahwa feed berita Facebook dan Instagram sebagian besar merupakan sumber berita terpercaya.
“Hal pertama yang menjadi peringatan bagi kami” kata penulis utama Chhandak Bagchi, seorang mahasiswa pascasarjana di Manning College of Information and Computer Science di UMass Amherst, “adalah ketika kami menyadari bahwa para peneliti sebelumnya,” Guess dkk., “ melakukan eksperimen kontrol acak pada saat yang sama ketika Facebook membuat perubahan sistemik dan jangka pendek pada algoritma berita mereka.”
Dimulai sekitar awal November 2020, Meta memperkenalkan 63 perubahan “pecahan kaca” pada umpan berita Facebook yang secara jelas dirancang untuk mengurangi visibilitas berita yang tidak dapat dipercaya seputar pemilihan presiden AS tahun 2020. Perubahan ini berhasil. “Kami memuji Facebook karena menerapkan algoritme umpan berita yang lebih ketat,” kata Przemek Grabowicz, penulis senior makalah tersebut, yang baru-baru ini bergabung dengan University College Dublin tetapi melakukan penelitian ini di Manning College of Information and Computer Science di UMass Amherst. Chhandak, Grabowicz, dan rekan penulisnya menunjukkan bahwa algoritme yang lebih baru mengurangi pandangan pengguna terhadap misinformasi setidaknya sebesar 24%. Namun, perubahan tersebut hanya bersifat sementara, dan algoritme berita kembali ke praktik sebelumnya, yakni mempromosikan lebih banyak berita tidak tepercaya pada Maret 2021.
Penelitian Guess et al. berlangsung dari 24 September hingga 23 Desember, dan secara substansial tumpang tindih dengan jangka waktu pendek ketika berita Facebook ditentukan oleh algoritma yang lebih ketat — namun penelitian Guess et al. Paper tersebut tidak menjelaskan bahwa data mereka menangkap momen yang luar biasa untuk platform media sosial. “Makalah mereka memberikan kesan bahwa algoritma standar Facebook bagus dalam menghentikan misinformasi,” kata Grabowicz, “hal ini patut dipertanyakan.”
Salah satu masalahnya, seperti yang ditulis oleh Chhandak, Grabowicz, dan rekan penulisnya, adalah bahwa eksperimen, seperti yang dilakukan oleh Guess dkk., harus “didaftarkan sebelumnya” — yang berarti bahwa Meta bisa saja mengetahuinya jauh sebelumnya. apa yang peneliti cari. Namun, media sosial tidak diharuskan untuk membuat pemberitahuan publik tentang perubahan signifikan pada algoritme mereka. “Hal ini dapat mengarah pada situasi di mana perusahaan media sosial dapat mengubah algoritma mereka untuk meningkatkan citra publik mereka jika mereka tahu bahwa mereka sedang dipelajari,” tulis para penulis, termasuk Jennifer Lundquist (profesor sosiologi di UMass Amherst), Monideepa Tarafdar (Charles J. Dockendorff Menganugerahkan Profesor di Sekolah Manajemen Isenberg UMass Amherst), Anthony Paik (profesor sosiologi di UMass Amherst) dan Filippo Menczer (Profesor Informatika dan Ilmu Komputer Luddy di Universitas Indiana).
Meskipun Meta mendanai dan menyuplai 12 rekan penulis untuk penelitian Guess et al., mereka menulis bahwa “Meta tidak memiliki hak untuk mendapatkan persetujuan prapublikasi.”
“Hasil kami menunjukkan bahwa perusahaan media sosial dapat memitigasi penyebaran informasi yang salah dengan memodifikasi algoritme mereka, namun mungkin tidak memiliki insentif finansial untuk melakukannya,” kata Paik. “Pertanyaan kuncinya adalah apakah dampak buruk dari misinformasi – terhadap individu, masyarakat, dan demokrasi – harus menjadi hal yang lebih penting dalam pengambilan keputusan bisnis mereka.”
Mendaftarlah untuk mendapatkan buletin insideAI News gratis.
Bergabunglah dengan kami di Twitter: https://twitter.com/InsideBigData1
Bergabunglah dengan kami di LinkedIn: https://www.linkedin.com/company/insideainews/
Bergabunglah dengan kami di Facebook: https://www.facebook.com/insideAINEWSNOW