Home Teknologi Meta dilaporkan berencana untuk mengganti pengulas manusia dengan AI untuk penilaian risiko

Meta dilaporkan berencana untuk mengganti pengulas manusia dengan AI untuk penilaian risiko

10
0

Meta dilaporkan berencana untuk mengalihkan sebagian besar penilaian risiko untuk produk dan fiturnya ke kecerdasan buatan (AI). Sesuai laporan, raksasa media sosial yang berbasis di Menlo Park sedang mempertimbangkan untuk membiarkan AI menangani persetujuan fitur dan pembaruan produknya, yang sejauh ini secara eksklusif ditangani oleh evaluator manusia. Perubahan ini dilaporkan akan memengaruhi penambahan algoritme baru, fitur keamanan baru, dan bagaimana konten dibagikan di berbagai platform media sosial. Keputusan tersebut dilaporkan akan meningkatkan kecepatan peluncuran fitur, pembaruan, dan produk baru.

Menurut laporan NPR, Meta berencana untuk mengotomatiskan hingga 90 persen dari semua penilaian risiko internal. Publikasi tersebut mengklaim telah memperoleh dokumen perusahaan yang merinci kemungkinan pergeseran strategi.

Sejauh ini, setiap fitur atau pembaruan baru untuk Instagram, WhatsApp, Facebook, atau Threads harus melalui sekelompok ahli manusia yang meninjau implikasi dari bagaimana perubahan tersebut akan berdampak pada pengguna, apakah itu akan melanggar privasi mereka, atau membahayakan anak di bawah umur. Evaluasi, yang dilaporkan dikenal sebagai tinjauan privasi dan integritas, juga menilai apakah suatu fitur dapat menyebabkan peningkatan informasi yang salah atau konten beracun.

Dengan AI menangani penilaian risiko, tim produk dilaporkan akan menerima “keputusan instan” setelah mereka mengisi kuesioner tentang fitur baru tersebut. Sistem AI dikatakan menyetujui fitur tersebut atau memberikan daftar persyaratan yang perlu dipenuhi sebelum proyek dapat dilanjutkan. Tim produk kemudian harus memverifikasi bahwa mereka telah memenuhi persyaratan tersebut sebelum meluncurkan fitur tersebut, laporan tersebut mengklaim.

Sesuai laporan, perusahaan percaya bahwa mengalihkan proses peninjauan ke AI akan secara signifikan meningkatkan kecepatan rilis untuk fitur dan pembaruan aplikasi dan memungkinkan tim produk bekerja lebih cepat. Namun, beberapa karyawan Meta saat ini dan mantan dilaporkan khawatir tentang apakah manfaat ini akan mengorbankan pengawasan yang ketat.

Dalam sebuah pernyataan kepada publikasi tersebut, Meta mengatakan bahwa pengulas manusia masih digunakan untuk “masalah baru dan kompleks” dan AI hanya diizinkan untuk menangani keputusan berisiko rendah. Namun, berdasarkan dokumen tersebut, laporan tersebut mengklaim bahwa transisi yang direncanakan Meta termasuk membiarkan AI menangani area yang berpotensi kritis seperti keamanan AI, risiko remaja, dan integritas – area yang dikatakan menangani item seperti konten kekerasan dan “penyebaran kepalsuan.”

Seorang karyawan Meta yang tidak disebutkan namanya yang akrab dengan penilaian risiko produk mengatakan kepada NPR bahwa proses otomatisasi dimulai pada bulan April dan berlanjut sepanjang Mei. “Saya pikir itu cukup tidak bertanggung jawab mengingat niat mengapa kami ada. Kami memberikan perspektif manusia tentang bagaimana hal-hal bisa salah,” kata karyawan itu seperti dikutip.

Khususnya, awal pekan ini, Meta merilis Laporan Integritasnya untuk kuartal pertama tahun 2025. Dalam laporan tersebut, perusahaan menyatakan, “Kami mulai melihat LLM beroperasi di luar kinerja manusia untuk area kebijakan tertentu.”

Raksasa media sosial itu menambahkan bahwa mereka telah mulai menggunakan model AI untuk menghapus konten dari antrean ulasan dalam skenario di mana ia “sangat yakin” bahwa konten tersebut tidak melanggar kebijakannya. Membenarkan langkah tersebut, Meta menambahkan, “Ini membebaskan kapasitas bagi peninjau kami yang memungkinkan mereka memprioritaskan keahlian mereka pada konten yang lebih mungkin melanggar.”

Sumber