Jakarta – Facebook melaporkan pada kuartal tiga 2018 telah menghapus 8,7 juta foto sensual anak di bawah umur yang beredar di platform mereka. Perusahaan mengatakan pihaknya menggunakan peranti lunak khusus untuk menandai foto anak-anak di bawah umur yang dinilai terlalu vulgar.
Selain itu, Facebook juga mengungkapkan sistem yang dimiliki perusahaan berhasil mendapati oknum-oknum yang ditengarai menjurus pada aksi eksploitasi anak. Salah satu cara yang ditempuh yakni dengan berteman dengan anak-anak di bawah umur.
Kepala keamanan Facebook Antigobe Davis mengatakan pihaknya menggunakan machine learning untuk memprioritaskan konten yang dianggap bermasalah.
ADVERTISEMENT
SCROLL TO RESUME CONTENT
Davis mengakui bisa saja sistem yang dimiliki perusahaan membuat kesalahan, namun pengguna bisa berperan dengan mengajukan banding jika foto yang dihapus bukan termasuk upaya eksploitasi anak.
“Kami kemungkinan berbuat salah tapi lebih bertujuan untuk berhati-hati dengan foto yang memuat anak-anak di dalamnya,” ungkap Davis seperti dilaporkan Reuters.
Ini merupakan pertama kalinya bagi Facebook menghapus konten foto yang menjurus pada eksploitasi anak. Sebelumnya, perusahaan milik Mark Zuckerberg ini hanya membuat peraturan yang mengimbau penggunanya untuk tidak mengunggah foto keluarga, termasuk foto anak-anak demi menghindari adanya penyalahgunaan.