
Bumble membuka sumber AI-nya yang mendeteksi ketelanjangan yang tidak diminta
Sebagai bagian dari komitmennya yang lebih besar untuk memerangi “cyberflashing”, aplikasi kencan Bumble membuka sumber alat AI-nya yang mendeteksi gambar cabul yang tidak diminta. Pertama kali memulai debutnya pada tahun 2019, Detektor Pribadi (mari luangkan waktu sejenak untuk membiarkan nama itu meresap) mengaburkan gambar telanjang yang dikirim melalui aplikasi Bumble, memberi pengguna pilihan apakah akan membuka gambar tersebut atau tidak.
“Meskipun jumlah pengguna yang mengirim gambar cabul di aplikasi kami untungnya minoritas yang dapat diabaikan — hanya 0,1% — skala kami memungkinkan kami untuk mengumpulkan kumpulan data terbaik di industri dari gambar cabul dan tidak cabul, disesuaikan untuk mencapai kinerja terbaik dalam tugas itu, ”tulis perusahaan itu dalam siaran pers.
Sekarang tersedia di GitHub, versi AI yang disempurnakan tersedia untuk penggunaan komersial, distribusi, dan modifikasi. Meskipun ini bukan teknologi mutakhir untuk mengembangkan model yang mendeteksi gambar telanjang, itu adalah sesuatu yang perusahaan kecil mungkin tidak punya waktu untuk mengembangkannya sendiri. Jadi, aplikasi kencan lain (atau produk apa pun di mana orang mungkin mengirim foto kontol, AKA seluruh internet?) Dapat mengintegrasikan teknologi ini ke dalam produk mereka sendiri, membantu melindungi pengguna dari konten cabul yang tidak diinginkan.
Sejak merilis Detektor Pribadi, Bumble juga bekerja dengan legislator AS untuk menegakkan konsekuensi hukum atas pengiriman foto telanjang yang tidak diminta.
“Ada kebutuhan untuk mengatasi masalah ini di luar ekosistem produk Bumble dan terlibat dalam percakapan yang lebih besar tentang bagaimana mengatasi masalah foto cabul yang tidak diminta — juga dikenal sebagai cyberflashing — untuk membuat internet menjadi tempat yang lebih aman dan ramah bagi semua orang,” tambah Bumble.
Saat Bumble pertama kali memperkenalkan AI ini, perusahaan mengklaim memiliki akurasi 98%.