Sebuah platform chatbot berbasis kecerdasan buatan yang menawarkan layanan konten erotis dilaporkan mengalami kebocoran data dalam skala besar. Sekitar dua juta foto, termasuk hasil manipulasi wajah atau deepfake perempuan yang tidak mengetahui fotonya digunakan, ditemukan tersebar dan dapat diakses publik.
Insiden tersebut terungkap setelah seorang peneliti keamanan menemukan bahwa server milik platform tersebut tidak dilindungi dengan baik, sehingga seluruh arsip gambar dapat diunduh tanpa hambatan. Foto-foto tersebut mencakup gambar asli yang diunggah pengguna, serta hasil rekayasa AI berupa konten seksual dengan wajah individu nyata.
Menurut temuan awal, banyak foto sumber berasal dari media sosial, selfie harian, foto wisuda, hingga potret biasa yang kemudian diproses menjadi materi seksual menggunakan teknologi face-swap. Peneliti menyebut bahwa sejumlah data bahkan menyertakan nama, label file, dan metadata lain yang berpotensi mengungkap identitas korban.
Laporan menunjukkan sebagian besar perempuan yang wajahnya muncul dalam konten deepfake tersebut tidak pernah memberi izin fotonya digunakan. Banyak di antaranya bukan figur publik, melainkan orang biasa yang fotonya mudah ditemukan di internet.
Pakar keamanan digital menilai kebocoran ini sebagai bentuk pelanggaran privasi yang serius. Selain risiko penyebaran gambar seksual tanpa konsen, korban juga menghadapi ancaman pencemaran nama baik, pelecehan, dan kerugian psikologis.
Dalam beberapa tahun terakhir, teknologi deepfake berkembang pesat dan semakin mudah digunakan. Hanya dengan foto wajah biasa, sistem AI dapat menghasilkan gambar erotis yang tampak realistis. Para ahli menyebut bahwa tren ini membuat siapa pun berpotensi menjadi target, terutama perempuan.
Kemudahan teknologi tersebut disertai kurangnya pengawasan membuat kasus konten seksual non-konsensual meningkat tajam. Kebocoran terbaru ini disebut sebagai salah satu insiden terbesar yang pernah terjadi dalam kategori konten intim non-konsensual berbasis AI.
Insiden ini memicu seruan agar pemerintah dan platform digital memperketat regulasi terkait penggunaan AI, terutama pada pembuatan konten sensitif. Para pengamat menilai perusahaan yang mengelola layanan berbasis AI harus menerapkan standar keamanan data yang lebih kuat, termasuk enkripsi dan pembatasan akses internal.
Sementara itu, organisasi perlindungan privasi mendesak adanya aturan yang lebih ketat terhadap produksi dan distribusi konten seksual manipulatif, serta memberikan jalur hukum yang lebih jelas bagi korban.
Pakar keamanan mengimbau masyarakat berhati-hati dalam membagikan foto pribadi di internet. Meski tidak ada yang mengunggahnya ke platform berisiko, gambar yang beredar di media sosial tetap dapat diambil oleh pihak ketiga tanpa sepengetahuan pemiliknya.
Hingga kini, pihak platform belum memberikan pernyataan resmi mengenai penyebab kebocoran maupun langkah penanganan yang dilakukan. Namun para peneliti memperingatkan bahwa data yang terlanjur bocor berpotensi terus beredar dan sulit sepenuhnya dihapus dari internet.