Microsoft-Adobe Hapus Gambar Telanjang dari Pelatihan AI


Jakarta, CNN Indonesia

Sejumlah perusahaan teknologi seperti Microsoft dan Adobe menyatakan komitmen untuk menghapus gambar telanjang dari sumber data yang mereka gunakan untuk melatih produk AI mereka.

Mereka juga berkomitmen melakukan langkah perlindungan untuk menahan penyebaran pornografi deepfake.

Dalam sebuah kesepakatan yang ditengahi oleh pemerintahan Biden, perusahaan teknologi Adobe, Anthropic, Cohere, Microsoft, dan OpenAI mengatakan bahwa mereka akan secara sukarela berkomitmen untuk menghapus gambar-gambar telanjang dari kumpulan data pelatihan AI, jika diperlukan.


ADVERTISEMENT


SCROLL TO CONTINUE WITH CONTENT

Pengumuman yang disampaikan Gedung Putih tersebut merupakan bagian dari gerakan yang lebih luas untuk melawan pelecehan seksual berbasis gambar terhadap anak-anak serta pembuatan gambar porno deepfake AI orang dewasa.

Kantor Kebijakan Sains dan Teknologi Gedung Putih mengatakan gambar-gambar semacam ini jumlahnya meroket dan menargetkan perempuan, anak-anak, dan orang-orang LGBTQI+. Gambar-gambar ini muncul sebagai salah satu penggunaan AI yang paling berbahaya saat ini.

Dikutip dari AP News, Common Crawl menjadi salah satu yang bergabung dengan sederet perusahaan teknologi dalam komitmen melawan pornografi deepfake.

Common Crawl sendiri merupakan sebuah repositori data yang sering dikunjungi di era AI ini. Pasalnya, data open source di internet merupakan sumber utama untuk melatih chatbot AI dan generator gambar.

Common Crawl berkomitmen untuk bertanggung jawab mengawasi sumber datanya dan melindunginya dari pelecehan seksual berbasis gambar.

Dalam komitmen terpisah pada Kamis (12/9), kelompok perusahaan lain seperti Bumble, Discord, Match Group, Meta, Microsoft, dan TikTok juga mengumumkan serangkaian prinsip sukarela untuk mencegah pelecehan seksual berbasis gambar.

Pengumuman ini terkait dengan peringatan 30 tahun Undang-Undang Kekerasan Terhadap Perempuan.

(lmy/vws)


Sumber Refrensi Berita: CNNINDONESIA