Lifestyle

West Virginia menggugat Apple karena diduga membiarkan pelecehan anak menyebar di iCloud

20
west-virginia-menggugat-apple-karena-diduga-membiarkan-pelecehan-anak-menyebar-di-icloud
West Virginia menggugat Apple karena diduga membiarkan pelecehan anak menyebar di iCloud

Virginia Barat punya mengajukan gugatan terhadap Applemenuduh perusahaan mengizinkan distribusi dan penyimpanan materi pelecehan seksual terhadap anak (CSAM) di iCloud. Di dalam gugatan diajukan pada hari KamisJaksa Agung Virginia Barat JB McCuskey mengklaim bahwa dengan meninggalkan sistem deteksi CSAM dan mendukung enkripsi ujung-ke-ujung, iCloud telah menjadi “jalan aman tanpa gesekan untuk kepemilikan, perlindungan, dan distribusi [of] CSAM,” melanggar undang-undang perlindungan konsumen negara bagian.

Apple pada awalnya menguraikan rencana untuk meluncurkan suatu sistem yang membandingkan foto iCloud dengan daftar gambar CSAM yang diketahui pada tahun 2021. Langkah ini mendapat reaksi keras dari pendukung privasi, dengan beberapa orang mengklaim bahwa perusahaan tersebut meluncurkan sebuah sistem pengawasanmenyebabkan Apple berhenti pengembangan fitur ini hampir satu tahun kemudian. Saat itu, kepala perangkat lunak Apple Craig Federighi diberi tahu Jurnal Wall Street bahwa “pelecehan seksual terhadap anak-anak dapat dicegah sebelum hal itu terjadi… Di sinilah kita mengerahkan energi kita untuk maju.”

Kini, West Virginia menuduh Apple “secara sadar dan sengaja merancang produknya dengan ketidakpedulian yang disengaja terhadap bahaya yang sebenarnya dapat dicegah.” McCuskey yakin negara bagian lain juga dapat mengambil tindakan hukum terhadap Apple, seperti yang dia katakan kepada wartawan selama konferensi pers bahwa menurutnya mereka akan “melihat kepemimpinan yang diambil oleh kantor ini” dan “bergabung dengan kami dalam perjuangan ini.”

Gugatan tersebut mengklaim Apple membuat 267 laporan CSAM ke National Center for Missing & Exploited Children, lebih sedikit dari 1,47 juta laporan yang dibuat oleh Google, dan lebih dari 30,6 juta laporan yang dibuat oleh Meta. Laporan tersebut juga mengutip pesan internal antara para eksekutif Apple, di mana kepala penipuan Apple Eric Friedman diduga menyatakan iCloud adalah “platform terbesar untuk mendistribusikan pornografi anak.”

Banyak platform online, termasuk Google, Reddit, Snap, Meta, dan lainnya, menggunakan alat seperti PhotoDNA milik Microsoft atau API Keamanan Konten Google untuk mendeteksi, menghapus, dan melaporkan CSAM dalam foto dan video yang dikirim melalui sistem mereka. Apple saat ini tidak menawarkan kemampuan ini, namun telah meluncurkan beberapa fitur yang berfokus pada keselamatan anak, termasuk kontrol orang tua mengharuskan anak-anak mendapatkan izin untuk mengirim SMS ke nomor baruserta alat itu secara otomatis mengaburkan gambar telanjang untuk anak di bawah umur di iMessage di aplikasi lain.

“Di Apple, melindungi keselamatan dan privasi pengguna kami, terutama anak-anak, adalah inti dari apa yang kami lakukan,” kata juru bicara Apple Peter Ajemian dalam pernyataan email kepada Tepi. “Kami berinovasi setiap hari untuk memerangi ancaman yang terus berkembang dan mempertahankan platform yang paling aman dan tepercaya untuk anak-anak.”

Namun McCuskey berpendapat bahwa perlindungan Apple tidak cukup untuk melindungi anak-anak. “Apple dengan sengaja merancang serangkaian alat yang secara signifikan mengurangi hambatan dalam memiliki, mengumpulkan, menjaga, dan menyebarkan CSAM, sambil merekayasa perisai enkripsi yang membuat pelaku kejahatan lebih besar kemungkinannya menggunakan Apple untuk melindungi aktivitas terlarang mereka,” klaim gugatan tersebut.

Pembaruan, 19 Februari: Menambahkan pernyataan dari Apple.

Ikuti topik dan penulis dari cerita ini untuk melihat lebih banyak hal serupa di feed beranda hasil personalisasi Anda dan untuk menerima pembaruan email.

Exit mobile version