Apple Kian Gencar Perangi Pelecehan Anak
Apple kian gencar perangi pelecehan anak. (Foto: pixabay/pexels)
RAKSASA teknologi asal Amerika Serikat, Apple, belum lama ini telah mengonfirmasi rencananya perihal memerangi pelecehan anak. Caranya melalui pemanfaatan teknologi baru di iOS, macOS, iMessage, dan watchOS.
Tujuan dari teknologi tersebut yakni untuk menghambat penyebaran gambar pelecehan anak, yakni dengan memindai semua foto yang akan disimpan ke iCloud.
Baca Juga:
Larang WFH, Apple Terancam Kehilangan Karyawan
Pemindaian itu dilakukan pada perangkat pengguna, tapi Apple menjanjikan bahwa akan tetap melindungi privasi pengguna.
Pemindaian tersebut didasarkan pada kriptografi khusus untuk mendeteksi tanda-tanda pelecehan anak yang ada pada foto. Nantinya, pemindaian tersebut baru akan terjadi ketika foto itu akan diunggah ke iCloud.
Kemudian, bila foto yang dipindah itu terdeteksi sebagai pelecehan anak dari data kriptografi yang ada, maka foto tersebut akan dilaporkan ke Apple bila memenuhi syarat Child Sexual Abuse Material (CSAM).
Apple sudah bertahun-tahun menggunakan sistem hash untuk memindai foto pelecehan anak yang dikirim lewat email. Sama halnya dengan sistem yang digunakan oleh Gmail serta sejumlah penyedia layanan email lainnya.
Tapi, dengan adanya teknologi kriptografi baru ini, Apple dapat memindai serta mencari foto pelecehan anak sebelum foto itu dikirimkan ke pengguna lainnya. Bahkan bila foto tersebut tidak dikirim ke pengguna lain.
Seperti yang dilansir laman The Verge, Apple menegaskan bahwa mereka tidak akan menerima foto apapun yang tidak sesuai dengan database CSAM. Apple pun tidak akan menerima metadata maupun data visual lain dari foto yang tak memenuhi syarat.
Baca Juga:
Apple Watch Selamatkan Seseorang dari Serangan Jantung
Nantinya pengguna tidak akan bisa mengakses dan melihat database foto-foto CSAM. Tak hanya itu, pengguna pun tak dapat mengetahui foto mana yang ditandai sebagai CSAM oleh sistem.
Pada sistem yang digunakan oleh Apple itu, dilengkapi dengan beberapa perlindungan. Secara teori, sistem tersebut tingkat kesalahannya hanya satu peringatan salah dari satu triliun pengguna setiap tahunnya.
Kemudian, setiap peringatan yang muncul dari foto yang disinyalir masuk kategori CSAM, maka akan ditinjau ulang oleh Apple dan National Center for Missing and Exploited Children (NCMEC) sebelum foto itu dikirim pada penegak hukum.
Rencananya sistem keamanan tersebut akan diterapkan Apple pada sejumlah platform sistem operasinya di Amerika Serikat dalam waktu dekat. (ryn)
Baca Juga:
Layar iPhone 11 yang tidak Responsif, Apple akan Ganti secara Gratis
Bagikan
Berita Terkait
Sony A7 V Meluncur dengan Sensor 33 MP dan AI Canggih, Intip Keunggulannya
Xiaomi 17 Ultra Bisa Rilis Lebih Cepat, Sudah Bisa Pre-order dari 15 Desember
Spesifikasi Lengkap OPPO Reno 15c Bocor, Dijadwalkan Rilis 19 Desember 2025
Sudah Raih Sertifikasi, Xiaomi 17 Siap Debut Global dengan Snapdragon 8 Elite Gen 5
iPhone 18 Bakal Uji Coba Face ID di Bawah Layar, Apple Siap Masuki Era Baru
Samsung Galaxy Z TriFold Sudah Mengaspal di China, Harganya Mulai dari Rp 47,1 Juta
Realme 16 Pro Segera Meluncur, Bawa Lensa Telefoto dan Baterai 7.000mAh
Xiaomi 17 Ultra Paling Cepat Bisa Dipesan Mulai Desember, tak Perlu Menunggu hingga 2026!
Render Samsung Galaxy S26 Series Bocor, Desain Barunya Jadi Sorotan!
Xiaomi 17 Ultra Leica Leitzphone Edition Muncul di GSMA, Ditunggu-tunggu Pencinta Fotografi!