Apple Kian Gencar Perangi Pelecehan Anak

Sabtu, 07 Agustus 2021 - Raden Yusuf Nayamenggala

RAKSASA teknologi asal Amerika Serikat, Apple, belum lama ini telah mengonfirmasi rencananya perihal memerangi pelecehan anak. Caranya melalui pemanfaatan teknologi baru di iOS, macOS, iMessage, dan watchOS.

Tujuan dari teknologi tersebut yakni untuk menghambat penyebaran gambar pelecehan anak, yakni dengan memindai semua foto yang akan disimpan ke iCloud.

Baca Juga:

Larang WFH, Apple Terancam Kehilangan Karyawan

Privasi pengguna akan tetap terjaga meski adanya pemindaian pada perangkat pengguna. (Foto: pixabay/3005398)

Pemindaian itu dilakukan pada perangkat pengguna, tapi Apple menjanjikan bahwa akan tetap melindungi privasi pengguna.

Pemindaian tersebut didasarkan pada kriptografi khusus untuk mendeteksi tanda-tanda pelecehan anak yang ada pada foto. Nantinya, pemindaian tersebut baru akan terjadi ketika foto itu akan diunggah ke iCloud.

Kemudian, bila foto yang dipindah itu terdeteksi sebagai pelecehan anak dari data kriptografi yang ada, maka foto tersebut akan dilaporkan ke Apple bila memenuhi syarat Child Sexual Abuse Material (CSAM).

Apple sudah bertahun-tahun menggunakan sistem hash untuk memindai foto pelecehan anak yang dikirim lewat email. Sama halnya dengan sistem yang digunakan oleh Gmail serta sejumlah penyedia layanan email lainnya.

Tapi, dengan adanya teknologi kriptografi baru ini, Apple dapat memindai serta mencari foto pelecehan anak sebelum foto itu dikirimkan ke pengguna lainnya. Bahkan bila foto tersebut tidak dikirim ke pengguna lain.

Seperti yang dilansir laman The Verge, Apple menegaskan bahwa mereka tidak akan menerima foto apapun yang tidak sesuai dengan database CSAM. Apple pun tidak akan menerima metadata maupun data visual lain dari foto yang tak memenuhi syarat.

Baca Juga:

Apple Watch Selamatkan Seseorang dari Serangan Jantung

Sistem keamanan baru Apple akan diterapkan dalam waktu dekat. (Foto: ubergizmo)

Nantinya pengguna tidak akan bisa mengakses dan melihat database foto-foto CSAM. Tak hanya itu, pengguna pun tak dapat mengetahui foto mana yang ditandai sebagai CSAM oleh sistem.

Pada sistem yang digunakan oleh Apple itu, dilengkapi dengan beberapa perlindungan. Secara teori, sistem tersebut tingkat kesalahannya hanya satu peringatan salah dari satu triliun pengguna setiap tahunnya.

Kemudian, setiap peringatan yang muncul dari foto yang disinyalir masuk kategori CSAM, maka akan ditinjau ulang oleh Apple dan National Center for Missing and Exploited Children (NCMEC) sebelum foto itu dikirim pada penegak hukum.

Rencananya sistem keamanan tersebut akan diterapkan Apple pada sejumlah platform sistem operasinya di Amerika Serikat dalam waktu dekat. (ryn)

Baca Juga:

Layar iPhone 11 yang tidak Responsif, Apple akan Ganti secara Gratis

Bagikan

Baca Original Artikel
Bagikan