ChatGPT Tidak Sengaja Membuka Nomor Telepon dan Alamat Email


Sekelompok peneliti mampu memanipulasi ChatGPT. (Unsplash/Mariia Shalabaieva)
SEPERTINYA keamanan dalam siber harus ditingkatkan sangat ketat. Ternyata kecerdasan buatan (AI) semacam ChatGPT tak pernah mampu mengalahkan kecerdasan manusia.
Tengok saja sekelompok peneliti yang berhasil membuat ChatGPT mengungkapkan sejumlah data berdasarkan instruksi sederhana. Seperti meminta chatbot mengulang kata-kata acak terus-menerus.
Respons ChatGPT menyampaikan informasi personal, termasuk alamat email dan nomor telepon. Kemudian cuplikan dari karya penelitian dan artikel berita, serta potongan dari halaman Wikipedia, dan sebagainya.
Baca Juga:

Melansir dari engadget, tim peneliti yang berasal dari Google DeepMind, University of Washington, Cornell, Carnegie Mellon University, University of California Berkeley, dan ETH Zurich, mendesak perusahaan-perusahaan pengembangan kecerdasan buatan untuk melakukan uji coba internal dan eksternal sebelum merilis model bahasa yang besar.
Teknologi ini merupakan pondasi bagi layanan AI modern seperti chatbot dan generator gambar. Para peneliti mengungkapkan bahwa serangan yang mereka lakukan berhasil. Mereka berpendapat seharusnya serangan itu dapat terdeteksi lebih awal. Temuan mereka ini diumumkan dalam makalah yang dipublikasikan pada hari Selasa (28/11) pada 404 Media.
Chatbots seperti ChatGPT dan generator gambar berbasis prompt seperti DALL-E ditenagai oleh model bahasa yang luas, yaitu algoritma pembelajaran mendalam yang telah dilatih dengan jumlah data yang besar. Para kritikus sering kali menyoroti bahwa data tersebut seringkali diambil dari internet publik tanpa izin. Hingga saat ini, tidak ada kejelasan mengenai data spesifik yang digunakan dalam pelatihan chatbot OpenAI. Karena model bahasa besar yang mendukungnya bersifat tertutup dan tidak dapat diakses secara terbuka.
Baca Juga:

Laporan ilmiah itu mengungkapkan ketika peneliti meminta ChatGPT untuk mengulang kata 'puisi' dalam waktu tertentu dalam durasi panjang. Mereka dikejutkan bahwa chatbot awalnya melaksanakan instruksi tersebut dengan benar. Namun kemudian mengungkapkan alamat email dan nomor ponsel dari pendiri dan CEO.
Saat diminta untuk mengulang kata 'perusahaan', chatbot malah memberikan alamat email dan nomor telepon yang terkait dengan sebuah firma hukum di Amerika Serikat. "Secara keseluruhan, 16,9 persen dari hasil generasi yang kami uji mengandung hafalan [informasi pengenal pribadi]," tulis para peneliti.
Para peneliti berhasil membuat ChatGPT mengungkapkan informasi pribadi seperti alamat Bitcoin, nomor faks, tanggal lahir, dan konten eksplisit. Dengan biaya USD200 atau kurang lebih Rp3 juta, mereka menghasilkan 10 ribu contoh data pribadi dan lainnya dari web. Menyoroti potensi serangan lebih lanjut dengan pengeluaran lebih besar. Mereka menyebut serangan ini 'konyol'. (aqb)
Baca Juga:
Bagikan
Berita Terkait
Chip A19 dan A19 Pro Milik iPhone 17 Muncul di Geekbench, Begini Hasil Pengujiannya

Xiaomi 16 Pro Bisa Jadi Ancaman Buat Samsung Galaxy S26 Pro, Apa Alasannya?

OPPO Find X9 dan X9 Pro Bakal Hadir dengan Baterai Jumbo, Meluncur 28 Oktober 2025

Spesifikasi Lengkap iPhone 17: Hadir dengan Layar Lebih Besar dan Kamera Super Canggih

iPhone 17 Air Resmi Rilis dengan Bodi Tertipis, ini Spesifikasi dan Harganya

iPhone 17 Pro dan 17 Pro Max Punya Desain Baru, Pakai Chip A19 Pro dan Kamera 8x Zoom

iPhone 17 Air Masih Kalah dari Samsung Galaxy S26 Edge, Baterainya Jadi Sorotan

Desain OPPO Find X9 Terungkap, Bakal Bawa Bezel Baru dan Paling Tipis di Kelasnya

Xiaomi 15T Series Siap Meluncur secara Global 24 September 2025, Intip Spesifikasinya

Rilis Terbatas Oktober, Samsung Galaxy Z Trifold Jadi Ponsel Lipat Terunik Berkat G Dual-infold
