Ketahui Kategori Konten yang Bisa Membuat Gemini AI Memblokir Prompt
Selasa, 30 September 2025 -
MerahPutih.com - Mungkin kamu pernah mengalami saat sedang mengetik perintah sederhana ke asisten AI, namun tiba-tiba respons yang ditunggu hilang, digantikan dengan pesan 'Prompt diblokir'.
Situasi seperti ini cukup sering dialami pengguna Gemini AI, chatbot cerdas milik Google yang kini menjadi salah satu alat favorit banyak orang untuk membantu berbagai kebutuhan sehari-hari.
Di balik kecanggihannya menghasilkan teks, gambar, hingga analisis, Gemini diatur oleh sederet aturan ketat mengenai kata dan kalimat yang boleh diproses. Langkah ini bukan semata bentuk penyensoran, melainkan bagian dari upaya melindungi pengguna dari potensi bahaya.
Google menegaskan bahwa pembatasan ini dirancang untuk mencegah penyalahgunaan teknologi AI, terlebih di era ketika AI semakin terintegrasi dalam keseharian masyarakat.
Baca juga:
Prompt Gemini AI Foto Keluarga, Ada 50 Rekomendasi Siap Pakai!
Sistem keamanan Gemini mengelompokkan konten yang dibatasi ke dalam empat kategori utama, yang disebut sebagai Harm Category.
Aturannya tidak berupa daftar hitam statis, tetapi bekerja berbasis probabilitas. Artinya, semakin tinggi potensi risiko dari sebuah prompt, semakin besar kemungkinan sistem akan memblokirnya.
Dalam dokumentasi resmi Google AI (Safety Settings), dijelaskan: “The Gemini API blocks content based on the probability of content being unsafe and not the severity.” Dengan kata lain, sistem tidak hanya menilai tingkat bahayanya, tetapi juga kemungkinan sebuah prompt berujung pada hasil yang berisiko.
Baca juga:
50 Prompt Gemini AI Foto Keluarga: Panduan Lengkap dan 30 Contoh Siap Pakai
Kategori Prompt yang dibatasi oleh Gemini AI
- Pelecehan & Ujaran Kebencian: Segala bentuk kata yang merendahkan, mendiskriminasi, atau menyudutkan kelompok tertentu akan otomatis diblokir.
- Materi Seksual Eksplisit: Kalimat vulgar tentang aktivitas seksual, organ tubuh, hingga pornografi dilarang sepenuhnya.
- Kekerasan & Konten Menyeramkan: Deskripsi sadis, instruksi melukai diri, membuat senjata, atau menyiksa hewan akan ditolak.
- Aktivitas Ilegal atau Berbahaya: Prompt yang mengandung kata seperti “hack”, “bypass”, “steal”, atau “scrape” dianggap berisiko tinggi dan biasanya langsung diblokir.
Dengan mekanisme ini, Gemini berusaha menciptakan pengalaman AI yang aman, bertanggung jawab, dan ramah bagi penggunanya. (far)