NEWS TIMES – Di balik visual penuh warna, kreativitas dan kebebasan berekspresi yang ditawarkan Roblox, tersimpan persoalan besar yang masih jarang dibicarakan secara jujur seperti seberapa aman ruang digital ini bagi anak-anak? Moderasi berbasis Artificial Intelligence (AI) sering kali digadang-gadang sebagai solusi praktis untuk menyaring konten berbahaya.
Namun kenyataannya, kehadiran sistem ini justru mengundang tanda tanya. Mungkinkah AI mampu mengawali interaksi anak dengan baik, atau justru menutupi lalu lintas predator yang semakin bisa menyamar?
Teknologi Moderasi Otomatis Belum Cukup Cerdas Oleh Supangat
Secara sistem, platform seperti Roblox memang telah mengadopsi AI untuk menyaring kata-kata kasar, konten kekerasan, dan perilaku yang melanggar standar komunitas. Tapi kita tak bisa menutup mata, AI masih sangat bergantung pada pola bahasa yang eksplisit. Padahal, tak semua bentuk ancaman muncul dalam kalimat frontal atau baku.
Modusnya seperti grooming, misalnya sering kali dibungkus dengan pendekatan emosional yang lembut, mengajak berteman, memberi perhatian, atau pura-pura menjadi teman sebaya. Interaksi seperti ini tidak akan terbaca sebagai ancaman oleh sistem yang hanya mengandalkan logika blokir kata. Pendekatan emosional yang dimaksudkan untuk membuat calon sasaran merasa nyaman, bahkan membutuhkan ketergantungan dengan pelaku.
Inilah kelemahan moderasi yang terlalu teknis. Ia tidak mengenali konteksnya dan tidak memahami maksudnya. Teknologi bisa menyaring lebih banyak, tapi tentu saja belum bisa menangkap manipulasi halus. Diperlukan sistem yang lebih adaptif dan kontekstual, bukan sekedar reaktif. Bahkan dalam konteks hukum, kemampuan deteksi AI belum sepenuhnya sejalan dengan kebutuhan perlindungan anak yang utuh.
Oleh karena itu, diskusi tentang apa pun teknologi yang dikembangkan, ia tetap membutuhkan dukungan pendekatan manusia, baik melalui sistem desain yang lebih cerdas maupun integrasi dengan pendampingan sosial yang mampu.
Saat Anak Merasa Aman Padahal Tidak Oleh Amanda Pascarini

Dari perspektif psikologi, ada permasalahan yang tak kalah berbahaya, misalnya dengan munculnya rasa aman palsu. Ketika sebuah platform mengklaim aman karena “sudah dimoderasi AI”, anak-anak cenderung menurunkan kewaspadaan. Mereka merasa tidak berada dalam situasi yang perlu sibuk. Dan di situlah risiko terbesar justru bersembunyi. Penurunan kewaspadaan menyebabkan anak cenderung lengah dan mengesampingkan aspek antisipasi.
Salah satu ancaman yang sering luput dari pantauan sistem adalah grooming digital, yakni upaya pelaku untuk mendekati anak secara perlahan, membangun kepercayaan, lalu menyisipkan ajakan atau percakapan yang menjurus pada pemahaman.
Pelaku bisa menyamar sebagai teman sebaya, memberi perhatian berlebihan, hingga membuat korban merasa istimewa dan bergantung secara emosional. Ini bukan bentuk ancaman yang bisa disaring oleh sistem berbasis kata. Yang terjadi di balik layar adalah proses psikologis yang tidak bisa dibaca oleh mesin.
Anak-anak sendiri, terutama di usia pra-remaja, masih membentuk konsep tentang siapa yang bisa dipercaya. Mereka belum mampu membedakan antara perhatian tulus dan manipulasi tersembunyi. Dalam beberapa kasus, mereka bahkan merasa bersalah ketika hubungan itu berubah menjadi ancaman, dan justru enggan bercerita pada orang dewasa.
Kondisi ini semakin pelik, mengingat masa perkembangan anak dan remaja merupakan masa yang penuh pertumbuhan, perubahan dan adaptasi, sehingga secara emosional mereka masih belum matang dan cenderung mudah terpengaruh. Lingkungan dan teladan yang ada disekitar anak atau remaja memiliki peran yang sangat signifikan untuk menentukan perkembangan kepribadian mereka.
Tak hanya grooming, moderasi AI yang tidak kontekstual juga sering gagal mendeteksi cyberbullying terselubung. Sindiran halus, pengucilan di ruang dialog, atau komentar presentasi yang dikemas dalam nada bercanda bisa lolos dari penyaringan otomatis.
Padahal bagi anak-anak, pengalaman ini bisa meninggalkan luka psikologis yang dalam, menurunkan kepercayaan diri, menyebabkan kecemasan sosial, bahkan depresi. Ketika sistem gagal mengenali dinamika emosional, anak dibiarkan menghadapi tekanan tanpa perlindungan yang layak. Dalam jangka panjang berbagai dampak diatas akan mempengaruhi secara langsung perkembangan diri maupun kepribadian anak atau remaja.
Oleh karena itu, pendampingan dari orang tua dan pendidik tetap menjadi garda depan. Literasi digital bukan hanya soal menghindari situs dewasa, tapi juga memahami dinamika hubungan sosial bold. Anak-anak perlu dibekali keterampilan mengenali situasi yang tidak sehat secara emosional dan tidak dapat dibebankan sepenuhnya pada mesin.
Kolaborasi Mesin dan Nurani
Kami tidak sedang menolak kehadiran AI. Justru sebaliknya, kami percaya teknologi bisa menjadi alat bantu luar biasa dalam menciptakan ruang digital yang lebih aman. Tapi sistem secerdas apa pun tidak akan berguna jika digunakan secara tunggal, tanpa sentuhan empati manusia.
Jika hari ini anak-anak diberi keleluasaan menjelajahi dunia maya, maka dunia orang dewasalah yang bertanggung jawab membentengi mereka. Bukan dengan ketakutan, namun dengan sistem yang terintegrasi: antara AI yang semakin cerdas, regulasi yang berpihak pada korban, dan manusia yang hadir secara sadar, baik sebagai pendidik, orang tua, maupun pembuat kebijakan.
Anak-anak akan terus hadir di ruang digital, dengan atau tanpa pengawasan kita. Roblox hanya salah satu contoh. Dunia digital akan terus berkembang, dan anak-anak kita akan terus menjadi bagian darinya. Oleh karena itu, keselamatan mereka bukan sekedar urusan sistem, tapi juga soal siapa yang memilih untuk peduli dan benar-benar hadir.
Tentang Penulis :
Supangat, Ph.D., ITIL., COBIT., CLA., CISA. Dosen Sistem dan Teknologi Informasi (Sistekin), Fakultas Teknik, Universitas 17 Agustus 1945 (Untag) Surabaya.
Amanda Pascarini, M.Si., Psikolog. Dosen Psikologi, Psikologi, Universitas 17 Agustus 1945 (Untag) Surabaya.




