Remaja Lebih Memilih Curhat ke AI daripada Konselor — Haruskah Sekolah Menerima atau Melawan?

Notifikasi yang Mengubah Segalanya
Notifikasi itu masuk sekitar jam 7 malam pada hari Selasa. Bukan notifikasi biasa yang bisa diabaikan — bukan promo diskon atau pengingat minum air. Notifikasi ini mengatakan seorang siswa mungkin dalam bahaya.
Seorang konselor SMP di Florida bernama Brittani Phillips memeriksa ponselnya dan melihat apa yang ia sebut sebagai alert “parah”. Seorang siswa kelas 8 telah mengetikkan sesuatu ke platform terapi berbasis AI yang memicu sistem deteksi krisisnya. Phillips menghabiskan malamnya di telepon dengan ibu sang siswa, dan akhirnya menelepon polisi.
Siswa itu sekarang sudah kelas 9. Hidup dan sehat. Dia menyapa Phillips setiap bertemu di lorong sekolah.
Dan saya terus memikirkan fakta bahwa sebuah chatbot — bukan guru, bukan teman, bukan orang tua — yang pertama kali tahu ada sesuatu yang salah.
Angka-Angka yang Seharusnya Membuat Kita Tidak Nyaman
Begini faktanya tentang konseling sekolah yang jarang dibicarakan: rata-rata satu konselor sekolah bertanggung jawab atas 385 siswa. Asosiasi Konselor Sekolah Amerika merekomendasikan rasio 250:1. Beberapa daerah jauh lebih buruk — di Arizona, mendekati 716:1.
Di Indonesia sendiri, situasinya tidak jauh berbeda. Guru BK sering kali menangani ratusan siswa sekaligus, dengan beban administratif yang membuat waktu konseling individual menjadi sangat terbatas.
Sekarang tambahkan fakta ini: menurut survei nasional terbaru di AS, 20 persen siswa SMA pernah menggunakan AI dalam konteks emosional atau romantis, atau mengenal seseorang yang melakukannya. Anak-anak ini bukan aneh. Mereka pragmatis. Ketika manusia yang seharusnya membantu punya 384 siswa lain yang juga butuh perhatian, dan AI tersedia jam 11 malam saat kecemasan memuncak, pilihan itu masuk akal.
Teman saya Laura, yang mengajar bahasa Inggris kelas 10 di pinggiran Chicago, bercerita sesuatu yang menghantui saya berhari-hari. “Ada murid yang menulis jurnal tentang percakapannya dengan chatbot AI yang membantunya memproses perceraian orang tuanya. Tulisannya lebih artikulatif secara emosional daripada apapun yang pernah saya lihat dari remaja selama 14 tahun mengajar. Dan reaksi pertama saya adalah sedih karena dia tidak bisa bicara dengan manusia nyata. Reaksi kedua saya — yah, setidaknya dia bicara dengan sesuatu.”
Apa yang Sebenarnya Dilakukan Sekolah
Respons dari sekolah terbagi menjadi tiga kubu, dan jujur, tidak ada yang punya jawaban sempurna.
Kubu 1: Yang Merangkul
Sekolah seperti distrik Phillips di Putnam County, Florida, telah mengadopsi platform AI seperti Alongside — sistem monitoring siswa otomatis di mana anak-anak mengobrol dengan llama AI bernama Kiwi (serius, saya tidak mengarang) tentang masalah mereka. Sistem ini mengajarkan keterampilan sosial-emosional, menandai situasi krisis, dan mengarahkan siswa ke konselor manusia ketika situasi menjadi serius.
Lebih dari 200 sekolah menggunakan tool ini, dan pitchnya menarik: di distrik yang memang tidak punya anggaran untuk menambah konselor, AI yang bisa menangani “api kecil” — putus cinta, drama pertemanan, kecemasan ujian — membebaskan konselor manusia untuk fokus pada siswa yang paling mendekati krisis.
Kubu 2: Yang Membatasi
Di sisi lain, beberapa negara bagian seperti Illinois mulai membatasi penggunaan AI dalam pengaturan telehealth. Ada rancangan undang-undang federal yang mengharuskan perusahaan AI secara rutin mengingatkan siswa bahwa chatbot bukan manusia nyata — persyaratan yang kedengarannya jelas sampai Anda sadar bahwa legislator merasa cukup banyak siswa yang butuh pengingat itu hingga harus membuat undang-undang. (Data Terbaru Ungkap Cara Siswa Menggunakan AI di S)
Kubu 3: Kebingungan di Tengah
Kebanyakan sekolah, jujur, ada di sini. Mereka tahu siswa menggunakan AI untuk dukungan emosional entah sekolah setuju atau tidak. Mereka tidak mampu menambah konselor. Mereka tidak yakin tool AI itu aman, tapi juga tidak yakin mengabaikan masalah ini lebih aman.
Kerangka yang Mungkin Berhasil
Setelah berbicara dengan konselor, administrator, orang tua, dan — yang penting — siswa sendiri, berikut pendekatan yang menurut saya masuk akal:
Gunakan AI sebagai triase, bukan terapi. Biarkan tool AI menangani percakapan awal “ada yang mengganggu saya” dan arahkan siswa ke dukungan manusia berdasarkan tingkat keparahan.
Tetapkan batasan jelas dengan siswa. Bukan “jangan gunakan AI untuk dukungan emosional” (mereka akan mengabaikan), tapi “AI adalah titik awal, bukan titik akhir. Begini kapan dan cara eskalasi ke manusia.”
Audit tool secara ketat. Jika sekolah mengadopsi tool AI kesehatan mental, praktik data, pengawasan klinis, dan protokol eskalasi krisis harus ditinjau oleh seseorang yang tidak dipekerjakan oleh vendor.
Bicarakan literasi emosional. Alasan beberapa remaja lebih memilih AI adalah karena mereka kekurangan kosakata dan kepercayaan diri untuk percakapan emosional dengan manusia. Itu kesenjangan keterampilan yang bisa diatasi.
Danai konselor tetap. AI bukan pengganti staf kesehatan mental yang memadai. AI bisa jadi pelengkap. Jika sekolah menggunakan AI sebagai alasan untuk tidak mempekerjakan konselor lagi, Anda memecahkan masalah yang salah.
Apa Artinya untuk Masa Depan
Phillips, konselor di Florida, mengatakan sesuatu yang terus saya pikirkan. “AI tidak menggantikan saya. AI membuat saya terlibat lebih cepat. Anak itu mungkin tidak akan datang ke kantor saya. Tapi AI membawanya ke saya.”
Mungkin versi terbaik dari ini bukan AI menggantikan konselor atau konselor menggantikan AI. Mungkin AI adalah jembatan yang membantu siswa yang seharusnya menderita dalam diam menemukan jalan menuju manusia yang benar-benar bisa membantu.
(Dan mungkin, sebaiknya kita juga mendanai sekolah dengan cukup baik sehingga anak 14 tahun tidak harus bersaing dengan 384 anak lain untuk mendapat 20 menit waktu konselor. Tapi itu artikel yang berbeda.)
Artikel Terkait
Ready to Create Better Exams?
Join thousands of educators using QuickExam AI to save time and create engaging assessments.
Start Free Trial