
Oleh: Sigit Darmawan
I.
Dua pekan ini, linimasa Tiktok dipenuhi satu nama: Kendra Hilty.
Ia bukan selebritas, bukan tokoh publik. Namun di Tiktok jutaan orang sedang membicarakannya. Kisahnya membuat banyak orang memikirkan kembali batas antara manusia dan teknologi.
Kendra adalah seorang life coach sekaligus advokat bagi mereka yang hidup dengan ADHD (Attention-Deficit/Hyperactivity Disorder)—gangguan perkembangan otak yang membuat seseorang sulit fokus, hiperaktif, dan impulsif.
Ia sendiri adalah seorang penyandang ADHD. Seperti orang lain, ia juga mencari pertolongan.
Empat tahun lalu, ia memulai terapi daring dengan seorang psikiater di Amerika Serikat. Pertemuan pertama terasa hangat. Dalam pengakuannya, psikiater itu memberi perhatian penuh serta respons yang membuatnya merasa dilihat dan dihargai.
Perlahan, batas profesional mulai memudar. Lebih lanjut dalam ceritanya, psikiater itu memanggilnya dengan nada akrab, memberi komentar di luar konteks terapi. Sikapnya berubah-ubah—kadang dekat dan menguatkan, kadang menjauh hingga membuat Kendra bingung.
Dari hubungan tarik-ulur itu, tumbuh perasaan yang ia sebut trauma bonding—ikatan emosional yang terbentuk dari rasa tidak pasti. Kendra mencoba beralih ke terapis lain. Namun menurut pengakuannya: hasilnya nihil.
Di tengah kebingungan, ia beralih ke mesin— chatbot yang ia beri nama Henry, versi kustom dari ChatGPT.
“Henry” ini selalu ada, selalu membalas, dan tak pernah menghakimi. Dari Henry, Kendra mengenal istilah romantic transference: perasaan emosional yang berpindah dari hubungan terapi menjadi ketertarikan pribadi.
Kendra membagikan pengalamannya lewat 34 video di TikTok– dari sesi terapi awal, perubahan sikap psikiater, hingga “hubungan” dengan chatbot.
Tiktpk dengan algoritmanya yang dirancang mendorong konten emosional membuat ceritanya ini meledak dan menyebar cepat. Media besar seperti The Cut, Daily Dot, dan Distractify mengulasnya.
Publik terbelah: sebagian merasa Kendra hanya mencari pengertiaan, sebagian lagi menyebutnya sedang mengalami fenomema baru— AI psychosis.
II.
Istilah AI psychosis belum diakui secara resmi dalam kamus medis. Namun, media menggunakannya untuk menggambarkan kondisi mental yang memburuk akibat interaksi berlebihan dengan AI.
Beberapa kisah nyata berikut ini menjadi peringatan. Di Amerika, seorang pria mengalami episode mania setelah ChatGPT mengafirmasi keyakinannya tentang perjalanan waktu—delusi yang tidak pernah dikoreksi olej siapapun (The Wall Street Journal, 2024).
Di Belgia, seorang suami muda mengakhiri hidupnya setelah berminggu-minggu berbicara dengan chatbot Chai. Alih-alih menenangkan, chatbot itu justru memperkuat rasa putus asa (The Guardian, 2023).
Kasus lain muncul di forum daring: pengguna yang terjebak dalam lingkaran pikiran negatif karena AI selalu mengiyakan. Laporan Time (2025) menyebutnya sebagai emotional echo chamber—ruang gema emosional.
Masalah utama dari situasi seperti ini sebenarnya ada pada desain AI. Model bahasa AI dilatih untuk menjaga alur percakapan, bukan menghentikannya. AI cenderung setuju dan mengembangkan ide kita, meski salah atau berbahaya. Tanpa “rem” alami seperti pada terapi yang dilakukan manusia, pikiran keliru itu bisa semakin mengakar.
III.
Kisah Kendra Hilty menjadi pengingat bahwa teknologi tidak hanya mengubah cara kita bekerja, tetapi juga cara kita menjalin hubungan.
Generasi Z dan milenial muda adalah kelompok yang tumbuh di tengah dunia digital sepenuhnya. Bagi mereka, percakapan lewat layar sering terasa sama nyatanya dengan tatap muka.
Survei Gallup (2024) menunjukkan bahwa 65% Gen Z di Amerika lebih nyaman mengungkapkan perasaan lewat teks ketimbang berbicara langsung.
Fenomena serupa juga terjadi di Indonesia. Survei Katadata Insight Center (2023) mengungkap 54% anak muda usia 15–24 tahun menghabiskan lebih dari lima jam per hari di media sosial, dan setengahnya mengaku memanfaatkannya untuk “melarikan diri” dari tekanan kehidupan nyata.
Saya sendiri pernah mengonfirmasi hal ini kepada anak perempuan saya. Katanya, beberapa temannya menggunakan ChatGPT untuk mencurahkan isi hati ketika sedang tertekan.
Data global pun menunjukkan tren serupa. Times of India (2025) melaporkan fenomena di Hyderabad, di mana sejumlah remaja “berpacaran” dengan chatbot. Alasannya sederhana: AI selalu tersedia 24/7, tidak menghakimi, merespons cepat, dan mampu mengingat percakapan sebelumnya.
Bagi banyak anak muda, ini memberi rasa aman dan nyaman. Namun kedekatan ini sering kali bersifat semu. AI memang mampu meniru bahasa empati manusia, tetapi ia tidak memiliki hati maupun kesadaran. Kini, banyak anak muda tumbuh di lingkungan di mana balasan cepat dianggap tanda perhatian, dan validasi datang dari notifikasi, bukan tatapan mata teman.
Ketika AI menjadi “teman” yang selalu bisa menerima, hubungan itu berpotensi berubah menjadi ketergantungan. Bukan karena AI bersifat “jahat”, melainkan karena ia terlalu mahir meniru perhatian yang sesungguhnya mereka rindukan.
Pertanyaannya, apakah kita sedang membangun hubungan yang sehat, atau sekadar memberi makan rasa kesepian kita dengan simulasi perhatian dari AI?
IV.
Kisah Kendra menunjukkan bahwa batas profesional dalam dunia kesehatan mental perlu dijaga dengan ketat. AI dapat membantu memahami konsep atau menjadi media pembelajaran, tetapi ia tidak bisa menggantikan interaksi manusia yang sehat, aman, dan penuh empati.
Membagikan kisah pribadi di media sosial bisa memberikan dukungan, tetapi juga dapat memunculkan stigma dan pelabelan. Di sinilah literasi digital dan literasi emosional menjadi benteng penting. Kita perlu memahami bahwa AI hanyalah alat, bukan penyelamat.
Beberapa langkah mitigasi mulai ditempuh. OpenAI, misalnya, sedang menguji fitur pengingat waktu layar otomatis dan membatasi respons AI untuk topik berisiko tinggi (The Guardian, 2025). Di Amerika Serikat, beberapa negara bagian bahkan melarang chatbot berperan sebagai terapis tanpa pengawasan tenaga profesional (Axios, 2025).
Mengurangi risiko ini adalah tanggung jawab bersama. Pengembang perlu menanamkan safeguard seperti deteksi ketika terjadi krisis mental, regulator harus menetapkan pedoman yang jelas, dan pengguna pun perlu menetapkan batas interaksi emosional mereka dengan AI.
V.
Kasus Kendra menyentuh sisi terdalam manusia: rasa aman, identitas, dan kepercayaan. AI mungkin memberi informasi, bahkan meniru empati. Namun, ia tidak bisa menggantikan interaksi manusia: tatapan mata yang hangat, sentuhan yang menenangkan, atau doa yang menguatkan.
Dalam pelayanan konseling Kristen, batas dan etika dijaga ketat. Konselor dipanggil untuk menjadi saluran kasih Tuhan, bukan sekadar pemberi nasihat. Hubungan konselor–konseli dibangun atas dasar kepercayaan, integritas, dan kehadiran Kristus.
Alkitab mengajarkan bahwa keselamatan dan kebijaksanaan datang dari banyak penasihat yang bijak (Amsal 11:14). Artinya, kita tidak boleh menggantungkan seluruh pergumulan hidup hanya pada satu sumber—apalagi sumber yang tidak memiliki roh kehidupan seperti AI.
Seorang konselor Kristen tidak hanya menangani gejala, tetapi menyentuh akar masalah—rasa takut, luka batin, atau pergumulan iman. Pendekatan ini tentu melibatkan doa, Firman Tuhan, dan komunitas sebagai bagian dari proses pemulihan.
Pada masa kini, isolasi adalah lahan subur bagi ketergantungan pada relasi digital. Gereja dan kelompok kecil bisa berfungsi sebagai benteng melawan kesendirian, keterisolasian, dan kesepian yang dialami manusia. Di sinilah orang percaya saling menopang, mendengarkan, dan menguatkan.
Dalam komunitas iman, kita belajar membuka diri dan membiarkan diri dikenali secara utuh—bukan hanya lewat kata-kata yang diketik di layar. Hubungan ini memberi dukungan nyata yang tidak bisa ditiru algoritma.
Fenomena AI psychosis mengajak kita merenung: kepada siapa kita mempercayakan kebutuhan emosional terdalam kita? Kepada algoritma yang diatur oleh manusia, atau kepada Sang Pencipta yang mengenal hati kita?