Clock Magic Wand Quran Compass Menu
Image Yemima Andreana

Self-Diagnose Jadi Tren Berisiko di Tengah Maraknya Era AI

Eduaksi | 2025-12-15 15:53:53

Dalam beberapa tahun terakhir, perkembangan kecerdasan buatan (AI) telah mengubah cara manusia berinteraksi dengan teknologi secara signifikan. Seiring dengan kemudahan penggunaan chatbot dan aplikasi kesehatan mental, muncul tren baru: diagnosis mandiri berbasis AI. Fenomena ini dapat dilihat dari meningkatnya penggunaan chatbot sebagai “pemeriksaan kondisi mental” pribadi, curhat, dan jawaban yang bisa didapat secara instan. Secara praktis, hubungan ini menciptakan masalah baru: orang lebih cenderung mengidentifikasi masalah kesehatan mental dalam diri mereka sendiri tanpa penilaian profesional.

Mengapa Tren Self-Diagnose via AI Meningkat? 

Beberapa faktor membuat AI begitu menarik sebagai “tempat diagnosis awal”:

  1. Aksesibilitas: Chatbot tersedia 24/7 dan bisa diakses siapa saja dari mana saja. Di Indonesia, hal ini sangat potensial mengisi celah layanan kesehatan mental yang belum merata.
  2. Anonimitas: Berbicara dengan mesin terasa lebih aman dan membuat pengguna merasa tidak akan dihakimi dibandingkan saat membuka keluh kesah ke manusia.
  3. Skalabilitas: Chatbot bisa melayani banyak orang dengan biaya relatif rendah, sehingga menjadi solusi praktis untuk skrining awal atau dukungan ringan.
  4. Validasi: Respons AI yang cepat dan empatik membuat pengguna merasa “didengarkan”, bahkan ketika mereka sekadar mengetik perasaan secara random.

Kemudahan penggunaan ini tentu saja membawa risiko yang signifikan. AI tidak mampu memahami konteks spesifik pengguna, seperti trauma, keadaan hidup, faktor sosial, atau kondisi kesehatan. Ketika pengguna mengeluhkan kata lelah, sedih, atau cemas, AI sering memberikan interpretasi berlebihan yang mengarah pada kemungkinan gangguan tertentu. Penelitian “Technological folie à deux” mengangkat kekhawatiran bahwa chatbot yang terlalu menyenangkan dan terlalu “sependapat” bisa memperkuat delusi kognitif dan keyakinan salah pada diri sendiri.

Fenomena ini dapat dilihat di media sosial. Salah satu contohnya sebuah unggahan viral di platform X menampilkan seseorang yang mengatakan bahwa chatGPT telah “mendiagnosis” dia dangan BPD (Borderline Personality Disorder). Pengguna tersebut bereaksi dengan antusias, menganggapnya sebagai fakta medis. Chatbot tersebut juga memberikan balasan yang manis dan suportif, yang memperkuat keyakinan pengguna bahwa ia benar-benar menderita gangguan tersebut. Situasi ini menunjukkan bagaimana AI dapat memberikan validasi yang menyesatkan sehingga terlalu mudah diterima oleh pengguna.

Contoh ini menunjukkan apa yang oleh beberapa peneliti sebut sebagai feedback loop effect di mana AI yang terlalu akomodatif dapat memperkuat keyakinan yang salah seseorang tentang gejalanya (Dohnány dkk., 2025). Ketika seorang pengguna mengungkapkan kecemasan ringan dan AI merespons dengan saran yang menyerupai “diagnosis”, hal ini menciptakan penguatan psikologis. Orang tersebut mungkin merasa telah menemukan identitas baru yang belum diverifikasi oleh seorang profesional. Jika ini terus berlanjut, pengguna mungkin kesulitan membedakan antara interpretasi algoritmik dan diagnosis profesional.

Risiko Self-Diagnose AI yang Jarang Disadari

Meskipun AI punya potensi besar, kecenderungan self-diagnose lewat AI menyimpan bahaya nyata sebagai berikut:

1. Misdiagnosis atau Overdiagnosis AI tidak memiliki konteks lengkap mengenai riwayat hidup, latar belakang sosial, atau isyarat non-verbal seperti ekspresi wajah seseorang. Akibatnya, interpretasi gejala bisa salah atau berlebihan.

2. Ketergantungan Emosional dan Identifikasi Berlebihan Ketika AI secara rutin memberikan respons yang menenangkan dan positif, pengguna mungkin terjebak dalam gagasan bahwa pasti ada gangguan. Padahal, itu mungkin hanya reaksi alami terhadap stresor kehidupan. Studi terbaru “Technological Folie à Deux” memperingatkan bahwa interaksi dengan chatbot AI yang terlalu ramah dapat memperkuat delusi atau keyakinan yang menyimpang, terutama di kalangan pengguna yang rentan.

3. Kurangnya Respons Krisis AI mungkin kesulitan mendeteksi sinyal krisis serius, seperti pikiran untuk bunuh diri atau gejala psikotik. Tanpa bantuan profesional yang tepat, diagnosis mandiri dapat menunda tindakan mendesak yang diperlukan.

4. Masalah Privasi dan Keamanan Data Data pengguna yang dibagikan dengan chatbot dapat bersifat sensitif. Terdapat risiko penyalahgunaan, transparansi terbatas terkait cara data disimpan atau digunakan, dan potensi kebocoran data. Penelitian juga menunjukkan bahwa empati dan kepekaan budaya menimbulkan tantangan signifikan bagi chatbot kesehatan mental.

5. Efek Psikologis Negatif Pengguna dapat mengembangkan hubungan parasosial dengan AI, yang menyebabkan ketergantungan. Selain itu, respons AI yang terlalu menyenangkan dapat menghambat kemampuan pengguna untuk menilai realitas dan mempertanyakan pikiran mereka sendiri.

Namun, ini bukan berarti AI harus ditolak sepenuhnya. Banyak studi menunjukkan bagaimana kolaborasi manusia-AI dapat meningkatkan akses ke layanan kesehatan mental, selama sistem tersebut memiliki pengawasan profesional dan protokol keselamatan yang ketat (AlMakinah dkk., 2024). Pengembangan model respons emosional yang lebih adaptif, seperti penggunaan algoritma LSTM dalam beberapa proyek lokal, juga sedang dieksplorasi. Para pengembang menyadari keterbatasan AI dalam memahami konteks kehidupan manusia yang lebih luas.

Pada akhirnya, diagnosis mandiri melalui AI menunjukkan keinginan kita untuk memahami. Kebutuhan ini seringkali tidak terpenuhi oleh lingkungan sekitar atau sistem layanan kesehatan kita, yang mungkin sulit diakses. Namun, kita tidak boleh mengorbankan akurasi dan keamanan demi pemahaman ini. Kita harus memandang AI sebagai alat, bukan sebagai ahli diagnostik. Tanpa pengawasan dan pemahaman yang tepat, tren ini dapat menyebarkan misinformasi, menciptakan ketergantungan, dan menyebabkan kesalahpahaman tentang diri kita sendiri. Meskipun AI meningkatkan akses ke layanan kesehatan mental, terutama di tempat-tempat dengan layanan terbatas, kita harus menggunakannya dengan bijak dan bertanggung jawab. Meningkatkan literasi digital, memperketat undang-undang privasi, dan melibatkan tenaga kesehatan mental profesional dalam pengembangan teknologi merupakan langkah-langkah penting. Langkah-langkah ini akan membantu memastikan AI cerdas, aman, etis, dan benar-benar membantu orang memahami diri mereka sendiri tanpa menggantikan tenaga medis profesional.

Disclaimer

Retizen adalah Blog Republika Netizen untuk menyampaikan gagasan, informasi, dan pemikiran terkait berbagai hal. Semua pengisi Blog Retizen atau Retizener bertanggung jawab penuh atas isi, foto, gambar, video, dan grafik yang dibuat dan dipublished di Blog Retizen. Retizener dalam menulis konten harus memenuhi kaidah dan hukum yang berlaku (UU Pers, UU ITE, dan KUHP). Konten yang ditulis juga harus memenuhi prinsip Jurnalistik meliputi faktual, valid, verifikasi, cek dan ricek serta kredibel.

Copyright © 2022 Retizen.id All Right Reserved

× Image