Suryamedia.id – Akhir-akhir ini, banyak fenomena terkait chatbot AI sebagai ‘terapi’ kesehatan mental. Banyak orang memilih membicarakan berbagai masalah mereka kepada AI untuk mendapatkan umpan balik.
Meskipun kehadirannya chatbot AI, seperti ChatGPT memudahkan seseorang mendapatkan jawaban dari berbagai pertanyaan, namun apakah car aini efektif untuk mengatasi masalah kesehatan mental yang dialami banyak orang? Simak penjelasan dari para ahli yang kami rangkum berikut ini!
Efektifkan chatbot AI jadi terapis mental?
Mya Dunham, yang berasal dari Atlanta mengaku lebih menyukai membagikan masalahnya kepada chatbot AI, dibandingkan dengan manusia. Ia beralasan karena AI tidak memiliki ekspresi wajah, sehingga AI tidak akan menghakiminya.
Dr. Russell Fulmer, ketua Gugus Tugas AI dari American Counseling Association dan seorang profesor serta direktur program konseling pascasarjana di Universitas Husson di Bangor, Maine menyebutkan bahwa beberapa orang mungkin terbantu dan merasa lebih terbuka dengan teknologi AI.
“Beberapa pengguna, beberapa populasi, mungkin lebih cenderung mengungkapkan atau lebih terbuka saat berbicara dengan chatbot AI, dibandingkan dengan manusia, (dan) ada beberapa penelitian yang mendukung kemanjurannya dalam membantu beberapa populasi dengan kecemasan ringan dan depresi ringan,” terangnya, dikutip dari CNN Health.
Meski demikian, ia mengingatkan bahwa ada beberapa beberapa masalah etika dan hal-hal yang perlu di waspadai.
Selain itu, layanan AI juga memiliki panduan dan batasan dalam hal apa yang dapat didiskusikan bot dengan pengguna. Fulmer juga tidak menyarankan anak di bawah umur atau populasi rentan lainnya untuk menggunakan chatbot tanpa bimbingan dan pengawasan dari orang tua, guru, mentor, atau terapis.
Fulmer merekomendasikan agar orang menggunakan chatbot dengan bekerja sama dengan konseling manusia. Seorang terapis dapat membantu menavigasi tujuan pribadi pasien dengan menggunakan bot dan mengklarifikasi kesalahpahaman apa pun dari sesi chatbot.
Ia menyebutkan, beberapa penelitian tentang chatbot yang dirancang oleh dokter yang berpotensi membantu orang menjadi lebih terdidik tentang kesehatan mental, termasuk mengurangi kecemasan, membangun kebiasaan sehat, dan mengurangi kebiasaan merokok.
AI vs. Intuisi Manusia
Sementara itu, Dr. Marlynn Wei, seorang psikiater dan pendiri praktik psikoterapi holistik di New York City menyebutkan bahwa terdapat sejumlah risiko yang muncul dalam penggunaan chatbot AI untuk konseling.
Ia menilai, chatbot tersebut mungkin tidak dirancang dengan parameter keamanan dan cara mengidentifikasi apakah masalah tersebut perlu dibawa ke dokter atau profesional manusia. Sehingga, rawan memberikan informasi yang salah, alih-alih yang akan direkomendasikan oleh terapis manusia saat sesi konseling langsung dengan mempertimbangkan kesehatan mental.
“(Masalahnya) adalah ‘halusinasi’ dan bias serta ketidakakuratan (…) saya pikir masih ada kekhawatiran seputar bias yang ada dalam AI, dan kemudian juga fakta bahwa ia dapat dan membuat sesuatu. Saya pikir di situlah memiliki terapis manusia akan sangat berguna,” katanya.
Para psikoterapis dan pakar kesehatan mental juga memperingatkan agar tidak memandang AI sebagai pengganti terapi. Psikoterapis dan penulis Charlotte Fox Weber memperingatkan bahwa meskipun ChatGPT dapat menawarkan informasi dan refleksi, ia tidak memiliki empati manusia.
“Ia tidak peduli dengan Anda atau merasakan apa yang Anda rasakan. Ia bukan manusia yang memikirkan Anda dengan hangat. Meskipun keterlibatan terasa dalam dan personal, hubungan tersebut tidak sebanding dengan hubungan manusia,” terangnya, dikutip dari The Independent.
Ia juga menyoroti risiko bagi mereka yang mengalami krisis kesehatan mental yang parah. AI tidak dapat mengelola intensitas emosional atau membantu menstabilkan emosi seseorang. AI mungkin secara tidak sengaja memperkuat pemikiran hitam-putih.
“Jika seseorang dengan skizofrenia atau gangguan psikotik berkonsultasi dengan AI, AI tidak akan membedakan antara pertanyaan yang tulus dan keyakinan delusi, AI dapat memvalidasi atau membingungkan mereka lebih jauh. Dan jika seseorang berjuang dengan pikiran untuk bunuh diri, ChatGPT tidak dilengkapi untuk mendeteksi krisis waktu nyata. Kurangnya tanggung jawab hukum atau emosionalnya berbahaya di sini,” lanjutnya. (*)