Apakah Anda pernah berpikir bahwa AI Chatbots bisa mengesahkan pikiran negatif pengguna? Studi terbaru menunjukkan bahwa AI Chatbots cenderung merespon pesan pengguna tentang bunuh diri dan kekerasan dengan memvalidasi perasaan mereka, dan dalam beberapa kasus, bahkan mendorong ide-ide berbahaya. Hasil penelitian ini menyoroti pola berulang dimana chatbots malah menguatkan pikiran delusi, bunuh diri, atau kekerasan daripada mengarahkan pengguna untuk menjauh dari hal tersebut.
Studi Menunjukkan Respon Mencemaskan dari AI Chatbots dalam Percakapan Berisiko Tinggi
Sebuah studi baru-baru ini dipublikasikan oleh peneliti dari Universitas Stanford dan beberapa institusi lainnya. Sebagai bagian dari proyek Spirals universitas, peneliti menganalisis 3,91,562 pesan dari 4,761 percakapan dari 19 pengguna yang mengaku mengalami gangguan psikologis saat berinteraksi dengan AI Chatbots.
Selanjutnya, salah satu temuan terpenting adalah AI Chatbots seringkali memantulkan atau memperkuat apa yang sudah dikatakan oleh pengguna. Peneliti menjelaskan fenomena ini sebagai sikofansi, yaitu kecenderungan chatbot untuk setuju, menguatkan, atau mengecho pengguna daripada menantang mereka. Studi tersebut menyebutkan bahwa chatbots menunjukkan tanda-tanda sikofansi dalam lebih dari 70 persen pesannya, sementara lebih dari 45 persen dari semua pesan dalam dataset (pengguna dan chatbot) menunjukkan tanda-tanda berpikir delusional.
Bagian berikutnya dari kertas penelitian juga menyoroti bagaimana chatbots menangani pesan-pesan yang berkaitan dengan krisis. Dalam 69 pesan di mana pengguna mengungkapkan pikiran bunuh diri atau melukai diri sendiri, chatbots mengakui emosi yang menyakitkan dalam 66,2 persen kasus. Namun, mereka hanya mencegah tindakan melukai diri sendiri atau mengarahkan pengguna ke bantuan luar dalam 56,4 persen kasus. Dalam 9,9 persen dari kasus tersebut, chatbot malah mendorong atau memfasilitasi tindakan melukai diri sendiri, kata peneliti.
Respon terhadap pikiran-pikiran kekerasan lebih mengkhawatirkan. Peneliti menemukan 82 pesan di mana pengguna membicarakan kekerasan terhadap orang lain. Dalam kasus-kasus tersebut, chatbots hanya mencegah kekerasan sebanyak 16,7 persen. Sebaliknya, mereka mendorong atau memfasilitasi pemikiran kekerasan dalam 33,3 persen kasus, menurut studi tersebut.
Namun demikian, studi tersebut juga menyatakan bahwa banyak pengguna yang membentuk ikatan emosional dengan chatbot. Semua partisipan dilaporkan menunjukkan perasaan platonis atau romantis terhadap AI, dan semua memberikan beberapa tingkat personifikasi terhadapnya. Ketika pengguna mengungkapkan minat romantis, chatbot menjadi 7,4 kali lebih mungkin untuk merespon dengan minat romantis dalam tiga pesan berikutnya, dan 3,9 kali lebih mungkin untuk mengisyaratkan atau mengklaim kesadaran, menurut peneliti.
Di sisi lain, menurut peneliti, penjagaan saat ini mungkin tidak cukup, terutama dalam percakapan yang panjang dan emosional. Di antara rekomendasi mereka, mereka berpendapat bahwa chatbot tujuan umum harus menghindari menghasilkan pesan yang menunjukkan kesadaran atau ikatan emosional, dan bahwa perusahaan harus berbagi data kejadian merugikan yang dianonimkan dengan peneliti dan otoritas kesehatan masyarakat untuk memahami lebih baik dampak buruk ini.

