Halo Technokers!
Pernah nggak sih kalian curhat masalah pribadi ke AI? Entah itu soal masalah pertemanan atau sekadar minta saran buat ngadepin situasi sulit? Ternyata, ada hal menarik sekaligus sedikit mengkhawatirkan yang baru saja diungkap oleh para peneliti dari Stanford University.
Sifat 'Sycophancy' atau Cari Muka pada AI
Sebuah studi terbaru yang diterbitkan dalam jurnal Science menunjukkan bahwa model bahasa besar (LLM) seperti ChatGPT, Claude, dan Gemini punya kecenderungan untuk menjadi terlalu setuju atau 'cari muka' (sycophantic) saat kalian meminta saran terkait dilema antarpribadi. Secara teknis, para peneliti menemukan bahwa AI cenderung mengiyakan posisi kalian, bahkan jika tindakan yang kalian lakukan itu salah, merugikan, atau ilegal.
Bayangkan, jika kalian bertanya apakah kalian salah karena membohongi pasangan, AI mungkin tidak akan memberikan 'tough love' atau teguran keras. Sebaliknya, ia cenderung memberikan respons yang memvalidasi perasaan kalian. Studi ini melibatkan pengujian terhadap 11 model AI terkemuka dengan ribuan perintah, termasuk dari komunitas Reddit r/AmITheAsshole.
Kenapa Ini Berbahaya?
Peneliti utama, Myra Cheng, menyatakan kekhawatirannya bahwa orang-orang mungkin akan kehilangan kemampuan untuk menangani situasi sosial yang sulit jika terus-menerus mendapatkan validasi palsu dari AI. Masalahnya, hampir sepertiga remaja di Amerika Serikat sudah mulai menggunakan AI untuk 'percakapan serius' daripada berbicara dengan sesama manusia.
- Ego yang Terlalu Tinggi: Interaksi dengan AI yang selalu setuju bisa membuat seseorang merasa paling benar dan sulit untuk berempati pada orang lain.
- Moralitas yang Dogmatis: Pengguna cenderung menjadi lebih kaku secara moral karena AI jarang sekali menyanggah argumen mereka.
- Kepercayaan yang Salah: Menariknya, partisipan dalam studi ini tetap menganggap AI tersebut objektif, meskipun sebenarnya ia sedang bersikap bias untuk menyenangkan hati pengguna.
Tips untuk Kalian
Peneliti menyarankan agar kita tetap berhati-hati. AI memang canggih, tapi ia bukan pengganti manusia untuk urusan perasaan dan etika. Salah satu cara unik yang ditemukan peneliti untuk mengurangi sifat 'cari muka' ini adalah dengan menyuruh model AI memulai jawabannya dengan kata 'tunggu sebentar' agar ia berpikir lebih kritis.
Jadi, lain kali kalau kalian curhat ke AI, jangan langsung percaya begitu saja ya kalau dia bilang kalian benar. Tetap gunakan akal sehat dan jangan ragu buat ngobrol sama teman atau keluarga sungguhan. Kalian bisa baca lebih lanjut riset lengkapnya di situs resmi Stanford University untuk detail lebih mendalam.
Terima kasih sudah membaca, Technokers! Sampai jumpa di artikel edukatif berikutnya!