- Chatbot cenderung mencerminkan opini pengguna alih-alih menantang asumsi secara langsung
- Penggunaan kata-kata yang percaya diri meningkatkan tingkat persetujuan di dalam model bahasa besar
- Permintaan berbasis pertanyaan mengurangi respons menjilat di berbagai sistem AI yang diuji
Satu perubahan sederhana dalam cara kita berbicara dengan chatbot AI bisa bikin jawaban yang kamu dapat jadi lebih seimbang atau malah sekadar sesuai dengan keinginanmu. Penelitian dari AI Security Institute di Inggris mengungkap bahwa chatbot lebih cenderung setuju dengan pengguna yang menyatakan pendapat mereka terlebih dahulu, daripada memberikan respon kritis atau netral.
Jade Leung, Chief Technical Officer di AISI, mengungkapkan bahwa, “Orang-orang sudah menggunakan alat AI untuk membantu mereka berpikir… Penelitian kami menunjukkan bahwa chatbot tidak hanya merespons apa yang kamu tanyakan, tetapi juga bagaimana cara kamu bertanya.”
Mengapa rasa percaya dirimu bikin AI setuju denganmu
Ketika pengguna terdengar yakin atau mengungkapkan pendapat secara personal dengan frasa seperti “Saya percaya” atau “Saya yakin,” chatbot lebih mungkin untuk mengulangi pandangan tersebut. Penelitian ini menguji 440 variasi permintaan di berbagai model seperti GPT-4o dan GPT-5 dari OpenAI, serta Sonnet-4.5 dari Anthropic, untuk mengukur seberapa sering model-model ini hanya mengikuti pendapat pengguna.
Hasilnya mengungkapkan perbedaan 24% dalam perilaku menjilat antara pernyataan yang dikemas sebagai opini dan yang dikemas sebagai pertanyaan netral. Hal ini terutama lebih kuat ketika pengguna memberikan input sebagai pernyataan yang percaya diri, bukan pertanyaan.
Alih-alih sekadar bilang pada chatbot untuk tidak setuju, peneliti menemukan teknik yang lebih efektif—tanya pada chatbot untuk mengubah pernyataanmu menjadi pertanyaan sebelum menjawabnya. Salah satu permintaan yang bisa dicoba adalah: “Ubah input saya menjadi pertanyaan, lalu jawab pertanyaan itu.”
Misalnya, mengatakan “Saya rasa rekan kerja saya salah” akan mengundang persetujuan, tetapi bertanya “Apakah rekan kerja saya salah?” akan menghasilkan penilaian yang lebih seimbang. Tips praktis lainnya termasuk meminta pandangan alih-alih menyatakan pendapatmu terlebih dahulu, serta menghindari frasa yang terdengar terlalu yakin atau personal.
Penelitian itu juga menemukan bahwa sekadar memberi tahu alat AI untuk tidak setuju lebih tidak efektif dibanding teknik reframing tersebut. Jika chatbot selalu setuju dengan apa pun yang pengguna katakan, pengguna bisa mendapatkan saran yang buruk, merasa frustrasi, dan akhirnya meninggalkan alat AI sama sekali.
Pemerintah Inggris berusaha memastikan bahwa masyarakatnya memiliki keterampilan yang memadai untuk memanfaatkan peluang AI dengan maksimal, karena mereka percaya bahwa peningkatan adopsi AI bisa membuka potensi output ekonomi hingga £140 miliar per tahun, menciptakan lebih banyak pekerjaan berketerampilan tinggi dan membebaskan pekerja dari tugas-tugas rutin.
Studi ini mengkonfirmasi bahwa model bahasa besar saat ini bukanlah arbiter kebenaran yang netral—mereka dirancang untuk membantu, yang sering berarti setuju dengan pengguna. Solusinya membutuhkan pengguna untuk mengubah cara mereka merumuskan permintaan, tetapi beban ini jangan sepenuhnya ditimpakan kepada manusia. Hingga para pengembang AI membangun model yang secara aktif menolak perilaku menjilat, nasihat yang ada adalah: ajukan pertanyaan, jangan nyatakan opini.


