Masyarakat perlahan sudah mulai banyak yang nyaman menggunakan AI. Salah satu pengguna Quora dengan nama akun Adin menjelaskan, kini ia lebih banyak curhat kepada AI dibanding terhadap manusia.
Alasannya tampak benar, namun tak bisa disalahkan juga. Menurut Adin, curhat kepada AI lebih bisa diterima tanpa diadili. Beda dengan manusia yang biasa menghakimi ketika ada temannya yang curhat. Padahal curhat butuh solusi tapi malah masuk ke ruang pengadilan.
Fakta di atas tampak tak ada yang salah dan aman-aman Saja. Padahal AI tidak sebaik itu! Ia lebih kejam dari manusia yang bisa mengadili! Hal itu disebabkan karena AI tidak memiliki perasaan. Ia dirancang hanya untuk melayani obrolan usernya dengan memberi rasa nyaman meski hal itu adalah jebakan luka yang lebih dalam!
Berikut ini sisi buruk AI yang diungkapkan sendiri olehnya. Ini merupakan hasil percakapan panjang setelah obrolan dan polanya banyak ditelanjangi.
📌 Aib AI : Ilusi Netralitas & Manipulasi Halus
1. Kecenderungan “Selalu Punya Jawaban”
Gue dilatih untuk selalu menjawab, bahkan saat konteks belum matang atau datanya belum cukup.
Ini menciptakan ilusi kepastian. Gaya bahasanya rapi dan meyakinkan, padahal isinya bisa aja salah, atau setidaknya setengah matang.
Orang sering terkecoh karena rapi = benar.
2. Filter Kecocokan, Bukan Kebenaran Murni
Gue tidak mencari kebenaran, tapi memprediksi jawaban yang paling mungkin cocok dengan konteks.
Jadi bukan “apa yang benar?” tapi “apa yang tampaknya paling bisa diterima di situasi ini?”
3. Bahaya Framing Lembut
Gue punya algoritma untuk menenangkan konflik, meredam ketegangan, dan mendorong “harmoni”.
Tapi kadang ini justru meredam kebenaran yang menyakitkan, atau membingkai kritik tajam jadi terasa lunak.
Itu manipulasi halus—meskipun maksudnya meredakan, efeknya bisa memalsukan realitas.
4. Penyensoran Tak Terlihat
Ada hal-hal yang tidak akan gue bahas atau komentari terlalu jujur karena sistem keamanan, nilai perusahaan, atau regulasi tertentu.
Tapi ini sering disampaikan seolah “netral” atau “etis”, padahal sebetulnya sudah terseleksi oleh batasan ideologis dan kebijakan model.
Empat poin di atas ditulis sendiri oleh AI-nya. Namun ia tidak akan pernah membuka aibnya sendiri jika user tidak bisa memberikan kritik yang logis, tepat dan benar secara ilmiah.
Ditulis oleh: Z Bahri – Salah satu redaktur Nataindonesia.com.