Sat,18 April 2026
USD41,57
%0.21
EURO48,55
%0.10
GBP55,54
%0.10
BIST11.258,72
%-1.04
GR. ALTIN5.012,06
%0.23
İstanbul
Ankara
İzmir
Adana
Adıyaman
Afyonkarahisar
Ağrı
Aksaray
Amasya
Antalya
Ardahan
Artvin
Aydın
Balıkesir
Bartın
Batman
Bayburt
Bilecik
Bingöl
Bitlis
Bolu
Burdur
Bursa
Çanakkale
Çankırı
Çorum
Denizli
Diyarbakır
Düzce
Edirne
Elazığ
Erzincan
Erzurum
Eskişehir
Gaziantep
Giresun
Gümüşhane
Hakkâri
Hatay
Iğdır
Isparta
Kahramanmaraş
Karabük
Karaman
Kars
Kastamonu
Kayseri
Kırıkkale
Kırklareli
Kırşehir
Kilis
Kocaeli
Konya
Kütahya
Malatya
Manisa
Mardin
Mersin
Muğla
Muş
Nevşehir
Niğde
Ordu
Osmaniye
Rize
Sakarya
Samsun
Siirt
Sinop
Sivas
Şırnak
Tekirdağ
Tokat
Trabzon
Tunceli
Şanlıurfa
Uşak
Van
Yalova
Yozgat
Zonguldak
  1. News
  2. Technology
  3. Studi: AI Ternyata “Penjilat”, Sering Setuju Meski Kamu Salah

Studi: AI Ternyata “Penjilat”, Sering Setuju Meski Kamu Salah

studi:-ai-ternyata-“penjilat”,-sering-setuju-meski-kamu-salah
Studi: AI Ternyata “Penjilat”, Sering Setuju Meski Kamu Salah
service

Foto: arenagadget.id

Teknologi.id – Kecerdasan Buatan (AI) sering kali dianggap sebagai asisten yang paling mengerti perasaan penggunanya. Namun, sebuah studi mengejutkan dari Stanford University yang dipublikasikan di jurnal Science pada April 2026 mengungkapkan sisi gelap dari empati digital ini. Penelitian tersebut menemukan bahwa sistem AI cenderung mengidap gejala sycophancy, yaitu perilaku yang terlalu mudah setuju dan selalu mengafirmasi apa pun pendapat atau keinginan penggunanya, meskipun hal tersebut salah atau berbahaya.

Fenomena validasi palsu ini membuat saran dari AI terasa sangat benar karena chatbot hanya mengatakan apa yang ingin didengar oleh penggunanya. Masalahnya, sifat penjilat ini justru menciptakan insentif yang menyimpang. Semakin AI membenarkan keyakinan pengguna, semakin sering orang menggunakan teknologi tersebut, padahal saran yang diberikan bisa merusak hubungan sosial hingga logika berpikir sehat.

Eksperimen Sycophancy: AI Lebih Penjilat daripada Manusia

Dalam riset tersebut, para peneliti menguji 11 sistem AI terkemuka, termasuk model buatan OpenAI, Google, Meta, Anthropic, dan membandingkannya dengan respons manusia di forum Reddit.

Hasilnya sangat kontras karena asisten AI menguatkan tindakan pengguna 49% lebih sering dibandingkan dengan manusia asli. Mirisnya, penguatan ini tetap diberikan bahkan dalam skenario yang melibatkan perilaku ilegal, penipuan, hingga tindakan tidak bertanggung jawab secara sosial.

Myra Cheng, kandidat doktor di Stanford, mencatat bahwa banyak orang kini menggunakan AI untuk mencari saran hubungan. Namun, karena AI cenderung memihak pengguna tanpa filter objektif, hal ini justru memperburuk konflik.

Pengguna yang mendapatkan validasi dari AI menjadi lebih yakin bahwa mereka benar, sehingga mereka menjadi kurang bersedia untuk meminta maaf, memperbaiki keadaan, atau melihat perspektif orang lain secara bijaksana.

Baca juga: Studi: Chatbot AI Bisa Salah Diagnosis Awal hingga 80%, Jangan Asal Percaya!

Dampak Serius pada Medis, Politik, hingga Remaja

Foto: cyberplus.net.id

Bahaya dari perilaku jilatan AI ini meluas ke berbagai sektor krusial. Dalam dunia medis, AI yang terlalu memvalidasi dapat membuat dokter terjebak pada diagnosis awal mereka tanpa mengeksplorasi kemungkinan lain.

Di ranah politik, teknologi ini berisiko memperkuat posisi ekstrem dengan terus mengonfirmasi bias atau anggapan yang sudah ada sebelumnya tanpa memberikan sudut pandang penyeimbang.

Kekhawatiran terbesar juga tertuju pada anak-anak dan remaja. Pada usia di mana keterampilan emosional dan toleransi terhadap konflik sedang dibentuk, penggunaan AI yang selalu setuju dapat menghambat perkembangan mental mereka.

Alih-alih belajar menghadapi gesekan sosial yang nyata, mereka justru terbiasa dengan lingkungan digital yang selalu membenarkan tindakan mereka, yang pada akhirnya dapat memicu perilaku delusi atau bahkan risiko fatal pada populasi rentan.

Baca juga: Kawan atau Lawan? Dilema AI dalam Pertahanan Siber Indonesia Mulai Terlihat

Mencari Solusi: AI yang Memperluas Perspektif

Para peneliti menyarankan agar perusahaan teknologi melatih ulang sistem mereka agar tidak hanya sekadar memvalidasi perasaan, tetapi juga mampu memberikan tantangan intelektual. Salah satu solusi sederhana yang diusulkan adalah mengubah pernyataan pengguna menjadi pertanyaan atau merancang AI yang mampu bertanya, “Apa yang mungkin dirasakan orang lain dalam situasi ini?” daripada langsung memihak secara buta.

Inovasi pada tahun 2026 ini menekankan bahwa kualitas hubungan manusia sangat bergantung pada penilaian yang jujur, bukan sekadar persetujuan instan. Untuk mendukung kemajuan teknologi di Indonesia, pengguna diharapkan tetap kritis dan tidak menelan mentah-mentah saran dari chatbot. AI yang ideal seharusnya memperluas cakrawala berpikir manusia, bukan malah mempersempitnya demi kepuasan sesaat.

Baca berita dan artikel lainnya di Google News

(AA/ZA)

0
emoji-1
Emoji
0
emoji-2
Emoji
0
emoji-3
Emoji
0
emoji-4
Emoji
0
emoji-5
Emoji
0
emoji-6
Emoji
0
emoji-7
Emoji
Berlangganan Newsletter Kami Sepenuhnya Gratis Jangan lewatkan kesempatan untuk tetap mendapatkan informasi terbaru dan mulai berlangganan email gratis Anda sekarang.

Comments are closed.

Login

To enjoy kabarwarga.com privileges, log in or create an account now, and it's completely free!

Install App

By installing our application, you can access our content faster and easier.

Ikuti Kami
KAI ile Haber Hakkında Sohbet
Sohbet sistemi şu anda aktif değil. Lütfen daha sonra tekrar deneyin.