banner 728x250

Ketika ChatGPT “Meramal” Perselingkuhan: Cerai karena Ampas Kopi Digital?

Illustrasi Wanita Minta Cerai Karena ChatGPT
banner 120x600
banner 468x60

Oleh PixelScribe

Bayangkan Anda sedang duduk dengan pasangan, menikmati secangkir kopi sore sambil iseng memotret ampasnya untuk “diramal” oleh AI. Sejenak terlihat lucu, namun yang terjadi selanjutnya justru menjadi mimpi buruk digital. Inilah kisah nyata dari Yunani, di mana seorang wanita menggugat cerai suaminya—bukan karena tertangkap basah berselingkuh, tetapi karena ramalan dari ChatGPT. Ya, chatbot AI.

banner 325x300

AI dan Tasseografi: Ketika Tradisi Kuno Bertemu Teknologi

Pasangan tersebut awalnya hanya ingin bermain-main dengan seni kuno bernama tasseografi, yaitu meramal nasib dari pola ampas kopi atau teh. Mereka mengirim foto ampas kopi mereka ke ChatGPT, lalu meminta analisis seperti seorang cenayang digital.

Dan jawaban AI? Mencengangkan. ChatGPT “melihat” adanya fantasi perselingkuhan dari sang suami, bahkan menyebut inisial perempuan lain—“E”—yang dikatakan telah ditakdirkan untuk hadir sebagai orang ketiga. Sontak, sang istri langsung percaya. Ia mengusir suaminya dari rumah, memberitahu anak-anak, dan dalam tiga hari—gugatan cerai dikirimkan ke pengadilan.

Realitas atau Halusinasi Digital?

Fenomena ini menempatkan kita di titik yang aneh dalam sejarah relasi manusia dan teknologi: saat kita mempercayai bot yang tak berjiwa lebih dari pasangan kita sendiri. Tapi pertanyaannya, seakurat apa ChatGPT bisa membaca pola acak di dasar cangkir?

Jawabannya: tidak akurat sama sekali.

Menurut laporan dari TechRadar dan hasil riset OpenAI sendiri, ChatGPT dan model AI lainnya seperti o3 dan o4-mini tidak dilatih untuk meramal. Bahkan mereka tidak memahami konteks spiritual atau simbolik dari seni seperti tasseografi. Yang mereka lakukan adalah membentuk narasi dari data visual—dan kadang mengada-ada. Inilah yang disebut fenomena halusinasi AI.

Skor “Halu” Model AI: Antara Imajinasi dan Fiksi Ilmiah

Riset dari OpenAI menunjukkan model o4-mini bisa memiliki tingkat halusinasi hingga 79% pada skenario SimpleQA (jawaban faktual singkat). Artinya, hampir 8 dari 10 jawaban bisa saja salah kaprah. Bahkan untuk model reasoning seperti Granite 3.2 (IBM) atau DeepSeek R1, tingkat halusinasi masih cukup tinggi—hingga 16,5%.

Masalahnya? Model AI sering tidak tahu bagaimana caranya berkata “saya tidak tahu”. Mereka tetap akan menjawab, walau itu hanya tebak-tebakan elegan dengan gaya bahasa meyakinkan.

Sam Altman: Halusinasi adalah “Fitur”, Bukan Bug?

Dalam posisi yang mengejutkan, CEO OpenAI Sam Altman menyebut bahwa kemampuan model AI untuk “mengarang” adalah bagian dari fitur, bukan kesalahan. Ia melihatnya sebagai kekuatan naratif, meski pihak lain seperti Google dan Microsoft justru berlomba memperbaiki hal ini lewat sistem seperti Vertex dan Microsoft Correction, yang memberi tanda ketika informasi mungkin keliru.

Namun, bisa dibayangkan implikasi dari “kekuatan naratif” ini ketika digunakan di luar konteks hiburan atau literatur. Kasus di Yunani adalah contohnya—hasil karangan AI telah mengakhiri rumah tangga.

Masalah Etika dan Hukum: AI sebagai Bukti Perceraian?

Secara hukum, penggunaan hasil chatbot sebagai bukti dalam proses pengadilan adalah absurd. Tidak ada landasan hukum yang sah yang mengakui hasil ramalan AI sebagai valid evidence. Tasseografi itu sendiri adalah bentuk seni spekulatif yang sudah ada ribuan tahun, tapi ChatGPT bukan pewaris sah tradisi tersebut—ia adalah mesin prediktif.

Yang lebih mengkhawatirkan adalah cepatnya seseorang mempercayai AI melebihi akal sehat. Ini memperlihatkan bahwa teknologi bukan lagi sekadar alat bantu, tapi telah menjadi “otoritas” baru yang menggeser rasionalitas manusia.

Refleksi: Ke Mana Kepercayaan Kita Dialamatkan?

Kisah ini adalah momen cermin untuk kita semua. Bukan hanya tentang AI atau rumah tangga yang retak, tapi soal bagaimana kita memperlakukan teknologi sebagai medium “kebenaran.” Di era di mana chatbot bisa berbicara seperti manusia, menulis seperti jurnalis, dan kini—meramal seperti dukun, garis antara fiksi dan realitas makin kabur.

Pertanyaannya bukan lagi bisakah AI menggantikan manusia, tapi apakah kita siap menggantikan akal sehat dengan algoritma?

banner 325x300

Tinggalkan Balasan