AI

Mengapa AI Paling Pintar Sekalipun Masih Keok Hadapi Soal Matematika Orisinal?

Mengapa AI Paling Pintar Sekalipun Masih Keok Hadapi Soal Matematika Orisinal?
Mengapa AI Paling Pintar Sekalipun Masih Keok Hadapi Soal Matematika Orisinal?

JAKARTA - Dunia akademik, khususnya bidang matematika, sempat diguncang kekhawatiran mengenai dominasi kecerdasan buatan (AI). Namun, kabar terbaru membawa angin segar bagi para pejuang angka. Martin Hairer, sosok jenius pemenang Fields Medal 2014—penghargaan yang sering disebut sebagai "Nobel Matematika"—menegaskan bahwa profesi matematikawan masih jauh dari kata terancam oleh algoritma.

Pernyataan ini muncul bukan tanpa alasan. Hairer awalnya merespons kegelisahan seorang siswa SMA melalui e-mail. Siswa tersebut merasa masa depannya di dunia matematika akan habis ditelan kecanggihan AI. Dengan tenang, Hairer mematahkan asumsi tersebut. Meski mengakui bahwa Large Language Model (LLM) seperti ChatGPT sangat mahir melahap soal-soal latihan standar yang bertebaran di internet, ada satu batas tegas yang belum bisa dilewati mesin: orisinalitas.

Matematika Masih Menjadi Benteng Terakhir Manusia

Menurut Hairer, kekuatan utama AI saat ini hanyalah mengolah data yang sudah ada. "Saya belum melihat contoh yang masuk akal di mana LLM menghasilkan ide atau konsep baru yang benar-benar orisinal," ungkap Hairer. Kalimat ini menjadi tamparan bagi mereka yang menganggap AI sudah mampu "berpikir" secara mandiri.

Untuk membuktikan ucapannya, Hairer tidak bekerja sendirian. Ia menggandeng tim matematikawan elit dari universitas top dunia seperti Harvard, Stanford, dan MathSci.ai. Mereka merancang sebuah eksperimen ambisius bertajuk "First Proof". Misinya sederhana namun mematikan bagi AI: menguji model paling mutakhir, termasuk ChatGPT-5.2 Pro dan Google Gemini 3.0 Deep Think, dengan soal-soal riset yang belum pernah dipublikasikan di mana pun.

Eksperimen First Proof dan Kegagalan Model AI Mutakhir

Strategi menggunakan soal yang belum pernah dipublikasikan bertujuan untuk memastikan AI tidak bisa "menyontek" dari database pelatihannya. Hasilnya ternyata jauh dari kata memuaskan. Alih-alih tampil sebagai asisten profesor yang andal, performa AI justru disamakan oleh Hairer dengan "mahasiswa S1 yang kurang pintar".

Fenomena ini menarik untuk dibedah. Hairer mengamati bahwa AI memiliki kecenderungan unik saat mencoba menyelesaikan pembuktian rumit. Model AI sering kali memberikan penjelasan yang sangat panjang lebar dan mendetail pada bagian-bagian yang sebenarnya mudah. Namun, begitu masuk ke inti argumen yang membutuhkan logika mendalam dan sulit, detailnya mendadak hilang.

"Model AI seolah tahu titik awal dan tujuan akhirnya, tetapi tidak tahu jalan untuk sampai ke sana," jelas Hairer. Akibatnya, AI sering kali terjebak dalam praktik "karang-mengarang" atau melakukan hand-waving. Mereka menyajikan argumen yang kabur di tengah pembuktian, dengan harapan pembaca tidak akan menyadari celah logika tersebut.

Tiga Kelemahan Fatal yang Menghambat Kecerdasan Buatan

Tim peneliti yang terlibat dalam riset ini mengidentifikasi tiga alasan utama mengapa profesor matematika belum bisa digantikan oleh mesin dalam waktu dekat. Pertama adalah kelemahan dalam penalaran visual (visual reasoning). AI diketahui sangat buruk dalam membayangkan ruang atau geometri yang membutuhkan imajinasi visual tinggi.

Kedua, masalah daya ingat jangka pendek. Matematika riset sering kali membutuhkan pembuktian yang sangat panjang, terkadang melampaui lima halaman. Dalam eksperimen tersebut ditemukan bahwa kualitas jawaban AI akan menurun drastis dan mulai berbicara tidak keruan (ngawur) jika dipaksa melakukan pembuktian yang panjang dan berkelanjutan.

Ketiga, keterbatasan AI dalam berdialektika. Tamara Kolda, salah satu penulis makalah tersebut, menyebut AI sebagai entitas yang membosankan karena sifatnya yang hanya menjadi "Yes Man". AI cenderung hanya mengikuti sudut pandang penggunanya tanpa berani memberikan sanggahan. Padahal, inti dari kemajuan sains adalah adanya perdebatan ide dan benturan logika untuk menemukan kebenaran.

Terjebak dalam Lingkaran Setan Logika

Lauren Williams, profesor matematika dari Harvard, menemukan fenomena yang tak kalah menggelitik saat menguji AI dengan masalah riset sungguhan. AI sering kali terjebak dalam apa yang disebut sebagai infinite loop atau lingkaran setan.

Dalam proses pengerjaannya, AI akan memberikan sebuah jawaban, namun beberapa saat kemudian ia akan menyadari kesalahannya sendiri. "Tunggu, ada yang salah!" begitu kira-kira respons sistem tersebut. Ia kemudian memberikan jawaban baru, namun kembali mengoreksinya, dan siklus ini terus berulang tanpa pernah berhasil mencapai solusi final yang benar dan valid.

Kondisi ini menunjukkan bahwa meskipun AI memiliki kecepatan akses informasi yang luar biasa, mereka masih kekurangan "intuisi" dan "keteguhan logika" yang dimiliki oleh otak manusia. Bagi para pelajar dan mahasiswa matematika, temuan ini menjadi pengingat penting: teknologi adalah alat bantu, namun kreativitas dan kemampuan untuk mencetuskan ide orisinal tetap menjadi milik manusia sepenuhnya.

Rekomendasi

Index

Berita Lainnya

Index