astakom, Jakarta – CEO OpenAI Sam Altman baru-baru ini mengingatkan agar pengguna tidak sepenuhnya percaya terhadap jawaban yang diberikan oleh chatbot AI milik Perusahaan ChatGPT.
Alasannya, meskipun ChatGPT seolah cerdas dan banyak membantu, faktanya teknologi ini masih sering salah dan bisa membuat jawaban keliru tapi terdengar meyakinkan.
Baca juga
Altman menyampaikan hal tersebut saat berbicara pada episode perdana podcast resmi OpenAI. Meski begitu, Altman mengatakan bahwa dirinya merasa terkesan ketika orang-orang menaruh “tingkat kepercayaan yang tinggi” pada ChatGPT.
Dalam siniar (podcast) bertajuk “Sam Altman on AGI, GPT-5, and What’s Next – The OpenAI Podcast Ep. 1,” Altman bicara tentang bagaimana pengguna memanfaatkan ChatGPT, seperti dikutip astakom.com, Senin (7/7).
“Orang-orang memiliki tingkat kepercayaan yang sangat tinggi pada ChatGPT, yang menarik, karena AI berhalusinasi. Teknologi itulah yang seharusnya tidak terlalu Anda percayai,” kata Altman tentang ChatGPT milik OpenAI sendiri.
Padahal dalam dunia artificial intelligence istilah ”hallucination” bukan berarti AI benar-benar berkhayal layaknya manusia. Namun, merujuk pada kecenderungan model AI seperti ChatGPT menghasilkan informasi yang salah, meski disampaikan dengan Bahasa yang meyakinkan.
Altman menyarankan agar pengguna selalu memverifikasi informasi yang diberikan ChatGPT, terutama jika digunakan untuk hal penting, seperti Pendidikan, pekerjaan, riset, Kesehatan, dan keuangan.
”Teknologi ini belum benar-benar bisa diandalkan 100 persen. Kami harus jujur dan terbuka soal itu,” tandas Altman dalam podcastnya.
Selama podcast, Altman juga mengakui bahwa meskipun ChatGPT terus berkembang dengan fitur-fitur baru, teknologinya masih memiliki keterbatasan penting yang perlu ditangani dengan jujur dan transparan.
Berbicara tentang pembaruan terkini – termasuk memori persisten dan model yang didukung iklan – Altman mencatat bahwa kemajuan tersebut telah menimbulkan masalah privasi baru.
Altman menjelaskan bahwa ChatGPT bekerja dengan memprediksi kata berikutnya dalam sebuah kalimat, berdasarkan pola bahasa dari data yang digunakan saat pelatihan.
Artinya, chatbot ini tidak benar-benar “mengerti” topik yang sedang dibahas, melainkan hanya meniru pola bahasa yang sering muncul di internet, buku, dan dokumen lainnya.
”Jadi, meski hasilnya sering terasa benar, tetap saja ada kemungkinan besar jawaban yang diberikan AI tidak akurat, keliru, atau bahkan sepenuhnya salah,” katanya.
Untuk itu, lanjut Altman, ChatGPT sebaiknya dipakai seperti kita menggunakan alat bantu lainnya (seperti kalkulator atau kamus), bukan sebagai satu-satunya sumber kebenaran.
Dengan peringatan langsung dari CEO OpenAI ini, pengguna diingatkan untuk tidak menggunakan ChatGPT sebagai satu-satunya sumber informasi.
ChatGPT sangat berguna untuk membantu menulis, merangkum, menjawab pertanyaan, hingga belajar sesuatu yang baru, tapi hasilnya tetap harus dicek dan dikonfirmasi kembali.
“ChatGPT itu alat bantu, bukan pengganti akal sehat kita,” pesan Altman menutup podcast yang dikutip astakom.com dari Business Insider dan NDTV.