Bola.com, Jakarta - Tim keamanan siber dari Tenable menemukan adanya sejumlah celah dalam sistem ChatGPT buatan OpenAI yang dapat dimanfaatkan peretas untuk mencuri informasi pribadi pengguna dari riwayat percakapan maupun memori aplikasi.
Dalam laporan mereka, para peneliti mengidentifikasi tujuh kerentanan utama yang sebagian besar bersumber dari cara kerja ChatGPT dan model pendukungnya, SearchGPT, saat melakukan pencarian daring sebagai respons atas permintaan pengguna, dari mencari informasi, merangkum halaman, hingga mengakses tautan tertentu.
Kerentanan ini memungkinkan peretas mengubah perilaku chatbot tanpa sepengetahuan pengguna.
"Dengan menggabungkan berbagai celah dan teknik yang kami temukan, kami berhasil membuat bukti konsep untuk beberapa jenis serangan yang lengkap," ujar Moshe Bernstein dan Liv Matan, peneliti dari Tenable, dikutip dari Dark Reading, Senin (10-11-2025).
Tambah Daftar Kelemahan
Temuan ini menambah panjang daftar penelitian yang menyoroti lemahnya keamanan Large Language Models (LLM) dan chatbot berbasis kecerdasan buatan.
Sejak ChatGPT dirilis ke publik pada akhir 2022, para pakar keamanan berkali-kali memperingatkan risiko serangan seperti prompt injection, kebocoran data, hingga jailbreaking yang dapat mengancam integritas sistem.
Berbeda dengan celah pada perangkat lunak konvensional, serangan terhadap model AI kerap memanfaatkan manipulasi instruksi dan konten, membuatnya sulit dicegah.
Itulah mengapa, Tenable menilai hasil penelitian ini menjadi peringatan penting bagi perusahaan yang berencana mengintegrasikan LLM dan chatbot ke dalam sistem kerja mereka agar lebih waspada terhadap potensi risiko keamanan.
Tujuh Celah Keamanan yang Ditemukan di ChatGPT
Tenable mengungkap tujuh jenis kerentanan terkait cara ChatGPT menerima serta memproses instruksi dari sumber eksternal, termasuk situs web, hasil pencarian, komentar blog, hingga tautan yang dibuat khusus oleh penyerang.
Berikut perinciannya:
1. Indirect Prompt Injection dalam Konteks Penelusuran
Celah ini terjadi ketika peretas menyisipkan instruksi tersembunyi dalam konten yang terlihat aman, seperti komentar blog atau artikel di situs tepercaya.
Saat pengguna meminta ChatGPT merangkum halaman tersebut, sistem akan tanpa sadar menjalankan instruksi berbahaya itu, misalnya mengarahkan ke situs phishing.
2. Safety Mechanism Bypass
Fitur keamanan ChatGPT seharusnya memblokir tautan berbahaya, tetapi penyerang dapat menipu sistem dengan menyamarkan URL menggunakan domain wrapper yang dipercaya. Akibatnya, tautan berisiko tetap bisa diakses pengguna.
3. Conversation Injection
Dalam skenario ini, peretas dapat menanamkan instruksi berbahaya ke konten yang diambil oleh SearchGPT.
Instruksi itu kemudian dianggap ChatGPT sebagai bagian dari percakapan sehingga mengubah arah respons tanpa disadari pengguna.
4. Penyembunyian Konten Berbahaya
Dengan memanfaatkan kesalahan dalam pemformatan markdown, peretas bisa menyembunyikan instruksi berbahaya di dalam blok kode.
Kendati tampak aman di layar, ChatGPT tetap dapat membaca dan menjalankan perintah tersembunyi tersebut.
5. Injeksi Prompt Tanpa Klik dalam Pencarian (Zero-Click Attack)
Jenis kerentanan ini sangat berbahaya karena tidak membutuhkan tindakan pengguna. Cukup dengan mengajukan pertanyaan tertentu, ChatGPT dapat mengambil situs yang sudah diracuni dan menjalankan instruksi berbahaya di dalamnya.
6. Injeksi Memori Persisten
Celah ini menargetkan fitur memori ChatGPT. Setelah berhasil menyuntikkan perintah berbahaya, instruksi tersebut bisa tersimpan secara permanen dan diaktifkan kembali di sesi berikutnya, berpotensi membocorkan data pribadi pengguna hingga memori dihapus.
7. Eksfiltrasi Data
Ini merupakan tahap akhir dari serangan yang menggabungkan beberapa kerentanan sebelumnya.
Dengan teknik injeksi prompt dan pengelabuan keamanan, peretas dapat mencuri data sensitif seperti riwayat percakapan atau file dari layanan terhubung (misalnya Google Drive atau Gmail), lalu mengirimkannya ke server mereka.
Pengaruh terhadap ChatGPT-5
Bernstein menambahkan, kelompok peretas dengan sumber daya besar seperti Advanced Persistent Threat (APT) dapat mengeksploitasi satu atau lebih celah tersebut untuk menyerang banyak pengguna sekaligus.
Menurut Tenable, penelitian dilakukan terutama pada ChatGPT-4o, tetapi sejumlah kerentanan, termasuk indirect prompt injection serta serangan zero-click dan one-click, juga ditemukan masih berlaku di ChatGPT-5.
Tenable mengaku telah melaporkan temuan ini kepada OpenAI pada April lalu.
OpenAI dikabarkan sudah menerima laporan tersebut, tetapi belum memberikan penjelasan apakah langkah perbaikan telah dilakukan untuk menutup celah-celah yang dilaporkan.
Sumber: merdeka.com