Seorang pekerja TI di Delhi mengklaim menggunakan ChatGPT untuk membuat situs pembayaran palsu yang berhasil menangkap lokasi dan foto penipu saat percobaan penipuan “transfer tentara”.
Postingan Reddit tersebut menjadi viral setelah penipu tersebut dikabarkan panik dan memohon ampun ketika dihadapkan dengan datanya sendiri.
Pengguna Reddit lain meniru teknik ini dan mengonfirmasi bahwa kode buatan AI tersebut bisa berfungsi, menyoroti bagaimana alat generatif mengubah praktik scambaiting DIY.
Pusat Seni, Fashion, dan Hiburan Decrypt.
Temukan SCENE
Ketika sebuah pesan muncul di ponselnya dari nomor yang mengaku berasal dari kontak lama di kampus, seorang profesional teknologi informasi yang berbasis di Delhi awalnya merasa penasaran. Pengirim pesan, yang mengaku sebagai pejabat Layanan Administrasi India, mengklaim bahwa temannya yang bertugas di pasukan paramiliter sedang dipindahtugaskan dan perlu menjual perabotan serta alat elektronik mewah dengan harga “sangat murah”.
Ini adalah penipuan klasik “transfer tentara”, modus penipuan digital yang marak di India. Namun alih-alih memblokir nomor tersebut atau menjadi korban, target mengaku memutuskan membalikkan keadaan dengan menggunakan teknologi yang sering dituduh membantu penjahat siber: kecerdasan buatan.
Menipu penipu
Menurut kisah terperinci yang diposting di Reddit, pengguna dengan nama u/RailfanHS menggunakan ChatGPT dari OpenAI untuk “ngoding santai” sebuah situs pelacak. Perangkap ini berhasil mengambil lokasi dan foto wajah penipu, yang kemudian berujung pada konfrontasi digital dramatis di mana pelaku penipuan dikabarkan memohon ampun.
Meski identitas pengguna Reddit tersebut tidak dapat diverifikasi secara independen dan individu tersebut tetap anonim, metode teknis yang dijelaskan dalam postingan telah diteliti dan divalidasi oleh komunitas pengembang dan penggemar AI di platform tersebut.
Insiden ini menyoroti tren “scambaiting” yang semakin berkembang—aksi main hakim sendiri di mana orang-orang melek teknologi memancing penipu untuk membuang waktu atau membongkar operasi mereka—yang kini berevolusi berkat bantuan AI generatif.
Pertemuan yang banyak diberitakan di India ini bermula dengan skenario yang sudah umum. Penipu mengirim foto barang dan kode QR, menuntut pembayaran di muka. Dengan pura-pura mengalami masalah teknis saat memindai, u/RailfanHS beralih ke ChatGPT.
Ia memasukkan prompt ke chatbot AI tersebut untuk menghasilkan halaman web fungsional yang dirancang menyerupai portal pembayaran. Kode tersebut, yang digambarkan sebagai “halaman web PHP 80 baris”, diam-diam dibuat untuk menangkap koordinat GPS pengunjung, alamat IP, dan foto lewat kamera depan.
Mekanisme pelacakan ini sebagian besar mengandalkan teknik rekayasa sosial selain eksploit perangkat lunak. Untuk mengakali fitur keamanan browser yang biasanya memblokir akses kamera tanpa izin, pengguna memberitahu penipu bahwa dia perlu mengunggah kode QR ke tautan untuk “mempercepat proses pembayaran”. Ketika penipu mengunjungi situs dan menekan tombol untuk mengunggah gambar, browser memintanya memberikan izin akses kamera dan lokasi—yang tanpa sadar ia izinkan karena terburu-buru ingin mendapatkan uang.
Gambar: RailfanHS di Reddit
“Karena didorong oleh keserakahan, terburu-buru, dan sepenuhnya percaya pada tampilan portal transaksi, dia mengklik tautan tersebut,” tulis u/RailfanHS dalam thread di subreddit r/delhi. “Saya langsung menerima koordinat GPS live-nya, alamat IP-nya, dan yang paling memuaskan, foto jelas dari kamera depan saat dia duduk.”
Pembalasan pun terjadi dengan cepat. Profesional TI tersebut mengirimkan data yang didapatkan kembali ke penipu. Efeknya, menurut postingan itu, adalah kepanikan seketika. Telepon penipu tersebut membanjiri pengguna dengan panggilan, disusul pesan-pesan yang memohon pengampunan dan berjanji akan meninggalkan dunia kejahatan.
“Dia sekarang memohon, bersikeras akan benar-benar meninggalkan pekerjaan ini dan putus asa meminta kesempatan kedua,” tulis RailfanHS. “Sudah jelas, dia mungkin akan menipu orang lain sejam kemudian, tapi rasanya luar biasa bisa mencuri dari pencuri.”
Redditor memverifikasi pendekatan ini
Meski kisah dramatis keadilan internet seringkali mengundang skeptisisme, dasar teknis dari aksi ini telah diverifikasi oleh pengguna lain di thread tersebut. Pengguna dengan nama u/BumbleB3333 melaporkan berhasil meniru “halaman web HTML palsu” menggunakan ChatGPT. Mereka mencatat bahwa meskipun AI memiliki pembatasan untuk tidak membuat kode berbahaya untuk pengawasan diam-diam, AI tetap mudah menghasilkan kode untuk situs yang tampak sah dan meminta izin pengguna—yang persis menjadi perangkap bagi penipu.
“Saya bisa membuat semacam halaman web HTML palsu dengan ChatGPT. Itu memang menangkap geolokasi saat gambar diunggah setelah meminta izin,” komentar u/BumbleB3333, mengonfirmasi kemungkinan aksi tersebut. Pengguna lain, u/STOP_DOWNVOTING, mengklaim telah membuat “versi etis” dari kode yang bisa dimodifikasi agar berfungsi serupa.
Pembuat posting asli, yang di kolom komentar mengaku sebagai manajer produk AI, mengakui bahwa ia harus menggunakan prompt tertentu untuk melewati beberapa pembatasan keamanan ChatGPT. “Saya sudah cukup terbiasa melewati pembatasan ini dengan prompt yang tepat,” ujarnya, seraya menambahkan ia meng-hosting script di virtual private server.
Pakar keamanan siber mengingatkan bahwa meskipun aksi “hack-back” seperti ini memuaskan, tetap beroperasi di area abu-abu hukum dan dapat berisiko. Namun tetap saja, ini sangat menggoda—dan menjadi tontonan yang memuaskan bagi banyak orang.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Bagaimana Seorang Ahli AI Menggunakan ChatGPT untuk Membalikkan Keadaan terhadap Seorang Penipu
Singkatnya
Pusat Seni, Fashion, dan Hiburan Decrypt.
Temukan SCENE
Ketika sebuah pesan muncul di ponselnya dari nomor yang mengaku berasal dari kontak lama di kampus, seorang profesional teknologi informasi yang berbasis di Delhi awalnya merasa penasaran. Pengirim pesan, yang mengaku sebagai pejabat Layanan Administrasi India, mengklaim bahwa temannya yang bertugas di pasukan paramiliter sedang dipindahtugaskan dan perlu menjual perabotan serta alat elektronik mewah dengan harga “sangat murah”.
Ini adalah penipuan klasik “transfer tentara”, modus penipuan digital yang marak di India. Namun alih-alih memblokir nomor tersebut atau menjadi korban, target mengaku memutuskan membalikkan keadaan dengan menggunakan teknologi yang sering dituduh membantu penjahat siber: kecerdasan buatan.
Menipu penipu
Menurut kisah terperinci yang diposting di Reddit, pengguna dengan nama u/RailfanHS menggunakan ChatGPT dari OpenAI untuk “ngoding santai” sebuah situs pelacak. Perangkap ini berhasil mengambil lokasi dan foto wajah penipu, yang kemudian berujung pada konfrontasi digital dramatis di mana pelaku penipuan dikabarkan memohon ampun.
Meski identitas pengguna Reddit tersebut tidak dapat diverifikasi secara independen dan individu tersebut tetap anonim, metode teknis yang dijelaskan dalam postingan telah diteliti dan divalidasi oleh komunitas pengembang dan penggemar AI di platform tersebut.
Insiden ini menyoroti tren “scambaiting” yang semakin berkembang—aksi main hakim sendiri di mana orang-orang melek teknologi memancing penipu untuk membuang waktu atau membongkar operasi mereka—yang kini berevolusi berkat bantuan AI generatif.
Pertemuan yang banyak diberitakan di India ini bermula dengan skenario yang sudah umum. Penipu mengirim foto barang dan kode QR, menuntut pembayaran di muka. Dengan pura-pura mengalami masalah teknis saat memindai, u/RailfanHS beralih ke ChatGPT.
Ia memasukkan prompt ke chatbot AI tersebut untuk menghasilkan halaman web fungsional yang dirancang menyerupai portal pembayaran. Kode tersebut, yang digambarkan sebagai “halaman web PHP 80 baris”, diam-diam dibuat untuk menangkap koordinat GPS pengunjung, alamat IP, dan foto lewat kamera depan.
Mekanisme pelacakan ini sebagian besar mengandalkan teknik rekayasa sosial selain eksploit perangkat lunak. Untuk mengakali fitur keamanan browser yang biasanya memblokir akses kamera tanpa izin, pengguna memberitahu penipu bahwa dia perlu mengunggah kode QR ke tautan untuk “mempercepat proses pembayaran”. Ketika penipu mengunjungi situs dan menekan tombol untuk mengunggah gambar, browser memintanya memberikan izin akses kamera dan lokasi—yang tanpa sadar ia izinkan karena terburu-buru ingin mendapatkan uang. Gambar: RailfanHS di Reddit
“Karena didorong oleh keserakahan, terburu-buru, dan sepenuhnya percaya pada tampilan portal transaksi, dia mengklik tautan tersebut,” tulis u/RailfanHS dalam thread di subreddit r/delhi. “Saya langsung menerima koordinat GPS live-nya, alamat IP-nya, dan yang paling memuaskan, foto jelas dari kamera depan saat dia duduk.”
Pembalasan pun terjadi dengan cepat. Profesional TI tersebut mengirimkan data yang didapatkan kembali ke penipu. Efeknya, menurut postingan itu, adalah kepanikan seketika. Telepon penipu tersebut membanjiri pengguna dengan panggilan, disusul pesan-pesan yang memohon pengampunan dan berjanji akan meninggalkan dunia kejahatan.
“Dia sekarang memohon, bersikeras akan benar-benar meninggalkan pekerjaan ini dan putus asa meminta kesempatan kedua,” tulis RailfanHS. “Sudah jelas, dia mungkin akan menipu orang lain sejam kemudian, tapi rasanya luar biasa bisa mencuri dari pencuri.”
Redditor memverifikasi pendekatan ini
Meski kisah dramatis keadilan internet seringkali mengundang skeptisisme, dasar teknis dari aksi ini telah diverifikasi oleh pengguna lain di thread tersebut. Pengguna dengan nama u/BumbleB3333 melaporkan berhasil meniru “halaman web HTML palsu” menggunakan ChatGPT. Mereka mencatat bahwa meskipun AI memiliki pembatasan untuk tidak membuat kode berbahaya untuk pengawasan diam-diam, AI tetap mudah menghasilkan kode untuk situs yang tampak sah dan meminta izin pengguna—yang persis menjadi perangkap bagi penipu.
“Saya bisa membuat semacam halaman web HTML palsu dengan ChatGPT. Itu memang menangkap geolokasi saat gambar diunggah setelah meminta izin,” komentar u/BumbleB3333, mengonfirmasi kemungkinan aksi tersebut. Pengguna lain, u/STOP_DOWNVOTING, mengklaim telah membuat “versi etis” dari kode yang bisa dimodifikasi agar berfungsi serupa.
Pembuat posting asli, yang di kolom komentar mengaku sebagai manajer produk AI, mengakui bahwa ia harus menggunakan prompt tertentu untuk melewati beberapa pembatasan keamanan ChatGPT. “Saya sudah cukup terbiasa melewati pembatasan ini dengan prompt yang tepat,” ujarnya, seraya menambahkan ia meng-hosting script di virtual private server.
Pakar keamanan siber mengingatkan bahwa meskipun aksi “hack-back” seperti ini memuaskan, tetap beroperasi di area abu-abu hukum dan dapat berisiko. Namun tetap saja, ini sangat menggoda—dan menjadi tontonan yang memuaskan bagi banyak orang.