Aplikasi QRIS
GET - On The Store

Waspada! Penipuan Keuangan Semakin Canggih Gunakan AI, Begini Cara Melindungi Diri.

Waspada! Penipuan Keuangan Semakin Canggih Gunakan AI, Begini Cara Melindungi Diri., QRIS, Cara Daftar QRIS
12 Agustus 2025
Waspada! Penipuan Keuangan Semakin Canggih Gunakan AI, Begini Cara Melindungi Diri.

Perkembangan teknologi memang membawa kemudahan dalam berbagai aspek kehidupan, termasuk dalam urusan keuangan. Namun, kemajuan ini ternyata juga dimanfaatkan oleh pihak-pihak yang tidak bertanggung jawab. Otoritas Jasa Keuangan (OJK) mengingatkan masyarakat untuk meningkatkan kewaspadaan, karena kini marak modus penipuan keuangan yang memanfaatkan Artificial Intelligence (AI).

Menurut Kepala Eksekutif Pengawas Perilaku Pelaku Usaha Jasa Keuangan, Edukasi, dan Perlindungan Konsumen OJK, Friderica Widyasari, teknologi AI saat ini bisa digunakan untuk memalsukan suara (voice cloning) dan menciptakan wajah palsu (deepfake). Dua metode ini membuat penipuan semakin meyakinkan dan sulit dibedakan dari interaksi asli.


Bagaimana Modus Penipuan Berbasis AI Bekerja?

1. Tiruan Suara (Voice Cloning)

Voice cloning memungkinkan pelaku merekam suara target atau orang yang dekat dengan target. Dengan data suara yang sudah dikumpulkan, penipu dapat membuat rekaman atau melakukan panggilan yang terdengar persis seperti orang yang kita kenal bisa teman, keluarga, atau rekan kerja.

- Contohnya, penipu mungkin akan menelepon sambil berpura-pura sebagai anak Anda yang sedang membutuhkan uang darurat, lengkap dengan nada bicara dan intonasi yang mirip aslinya.


2. Tiruan Wajah (Deepfake)

Deepfake adalah teknologi yang mampu membuat video palsu dengan wajah dan ekspresi yang sangat mirip seseorang. Pelaku bisa menggunakan video ini untuk meyakinkan korban bahwa mereka sedang berbicara lewat video call dengan orang yang dikenal.

- Misalnya, seseorang mungkin menerima video singkat dari "atasan" yang meminta transfer dana, padahal itu hanyalah manipulasi visual yang diciptakan AI.


Mengapa Penipuan AI Lebih Berbahaya?

Penipuan konvensional biasanya mudah dikenali lewat logat, tata bahasa, atau permintaan yang mencurigakan. Namun, dengan AI, semua celah itu tertutup karena suara dan wajah yang digunakan terlihat meyakinkan.

Masalahnya, banyak orang akan langsung percaya ketika berinteraksi dengan orang yang terlihat dan terdengar seperti yang mereka kenal. Inilah yang membuat penipuan AI jauh lebih berbahaya dibanding modus lama.


Tanda-Tanda Anda Sedang Menghadapi Penipuan Berbasis AI

OJK mengingatkan, ada beberapa ciri yang patut diwaspadai:

  • Permintaan mendesak yang melibatkan uang atau data pribadi.

  • Kontak yang tiba-tiba dari orang yang jarang berkomunikasi dengan Anda.

  • Perbedaan kecil pada ekspresi wajah atau intonasi suara yang terasa tidak biasa.

  • Permintaan yang datang di luar kebiasaan, seperti transfer di jam larut malam atau perubahan rekening tujuan secara mendadak.


Langkah Pencegahan yang Disarankan OJK

1. Lakukan Verifikasi Lewat Saluran Berbeda

Jika ada permintaan mencurigakan, hubungi langsung orang yang bersangkutan melalui jalur komunikasi resmi atau nomor yang sudah Anda simpan sebelumnya.

2. Jaga Kerahasiaan Data Pribadi

Jangan pernah membagikan informasi seperti nomor rekening, PIN, password, atau kode OTP kepada siapa pun, bahkan jika mereka mengaku sebagai pihak bank atau keluarga.

3. Waspadai Media yang Tidak Biasa

Jika video atau suara terasa aneh meski berasal dari orang yang dikenal, jangan langsung percaya. Cek dan tanyakan ulang kebenarannya.

4. Gunakan Keamanan Berlapis

Aktifkan fitur keamanan ganda (two-factor authentication) di akun finansial Anda untuk menambah lapisan perlindungan.


Kasus-Kasus yang Pernah Terjadi

Walau OJK tidak merinci kasus tertentu, di berbagai negara sudah banyak laporan terkait penipuan AI. Salah satu contohnya adalah korban yang mentransfer ratusan juta rupiah karena percaya sedang berbicara dengan atasan lewat video call palsu. Ada pula yang kehilangan tabungan setelah menerima telepon dari "anaknya" yang meminta uang dengan suara yang 100% mirip.


Mengapa Masyarakat Perlu Waspada Sejak Sekarang

Teknologi AI berkembang sangat cepat. Apa yang sebelumnya hanya bisa dilakukan di film, kini dapat dilakukan siapa saja dengan perangkat biasa dan software gratis. Penipu bisa membuat deepfake hanya dengan beberapa menit rekaman video atau audio target.

Selain itu, di era media sosial, banyak orang dengan mudah membagikan video dan suara mereka secara publik. Konten ini bisa dimanfaatkan oleh pelaku kejahatan untuk menciptakan tiruan yang nyaris sempurna.


Peran Edukasi dan Literasi Digital

OJK menekankan bahwa perlindungan terbaik adalah edukasi. Masyarakat perlu memahami bahwa teknologi tidak selalu netral; ia bisa dimanfaatkan untuk hal positif, tapi juga bisa menjadi alat kejahatan. Dengan literasi digital yang baik, kita bisa lebih kritis sebelum mempercayai informasi atau permintaan yang kita terima.


Kesimpulan: Jangan Jadi Korban Penipuan AI

Penipuan berbasis AI adalah ancaman nyata yang sudah mulai terjadi di Indonesia. Tiruan suara dan deepfake wajah membuat kejahatan ini semakin sulit dibedakan dari interaksi asli. Oleh karena itu, penting untuk selalu waspada, melakukan verifikasi informasi, dan menjaga kerahasiaan data pribadi.


Lindungi diri Anda dan orang-orang terdekat dari penipuan digital!
✅ Jangan mudah percaya pada suara atau video, meski terlihat dan terdengar meyakinkan.
✅ Simpan nomor penting dan hubungi langsung jika ada permintaan mendesak.
✅ Edukasi keluarga dan rekan kerja tentang ancaman penipuan AI.

Daftar sekarang juga menjadi merchant QRIS dan bergabung dengan 15,7 Juta bisnis lainnya yang sudah menggunakan pembayaran QRIS di seluruh indonesia !
Ica InterActive Chat Bot
Icha
InterActive Chatbot Assistant

Terimakasih telah mengunjungi Website QRIS

Berikut kami kirimkan beberapa link mengenai QRIS :

Link Pendaftaran QRIS disini

FAQ / Tanya Jawab disini

Pengajuan Open API disini

Skema Biaya Transaksi disini

contact whatsapp