Terjadi Modus Penipuan Suara AI alias Kecerdasan Buatan, Belasan Juta Melayang



KONTAN.CO.ID - TEXAS. Seorang pria di Texas, Amerika Serikat, membagikan peringatan kepada keluarga lain tentang penipuan kecerdasan buatan (AI) setelah ayahnya mengalami penipuan hingga US$ 1.000 atau sekitar Rp 14,800 juta.

“Ketika Anda berada dalam kecemasan dan kepanikan, ketika Anda berada di sana untuk membantu keluarga Anda, saya pikir logika akan terlempar keluar jendela,” kata Lee Hall kepada “Good Morning America.” 

"Itulah yang dipertaruhkan oleh para scammer, jadi sekarang kita harus meningkatkan tingkat kecanggihan kita sehingga hal-hal ini tidak akan terjadi pada orang yang kita cintai."


Mengutip ABC News, Hall mengatakan ayahnya, yang tidak disebutkan namanya, menerima telepon darurat yang menurutnya berasal dari cucunya, Christian, yang merupakan putra Hall.

“Dia memberi tahu kakeknya bahwa dia sedang berlibur di Meksiko bersama teman-temannya. Mendapat masalah. Ketakutan setengah mati. Dia minum sedikit dan mengalami kecelakaan dan sekarang itulah alasan mengapa dia dalam sedikit masalah dan dia membutuhkan sejumlah uang untuk mengeluarkannya dari situasi itu," kata Hall tentang telepon yang diterima ayahnya yang diyakini dari Christian.

Baca Juga: Apa itu Character AI dan Bagaimana Cara Menggunakannya?

Hall menduga, penipu menggunakan kecerdasan buatan, yang dikenal sebagai AI, untuk meniru suara Christian untuk memohon bantuan dan uang.

Hall mengatakan ayahnya lantas mengirim dana sebesar US$ 1.000 kepada tersangka scammer.

"Cerita itu sangat bisa dipercaya," kata Hall tentang telepon yang diterima ayahnya. "Yang menakutkan adalah ayah saya benar-benar tidak aktif. Dia tidak punya akun media sosial. Dia bahkan tidak punya email. Tapi fakta bahwa mereka masih menghubungkan anak saya, itu membuatnya semakin menakutkan."

Hall mengatakan dia dan istrinya mengkonfirmasi bahwa itu adalah penipuan ketika mereka menelepon putra mereka, yang merupakan seorang mahasiswa.

“Saya baru tahu itu penipuan karena kami tahu bahwa [Christian] baik-baik saja," katanya. "Kami tahu dia ada di Dallas, jadi kami langsung meneleponnya dan dia berkata, 'Ya, bu, saya ikut perguruan tinggi di Dallas, 'jadi kami tahu itu scam," jelasnya.

Bulan lalu, Jennifer DeStefano, seorang ibu di Arizona, memberi tahu "GMA" bagaimana dia juga menerima telepon yang mengkhawatirkan yang ternyata merupakan skema kloning suara AI.

Baca Juga: Inilah Jenis Pekerjaan yang Banyak Dicari & Bakal Hilang di Masa Depan

“Itu suara putriku yang menangis dan terisak, berkata, 'Bu,'” kata DeStefano. "Dan aku seperti, 'Oke, apa yang terjadi?' Dia seperti, 'Bu, orang-orang jahat ini menahanku, tolong aku, tolong aku,'" cerita DeStefano.

Kemudian, DeStefano mengatakan seorang pria menuntut dia membayar uang tebusan sebagai ganti pembebasan Briana dengan aman. Tetapi dia mengatakan kepadanya bahwa dia tidak menginginkan transfer kawat untuk tebusan dan ingin pergi dan menjemputnya.

Untungnya, DeStefano dapat memastikan putrinya aman dalam beberapa menit.

Komisi Perdagangan Federal mengatakan penipu dapat dengan mudah menggunakan AI untuk mengkloning suara dengan klip audio pendek yang sering ditemukan di media sosial.

Menurut FTC, penipuan dengan modus peniruan suara adalah penipuan tertinggi yang dilaporkan pada tahun 2022, yang mengakibatkan kerugian US$ 2,6 miliar.

Editor: Barratut Taqiyyah Rafie