Suara di telepon tampak sangat nyata – seorang ibu Amerika mendengar putrinya menangis sebelum seorang pria mengambil alih dan meminta uang tebusan. Tapi gadis itu adalah tiruan AI dan penculikannya palsu.
Bahaya terbesar dari kecerdasan buatan, kata para ahli, adalah kemampuannya untuk menghancurkan batasan antara kenyataan dan fiksi, sehingga memberikan teknologi yang murah dan efektif kepada penjahat dunia maya untuk menyebarkan disinformasi.
Dalam jenis penipuan baru yang telah mengguncang pihak berwenang AS, para penipu menggunakan alat kloning suara AI yang sangat meyakinkan – tersedia secara online – untuk mencuri dari orang-orang dengan menyamar sebagai anggota keluarga.
Apple meluncurkan Vision Pro, headset realitas campuran senilai US$3.500
“Bantu aku, Bu, tolong bantu aku,” Jennifer DeStefano, seorang ibu di negara bagian Arizona, AS, mendengar suara berkata di ujung telepon.
DeStefano “100 persen” yakin bahwa putrinya yang berusia 15 tahunlah yang mengalami kesusahan besar saat sedang bermain ski.
“Tidak pernah ada pertanyaan tentang siapa ini? Itu benar-benar suaranya… begitulah cara dia menangis,” kata DeStefano kepada stasiun televisi lokal pada bulan April.
“Saya tidak pernah ragu sedetik pun bahwa itu dia.”
Apa itu analisis data, dan mengapa perusahaan mengumpulkan informasi pengguna?
Penipu yang menerima telepon yang berasal dari nomor tak dikenal DeStefano itu menuntut hingga US$1 juta.
Tipu muslihat bertenaga AI berakhir dalam beberapa menit ketika DeStefano menjalin kontak dengan putrinya. Namun kasus mengerikan ini, yang kini sedang diselidiki polisi, menggarisbawahi potensi penjahat dunia maya untuk menyalahgunakan klon AI.
“Kloning suara AI, yang kini hampir tidak dapat dibedakan dari ucapan manusia, memungkinkan pelaku ancaman seperti penipu untuk mengekstrak informasi dan dana dari korban dengan lebih efektif,” Wasim Khaled, CEO Blackbird.AI, mengatakan kepada Agence France-Presse.
Bahaya terbesar dari kecerdasan buatan, kata para ahli, adalah kemampuannya untuk mengaburkan batas antara kenyataan dan fiksi, sehingga memberikan teknologi yang murah dan efektif untuk dieksploitasi oleh penjahat dunia maya. Foto: AFP
Pencarian internet sederhana menghasilkan beragam aplikasi, banyak di antaranya tersedia gratis, untuk membuat suara AI dengan sampel kecil – terkadang hanya beberapa detik – dari suara asli seseorang yang dapat dengan mudah dicuri dari konten yang diposting online.
“Dengan sampel audio yang kecil, klon suara AI dapat digunakan untuk meninggalkan pesan suara dan teks suara. Bahkan dapat digunakan sebagai pengubah suara langsung pada panggilan telepon,” kata Khaled.
“Penipu dapat menggunakan aksen, jenis kelamin, atau bahkan meniru pola bicara orang yang dicintai. (Teknologi ini) memungkinkan terciptanya kepalsuan yang meyakinkan.”
Pelopor AI mengatakan ancaman teknologi ini mungkin ‘lebih mendesak’ dibandingkan perubahan iklim
Dalam survei global terhadap 7.000 orang di sembilan negara, termasuk Amerika Serikat, satu dari empat orang mengatakan mereka pernah mengalami penipuan kloning suara AI atau mengenal seseorang yang pernah mengalaminya.
Tujuh puluh persen responden mengatakan mereka tidak yakin bisa “membedakan antara suara kloning dan suara asli,” menurut survei yang diterbitkan bulan lalu oleh McAfee Labs yang berbasis di AS.
Para pejabat Amerika telah memperingatkan akan meningkatnya apa yang dikenal sebagai “penipuan kakek-nenek” – yaitu seorang penipu yang menyamar sebagai seorang cucu yang sangat membutuhkan uang dalam situasi yang sulit.
Apa itu Web 3.0? Dari web semantik hingga blockchain, pelajari tentang perkembangan teknologi di balik masa depan internet
“Anda mendapat telepon. Ada suara panik di telepon. Itu cucumu. Dia bilang dia dalam masalah besar – dia merusak mobil dan masuk penjara. Namun Anda dapat membantu dengan mengirimkan uang,” kata Komisi Perdagangan Federal AS (FTC), sebuah lembaga pemerintah yang khusus menangani perlindungan konsumen, dalam sebuah peringatan pada bulan Maret.
“Kedengarannya seperti dia. Bagaimana itu bisa menjadi penipuan? Kloning suara, begitulah caranya.”
Dalam komentar di bawah peringatan FTC terdapat banyak kesaksian dari orang lanjut usia yang telah ditipu seperti itu.
Hal ini juga mencerminkan pengalaman Eddie, remaja berusia 19 tahun di Chicago, di negara bagian Illinois, AS, yang kakeknya menerima telepon dari seseorang yang mirip dengannya, yang menyatakan bahwa dia membutuhkan uang setelah mengalami kecelakaan mobil.
Penjahat dunia maya menggunakan klon suara AI untuk berpura-pura menjadi anggota keluarga korbannya dan meminta uang. Foto: Shutterstock
Tipu muslihat tersebut, yang dilaporkan oleh McAfee Labs, begitu meyakinkan sehingga kakeknya segera mulai mengumpulkan uang dan bahkan mempertimbangkan untuk menggadaikan kembali rumahnya, sebelum kebohongannya diketahui.
“Karena sekarang mudah untuk menghasilkan klon suara yang sangat realistis… hampir semua orang yang memiliki kehadiran online rentan terhadap serangan,” Hany Farid, seorang profesor di UC Berkeley School of Information di California, mengatakan kepada Agence France-Presse.
“Penipuan ini mendapatkan daya tarik dan menyebar.”
Bagaimana ChatGPT, Dall-E, dan alat AI generatif lainnya dapat mengubah segalanya – mulai dari pekerjaan hingga seni dan pendidikan
Awal tahun ini, startup AI ElevenLabs mengakui bahwa alat kloning suaranya dapat disalahgunakan untuk “tujuan jahat” setelah pengguna memposting audio palsu yang mengaku sebagai aktor Emma Watson yang sedang membaca biografi Adolf Hitler. Pertarunganku.
“Kita dengan cepat mendekati titik di mana Anda tidak dapat mempercayai hal-hal yang Anda lihat di internet,” Gal Tal-Hochberg, kepala bagian teknologi grup di perusahaan modal ventura Team8, mengatakan kepada Agence France-Presse.
“Kita memerlukan teknologi baru untuk mengetahui apakah orang yang Anda ajak bicara sebenarnya adalah orang yang Anda ajak bicara,” katanya.