Voice AI dan Photo Ai tiru foto mirip dan suara ini tren baru


   Security | 6 March 2023

Perkembangan kecerdasan buatan atau AI sangat membantu di berbagai bidang.
Beberapa ditempatkan di bidang astronomi mencari planet, medis diteksi kesehatan, keamanan algoritma wajah, Graphic Card meningkatkan kualitas gambar dari 3D lebih tinggi, smartphone mengunakan chip AI untuk foto.

Tergantung bagaimana penempatan AI, walau tujuan baik, ada saja yang mengunakan bagi hal berbeda.

Microsoft memiliki teknologi untuk membuat suara buatan. Disebut Vall-E, walau masih terbatas sampai 3 detik.
Samsung membuat Bixby, kemampuan membuat suara tiruan untuk menjawab panggilan telepon.

Di bidang foto, teknologi software membawa kemampuan memudahkan. Dari menganti langit, memilih objek, memperbaiki kualitas foto dan video seperti Upscale dengan AI.

Tahun 2023 adalah era kecerdasan buatan, tapi bukan hal berguna.

2023 Agustus buat suara pacarnya ungkap ada orang lain
Dio wanita membuat clone suara temannya Billy dengan AI.
Lalu mengunakan untuk menelpon teman akrabnya, pura pura tidak sadar kejadian semalam dan meminta temannya bercerita tentang si Billy.


Dio mengunakan layanan clone suara ElelenLabs dan dia membayar $4.
Pasangan tersebut kabarnya baik baik saja. Tapi Dio mengatakan itu akan menjadi masalah, karena dapat meretas suara orang lain, setelah temannya bilang kau dekat dengan seorang wanita.

2023 April peringatan dari McAfee
Laporan McAfee dari penipuan Voice Clone meningkat.
Singkatnya, 1 dari 10 orang dewasa yang survei mengatakan pernah menjadi sasaran penipuan suara, 15% lainnya mengenal seseorang yang ditargetkan dengan Voice Clone.
Teknologi AI Voice Clone hanya butuh 3 detik.

Suara di dapat dari media sosial, Jepang dan India sudah masuk daftar Voice Scam
Suara dapat diprelika sampai 95% identik.

Dari 77% laporan para korban yang terkena Voice Clone mempercayai dan mentranfer.
Sekitar 1/3 dari 77% tersebut mengirim uang lebih dari $1000, 7% lebih besar dari $5000.

Teori yang sama, McAfee memberi tip keamanan bagi teman atau keluarga.
Bila mendapat Voice Scam, buat kata kode yang tidak dapat diketahui penipu.

2023 Maret 24 Foto tiruan akan mengelabuhi kita di Media Sosial.
Walau ada larangan dari layanan media sosial untuk membuat foto sintetis, membuat tulisan di luar kontek akan berbahaya bahkan merugikan.

Sebaiknya kita tidak langsung percaya dan mengirim ke orang lain, sebelum memastikan foto / berita yang dilihat memang asli.
Ini teknologi baru dari foto dengan pengolahan gambar AI.

Higgins yang memposting tidak berminat untuk mengirim foto palsu.
Layanan media sosial harus siap menghadapi menghadapi AI, karena tidak lagi sebagai hiburan semata.

Foto AI seperti ini mulai membanjiri di media sosial pada bulan Maret 2023.
Semua dapat dibuat dari layanan AI, dan pengolahan gambar begitu canggih.

Ahli informasi memperingatkan gambar seperti ini menjadi pertanda dari realitas baru. Foto dan video palsu menjadi gelombang baru yang akan membanjiri media sosial.
Dan mengaburkan fakta yang terjadi di masyarakat.

Foto dipublikasi oleh Higgins, mengunakan kecerdasan buatan.
Beberapa foto Trump palsu terlihat di tangkap di New York, foto presiden Putin menjadi tahanan, Ukraina mendapat bom nuklir, dan ada beberapa foto palsu lain.
Kapan giliran Indonesia menjadi sasaran gambar AI ini ?

foto palsu dengan AI

2023 Maret 6 Suara tiruan dibuat oleh AI

Penipuan suara adalah hal baru. Mereka mengira orang yang mereka cintai sedang meminta bantuan.
Itu penipuan telepon suara mengunakan teknologi AI.

Telepon minta bantuan ke keluarga tengah malam dengan nomor acak, membuat panik keluarga.
Telepon yang menyebut nomor telepon anda akan di blokir karena belum bayar, itu suara dari mesin.

Modus lama, bagaimana dengan modus baru.
Yang ini kita perlu hati hati karena sekarang mungkin akan membingungkan penerima telepon.
Pastikan komunikasi keluarga dengan baik, atau siap menghadapai teknologi AI dengan suara tiruan.

Deepfake bukan lagi target lucu lucuan untuk membuat video palsu. Tapi Scam suara yang di kloning, sangat sulit dihindari keluarga sampai tertipu.
Mengambil suara dari media sosial, suara kita dapat di tiru atau di replikasi. Bukan saudara kita, tapi AI yang berbicara seperti suara kita.

Teknik suara ini bukan kejadian baru.
Kasus viral dari petinggi perusahaan di Jerman tahun 2019 yang menelpon ke staf di kantor pusat untuk transfer $243 ribu ke sebuah bank di Hungaria. Katanya untuk membayar pemasok.
Sekarang suara kloning jauh lebih sempurna.

Awas penipuan suara asli mirip keluarga

Ini salah satu kasus di Kanada cerita lengkap.
Nenek Ruth mendapat telepon dari cucunya Brandon.
Katanya dia ditahan, tidak memiliki dompet, ponsel, dan perlu jaminan. Brandon yang menelpon mengabarkan ke neneknya untuk membantu memberi uang jaminan.
Ruth tentu saja kaget, dan harus membantu cucunya.

Ruth sudah berusia 73 tahun dan suaminya 75 tahun, pergi ke sebuah bank di Regina
Lalu menarik dana untuk jaminan US$2.200 dari batas penarikan perhari dari ATM. Lalu pergi ke bank lain untuk menarik dana tambahan.

Beruntung seorang karyawan bank menarik dirinya ke kantor.
Katanya ada orang lain yang mendapat telepon seperti nenek Ruth. Suaranya sama tapi palsu.
Kemungkinan yang menelpona bukan cucunya, tapi orang lain, barulah keduanya sadar hampir tertipu.

Teknologi yang murah membuat penjahat melakukan peniruan suara, khususnya korban dari keluarga atau orang tua.
Tahun 2022 lalu, penipuan jenis tersebut menjadi tren kedua di US. Setidaknya 36.000 orang melaporkan.
Sekitar 5.100 insiden dilakukan melalui telepon.

Teknologi AI dapat membuat salinan suara yang lengkap, walau merekam dari sumber nada suara yang singkat.
Tanpa perlu di edit seperti di potong dari suara asli seseorang untuk membuat susunan kalimat.
30 detik suara kita, mesin meregenerasi seperti kita berbicara dengan berbagai kata kata dengan nada yang sama.

AI meregenerasi suara sedemikian rupa, seakan mirip seseorang yang berbicara biasa dan tampilan suara replika dapat dibuat dari sampel suara dengan kalimat tertentu.
Tidak hanya itu, beberapa layanan AI juga membuat biaya murah untuk replika suara seseorang.
Penipu cukup mengetik dialog atau percakapan selama menelpon. Sehingga muncul suara seakan yang berbicara mirip dengan salah satu anggota keluarga.

Para ahli mengatakan regulator federal, penegak hukum, dan pengadilan tidak siap untuk menindak penipuan yang berkembang ini.
Sebagian besar korban hanya memiliki sedikit petunjuk untuk mengidentifikasi pelaku dan sulit bagi polisi untuk melacak telepon dan dana dari penipu yang beroperasi di seluruh dunia. Hanya ada sedikit preseden hukum bagi pengadilan untuk menahan perusahaan yang membuat perangkat tersebut untuk bertanggung jawab.

“Mengerikan,” kata Hani Farid, profesor forensik digital di University of California di Berkeley.
“Ini adalah badai yang sempurna… [dengan] semua bahan yang dibutuhkan untuk menciptakan kekacauan" katanya.

Meskipun penipuan datang dalam berbagai bentuk, pada dasarnya bekerja dengan cara yang sama:
Seorang penipu meniru seseorang yang dapat dipercaya misal menjadi seorang anak, kekasih atau teman dan meyakinkan korban untuk mengirimi uang karena mereka dalam kesulitan.

Tapi teknologi suara buatan yang baru, membuat argumen ini lebih meyakinkan.
Para korban melaporkan mereka bereaksi dengan sangat khawawtir ketika mendengar orang yang mereka cintai berada dalam bahaya.

Farid mengatakan perangkat lunak penghasil suara AI dengan menganalisis apa yang membuat suara seseorang unik.

Misal analisa usia, jenis kelamin, dan aksen dan mencari basis data suara yang sangat besar untuk menemukan pola yang serupa dan memprediksi atau meniru suara seseorang.

Dia menambahkan bahwa nada, timbre, dan suara individu dari suara kemudian dapat diciptakan kembali untuk menciptakan efek holistik.
Fareed mengatakan teknik AI hanya memerlukan sampel audio kecil yang diambil dari banyak sumber
Misal YouTube, podcast, iklan, TikTok, Instagram, atau video Facebook.

Sumber suara cukup diambil dari media sosial yang menjadi target. Sampel suara cukup 30 detik, sudah cukup AI membuat nada suara yang mirip alias di kloning.

Satu ElevenLabs, perusahaan rintisan penyintesis suara AI didirikan pada tahun 2022, mengonversi sampel vokal pendek menjadi suara yang dibuat secara artifisial melalui alat text-to-speech.
Menurut situs tersebut, perangkat lunak ElevenLabs dapat digunakan secara gratis atau dengan biaya antara $5 dan $330 per bulan, dengan harga yang lebih tinggi memungkinkan pengguna menghasilkan lebih banyak audio.

ElevenLabs menjadi berita setelah di kritik terhadap program yang dibuat, salah satunya mereplikasi suara selebritas.
Seperti Emma Watson yang salah membaca bagian dari "Mein Kampf" karya Adolf Hitler.

ElevenLabs tidak menanggapi permintaan komentar, tetapi di utas twitter Perusahaan mengatakan menambahkan perlindungan untuk mencegah penyalahgunaan, termasuk membatasi pengguna gratis untuk membuat suara khusus dan meluncurkan alat untuk mendeteksi audio yang dihasilkan AI.

Tapi perlindungan seperti itu sudah terlambat bagi korban seperti Benjamin Perkin, yang orang tuanya kehilangan ribuan dolar dalam penipuan pesan suara.
Mimpi buruk kloning suara dimulai ketika orang tuanya menerima telepon yang mengangu pengacara tersangka
Menyebut putra mereka kecelakaan dengan seorang diplomat Amerika. Si anak disebut dengan nama Perkin berada di penjara dan membutuhkan uang untuk jaminan hukum.

Pengacara palsu tersebut mengatakan kepada orang tua Perkin di telepon, putra mereka membutuhkan $21.000 ($15.449) sebelum tanggal pengadilan hari .
Orang tua Perkin sebelumnya agak curiga, karena panggilan itu tampak tidak biasa, tetapi mereka tidak dapat menghilangkan perasaan khawatir seakan sedang berbicara dengan putra mereka.
Dan orang tuanya mengambil dana, dan menyetor ke terminal Bitcoin. Lenyap sudah.
Perkin yang asli menelpon malam hari, dan disanalah orang tuanya bingung sendiri.

Tidak jelas bagaiman si scammer mendapatkan sumber suara si Perkin.
Tapi Perkin memang memposting video di Youtube, dan menceritakan hobi tentang mobil salju.
Melapor ke pihak berwenang, tetap uang sudah hilang.

Will Maxson, asisten direktur Divisi Pengawas Pemasaran FTC, mengatakan untuk melacak penipu suara bisa "sangat sulit" karena mereka dapat menggunakan telepon di mana saja di dunia, juga menyulitkan untuk mengidentifikasi siapa pelaku. Badan ini memiliki yurisdiksi atas kasus-kasus khusus.

Maxson mendesak kewaspadaan terus. Jika orang yang dicintai memberi tahu via telepon, bahwa mereka membutuhkan uang, tunda panggilan itu dan coba hubungi anggota keluarga anda kembali secara terpisah, katanya.
Jika nomor telepon datang dari nomor anggota keluarga, paham bila itu bisa dilakukan dengan spoof.

Eva Velasquez, kepala eksekutif Pusat Pengawasan Pencurian Identitas, mengatakan sulit bagi penegak hukum melacak pencuri kloning suara.
Velasquez, berpengalaman 21 tahun di kantor kejaksaan wilayah San Diego dan menyelidiki penipuan konsumen, mengatakan departemen kepolisian mungkin tidak memiliki cukup uang dan staf untuk mendanai unit khusus melacak penipuan.

Dia mengatakan departemen yang lebih besar harus melakukan sumber daya untuk kasus yang dapat diselesaikan.
Korban penipuan suara mungkin tidak memiliki banyak informasi untuk polisi dalam penyelidikan, sehingga menyulitkan pihak berwenang menyelidiki lebih jauh atau tenaga staf khususnya masalah yang terlihat kecil. Walau mungkin nanti jumlahnya akan lebih banyak.

Farid mengatakan pengadilan seharusnya dapat meminta pertanggungjawaban perusahaan AI jika produk yang mereka buat menyebabkan kerugian.
Walau ahli hukum dari Hakim Agung Neil M. Gorsuch mengatakan di bulan Februari 2023 lalu, perlindungan hukum yang melindungi media sosial dari tuntutan hukum mungkin tidak berlaku bagi karya yang dibuat dengan AI.

Hati hati menerima telepon AI di rumah. Ini kasus penipuan atau scam suara.
Bijaksana mengunakan media sosial, dapat menghindari sasaran dari penjahat yang mengunakan teknologi ini.
Tip aman, tidak hanya login email, sosial media yang butuh password universal. Sepertinya di keluarga sudah harus memiliki kode tersendiri.
Membuat kesepakatan, bila terjadi sesuatu hal. Salah satu keluarga dapat menanyakan ke penelpon. Passwordnya apa ?, misal menanyakan nama kucing dirumah ?
Atau nama nenek, kakek, ibu, ayah, siapa dapat dijadikan kunci darurat.
Bila si penelpon tidak mau menjawab, itu harus di curigai, Gampang kan.

Artikel Lain

Edit foto, sedikit perbaikan, upload Instagram. Muncul keterangan foto Made with AI. Itu membuat jengkel fotografer. Foto asli, hanya di edit sedikit dan sudah dilakukan sebelum Ai muncul. Bagaimana Instagram tahu foto asli dan foto Ai generatif.

Entrupy akan memeriksa sebuah produk asli atau palsu. Tas mahal bermerek Balenciaga, Burberry, Gucci, dan Louis Vuitton dapat di identifikasi sampai 90 persen akurat. Membuat kemudahan orang memeriksa keaslian produk adalah asli, termasuk pengecer yang menjual agar mendapatkan penilaian dari pihak ketiga.

Jangan sembarangan download, terlebih program player video. Infeksi malware membuat computer sebagai proxy atau ProxyNation. Kabar telah terinfeksi 400.000 computer. Kemungkinan malware lolos dari pemeriksaan Antivirus. Diketahui mengunakan nama file terkait DigitalPulse.

Canon dan Amazon mengambil langkah proaktif. Sejak tahun 2021 mulai memblok penjual baterai dan adaptor charger baterai Canon. Mengeluarkan produk Canon palsu beredar di toko Marketplace. Walau pasar camera surut, sepertinya Canon mulai agresif

Layanan streaming kebanjiran musik yang dibuat AI. Tidak sampai disana, beberapa bot digunakan untuk meningkatkan pendengar. Pembuat lagu mendapat bayaran dari jumlah lagu yang diputar. Tapi menjadi masalah, bagaimana dengan artis asli, dan bagaimana musik begitu mudah dibuat.

Bagaimana influencer mempengaruhi pengikutnya sampai menipu mereka. Agar mereka mempengaruhi orang untuk ikut, tapi dibelakang melakukan konspirasi. Tidak ada uang yang mengalir, tidak ada pengambilan dana. Bagaimana dengan latar belakang mereka.

Massive software, banyak terlibat dalam beberapa film. Membuat efek pertempuran masal melibatkan ribuan figuran, bagaimana produser film membayar mereka. Semua gambar animasi di proses computer. Detil gambar semakin detil ditambah AI dan melibatkan software dalam industri film, para artis dan lainnya.

User sempat terkejut dengan lokasi yang dibagikan pada postingan Instagram. Karena lokasi keberadaan foto diambil masuk sangat akurat. Masalah bukan di Instagram, tapi penguna tidak tahu bagaimana menonaktifkan Tag lokasi, dan lupa menonaktifkan.

Beberapa bintang di Instagram menjadikan platform disana sebagai media promosi. Beberapa dari mereka memiliki ratusan ribu follower, tapi mereka sendiri sudah kelelahan. Mengapa akhirnya berhenti, bila mengambil jeda sesaat posisi mereka turun dengan algoritma.

Dia tampil di drama Korea. Tapi dia bukan warganegara Korea. Tampil lagi di drama terbaru All of Us Are Dead. Tidak hanya satu tapi 62 kali tampil, kebanyakan peran yang di dapat sebagai figuran, pelajar SMA, SMP. Menginspirasi remaja Filipina dan menanyakan bagaimana bisa menjadi salah satu figuran walau bukan warga negara Korea.

Layaknya kalangan Jetset pergi ke Bali. Di hotel, membawa minuman mahal, video, semua di posting di Instagram. Berpakaian bling bling layaknya selebritis. Tetapi apa benar si Natalia pergi ke Bali. Bagaimana Follower tidak melihat jejak yang sengaja ia tinggalkan dan percaya foto yang dibuat begitu menyakinkan..

Ini dunia internet, dan semua di akses via online. Bagaimana dengan kompetisi foto kelas dunia. IPOTY- International Photographer of the Year 2017 kelihatannya bergengsi. Bayar untuk ikut kompetisi, dan tidak hanya satu website. Dicurigai ada website lain.

Bicara beberapa tahun lalu, teknologi computer hanya membicarakan computer dan laptop atau notebook. Sekarang penguna perangkat gadget seperti tablet dan smartphone lebih mendominasi. Computer seukuran ruang kamar menjadi seukuran 1cm, atau kompas digantikan dengan peta digital



Youtube Obengplus


Trend