The Malaysia Post

Apakah itu deepfakes – dan bagaimana anda boleh mengesannya?

Reka Bentuk Guardian/AFP/Washington Post melalui Getty Images

Apa itu deepfake?

Pernahkah anda melihat Barack Obama menggelar Donald Trump sebagai “penompakan sepenuhnya”, atau Mark Zuckerberg mendabik dada tentang “mengawal sepenuhnya berbilion-bilion data yang dicuri orang”, atau menyaksikan permohonan maaf yang mengharukan Jon Snow atas pengakhiran yang menyedihkan kepada Game of Thrones? Jawab ya dan anda telah melihat deepfake.

Jawapan abad ke-21 untuk Photoshopping, deepfakes menggunakan satu bentuk kecerdasan buatan yang dipanggil pembelajaran mendalam untuk membuat imej peristiwa palsu, maka dinamakan deepfake. Ingin meletakkan perkataan baharu dalam mulut ahli politik, membintangi filem kegemaran anda atau menari seperti profesional? Kemudian tiba masanya untuk membuat deepfake.

Untuk apa mereka?

Ramai yang lucah. Firma AI Deeptrace menemui 15,000 video palsu dalam talian pada September 2019, hampir dua kali ganda dalam tempoh sembilan bulan. 96% yang mengejutkan adalah lucah dan 99% daripada wajah yang dipetakan daripada selebriti wanita kepada bintang lucah.

Memandangkan teknik baharu membenarkan orang yang tidak mahir membuat deepfake dengan segelintir gambar, video palsu berkemungkinan merebak ke luar dunia selebriti untuk memacu lucah balas dendam. Seperti yang dikatakan oleh Danielle Citron, seorang profesor undang-undang di Universiti Boston: “Teknologi palsu sedang dipersenjatai terhadap wanita.” Di sebalik lucah terdapat banyak penipuan, sindiran dan kerosakan.

Adakah ia hanya mengenai video?

Tidak. Teknologi Deepfake boleh mencipta gambar yang meyakinkan tetapi rekaan sepenuhnya dari awal. Seorang wartawan Bloomberg yang tidak wujud, “Maisy Kinsley”, yang mempunyai profil di LinkedIn dan Twitter, mungkin palsu.

Satu lagi LinkedIn palsu, “Katie Jones”, mendakwa bekerja di Pusat Kajian Strategik dan Antarabangsa, tetapi dianggap palsu yang dicipta untuk operasi pengintipan asing.

Audio juga boleh dipalsukan dalam, untuk mencipta “kulit suara” atau “klon suara” tokoh awam. Mac lalu, ketua anak syarikat UK sebuah firma tenaga Jerman membayar hampir £200,000 ke dalam akaun bank Hungary selepas ditelefon oleh penipu yang meniru suara CEO Jerman.

Penanggung insurans syarikat percaya suara itu palsu, tetapi buktinya tidak jelas. Penipuan serupa dilaporkan telah menggunakan mesej suara WhatsApp yang dirakam.

Bagaimana ia dibuat?

Penyelidik universiti dan studio kesan khas telah lama menolak sempadan perkara yang mungkin dengan manipulasi video dan imej. Tetapi deepfakes sendiri dilahirkan pada tahun 2017 apabila pengguna Reddit dengan nama yang sama menyiarkan klip lucah yang didoktorkan di laman web tersebut. Video tersebut menukar wajah selebriti — Gal Gadot, Taylor Swift, Scarlett Johansson dan lain-lain — kepada penghibur lucah.

Ia mengambil beberapa langkah untuk membuat video pertukaran muka. Mula-mula, anda menjalankan beribu-ribu tangkapan muka dua orang itu melalui algoritma AI yang dipanggil pengekod. Pengekod mencari dan mempelajari persamaan antara kedua-dua muka, dan mengurangkannya kepada ciri umum yang dikongsi bersama, memampatkan imej dalam proses.

Algoritma AI kedua yang dipanggil penyahkod kemudiannya diajar untuk memulihkan wajah daripada imej yang dimampatkan. Kerana wajah berbeza, anda melatih satu penyahkod untuk memulihkan wajah orang pertama, dan satu lagi penyahkod untuk memulihkan wajah orang kedua. Untuk melakukan pertukaran muka, anda hanya suapkan imej yang dikodkan ke dalam penyahkod “salah”. Contohnya, imej mampat muka orang A dimasukkan ke dalam penyahkod yang dilatih pada orang B.

Penyahkod kemudian membina semula wajah orang B dengan ekspresi dan orientasi muka A. Untuk video yang meyakinkan, ini perlu dilakukan pada setiap bingkai.

Satu lagi cara untuk membuat deepfakes menggunakan apa yang dipanggil rangkaian musuh generatif, atau Gan. A Gan mengadukan dua algoritma kecerdasan buatan antara satu sama lain. Algoritma pertama, yang dikenali sebagai penjana, diberi bunyi rawak dan mengubahnya menjadi imej. Imej sintetik ini kemudiannya ditambahkan pada aliran imej sebenar — selebriti, katakan — yang dimasukkan ke dalam algoritma kedua, yang dikenali sebagai diskriminator.

Pada mulanya, imej sintetik tidak akan kelihatan seperti wajah. Tetapi ulangi proses itu berkali-kali, dengan maklum balas tentang prestasi, dan diskriminator dan penjana kedua-duanya bertambah baik. Memandangkan kitaran dan maklum balas yang mencukupi, penjana akan mula menghasilkan wajah yang benar-benar realistik bagi selebriti yang tidak wujud sama sekali.

Siapa yang membuat deepfakes?

Semua orang daripada penyelidik akademik dan industri kepada peminat amatur, studio kesan visual dan pengeluar lucah. Kerajaan mungkin juga terlibat dalam teknologi, sebagai sebahagian daripada strategi dalam talian mereka untuk memburukkan dan mengganggu kumpulan pelampau, atau membuat hubungan dengan individu yang disasarkan, contohnya.

Apakah teknologi yang anda perlukan?

Sukar untuk membuat deepfake yang baik pada komputer standard. Kebanyakannya dibuat pada desktop mewah dengan kad grafik berkuasa atau lebih baik lagi dengan kuasa pengkomputeran dalam awan.

Ini mengurangkan masa pemprosesan dari hari dan minggu kepada jam. Tetapi memerlukan kepakaran juga, tidak kurang juga untuk menyentuh video yang telah siap untuk mengurangkan kelipan dan kecacatan visual yang lain. Walau bagaimanapun, banyak alat kini tersedia untuk membantu orang ramai membuat deepfakes.

Beberapa syarikat akan membuatnya untuk anda dan melakukan semua pemprosesan dalam awan. Malah terdapat aplikasi telefon mudah alih, Zao, yang membolehkan pengguna menambah wajah mereka pada senarai watak TV dan filem yang telah dilatih oleh sistem.

Baca Lagi | Haiwan, seperti manusia, boleh menjadi mangsa kesan Mona Lisa

Baca Lagi | Nenek di Indonesia ditelan hidup-hidup oleh ular sawa sepanjang 22 kaki

Read Previous

Nenek di Indonesia ditelan hidup-hidup oleh ular sawa sepanjang 22 kaki

Read Next

Dr Mahathir berkata sudah pun dalam perbincangan PRU15 dengan Perikatan, masih menunggu jawapan Pakatan

Leave a Reply

Alamat e-mel anda tidak akan disiarkan.