Video palsu yang sempurna akan dikenali oleh kecerdasan buatan
Video palsu yang sempurna akan dikenali oleh kecerdasan buatan

Video: Video palsu yang sempurna akan dikenali oleh kecerdasan buatan

Video: Video palsu yang sempurna akan dikenali oleh kecerdasan buatan
Video: The Adventures of Sherlock Holmes by Arthur Conan Doyle [#Learn #English Through Listening] Subtitle - YouTube 2024, April
Anonim
Tayangan perdana mengenai keracunan Litvinenko bermula di England
Tayangan perdana mengenai keracunan Litvinenko bermula di England

Setahun yang lalu, Stanford's Manish Agrawala membantu mengembangkan teknologi penyelarasan bibir yang membolehkan penyunting video mengubah kata-kata penutur hampir tidak kelihatan. Alat ini dapat dengan mudah memasukkan kata-kata yang tidak pernah diucapkan oleh seseorang, bahkan di tengah-tengah ayat, atau menghapus kata-kata yang dia katakan. Segala-galanya akan kelihatan realistik dengan mata kasar dan bahkan untuk banyak sistem komputer.

Alat ini menjadikannya lebih mudah untuk memperbaiki kesalahan tanpa merakam kembali keseluruhan adegan, dan juga telah menyesuaikan rancangan TV atau filem untuk penonton yang berlainan di tempat yang berbeza. Tetapi teknologi ini juga telah menciptakan peluang baru yang mengganggu untuk video palsu yang sukar dicari, dengan niat yang jelas untuk memutarbelitkan kebenaran. Sebagai contoh, video Republikan baru-baru ini menggunakan teknik yang lebih kasar untuk wawancara dengan Joe Biden.

Musim panas ini, Agrawala dan rakan-rakannya di Stanford dan UC Berkeley melancarkan pendekatan berasaskan kecerdasan buatan untuk teknologi lip-sync. Program baru ini dengan tepat mengesan lebih daripada 80 peratus palsu, menyedari perbezaan terkecil antara bunyi orang dan bentuk mulut mereka.

Tetapi Agrawala, pengarah Stanford Institute for Media Innovation dan profesor sains komputer di Forest Baskett, yang juga berafiliasi dengan Stanford Institute for Human-Centered Artificial Intelligence, memberi amaran bahawa tidak ada penyelesaian teknikal jangka panjang untuk palsu.

Bagaimana palsu berfungsi

Terdapat alasan yang sah untuk manipulasi video. Contohnya, sesiapa yang membuat rakaman rancangan TV fiksyen, filem, atau iklan boleh menjimatkan masa dan wang dengan menggunakan alat digital untuk membetulkan kesilapan atau menyesuaikan skrip.

Masalahnya timbul apabila alat ini sengaja digunakan untuk menyebarkan maklumat palsu. Dan banyak teknik yang tidak dapat dilihat oleh rata-rata penonton.

Banyak video palsu yang mendalam bergantung pada pertukaran wajah, secara harfiah meletakkan wajah seseorang pada video orang lain. Tetapi walaupun alat pengubah wajah dapat menarik, alat ini agak kasar dan biasanya meninggalkan artifak digital atau visual yang dapat dikesan oleh komputer.

Sebaliknya, teknologi penyegerakan bibir kurang kelihatan dan oleh itu lebih sukar dikesan. Mereka memanipulasi bahagian gambar yang jauh lebih kecil dan kemudian mensintesis pergerakan bibir yang sesuai dengan bagaimana mulut seseorang benar-benar bergerak jika dia mengucapkan kata-kata tertentu. Menurut Agrawal, dengan cukup banyak sampel gambar dan suara seseorang, pengeluar palsu dapat membuat seseorang "mengatakan" apa-apa.

Pengesanan palsu

Merisaukan penggunaan teknologi seperti itu secara tidak etis, Agrawala bekerjasama dengan Ohad Freed, seorang pelajar kedoktoran di Stanford, untuk mengembangkan alat pengesanan; Hani Farid, profesor di University of California, Berkeley School of Information; dan Shruti Agarwal, pelajar kedoktoran di Berkeley.

Pada mulanya, para penyelidik bereksperimen dengan teknik manual semata-mata di mana pemerhati mempelajari rakaman video. Ia berfungsi dengan baik, tetapi dalam praktiknya memerlukan tenaga kerja dan memakan masa.

Para penyelidik kemudian menguji rangkaian saraf berdasarkan kecerdasan buatan yang akan lebih cepat melakukan analisis yang sama setelah menjalani latihan video dengan mantan Presiden Barack Obama. Rangkaian saraf mengesan lebih daripada 90 peratus penyegerakan bibir Obama sendiri, walaupun ketepatan untuk pembesar suara lain turun menjadi sekitar 81 peratus.

Ujian kebenaran yang sebenar

Para penyelidik mengatakan pendekatan mereka hanyalah sebahagian daripada permainan kucing dan tikus. Apabila teknik pemalsuan mendalam meningkat, mereka akan meninggalkan kunci yang lebih sedikit lagi.

Pada akhirnya, kata Agrawala, masalah sebenarnya bukan sekadar memperjuangkan video palsu kerana memerangi maklumat salah. Sebenarnya, katanya, banyak maklumat yang salah berpunca daripada memutarbelitkan makna apa yang sebenarnya dikatakan orang.

"Untuk mengurangkan maklumat yang salah, kita perlu meningkatkan literasi media dan mengembangkan sistem akauntabiliti," katanya. "Ini dapat berarti undang-undang yang melarang pengeluaran informasi yang disengaja dan akibat pelanggarannya, serta mekanisme untuk menghilangkan bahaya yang dihasilkan."

Disyorkan: