Semua produk yang ditampilkan di WIRED dipilih secara independen oleh editor kami. Namun, kami mungkin menerima kompensasi dari pengecer dan/atau dari pembelian produk melalui tautan ini. Pelajari lebih lanjut.
Adobe mendudukkan saya turun dan memutar video demo pendek dengan sulih suara yang sebenarnya, meskipun agak membosankan. Tidak ada yang istimewa, tapi setelah mengambil transkrip, menyorot teks, dan memilih dari daftar emosi yang telah ditetapkan, penampilan vokalnya berubah total. Itu berubah dari datar menjadi percaya diri, lalu percaya diri menjadi berbisik, semuanya dalam hitungan detik.
Adobe menyebutnya “Corrective AI,” dan ini adalah salah satu dari banyak fitur yang akan didemonstrasikan oleh perusahaan hari ini selama pameran MAX Sneaks, yang berlangsung selama konferensi MAX tahunan yang lebih luas. (Adobe membayar sebagian biaya perjalanan saya untuk menghadiri konferensi MAX-nya.) Sneaks adalah tempat Adobe memamerkan teknologi masa depan dan prototipe yang sedang dikerjakannya, dan banyak dari fitur-fitur ini yang akhirnya berhasil. ke dalam rangkaian kreatif lengkap Adobe dalam hitungan bulan.
Selama MAKS tahun iniAdobe merilis ucapan generatif untuk Firefly, yang memungkinkan Anda tidak hanya menggunakan beberapa suara preset tetapi juga menambahkan tag emosi untuk mengubah nada suara. Fitur AI Korektif ini menghadirkan fungsionalitas tersebut ke alur kerja yang lebih praktis. Daripada menggunakan suara yang sepenuhnya dihasilkan AI, Anda dapat meningkatkan performa suara yang sudah ada.
Foto: Jacob Roach

Lee Brimelow dari Adobe juga menunjukkan kepada saya bagaimana AI dapat mengekstrak bagian berbeda dari satu trek audio untuk membuat beberapa bagian. Prototipe Sneaks, yang disebut Project Clean Take, terbatas pada lima track, tetapi dapat memisahkan suara, kebisingan sekitar, efek suara, dan banyak lagi. Sungguh mengejutkan betapa akuratnya model AI dalam memisahkan jalur. Dalam satu contoh, Adobe menunjukkan kepada saya seseorang berbicara di depan jembatan gantung, dan suara bel jembatan gantung benar-benar menyalip suara pembawa acara. Setelah menjalankan model AI, suara belnya hilang. Bahkan lebih baik lagi, Adobe menunjukkan kepada saya bagaimana Anda dapat mengembalikannya dengan menyesuaikan level trek terpisah ini satu per satu.
Dalam contoh lain, Adobe mendemonstrasikan bagaimana hal ini dapat berguna ketika pembuat konten mengambil gambar di depan umum, khususnya ketika musik berlisensi diputar di latar belakang. Bukan rahasia lagi bahwa musik tanpa izin adalah jalan cepat menuju a teguran hak cipta melalui sistem otomatis di platform seperti YouTube. Dalam demonya, model AI Adobe mampu memisahkan musik, menggantinya dengan trek serupa dari Adobe Stock, dan menerapkan efek untuk memberikan reverb dan suasana seperti trek aslinya, semuanya hanya dengan beberapa klik.
Fitur-fitur ini memanfaatkan AI untuk memperbaiki masalah sehari-hari bagi editor dan pembuat video, membantu memulihkan audio yang rusak atau menghemat waktu dan kerumitan saat merekam ulang penampilan vokal. Adobe juga akan memamerkan fitur AI generatif baru selama pameran Sneaks. Untuk perancang suara, perusahaan menunjukkan kepada saya bagaimana model AI-nya dapat secara otomatis menganalisis dan menambahkan efek suara ke video, yang semuanya diklaim masih dihasilkan oleh AI. aman secara komersial untuk digunakan.
Foto: Jacob Roach

Oriol Nieto dari Adobe memuat video pendek dengan beberapa adegan dan sulih suara, tetapi tanpa efek suara. Model AI menganalisis video dan memecahnya menjadi beberapa adegan, menerapkan tag emosional dan deskripsi setiap adegan. Lalu, efek suara pun muncul. Model AI menangkap suatu adegan dengan jam alarm, misalnya, dan secara otomatis menciptakan efek suara. Ini mengidentifikasi adegan di mana karakter utama (dalam hal ini seekor gurita) sedang mengendarai mobil, dan menambahkan efek suara dari pintu yang ditutup.
Itu tidak sempurna. Bunyi alarm tidak realistis, dan dalam adegan di mana dua karakter berpelukan, model AI menambahkan gemerisik pakaian yang tidak wajar dan tidak berfungsi. Daripada mengedit secara manual, Adobe menggunakan a antarmuka percakapan (seperti ChatGPT) untuk menjelaskan perubahan. Dalam adegan mobil, tidak ada suara sekitar dari dalam mobil. Daripada memilih adegan secara manual, Adobe menggunakan antarmuka percakapan dan meminta model AI untuk menambahkan efek suara mobil ke adegan tersebut. Ia berhasil menemukan pemandangannya, menghasilkan efek suara, dan menempatkannya dengan sempurna.
Fitur eksperimental ini tidak tersedia, tetapi biasanya dapat digunakan di rangkaian Adobe. Misalnya, Menyelaraskansebuah fitur di Photoshop yang secara otomatis menempatkan aset dengan warna dan pencahayaan yang akurat dalam sebuah pemandangan, ditampilkan di Sneaks tahun lalu. Sekarang, ada di Photoshop. Harapkan mereka muncul sekitar tahun 2026.
Pengumuman Adobe datang hanya beberapa bulan setelah pengisi suara video game mengakhiri pemogokan selama hampir setahun untuk mengamankan perlindungan seputar AI—perusahaan diharuskan untuk mendapatkan persetujuan dan memberikan perjanjian pengungkapan ketika pengembang game ingin membuat ulang suara atau kemiripan aktor suara melalui AI. Aktor suara telah bersiap menghadapi dampak AI akan ada dalam bisnis ini untuk beberapa waktu sekarang, dan fitur-fitur baru Adobe, meskipun mereka tidak menghasilkan sulih suara dari awal, adalah satu lagi penanda pergeseran tersebut AI memaksa industri kreatif.






