
Ризики, пов’язані з новими технологіями, часто можуть знадобитися роки, щоб матеріалізуватись, а ранні попередження можуть здаватися нагнітанням страху та науковою фантастикою. Однак швидкість штучного інтелекту починає значно скорочувати час як для розуміння нових технологій, так і для подолання ризиків. Однією з найбільш обговорюваних і етично складних сфер, пов’язаних зі штучним інтелектом, є дипфейки – здатність комп’ютера імітувати обличчя та голоси інших людей. Кілька нових інструментів, нещодавно анонсованих такими великими технологічними компаніями, як Google і Microsoft, полегшують будь-кому створення власних глибоких фейків. Нещодавно під час щорічної конференції розробників Microsoft анонсувала Azure AI Speech, яка дозволяє користувачам писати сценарій і негайно перетворювати його на відео за допомогою аватара.
Читайте також: Теми Instagram тихо почали набирати популярність
>Хоча інструмент спочатку дозволяв користувачам вибирати лише з попередньо встановленого списку аватарів, компанія залишила відкритими двері для персоналізованих аватарів, які можуть виглядати як особи. Ці аватари також можна підключити безпосередньо до генеративних інструментів штучного інтелекту через партнерство Microsoft з OpenAI для створення аватарів, які можуть відповідати на запитання користувачів. YouTube, що належить Google, тестує інструмент на основі штучного інтелекту під назвою Dream Track, який дозволить користувачам наспівувати кілька нот і перетворювати їх на пісню, записану в стилі музиканта. Наразі система попередньо налаштована на доставку пісень на основі 9 музикантів, включаючи Sia, Demi Lovato та John Legend, які погодилися працювати з Google над проектом. Значна частина цієї технології стосується суті розмови про право власності на своє обличчя та голос, що було центральним компонентом нещодавнього удару SAG-AFTRA.
Зрозуміло лише те, що технологічний розвиток значно випереджає етичні дискусії, які оточують безпечне використання цих інструментів, що робить усілякі тривожні зловживання набагато легшими для зловмисників.