Pe 6 iunie 2022, Chris Umé și Thomas Graham, fondatorii Metaphysic, s-au alăturat scenei America’s Got Talent alături de Daniel Emmet. Folosind tehnologia dezvoltată de Metaphysic, Daniel Emmet a interpretat „You’re the Inspiration” folosindu-se de asemănarea judecătorului AGT Simon Cowell în direct pe scenă.
Această performanță i-a uimit pe arbitri și a capturat mulțimea, rezultând patru da. Grupul trece la următoarea rundă a AGT, dar ce înseamnă utilizarea lor a tehnologiei deepfake pentru viitorul divertismentului?
Ce s-a întâmplat pe scena AGT?
Principalii concurenți pentru spectacol au fost Chris și Thomas. Când s-au prezentat, au spus:
„Folosim inteligența artificială pentru a crea conținut hiper-real.”
L-au adus apoi pe scenă pe Daniel Emmet. Când Simon a întrebat cum a intrat cu duo-ul, el a spus:
„Sunt fani a ceea ce fac ei online și ei sunt fani ai AGT. Și când mi-au cerut să fac parte din acest lucru minunat, unic și original pe care îl vor face, nu am putut spune nu.”
Așa că, cu tot misterul din jurul trio-ului, Cowell le-a urat noroc și au început spectacolul.
În timp ce Emmet se pregătea să cânte, o cameră a intrat pe scenă pentru a-l înregistra în profil, blocând vederea publicului (și a judecătorului). Când a început muzica, fluxul camerei a intrat live pe ecranul scenei, unde am văzut avatarul hiper-real al lui Simon suprapus lui David și cântând live pe scenă.
Mulțimea a luat-o razna când a văzut asta, dar Simon a fost inițial confuz. Pe măsură ce spectacolul a continuat, Cowell a trecut de la confuz la jenat la distrat. În cele din urmă, el (și restul publicului) a ovaționat actul, iar grupul a primit un „da” de la toți cei patru judecători.
Cum impactează Deepfakes Entertainment
Deși deepfake-urile pot părea o dezvoltare nouă pentru majoritatea oamenilor, acesta nu este cazul, mai ales la Hollywood. Desigur, aceasta este probabil prima dată când tehnologia deepfake apare într-un cadru live, dar filmele folosesc această tehnologie de ani de zile.
Un exemplu popular este filmul Furious 7 din 2015, în care unul dintre protagoniști, Paul Walker, a murit într-un accident de mașină la jumătatea filmării. În loc să-și omoare personajul din film, producătorii au decis să-l filmeze folosind frații săi ca înlocuitori și apoi folosind CGI pentru a-i pune fața lui Paul.
Această tehnică a apărut și în Rogue One: A Star Wars Story în 2016 și a fost aplicată Grand Moff Tarkin și Princess Leia. Din păcate, actorul care a interpretat personajul, Peter Cushing, a murit în 1994. Și în timp ce Carrie Fisher era încă în viață în timpul filmărilor, aspectul ei s-a schimbat semnificativ din 1977.
Pentru acest film, producția a folosit substitute și tehnologie similară deepfake-urilor pentru a recrea personajele originale în format digital.
Și, deși ați putea crede că aceasta este o dezvoltare recentă, ați putea fi surprins să aflați că Gladiator din 2000 a folosit și o tehnologie similară. Când unul dintre actorii principali în rol secundar, Oliver Reed, a murit brusc în timpul filmărilor, producția a ales să-l recreeze digital în timp ce folosea un dublu corporal pentru filmarea propriu-zisă.
Cu toate acestea, această tehnologie depășește reînvierea și inversarea în vârstă a celebrităților. L-au folosit chiar și în Captain America: The First Avenger pentru a schimba corpul uriaș al lui Chris Evan cu cadrul mai mic al lui Leander Deeny. Deși au folosit și alte tehnici pentru a-și face apariția minusculă înainte de experimentul lui Howard Stark, tehnologia deepfake a fost unul dintre instrumentele lor.
Cum Deepfakes pot revoluționa industria divertismentului
Un lucru în comun toate exemplele de mai sus este că au trebuit să cheltuiască luni și milioane de dolari pentru a obține efectul pe care și-au dorit să-l obțină. Cu toate acestea, pe scena AGT, Metaphysic a arătat că ar putea recrea o altă celebritate la calitate înaltă în timp real.
În timp ce producția lor pe scena AGT nu este 100% realistă, este suficient de aproape de lucrul real dacă nu te uiți îndeaproape. Și un lucru important este că o fac în timp real. Odată cu modul în care tehnologia evoluează, vom găsi în curând o aplicație deepfake în timp real care ar putea produce instantaneu un videoclip realist.
Dezvoltarea ar putea reduce dependența studiourilor de sisteme de urmărire avansate și de post-procesare extinsă, simplificând și mai mult fluxul de lucru de post-producție. Si in timp ce crearea de videoclipuri deepfake fără întreruperi nu este atât de ușor pe cât pare, nu mai trebuie să fii o companie de producție de mai multe milioane de dolari pentru a-ți permite.
Introducerea principală a tehnologiei ar permite studiourilor mai mici și chiar realizatorilor de film indie să-și permită și să o folosească pentru creațiile lor. De fapt, oricine are un smartphone poate încercați această tehnologie prin aplicațiile de schimb de fețe, deși nu sunt la fel de bune ca pe scena AGT.
Viitorul Deepfake-urilor în filme și TV
Pe măsură ce tehnologia deepfake evoluează, am putea găsi în curând o perioadă în care studiourile pot folosi cu ușurință asemănarea celebrităților din trecut pentru a da viață celor mai noi filme ale lor. Acestea ar ajuta la menținerea continuității, mai ales că producțiile (și cinefilii) preferă francizele de lungă durată, unde se confruntă cu probleme cu vedetele în vârstă sau chiar pe moarte.
Cu toate acestea, această dezvoltare are și o altă fațetă - poate fi folosită pentru a recrea asemănarea unei persoane fără consimțământul acesteia. În plus, același videoclip poate fi folosit pentru a semăna frică, tensiune și confuzie în rândul oamenilor, mai ales dacă este de la o personalitate politică și deepfake-ul nu este recunoscut ca atare.
Oricât de mult suntem mulțumiți de această tehnologie în divertisment, ar trebui, de asemenea, să fim atenți că este folosită în mod etic și niciodată pentru a semăna haos.