Szerokim echem w mediach odbiła się informacja o podejmowanych przez Scarlett Johansson krokach prawnych przeciwko sztucznej inteligencji, w związku z wykorzystaniem wizerunku aktorki na potrzeby reklamy internetowej.
Jak donosi Variety, materiał opublikowany na X (dawnym Twitterze) przez edytor obrazów o nazwie Lisa AI: 90’s Yearbook & Avatar, powstał przy wykorzystaniu prawdziwego nagrania Johansson do wygenerowania jej „fałszywych” zdjęć i imitacji jej głosu – rzecz jasna, bez zgody gwiazdy.
Co ciekawe, reklama zawierała komunikat o wykorzystaniu wytworzonych przez edytor materiałach niemających nic wspólnego z aktorką, jednak nie zamknęło to sprawy.
Choć o naruszeniach prawa do wizerunku z perspektywy technologii deepfake powiedziano już całkiem sporo, warto rozważyć, na ile ma znaczenie umieszczenie wyraźnego komunikatu o wykorzystaniu czyjejś podobizny przez AI do powstania danego materiału. Bez wątpienia taka informacja jest pożądana choćby w celu uświadomienia odbiorców, że to, co oglądają, jest w rzeczywistości wytworem sztucznej inteligencji, a nie prawdziwym zdjęciem/materiałem przedstawionej w nim osoby, szczególnie jeśli osoba ta jest przedstawiona w nietypowej dla niej sytuacji (jak np. zdjęcia obejmujących się na plaży Angeli Merkel i Baracka Obamy).
Czy jednak rozwiązuje to problem? Można mieć co do tego poważne wątpliwości, ponieważ w dalszym ciągu wykorzystywany jest wizerunek danej osoby bez jej zgody i osadzony w kontekście, z którym osoba ta może nie chcieć być kojarzona (czy to w ramach „niewinnej” reklamy, czy w znacznie bardziej problematycznej sytuacji, jak choćby w filmie dla dorosłych). Dotyczy to również osób publicznych, którym mimo wykonywanego zawodu w dalszym ciągu przysługuje prawo do wizerunku i do prywatności.
Choć prawo nadal nie nadąża za technologią, to pozostaje mieć nadzieję, że odpowiednie narzędzia prawne zdołają „ujarzmić” rozwijającą się w zawrotnym tempie technologię.