Naukowcy pokazali ludziom obrazy twarzy, które zostały stworzone przez sztuczną inteligencję. Uczestnicy badania mieli często problem z prawidłowym odgadnięciem, które fotografie przedstawiają prawdziwego człowieka.
W ostatnim czasie nastąpił szybki rozwój technologii analizy ludzkiej twarzy i adaptowania jej do zdjęć i nagrań wideo. Ludzie świadomi są tego, czym jest deepfake, lecz coraz ciężej jest odróżnić to, co prawdzie od tego, co stworzone przez sztuczną inteligencję. Jakiś czas temu głośno zrobiło się o japońskiej influencerce, dzielącej się na platformach społecznościowych swoją miłością do motocykli. Okazało się, że @azusagakuyuki to tak naprawdę 50 letni mężczyzna, używający edytora twarzy.
Ostatnio na łamach „Proceedings of the National Academy of Sciences”, ukazało się nowe badanie dotyczące sztucznej inteligencji i tego, jak przekonywające potrafią być obrazy przez nią stworzone. W swoim badaniu naukowcy rozpoczęli od pracy na 400 syntetycznych twarzach (podzielonych ze względu na wiek, płeć i rasę), wygenerowanych przez AI stworzoną przez technologiczną firmę NVIDIA. Program nazywa się generatywną siecią adwersarzy i wykorzystuje sieci neuronowe do tworzenia obrazów.
Całe badanie składało się z trzech eksperymentów. Pierwszy z nich polegał na tym, że ponad 300 uczestnikom badania zostały pokazane 128 ludzkie twarze, które musieli przydzielić do kategorii „prawdziwy” lub „sztuczny”. Wyniki są szokujące. Jedynie w 48,2 proc. przypadków ankietowani byli w stanie odpowiedzieć poprawnie.
Jednak okazuje się, że uczestnikom nie wszystkie twarze sprawiały problemy. Najgorzej radzili sobie z analizą białych twarzy, prawdopodobnie dlatego, że dane treningowe sztucznej inteligencji zawierały znacznie więcej zdjęć białych ludzi. Więcej danych oznacza lepsze renderowanie.