Znaki wodne na obrazach stworzonych przez sztuczną inteligencję mogą wprowadzać ludzi w błąd i skłaniać ich do myślenia na przykład o kotach. Tak wynika z nowego badania przeprowadzonego przez zespół Deepmind.
Znaki wodne stanowią środek zabezpieczający dla obrazów wygenerowanych przez AI. Pozwalają szybko stwierdzić, czy dany obraz jest autentyczny, bez konieczności skomplikowanej analizy.
Proces ten polega na dodaniu niemal niewidocznych dla ludzkiego oka elementów, takich jak subtelne zmiany w pikselach. To sprawia, że modele sztucznej inteligencji źle rozumieją obraz. Na przykład, obraz wazonu może zostać błędnie zidentyfikowany jako kot.
Jak znaki wodne na obrazach wpływają na naszą percepcję?
Badacze z Deepmind przeprowadzili eksperyment, w którym pokazywali badanym osobom pary obrazów, które były delikatnie zmodyfikowane poprzez zmiany w pikselach. Efekt? Badani wybierali obraz przypominający kota modelowi sztucznej inteligencji, choć oba obrazy były praktycznie identyczne.
Przeczytaj także: Jak generować obrazy za pomocą ChatGPT i DALL-E 3?
To nie był przypadek – wyniki badania pokazały, że w wielu przypadkach ludzie preferowali obrazy poddane tym subtelnym zmianom, nawet jeśli różnica w pikselach wynosiła zaledwie dwa poziomy na skali od 0 do 255.
Interesujące jest to, że efekty manipulacji obrazem były znacznie bardziej widoczne u maszyn niż u ludzi. Niemniej jednak istnieje możliwość, że można wpłynąć na decyzje ludzi, które zazwyczaj byłyby podejmowane przez maszyny.
To badanie podkreśla, że nawet małe zmiany mogą mieć duży wpływ, szczególnie gdy są stosowane masowo. Przykładowo, manipulacja obrazem, która sprawi, że zdjęcie polityka przypomina kota lub psa, może wpłynąć na to, jak ludzie postrzegają tego polityka.
Naukowcy z Deepmind sugerują, że badania nad bezpieczeństwem sztucznej inteligencji powinny opierać się na eksperymentach, a nie tylko na intuicji i samodzielnych ocenach. Kognitywistyka i neurobiologia również muszą bardziej zgłębiać wiedzę na temat systemów sztucznej inteligencji i ich potencjalnego wpływu.
Warto dodać, że Deepmind pracuje nad systemem znakowania wodnego przy użyciu SynthID, który jest stosowany w systemach generacji obrazów, takich jak Imagen 2. Jednakże jego działanie różni się od opisanych wcześniej zakłóceń adwersarialnych.
Źródło: the-decoder.com