Europa właśnie zrobiła kolejny krok w kierunku uregulowania sztucznej inteligencji. Google ogłosiło, że podpisze kodeks postępowania AI (AI Act) stworzony przez Unię Europejską. Co ciekawe – Meta odmówiła, nazywając przepisy „przesadą” i „zagrożeniem dla innowacji”. W tle rozgrywa się większa gra: jak pogodzić rozwój technologii z odpowiedzialnością?
Czym jest unijny kodeks AI?
To dobrowolny zbiór wytycznych dla firm rozwijających tzw. ogólnego przeznaczenia modele AI (ang. general-purpose AI). Chodzi o takie technologie jak ChatGPT, Gemini czy Claude – systemy, które nie są tworzone pod jeden konkretny cel, ale mają szerokie zastosowanie, od czatbotów po analizę danych medycznych.
Kodeks ma pomóc firmom przygotować się do pełnego wdrożenia AI Act – kompleksowego rozporządzenia UE, które zacznie obowiązywać od 2 sierpnia 2025 r. Ale już teraz, od sierpnia 2024, w życie wchodzą przepisy przejściowe dla firm uznanych za „wysokiego ryzyka systemowego”.
Google podpisuje. Meta protestuje
Google zapowiedziało, że dostosuje się do zasad kodeksu, choć – jak zaznaczył Kent Walker, prezes ds. globalnych – nadal ma pewne obawy. W szczególności zwraca uwagę na:
- ryzyko naruszenia tajemnic handlowych,
- niejasności wokół prawa autorskiego,
- potencjalne opóźnienia w zatwierdzaniu nowych rozwiązań AI.
Z kolei Meta całkowicie odrzuciła pomysł podpisania kodeksu, oskarżając Unię Europejską o „zbytnią ingerencję” i twierdząc, że przepisy mogą zatrzymać rozwój AI w regionie.
Co oznacza podpisanie kodeksu?
Firmy, które zdecydują się na podpisanie dokumentu, zobowiązują się m.in. do:
- transparentnego dokumentowania swoich modeli AI,
- nieużywania pirackich treści do trenowania modeli,
- respektowania żądań właścicieli treści dotyczących wykluczenia ich danych z datasetów,
- opracowania mechanizmów kontroli ryzyka i jakości.
Dla Google to sposób na pokazanie dobrej woli, ale też wyzwanie – niektóre zapisy kodeksu mogą uderzyć w szybkość innowacji i przewagę konkurencyjną.
Co dalej z AI w Europie?
Unijny AI Act ma szczytne cele: ochrona praw obywateli, etyczne wykorzystanie technologii i minimalizacja zagrożeń. Zakazuje m.in. stosowania AI do manipulacji zachowaniami ludzi (np. przez deepfake’i), czy tzw. social scoringu – systemu punktowania obywateli znanego z Chin.
Ale pojawia się pytanie: czy te regulacje nie spowolnią rozwoju innowacji w Europie? Szczególnie w porównaniu do USA czy Chin, gdzie ramy prawne są znacznie luźniejsze.
AI, regulacje i konkurencja – delikatna równowaga
Podpis Google’a to jasny sygnał, że niektóre firmy widzą w regulacjach nie tylko zagrożenie, ale też szansę – na zbudowanie zaufania, uporządkowanie rynku i wyznaczenie standardów.
Z kolei Meta, odmawiając współpracy, stawia na wolność innowacji kosztem kontroli.
Która strategia okaże się skuteczniejsza? Przekonamy się w nadchodzących miesiącach, gdy AI Act zacznie realnie wpływać na funkcjonowanie firm technologicznych w Europie.
Źródło: TechCrunch
Zdjęcie: Sora AI
