ChatGPT w ostatnich tygodniach wziął szturmem nagłówki wszystkich portali biznesowych i technologicznych na całym świecie. Wielu użytkowników wręcz zachłysnęło się możliwościami tego narzędzia wykorzystującego dobrodziejstwa sztucznej inteligencji. Model językowy stworzony przez OpenAI wyuczył się milionów stron tekstów, ebooków i pozostałych rzeczy dostępnych w sieci, aby wspomagać rzeszę pracowników. Problem w tym, że w źródłach z których czerpie ChatGPT są też dane personale, które wiele osób udostępnia w internecie. Może to wprowadzić firmę OpenAI w poważne tarapaty.
Włoski regulator wstrzymuje ChatGPT ze względu na naruszenie prywatności danych
31 marca włoski urząd ds. regulacji danych osobowych (odpowiednik polskiego UODO) wydał tymczasową decyzję o wstrzymaniu możliwości korzystania z ChatGPT na terenie Włoch. Według regulatora, OpenAI nie ma prawa do wykorzystywania informacji osobistych osób w swoim narzędzi. W odpowiedzi na oskarżenia, twórcy popularnego rozwiązania zablokowali dostęp do usługi na terenie Włoch, a miejscowi urzędnicy kontynuują swoje czynności.
To pierwsze takie działanie prawne podjęte przeciwko ChatGPT przez urząd ochrony danych osobowych na Zachodzie. Uwidacznia to spore napięcia związane z prywatnością danych w obliczu funkcjonowania gigantycznych modeli AI, które często są trenowane na ogromnych ilościach danych pobieranych prosto z sieci. Podobnie jak artyści, którzy skarżą się, że twórcy AI wykorzystują ich prace bez uzyskania zgody, tak włoski regulator danych szuka wyjaśnień w odniesieniu do wykorzystania danych osobistych.
Podobne decyzje mogą już wkrótce zostać podjęte w całej Unii Europejskiej. Urzędy odpowiedzialne za regulacje dotyczace danych osobywch we Francji, Niemczech i Irlandii skontaktowali się już z włoską administracją, aby uzyskać więcej informacji na temat ich ustaleń.
Jeśli model biznesowy polegał tylko na pozyskiwaniu danych z Internetu, mogą mieć miejsce naprawdę poważne konsekwencje
Tobias Judin, norweski Urząd Ochrony Danych
Przepisy GDPR obowiązujące w Europie dotyczące sposobu gromadzenia, przechowywania i wykorzystywania danych osobowych obywateli, chronią dane ponad 400 milionów osób na Starym Kontynencie.
Przeczytaj także: Co to jest ChatGPT? – i inne najczęściej zadawane pytania
Dane osobowe obejmują zarówno imię i nazwisko osoby, jak i na przykład jej adres IP – jeśli można go użyć do zidentyfikowania czyjeś tożsamości. W przeciwieństwie do różnorodnych przepisów o prywatności na poziomie stanowym w Stanach Zjednoczonych, ochrona GDPR ma zastosowanie, jeśli informacje o ludziach są swobodnie dostępne w Internecie. W skrócie: fakt, że czyjeś informacje są publiczne, nie oznacza, że można je swobodnie wykorzystywać.
4 główne problemy ChatGPT związane z GDPR
Włoski urząd ochrony danych osobowych uważa, że ChatGPT ma cztery problemy związane z GDPR:
- OpenAI nie ma kontroli wiekowej, która uniemożliwiłaby korzystanie z rozwiązania osobom poniżej 13. roku życia,
- może dostarczać informacje o ludziach, które nie są prawdziwe,
- osoby nie zostały poinformowane o gromadzeniu ich danych,
- nie ma podstawy prawnej do zbierania informacji osobistych ludzi w ogromnych ilościach danych używanych do treningu ChatGPT.
Włosi zdemaskowali ich blef. W Unii Europejskiej wydawało się oczywiste, że narusza to prawo ochrony danych.
Lilian Edwards, profesor prawa, innowacji i społeczeństwa na Newcastle University w Wielkiej Brytanii
Aby firma mogła zbierać i wykorzystywać dane osobowe zgodnie z GDPR, musi opierać się na jednym z sześciu uzasadnień prawnych, począwszy od wyrażenia zgody przez daną osobę, po informacje wymagane w ramach umowy.
Co nam mówi polityka prywatności OpenAI o wykorzystaniu danych osobowych?
Polityka prywatności udostępniona przez OpenAI nie wspomina bezpośrednio o prawnych przyczynach wykorzystywania danych osobowych w treningu, ale mówi, że firma opiera się na “uzasadnionych interesach” przy “rozwoju” swoich usług.
Na niekorzyść OpenAI działa także fakt, że nie upubliczniło ono żadnych szczegółów dotyczących danych treningowych użytych do stworzenia GPT-4. Niemniej jednak dokumentacja techniczna dotycząca GPT-4 zawiera sekcję poświęconą prywatności, która mówi, że dane treningowe mogą obejmować “publicznie dostępne informacje osobiste” pochodzące z różnych źródeł.
OpenAI ponadto informuje, że podejmuje kroki w celu ochrony prywatności ludzi, w tym “dopracowując” modele, aby uniemożliwić użytkownikom żądanie informacji osobistych oraz usuwając dane osób z danych treningowych “tam, gdzie jest to możliwe”.
Czy ChatGPT stanie się nielegalny?
To, co wydarzyło się we Włoszech, może być jedynie początkiem długiej drogi w walce o prywatność danych w obszarze sztucznej inteligencji. W miarę jak rośnie świadomość społeczna na temat praw do prywatności, rośnie również presja na twórców AI, aby chronili dane osobowe swoich użytkowników i dbali o zgodność z obowiązującymi przepisami.
Źródło: Wired
Photo by Chris Yang on Unsplash

5 Comments
Pingback: Co to jest ChatGPT?
Pingback: Google potwierdza - twoje informacje posłużą do szkolenia AI
Pingback: Chiny opublikowały regulacje dot. sztucznej inteligencji
Pingback: RODO pokona Google? Bard (na razie) niedostępny w UE!
Pingback: Dlaczego OpenAI wyłączył opcję "Przeglądaj z Bing" dla ChatGPT?