OpenAI, firma stojąca za popularnym chatbotem ChatGPT, ma przedstawić środki mające na celu rozwiązanie problemów związanych z prywatnością danych, które doprowadziły do tymczasowego zakazu korzystania z tej technologii we Włoszech.
Dlaczego ChatGPT został zbanowany we Włoszech?
Włoski urząd ochrony danych, zwany Garante, w zeszłym tygodniu zablokował ChatGPT, nakazując tymczasowe zaprzestanie przetwarzania danych osobowych włoskich użytkowników podczas śledztwa w sprawie możliwego naruszenia unijnych przepisów dotyczących prywatności danych. Eksperci uważają, że jest to pierwszy taki przypadek, gdy demokratyczne państwo nałożyło ogólnokrajowy zakaz na popularną platformę AI.
Spotkanie z włoskim regulatorem ochrony danych osobowych
Podczas wideokonferencji w środę późnym wieczorem, w której uczestniczyli komisarze Garante oraz przedstawiciele OpenAI, w tym dyrektor generalny Sam Altman, firma obiecała przedstawić środki mające na celu rozwiązanie problemów. Nie podano jednak żadnych konkretnych szczegółów na ten temat.
Włoski regulator podkreślił, że nie chce hamować rozwoju sztucznej inteligencji, ale jednocześnie zwrócił uwagę OpenAI na konieczność przestrzegania rygorystycznych unijnych przepisów dotyczących ochrony danych.
Sztuczna inteligencja, a kwestie związane z ochroną danych w Unii Europejskiej
Regulatorzy nałożyli zakaz, gdy odkryli, że niektóre wiadomości i informacje płatnicze użytkowników zostały udostępnione innym osobom. Wyrażono również wątpliwości co do legalności gromadzenia przez OpenAI ogromnych ilości danych używanych do szkolenia algorytmów ChatGPT oraz obawę, że system może generować fałszywe informacje na temat osób.
Komisja Ochrony Danych w Irlandii poinformowała, że śledzi działania włoskiego regulatora, aby zrozumieć ich podstawy i będzie współpracować z innymi unijnymi organami ochrony danych w tej sprawie. Francuski regulator ochrony danych, CNIL, prowadzi dochodzenie po otrzymaniu dwóch skarg na ChatGPT.
Kanadyjski komisarz ds. prywatności wszczął śledztwo w sprawie OpenAI po otrzymaniu skargi dotyczącej podejrzanego “gromadzenia, wykorzystywania i ujawniania informacji osobistych bez zgody”.
Reakcja OpenAI na blokadę
W reakcji na te obawy, OpenAI opublikowało wpis na blogu poświęcony bezpieczeństwu AI, w którym opisuje swoje podejście do kwestii związanych z ochroną danych.
Przede wszystkim, twórcy OpenAI komunikują, że:
- OpenAI koncentruje się na tworzeniu bezpiecznych i powszechnie korzystnych systemów AI, poprzez rygorystyczne testy i uczenie się z rzeczywistego użytkowania
- OpenAI stopniowo udostępnia nowe systemy AI coraz szerszemu gronu użytkowników, a także stale wprowadza ulepszenia. Rzeczywiste zastosowanie systemów AI pozwala na opracowanie coraz bardziej wyrafinowanych zabezpieczeń
- Jednym z kluczowych obszarów zabezpieczeń jest ochrona dzieci. OpenAI wymaga, aby osoby korzystające z narzędzi AI miały co najmniej 18 lat lub 13 lat z zgodą rodzica. Firma rozwija opcje weryfikacji wieku. Model GPT-4 jest o 82% mniej podatny na generowanie niedozwolonych treści w porównaniu z GPT-3.5.
- OpenAI szanuje prywatność użytkowników i pracuje nad usunięciem danych osobowych z zestawów danych treningowych.
Co dalej z bezpieczeństwem i prywatnością ChatGPT?
Sytuacja związana z tymczasowym zakazem ChatGPT we Włoszech pokazuje, jak ważne jest przestrzeganie przepisów dotyczących ochrony danych w kontekście rozwoju sztucznej inteligencji.
OpenAI, jak i inne firmy działające w tej dziedzinie, muszą podejmować odpowiednie środki w celu zapewnienia bezpieczeństwa danych swoich użytkowników i zgodności z obowiązującymi przepisami. W miarę jak technologia AI będzie się rozwijać, kluczowe będzie utrzymanie równowagi między innowacją a ochroną prywatności.
Źródła: https://abcnews.go.com/ | openai.com/blog/
Photo by Jason Dent on Unsplash
2 Comments
Pingback: OpenAI ogłasza program Bug Bounty! - beAIware.pl
Pingback: GPT-5 nie będzie jednorazową aktualizacją - OpenAI - beAIware.pl