OpenAI nieustannie budzi emocje, szczególnie w kontekście neutralności politycznej swoich modeli. Najnowszy przykład to usunięcie zapisu o „politycznej bezstronności” (politically unbiased) z jednego z opublikowanych niedawno dokumentów firmy. Poniżej przyglądamy się temu, co faktycznie się stało i dlaczego te zmiany mogą okazać się ważne dla rozwoju sztucznej inteligencji.
Kontrowersyjne usunięcie wzmianki o „politycznej neutralności”
W pierwotnym projekcie „economic blueprint” dla branży AI w USA, OpenAI otwarcie wskazywało, że modele AI „powinien domyślnie dążyć do bycia politycznie bezstronnym” Jednak w nowej wersji dokumentu, udostępnionej w poniedziałek, zapis ten zniknął.
Rzecznik OpenAI wyjaśnił, że zmiana ta była elementem procesu mającego na celu „usprawnienie” całego dokumentu. Dodał też, że inne materiały OpenAI, w tym „Model Spec”, nadal odnoszą się do idei obiektywizmu w modelach AI.
Nasuwa się jednak pytanie, czy usunięcie tak kluczowego fragmentu nie jest sygnałem odwrotu od wcześniejszych deklaracji?
Polityczne pole minowe „stronniczej sztucznej inteligencji”
Temat uprzedzeń politycznych w AI (biased AI) zyskał dodatkowy rozgłos dzięki głosom wpływowych osób ze świata technologii. Wielu sojuszników Donalda Trumpa, w tym Elon Musk czy David Sacks, oskarża chatboty AI o cenzurę konserwatywnych poglądów. Sacks wprost stwierdził, że ChatGPT został „zaprogramowany by być woke” i nie jest obiektywny w kwestiach politycznych.
Elon Musk wini zarówno dane wykorzystywane do trenowania modeli, jak i „wokeness” firm zlokalizowanych w okolicach Zatoki San Francisco. W jednym z wypowiedzi zauważył, że „wiele modeli AI, które są szkolone w rejonie Zatoki San Francisco, przejmuje filozofię ludzi wokół nich” co w jego opinii sprzyja kształtowaniu określonej filozofii w tworzonych narzędziach.
Dlaczego usuwanie wzmianki jest istotne?
Ewentualne regulacje prawne
W miarę jak rządy na całym świecie (zwłaszcza w USA i UE) coraz bardziej interesują się AI, dyskusja o rzekomej „stronniczości” może skłonić do opracowania dodatkowych przepisów lub wytycznych.
Zaufanie użytkowników
W dobie szybkiego rozwoju AI, deklarowana neutralność polityczna jest dla wielu osób kluczowa. Usuwanie fragmentu o „neutralności politycznej” rodzi wątpliwości co do priorytetów OpenAI.
Presja opinii publicznej
Coraz więcej osób zwraca uwagę na to, w jaki sposób AI może manipulować przekazem, świadomie lub nieświadomie. Dla firm technologicznych kluczowe staje się wyjaśnianie, w jaki sposób modele są trenowane i jakie mają mechanizmy moderacji.
„Bug czy feature?” – problem techniczny i społeczny
OpenAI utrzymuje, że wszelkie zauważone przejawy stronniczości to „bugi, a nie funkcje” Wyzwaniem jest jednak nie tylko sama technologia, ale też społeczne i polityczne tło. Jak pokazują przykłady:
- Brytyjskie badania z sierpnia 2023 sugerują liberalne nastawienie ChatGPT w tematach takich jak imigracja, zmiany klimatu czy małżeństwa jednopłciowe.
- Równocześnie xAI Elona Muska, który miał być remedium na „wokeness”, również boryka się z podobnymi problemami.
Pokazuje to, że tworzenie w pełni neutralnego chatbota jest niezwykle złożonym zadaniem – przetwarzanie kolosalnej ilości danych nieuchronnie rodzi ryzyko przejmowania ich wewnętrznych uprzedzeń lub preferencji.
Źródło: TechCrunch
Photo by Ronda Darby on Unsplash