Musk żąda zaprzestania prac
Elon Musk, grupa ekspertów ds. sztucznej inteligencji oraz liderzy branży wzywają do przerwy w rozwoju systemów mocniejszych niż nowo uruchomiony GPT-4. W liście otwartym powołują się na potencjalne zagrożenia dla społeczeństwa i ludzkości.
W liście, wydanym przez organizację non-profit “Future of Life Institute” i podpisanym przez ponad 1000 osób, wzywa się do przerwy w tak gwałtownym rozwoju AI. Do momentu wdrożenia jednolitych protokołów bezpieczeństwa dla takich projektów, uznawane są one za pewnego rodzaju żywioł.
“Potężne systemy AI powinny być rozwijane tylko wtedy, gdy będziemy pewni, że ich wpływ będzie pozytywny, a ich ryzyko będzie kontrolowalne”
List opisuje potencjalne zagrożenia dla społeczeństwa przez systemy AI konkurujące z człowiekiem w gospodarcze i polityce. Wzywa także twórców do współpracy z organami państwowymi w sprawach regulacji i nadzoru.
Sygnatariuszami listu są m.in. Emad Mostaque – CEO Stability AI, badacze z powiązanego z Google DeepMind, a także giganci AI, Yoshua Bengio i Stuart Russell.
Według rejestrów Unii Europejskiej, Future of Life Institute jest w głównej mierze finansowany przez trzech inwestorów. Kluczowi gracze to:
– Musk Foundation,
– Effective Altruism oraz
– Silicon Valley Community Foundation.
Nowa technologia – Nowe problemy
Obawy pojawiły się w momencie, gdy unijna policja Europol dołączyła do grona zbioru etycznych i prawnych krytyków zaawansowanego AI. Ostrzeżenie przed użyciem jej w cyberprzestępczości to rewolucyjny krok.
Niewiele później rząd Wielkiej Brytanii przedstawił propozycje “dostosowalnej” ramy regulacyjnej w zakresie AI.
Podejście rządu UK, opisane w opublikowanej w środę notatce, podzieliłoby odpowiedzialność za kontrolowanie sztucznej inteligencji pomiędzy różne organy. Odpowiedzialność spadłaby na urzędy ds. praw człowieka, zdrowia i bezpieczeństwa oraz rynkowej konkurencji.
Intencje Muska i sygnatariuszy
Elon Musk, którego Tesla wykorzystuje AI do systemu autopilota, wyrażał już wcześniej swoje obawy dotyczące AI.
Od swojej premiery ChatGPT zmotywował konkurentów do rozwijania podobnych modeli językowych, a firmy do integracji modeli generatywnych AI w swoich produktach.
Sam Altman nie podpisał listu, powiedział rzecznik Future of Life Institute agencji Reuters. OpenAI nie odpowiedziało także na prośbę o komentarz.
“List nie jest doskonały, ale duch jest właściwy: musimy zwolnić, dopóki nie zrozumiemy lepiej konsekwencji” – powiedział Gary Marcus, profesor na Uniwersytecie Nowojorskim, który podpisał list. “Mogą one powodować poważne szkody… duże korporacje stają się coraz mniej przejrzyste w kwestii tego, co robią, co utrudnia społeczeństwu obronę przed jakimikolwiek szkodami, które mogą się pojawić”.

1 Comment
Pingback: 300 milionów miejsc pracy zagrożonych przez AI? - beAIware.pl