Czołowi badacze AI i liderzy branży wydali otwarte oświadczenie, w którym nawołują do traktowania potencjalnych zagrożeń związanych ze sztuczną inteligencją na równi z innymi globalnymi zagrożeniami, takimi jak pandemie i wojna nuklearna. Oświadczenie, wydane przez Centrum Bezpieczeństwa AI (the Center for AI Safety), podpisali CEO najważniejszych firm tworzących sztuczną inteligencję, w tym OpenAI, Google Deepmind i Anthropic, a także czołowi naukowcy AI z USA i Chin.
Globalny priorytet: Zmniejszanie ryzyka AI
“Zmniejszanie ryzyka zagłady przez AI powinno być globalnym priorytetem obok innych ryzyk na skalę społeczną, takich jak pandemie i wojna nuklearna” – czytamy w wydanym oświadczeniu. Ten apel do działania popiera historyczna koalicja ekspertów AI, filozofów, etyków, prawników, ekonomistów, fizyków, politologów, naukowców zajmujących się pandemiami, naukowców nuklearnych i klimatycznych.
Zmniejszanie ryzyka zagłady przez AI powinno być globalnym priorytetem obok innych ryzyk na skalę społeczną, takich jak pandemie i wojna nuklearna
Oświadczenie Centrum Bezpieczeństwa AI
“To reprezentuje historyczną koalicję ekspertów AI – wraz z filozofami, etykami, prawnikami, ekonomistami, fizykami, politologami, naukowcami zajmującymi się pandemiami, naukowcami nuklearnymi i klimatycznymi – ustanawiającą ryzyko zagłady z zaawansowanych, przyszłych systemów AI jako jeden z najważniejszych problemów świata” napisało w swoim oświadczeniu Centrum Bezpieczeństwa AI.
Przeczytaj także: Czym jest ChatGPT?
Negatywne skutki AI są już odczuwalne i muszą być adresowane. Ale konieczne jest również przewidywanie przyszłych ryzyk związanych z zaawansowanymi systemami AI – dodają w swoich wypowiedziach eksperci.
– Mówienie o tym, jak AI mogłoby doprowadzić do końca ludzkości, może wydawać się science fiction – powiedziała Charlotte Siegmann, współzałożycielka KIRA, think tanku badającego ryzyka związane z AI. – Jest jednak wiele powodów do obaw: nadużycia, konkurencja, ignorancja, nieostrożność i nierozwiązana kontrolowalność obecnych i przyszłych systemów. Otwarty list to podkreśla – dodała.
Jest jednak wiele powodów do obaw: nadużycia, konkurencja, ignorancja, nieostrożność i nierozwiązana kontrolowalność obecnych i przyszłych systemów
Charlotte Siegmann, współzałożycielka KIRA
Yann LeCun i Meta nieobecni na liście sygnatariuszy listu
Wśród znaczących sygnatariuszy oświadczenia są:
- CEO najważniejszych laboratoriów AI: Sam Altman, Demis Hassabis i Dario Amodei
- Autorzy standardowego podręcznika do Sztucznej Inteligencji (Stuart Russell i Peter Norvig)
- Dwóch autorów standardowego podręcznika do Deep Learning (Ian Goodfellow i Yoshua Bengio)
- Autor standardowego podręcznika do Reinforcement Learning (Andrew Barto)
- Trzej laureaci Nagrody Turinga (Geoffrey Hinton, Yoshua Bengio i Martin Hellman)
- Eksperci z Microsoft, OpenAI, Google, Google DeepMind i Anthropic
- Naukowcy stojący za słynnymi systemami AI, takimi jak AlphaGo i każda wersja GPT (David Silver, Ilya Sutskever)
- Dwa najczęściej cytowani naukowcy technologiczni (Hinton i Bengio) oraz najczęściej cytowany naukowiec w dziedzinie bezpieczeństwa komputerowego i prywatności (Dawn Song)
- Profesorowie AI z chińskich uniwersytetów
- Profesorowie badający pandemie, zmiany klimatu i technologię nuklearną
- Inni sygnatariusze to między innymi Marian Rogers Croak (wynalazca VoIP–Voice over Internet Protocol), Kersti Kaljulaid (była prezydentka Estonii)
Brakujący laureat Nagrody Turinga: Yann LeCun i Meta
Na liście brakuje laureata Nagrody Turinga: szefa AI Meta, Yanna LeCuna, który nie podpisał listu, a sama Meta również nie jest na liście. Firma obecnie prowadzi politykę open-source i stoi za potężnymi modelami LLaMA. Również obecnie brakuje Gary’ego Marcusa, który niedawno zeznawał w Senacie USA na rzecz większej regulacji badań i firm AI.
Jednym z sygnatariuszy jest Connor Leahy, CEO Conjecture, firmy poświęconej badaniom nad zastosowaną i skalowalną zgodnością. W niedawnym odcinku Machine Learning Street Talk wyjaśnia szczegółowo, dlaczego AI stanowi ryzyko egzystencjalne i jak możemy sobie z nim radzić.
Źródło: the-decoder.com
Photo by Jaime Lopes on Unsplash
1 Comment
Pingback: Claude 2: Nowy (i potężny) rywal dla ChatGPT - beAIware.pl