Close Menu
  • Główna
  • Aktualności
  • Recenzje
  • Narzędzia AI
  • Ludzie AI
  • Wydarzenia
Najnowsze

OpenAI ogłosił wprowadzenie GPT-5.1

November 12, 2025

Jak AI zmienia pracę programistów? Co dalej z juniorami? [PODCAST 🎙️]

November 11, 2025

Lumen stawia na AI Palantira, by zbudować nową cyfrową infrastrukturę

October 23, 2025
Facebook X (Twitter) Instagram
Button
beAIware.pl
Facebook X (Twitter) Instagram TikTok
  • Główna
  • Aktualności
  • Recenzje
  • Narzędzia AI
  • Ludzie AI
  • Wydarzenia
beAIware.pl
Home » Eksperci apelują: Ryzyko związane z AI powinno być traktowane tak poważnie jak wojna nuklearna
Aktualności

Eksperci apelują: Ryzyko związane z AI powinno być traktowane tak poważnie jak wojna nuklearna

Maciej BiegajewskiBy Maciej BiegajewskiMay 30, 2023Updated:May 30, 20233 Mins Read
Ryzyko związane z AI powinno być traktowane tak poważnie jak wojna nuklearna
Share
Facebook Twitter Pinterest Reddit WhatsApp Email

Czołowi badacze AI i liderzy branży wydali otwarte oświadczenie, w którym nawołują do traktowania potencjalnych zagrożeń związanych ze sztuczną inteligencją na równi z innymi globalnymi zagrożeniami, takimi jak pandemie i wojna nuklearna. Oświadczenie, wydane przez Centrum Bezpieczeństwa AI (the Center for AI Safety), podpisali CEO najważniejszych firm tworzących sztuczną inteligencję, w tym OpenAI, Google Deepmind i Anthropic, a także czołowi naukowcy AI z USA i Chin.

Globalny priorytet: Zmniejszanie ryzyka AI

“Zmniejszanie ryzyka zagłady przez AI powinno być globalnym priorytetem obok innych ryzyk na skalę społeczną, takich jak pandemie i wojna nuklearna” – czytamy w wydanym oświadczeniu. Ten apel do działania popiera historyczna koalicja ekspertów AI, filozofów, etyków, prawników, ekonomistów, fizyków, politologów, naukowców zajmujących się pandemiami, naukowców nuklearnych i klimatycznych.

Zmniejszanie ryzyka zagłady przez AI powinno być globalnym priorytetem obok innych ryzyk na skalę społeczną, takich jak pandemie i wojna nuklearna

Oświadczenie Centrum Bezpieczeństwa AI

“To reprezentuje historyczną koalicję ekspertów AI – wraz z filozofami, etykami, prawnikami, ekonomistami, fizykami, politologami, naukowcami zajmującymi się pandemiami, naukowcami nuklearnymi i klimatycznymi – ustanawiającą ryzyko zagłady z zaawansowanych, przyszłych systemów AI jako jeden z najważniejszych problemów świata” napisało w swoim oświadczeniu Centrum Bezpieczeństwa AI.

Przeczytaj także: Czym jest ChatGPT?

Negatywne skutki AI są już odczuwalne i muszą być adresowane. Ale konieczne jest również przewidywanie przyszłych ryzyk związanych z zaawansowanymi systemami AI – dodają w swoich wypowiedziach eksperci.

– Mówienie o tym, jak AI mogłoby doprowadzić do końca ludzkości, może wydawać się science fiction – powiedziała Charlotte Siegmann, współzałożycielka KIRA, think tanku badającego ryzyka związane z AI. – Jest jednak wiele powodów do obaw: nadużycia, konkurencja, ignorancja, nieostrożność i nierozwiązana kontrolowalność obecnych i przyszłych systemów. Otwarty list to podkreśla – dodała.

Jest jednak wiele powodów do obaw: nadużycia, konkurencja, ignorancja, nieostrożność i nierozwiązana kontrolowalność obecnych i przyszłych systemów

Charlotte Siegmann, współzałożycielka KIRA

Yann LeCun i Meta nieobecni na liście sygnatariuszy listu

Wśród znaczących sygnatariuszy oświadczenia są:

  • CEO najważniejszych laboratoriów AI: Sam Altman, Demis Hassabis i Dario Amodei
  • Autorzy standardowego podręcznika do Sztucznej Inteligencji (Stuart Russell i Peter Norvig)
  • Dwóch autorów standardowego podręcznika do Deep Learning (Ian Goodfellow i Yoshua Bengio)
  • Autor standardowego podręcznika do Reinforcement Learning (Andrew Barto)
  • Trzej laureaci Nagrody Turinga (Geoffrey Hinton, Yoshua Bengio i Martin Hellman)
  • Eksperci z Microsoft, OpenAI, Google, Google DeepMind i Anthropic
  • Naukowcy stojący za słynnymi systemami AI, takimi jak AlphaGo i każda wersja GPT (David Silver, Ilya Sutskever)
  • Dwa najczęściej cytowani naukowcy technologiczni (Hinton i Bengio) oraz najczęściej cytowany naukowiec w dziedzinie bezpieczeństwa komputerowego i prywatności (Dawn Song)
  • Profesorowie AI z chińskich uniwersytetów
  • Profesorowie badający pandemie, zmiany klimatu i technologię nuklearną
  • Inni sygnatariusze to między innymi Marian Rogers Croak (wynalazca VoIP–Voice over Internet Protocol), Kersti Kaljulaid (była prezydentka Estonii)

Brakujący laureat Nagrody Turinga: Yann LeCun i Meta

Na liście brakuje laureata Nagrody Turinga: szefa AI Meta, Yanna LeCuna, który nie podpisał listu, a sama Meta również nie jest na liście. Firma obecnie prowadzi politykę open-source i stoi za potężnymi modelami LLaMA. Również obecnie brakuje Gary’ego Marcusa, który niedawno zeznawał w Senacie USA na rzecz większej regulacji badań i firm AI.

Jednym z sygnatariuszy jest Connor Leahy, CEO Conjecture, firmy poświęconej badaniom nad zastosowaną i skalowalną zgodnością. W niedawnym odcinku Machine Learning Street Talk wyjaśnia szczegółowo, dlaczego AI stanowi ryzyko egzystencjalne i jak możemy sobie z nim radzić.


Źródło: the-decoder.com

Photo by Jaime Lopes on Unsplash

Badania nad AI Bezpieczeństwo Google AI Microsoft OpenAI Ryzyko AI Sam Altman sztuczna inteligencja
Previous ArticleUwaga na aplikacje podszywające się pod ChatGPT!
Next Article CEO Nvidia: Z AI każdy jest programistą!
Maciej Biegajewski

    View 1 Comment

    1 Comment

    1. Pingback: Claude 2: Nowy (i potężny) rywal dla ChatGPT - beAIware.pl

    Leave A Reply Cancel Reply

    10 NAJLEPSZYCH PROMPTÓW 2023
    Polecane

    Jak włączyć i korzystać z wtyczek do ChatGPT – poradnik krok po kroku

    May 17, 2023

    Wszystko, co musisz wiedzieć o Midjourney

    April 20, 2023

    Co to jest ChatGPT? – i inne najczęściej zadawane pytania

    March 30, 2023
    • Facebook
    • Twitter
    • Instagram
    • YouTube
    • LinkedIn
    • TikTok

    Bądż na bieżąco!

    Bądź na czasie z najlepszymi narzędziami i zastosowaniami AI!

    Prosto do Twojej skrzynki mailowej.

    Dziękujemy!

    You have successfully joined our subscriber list.

    O nas
    O nas

    Dołącz do biznesowej rewolucji AI i odkrywaj z nami narzędzia przyszłości.

    Bądź na bieżąco. Be AI-ware!

    Kontakt: [email protected]

    Facebook X (Twitter) Instagram TikTok
    Najnowsze posty

    OpenAI ogłosił wprowadzenie GPT-5.1

    November 12, 2025

    Lumen stawia na AI Palantira, by zbudować nową cyfrową infrastrukturę

    October 23, 2025

    Edge Copilot kontra Atlas: czy nadchodzi era przeglądarek z AI?

    October 23, 2025

    Type above and press Enter to search. Press Esc to cancel.