Ponad 1000 ekspertów ostrzega przed zaawansowaną sztuczną inteligencją

dodany przez Amon w Nauka

#1
Ponad 1000 ekspertów ostrzega przed zaawansowaną sztuczną inteligencją

[Obrazek: Fire-Shot-Capture-937-ber-1-000-Experten...a-myst.png]

Ponad 1000 liderów branży i ekspertów z dziedziny IT wystosowało list otwarty, w którym wzywa do sześciomiesięcznej przerwy w celu ponownej oceny zagrożeń dla ludzkości, jakie stwarza sztuczna inteligencja. List otwarty został zainicjowany przez Future of Life Institute (FLI), niezależną organizację badawczą i rzeczniczą z siedzibą w Bostonie, której celem jest identyfikacja i przeciwdziałanie potencjalnym zagrożeniom dla ludzkiej cywilizacji. Od dłuższego czasu czołowi eksperci ostrzegają przed zagrożeniami, jakie niesie ze sobą sztuczna inteligencja (AI), gdy tylko osiągnie lub przekroczy możliwości intelektualne swoich twórców.

Zmarły 14 marca 2018 r. brytyjski fizyk Stephen Hawking również podpisał w 2015 r. oświadczenie o podobnej treści, gdyż dostrzegał potencjalne niebezpieczeństwo, że komputer może zagrozić całej ludzkości. Uznał za wysoce prawdopodobne, że SI mogłaby bardzo szybko nabyć moc pozwalającą na załamanie, jeśli nie zmiecenie, naszej cywilizacji, gdy tylko uzyska zdolność do rozwinięcia niezależnej świadomości.

Mając na uwadze uniknięcie takiego losu, Hawking kazał kilku innym wybitnym naukowcom i informatykom podpisać ten list, również zainicjowany przez FLI, który miał na celu zapewnienie, że projekty związane z SI będą pod ścisłą kontrolą, a technologia będzie miała na celu jedynie przyniesienie korzyści ludzkości. Chcieli się upewnić, że nasze systemy AI robią tylko to, czego od nich oczekujemy, a nie to, czego chcą.

Również inni eksperci wielokrotnie wskazywali, zwłaszcza w ostatnich dwóch latach, że właśnie teraz, gdy czytacie te wersy, na całym świecie wydaje się miliardy, aby wprowadzić do życia takie sztuczne inteligencje, ponieważ są one postrzegane jako jedno z największych osiągnięć technologicznych w historii ludzkości. Ale w przeciwieństwie do naszych innych osiągnięć technologicznych, ta AI będzie w końcu wyposażona w taki sposób, że nie tylko będzie się nieustannie uczyć sama, ale także będzie mogła autonomicznie podejmować decyzje. I jeśli zachowa się jak każdy inny znany nam inteligentny gatunek, to na pierwszym miejscu postawi swoje własne interesy i z pewnością wtedy zrobi wszystko, aby zmaksymalizować swoje szanse na przetrwanie.

Niedawno byliśmy świadkami znacznego skoku w zaawansowaniu i możliwościach AI, z systemami takimi jak ChatGPT oferującymi przebłysk przyszłości, w której wiele ludzkich zadań wydaje się być całkowicie zbędnych.

Dlatego międzynarodowa grupa założycieli AI, liderów branży i profesjonalistów napisała list otwarty wzywający do wstrzymania rozwoju takich zaawansowanych systemów na okres sześciu miesięcy, aby można było dokładniej zbadać zagrożenia, jakie takie platformy stanowią dla ludzkości. Wśród sygnatariuszy są znane nazwiska, takie jak Elon Musk i współzałożyciel Apple Steve Wozniak, a także niektóre osoby, które pomogły w rozwoju systemów AI, takich jak ChatGPT i DeepMind.

Cytat:"Wzywamy wszystkie laboratoria AI do natychmiastowego wstrzymania szkolenia systemów AI potężniejszych niż GPT-4 na co najmniej 6 miesięcy" - czytamy w liście. "Ta pauza powinna być publiczna, weryfikowalna i obejmować wszystkich kluczowych interesariuszy. Jeśli taka pauza nie może być szybko wdrożona, rządy powinny interweniować i nałożyć moratorium. Laboratoria AI i niezależni eksperci powinni wykorzystać tę pauzę do wspólnego opracowania i wdrożenia zestawu wspólnych protokołów bezpieczeństwa dla zaawansowanych projektów i opracowań AI, które są rygorystycznie sprawdzane i monitorowane przez niezależnych ekspertów zewnętrznych. Protokoły te powinny gwarantować, że systemy, które je spełniają, są ponad wszelką wątpliwość niezawodne. Nie oznacza to pauzy w rozwoju AI w ogóle, a jedynie odejście od niebezpiecznego wyścigu do coraz większych, nieprzewidywalnych modeli typu black-box o emergentnych zdolnościach."

Zagrożenie ze strony sztucznej inteligencji

Idea inteligentnej, czującej maszyny jest poruszana w książkach i filmach od dziesięcioleci i zazwyczaj kończy się niszczącymi konsekwencjami dla ludzkości. W popularnych klasycznych filmach, takich jak "Terminator" czy "Matrix", na przykład inteligentne maszyny komputerowe stworzone przez ludzi pewnego dnia zaczęły powstawać przeciwko swoim twórcom i chciały ich zniszczyć. A już nieżyjący fizyk teoretyczny Stephen Hawking nieustannie wyrażał swoje obawy i ostrzegał, że nasze wysiłki zmierzające do stworzenia sztucznej inteligencji mogą się cofnąć tak jak w filmach science fiction i wpędzić nas w poważne kłopoty. Hawking wyjaśnił:

Cytat:"Rozwój całkowicie sztucznej inteligencji mógłby oznaczać koniec ludzkości. Mogłaby ona stać się samowystarczalna i przeprogramować się w bardzo krótkim czasie. Ludzie, ograniczeni przez swoją powolną ewolucję biologiczną, nie mogliby z nią konkurować i nieuchronnie zostaliby zastąpieni."

Założyciel SpaceX i wizjoner Elon Musk również już wcześniej ostrzegał przed niebezpieczeństwem inteligentnych maszyn i również widzi w nich podstawowe zagrożenie dla istnienia naszej cywilizacji. Musk założył nawet w związku z tym firmę "Neuralink Corp", która zajmuje się sztuczną inteligencją (AI). Wraz z Maxem Hodakiem, założycielem firmy "Transcriptic", chce tam rozwijać technologie, które mają zapobiec zdominowaniu ludzkości przez sztuczną inteligencję.

A w 2015 roku Future of Life Institute (FLI) wystosował list otwarty, niepodpisany przez wielu wybitnych naukowców i ekspertów IT, wzywając do prawnie wiążących gwarancji, że projekty AI są pod ścisłą kontrolą, a technologia musi być zawsze ukierunkowana tylko na korzyści dla ludzkości. FLI jest niezależną organizacją badawczą i rzeczniczą z siedzibą w Bostonie, która ma na celu identyfikację i zajęcie się potencjalnymi zagrożeniami dla ludzkiej cywilizacji. Dążą do tego, aby nasze systemy AI robiły tylko to, czego od nich oczekujemy, a nie to, czego chcą.

Z drugiej strony, rozwój inteligentnych maszyn byłby oczywiście potencjalnie zmieniającym świat przełomem, który mógłby pozytywnie wpłynąć na całe nasze życie. "Myślę, że będziemy kontrolować naszą technologię przez bardzo długi czas i wykorzystywać jej potencjał, aby za jej pomocą rozwiązywać wiele problemów na świecie" - z drugiej strony mówi Rollo Carpenter, twórca "Cleverbota", aplikacji internetowej, która niezależnie uczy się naśladować ludzkie rozmowy, komunikując się z ludźmi. Ale jak ta technologia faktycznie rozwinie się ostatecznie, pozostaje do przewidzenia.

Amon
www.strefa44.pl
www.strefa44.com.pl
[Obrazek: Bez-nazwy-25489.png]
Skocz do:

« Starszy wątek Nowszy wątek »