Czołowi naukowcy zajmujący się sztuczną inteligencją obliczyli prawdopodobieństwo, że sztuczna inteligencja wymknie się spod kontroli i doprowadzi do wyginięcia ludzkości. Wielu z nich podzieliło się swoimi obawami dotyczącymi przyszłości zależnej od sztucznej inteligencji. Z badania wynika, że ryzyko wyginięcia ludzkości z powodu sztucznej inteligencji wynosi aż 5%.
Sztuczna inteligencja to miecz obosieczny
Wśród badaczy sztucznej inteligencji przeprowadzono ankietę na temat ryzyka wyginięcia człowieka w związku z rozwojem sztucznej inteligencji. Naukowcy oszacowali, że może wymknąć się spod kontroli i zniszczyć ludzkość, z prawdopodobieństwem 5%.
Rozwój sztucznej inteligencji postępuje niezwykle szybko. W nadchodzących latach będzie znacznie bardziej zaawansowany. Naukowcy przewidują, że do 2030 roku będzie mogła napisać bestseller New York Timesa lub napisz piosenkę, która będzie na szczycie list przebojów. Można by pomyśleć, że nasi przyszli władcy AI zapewnią nam niezapomnianą rozrywkę na jakiś czas, zanim nas zniszczą.
Choć przewidywań ekspertów w dziedzinie sztucznej inteligencji nie należy traktować jako wiarygodnego przewodnika po obiektywnej prawdzie, mogą one stanowić ważny element układanki. Znajomość technologii, jej dynamiki i dotychczasowego rozwoju stawia ich na dobrej pozycji do wyciągania wniosków na temat przyszłości sztucznej inteligencji.
– stwierdzili autorzy badania.
Strach przed sztuczną inteligencją
W ankiecie wzięło udział łącznie 2778 naukowców. Są autorami recenzowanych prac na temat sztucznej inteligencji i przewidywań na przyszłość dotyczących jej rozwoju. Aż 68% badaczy uważa, że sztuczna inteligencja bardziej skłania się ku dobru niż złu. W badaniu niebezpieczeństwo wiąże się ze stworzeniem potężnej ogólnej sztucznej inteligencji o możliwościach przewyższających możliwości człowieka.
Naukowcy są zgodni, że więcej czasu należy przeznaczyć na badania mające na celu zminimalizowanie ryzyka powstania do zera. Nie są jednak zgodni co do tego, czy rozwój sztucznej inteligencji powinien spowolnić, czy nawet przyspieszyć.
Ponad 80% naukowców wyraziło obawy, że sztuczna inteligencja będzie rozpowszechniać dezinformację. Obejmowały one możliwość wykorzystania sztucznej inteligencji przez rządy autorytarne do niewłaściwych celów, w tym do wpływania na sytuację polityczną w innych krajach.
Czy będzie można kontrolować ogólną sztuczną inteligencję?
OpenAI, firma odpowiedzialna za ChatGPT, opublikowała w grudniu raport na temat możliwości kontrolowania moralności ogólnej sztucznej inteligencji. Odpowiedzialne za to byłyby mniejsze modele językowe, zastępując ludzi w szkoleniu większych modeli.
Z kolei firma Anthrophic stworzyła specjalny instytut zajmujący się swoimi systemami sztucznej inteligencji. Ma to na celu zapewnienie, że funkcjonują one zgodnie z zasadami obowiązującymi w naszej firmie. Naukowcy są jednak pełni sceptycyzmu, bo to może nie wystarczyć. Obecna sztuczna inteligencja to dopiero początek, gdyby miała powstać ogólna sztuczna inteligencja, mielibyśmy do czynienia z czymś inteligentniejszym od nas samych. Jak możemy kontrolować coś, czego nie rozumiemy?
Eksperci przewidują, że do 2033 roku sztuczna inteligencja będzie w stanie tłumaczyć nowo odkryte języki, tworzyć gry wideo czy składać zestawy LEGO. Natomiast do 2063 roku będzie mogła wykonywać pracę chirurga.
Redakcja Pasja w Tobie.
Powiązane artykuły:
ChatGPT napisał prawo w Brazylii. Politycy w szoku
Sztuczna inteligencja przeszła testy IQ. Wyniki są szokujące