"Szansa cywilizacyjna, ale też poważne zagrożenie". Ekspert o sztucznej inteligencji
Wiele osób mówi, że ta technologia ma nawet większy wymiar niż wynalezienie ognia - powiedział w Polsat News o sztucznej inteligencji prof. Dariusz Jemielniak. Jego zdaniem to "olbrzymia szansa cywilizacyjna", ale i "bardzo poważne zagrożenie dla naszego gatunku". Według wiceprezesa Polskiej Akademii Nauk sztuczna inteligencja będzie rozwijać się szybciej w Chinach niż w USA czy Europie.
Za sprawą ChatuGPT, z którym można porozmawiać na niemal każdy temat, kwestia sztucznej inteligencji rozpaliła wyobraźnię ludzi na całym świecie. Według prof. Dariusza Jemielniaka z Akademii Leona Koźmińskiego w Warszawie "postęp w tej kwestii nastąpił się już parę lat temu, jednak dopiero teraz zaczyna to docierać do świadomości ludzi".
- To jest rewolucyjny przełom, kluczowy moment. Wiele osób twierdzi, że ta technologia ma nawet większy wymiar niż wynalezienie ognia - powiedział na antenie Polsat News.
Jak jednak zauważył, trzeba zdawać sobie sprawę z tego, że "jest to olbrzymia szansa cywilizacyjna, ale również bardzo poważne zagrożenie dla naszego gatunku".
"Jest światełko w tunelu"
- Tempo rozwoju technologii takiej jak sztuczna inteligencja, nie jest ograniczone tempem ewolucji biologicznej. To jest błyskawiczny, ale jednocześnie skokowy przyrost - stwierdził prof. Jemielniak.
Dodał, że każda kolejna generacja "wymaga bardzo dużych nakładów". - To co obecnie widzimy, czyli chociażby ChatGPT, to jest technologia bardzo droga do opracowania, ale również bardzo droga w eksploatacji. Dlatego kolejnego kroku możemy się spodziewać za rok, może dwa, ale on na pewno nastąpi - ocenił.
ZOBACZ: Sztuczna inteligencja zwolni z rozwojem? Pierwszy kraj banuje ChatGPT
Mówiąc o możliwościach sztucznej inteligencji ekspert przypomniał, że "wszystko to, co ludzie robią, zwłaszcza pracownicy umysłowi, to jest coś, co potencjalnie może robić również sztuczna inteligencja".
- Ale jest światełko w tunelu. Na razie sztuczna inteligencja nie jest w stanie zrobić cokolwiek sama. Ktoś musi sformułować dobre pytania, ktoś musi później to obrobić, wciąż jest więc spore pole do popisu dla ludzi, którzy będą tę sztuczną inteligencję obsługiwać - podkreślił.
Jego zdaniem w przyszłości wydajność sztucznej inteligencji będzie wielokrotnie większa niż obecnie. - Dlatego możemy się spodziewać, że będzie dużo więcej bezrobotnych, albo tego, że te usługi potanieją i zwiększy się na nie radykalnie popyt - uznał.
WIDEO: Ekspert o sztucznej inteligencji
"Sztuczna inteligencja nie ma systemu wartości"
Ekspert przypomniał również, że "sztuczną inteligencję bardzo trudno jest nauczyć jakichś wartości". - Póki co nie mamy pomysłu, jak można by to zrobić. Sztuczna inteligencja jest agnostyczna, czyli nie ma systemu wartości. Ona po prostu posługuje się tym, co do niej włożyliśmy - powiedział.
Z tego względu prof. Jemielniak zaleca ostrożność, jeśli chodzi o przekazywanie funkcji decyzyjnych do systemów sztucznej inteligencji. - Bo mamy to bardzo słabo opracowane i nie wiemy jak to kontrolować. Jeśli sztuczna inteligencja się bardzo rozwinie, to niestety nie będziemy nawet w stanie jej zatrzymać - objaśnił.
Według niego sztuczna inteligencja będzie rozwijała się szybciej w Chinach niż w USA czy w Europie. - Chociażby dlatego, ze tam nie ma takich poważnych ograniczeń jeśli chodzi o prywatność, o etykę - stwierdził.
ZOBACZ: W szukaniu życia na Marsie może pomóc nam sztuczna inteligencja
Przypomniał, że w Chinach tamtejszy rząd może w zasadzie "od ręki" wykorzystać bardzo dużo danych na temat swoich obywateli, nie pytając ich o zdanie. - Jeśli gdzieś widziałbym przyszłość AI pod względem najnowszych technologii to zdecydowanie w Chinach - powiedział.
Profesor podkreślił, że "my póki co nie rozumiem możliwości, która ta technologia daje". - Jeżeli w najbliższym czasie zobaczymy jakieś niewytłumaczalne krachy finansowe, to ja bym obstawiał, że będzie to w wyniku działania poprawionych algorytmów sztucznej inteligencji - stwierdził.
Jak uzupełnił, "różnego rodzaju ryzyka związane z hakerstwem, wyciekiem danych oraz opracowywaniem broni biologicznych, to wszystko są zagrożenia, w których sztuczna inteligencja będzie dokonywała radykalnych postępów".
Ekspert zaapelował o zwiększenie kontroli w tym obszarze. - Jeśli mamy dobrze działające kontrole farmaceutyków, obiegu broni, to dlaczego nie ma nadzoru, instytucjonalnych barier, które nakładałyby jakieś ramy na rozwój sztucznej inteligencji, które spowodują, że będzie ona bezpieczniejsza - podsumował wiceszef PAN.
Czytaj więcej