Za sprawą ChatuGPT, z którym można porozmawiać na niemal każdy temat, kwestia sztucznej inteligencji rozpaliła wyobraźnię ludzi na całym świecie. Według prof. Dariusza Jemielniaka z Akademii Leona Koźmińskiego w Warszawie “postęp w tej kwestii nastąpił się już parę lat temu, jednak dopiero teraz zaczyna to docierać do świadomości ludzi”.
– To jest rewolucyjny przełom, kluczowy moment. Wiele osób twierdzi, że ta technologia ma nawet większy wymiar niż wynalezienie ognia – powiedział na antenie Polsat News.
Jak jednak zauważył, trzeba zdawać sobie sprawę z tego, że “jest to olbrzymia szansa cywilizacyjna, ale również bardzo poważne zagrożenie dla naszego gatunku”.
“Jest światełko w tunelu”
– Tempo rozwoju technologii takiej jak sztuczna inteligencja, nie jest ograniczone tempem ewolucji biologicznej. To jest błyskawiczny, ale jednocześnie skokowy przyrost – stwierdził prof. Jemielniak.
Dodał, że każda kolejna generacja “wymaga bardzo dużych nakładów”. – To co obecnie widzimy, czyli chociażby ChatGPT, to jest technologia bardzo droga do opracowania, ale również bardzo droga w eksploatacji. Dlatego kolejnego kroku możemy się spodziewać za rok, może dwa, ale on na pewno nastąpi – ocenił.
ZOBACZ: Sztuczna inteligencja zwolni z rozwojem? Pierwszy kraj banuje ChatGPT
Mówiąc o możliwościach sztucznej inteligencji ekspert przypomniał, że “wszystko to, co ludzie robią, zwłaszcza pracownicy umysłowi, to jest coś, co potencjalnie może robić również sztuczna inteligencja”.
– Ale jest światełko w tunelu. Na razie sztuczna inteligencja nie jest w stanie zrobić cokolwiek sama. Ktoś musi sformułować dobre pytania, ktoś musi później to obrobić, wciąż jest więc spore pole do popisu dla ludzi, którzy będą tę sztuczną inteligencję obsługiwać – podkreślił.
Jego zdaniem w przyszłości wydajność sztucznej inteligencji będzie wielokrotnie większa niż obecnie. – Dlatego możemy się spodziewać, że będzie dużo więcej bezrobotnych, albo tego, że te usługi potanieją i zwiększy się na nie radykalnie popyt – uznał.
WIDEO: Ekspert o sztucznej inteligencji
“Sztuczna inteligencja nie ma systemu wartości”
Ekspert przypomniał również, że “sztuczną inteligencję bardzo trudno jest nauczyć jakichś wartości”. – Póki co nie mamy pomysłu, jak można by to zrobić. Sztuczna inteligencja jest agnostyczna, czyli nie ma systemu wartości. Ona po prostu posługuje się tym, co do niej włożyliśmy – powiedział.
Z tego względu prof. Jemielniak zaleca ostrożność, jeśli chodzi o przekazywanie funkcji decyzyjnych do systemów sztucznej inteligencji. – Bo mamy to bardzo słabo opracowane i nie wiemy jak to kontrolować. Jeśli sztuczna inteligencja się bardzo rozwinie, to niestety nie będziemy nawet w stanie jej zatrzymać – objaśnił.
Według niego sztuczna inteligencja będzie rozwijała się szybciej w Chinach niż w USA czy w Europie. – Chociażby dlatego, ze tam nie ma takich poważnych ograniczeń jeśli chodzi o prywatność, o etykę – stwierdził.
ZOBACZ: W szukaniu życia na Marsie może pomóc nam sztuczna inteligencja
Przypomniał, że w Chinach tamtejszy rząd może w zasadzie “od ręki” wykorzystać bardzo dużo danych na temat swoich obywateli, nie pytając ich o zdanie. – Jeśli gdzieś widziałbym przyszłość AI pod względem najnowszych technologii to zdecydowanie w Chinach – powiedział.
Profesor podkreślił, że “my póki co nie rozumiem możliwości, która ta technologia daje”. – Jeżeli w najbliższym czasie zobaczymy jakieś niewytłumaczalne krachy finansowe, to ja bym obstawiał, że będzie to w wyniku działania poprawionych algorytmów sztucznej inteligencji – stwierdził.
Jak uzupełnił, “różnego rodzaju ryzyka związane z hakerstwem, wyciekiem danych oraz opracowywaniem broni biologicznych, to wszystko są zagrożenia, w których sztuczna inteligencja będzie dokonywała radykalnych postępów”.
Ekspert zaapelował o zwiększenie kontroli w tym obszarze. – Jeśli mamy dobrze działające kontrole farmaceutyków, obiegu broni, to dlaczego nie ma nadzoru, instytucjonalnych barier, które nakładałyby jakieś ramy na rozwój sztucznej inteligencji, które spowodują, że będzie ona bezpieczniejsza – podsumował wiceszef PAN.
dk/wka/ Polsatnews.pl