• Tłumacz języka migowego
W ogniu pytań, Temat numeru Lech Lewandowski

Jutro przyszło już dziś

19 Stycznia 2024

Rozmowa z dr. inż. Janem Koconiem, adiunktem w Katedrze Sztucznej Inteligencji Politechniki Wrocławskiej

O sztucznej inteligencji mówi się ostatnio dużo, ale głównie w odniesieniu do osiągnięć takich krajów, jak Stany Zjednoczone, Chiny czy Japonia. Tymczasem kłania się stare polskie powiedzenie: cudze chwalicie, swego nie znacie. Bo oto polscy naukowcy mają w dziedzinie AI (Artificial Intelligence) coraz więcej do powiedzenia i zaoferowania. Dowodem tego spektakularne osiągnięcia wypracowane przez naukowców Wydziału Informatyki i Telekomunikacji Politechniki Wrocławskiej. Tu w pierwszym kwartale 2024 r. zacznie działać największa w Polsce infrastruktura badawcza w obszarze sztucznej inteligencji. Oczywiście przykładów dokonań wrocławskich naukowców jest więcej.

fot. z arch. prywatnego Jana KoconiaNiewątpliwie mamy się czym pochwalić. Warto choćby przy tej okazji odnotować, że właśnie naukowcy z Wrocławia jako jeden z pierwszych zespołów na świecie wykonali wielki test pierwszej wersji modelu zaawansowanej sztucznej inteligencji ChatGPT. Jest to model do udzielania odpowiedzi na pytania z wielu dziedzin życia. W ramach tego przedsięwzięcia zadaliśmy sztucznej inteligencji ponad 38 tys. zapytań w 25 różnych kategoriach. Sprawdziliśmy nawet, jak reaguje na sarkazm, czy rozumie żarty i czy potrafi wychwycić szerszy kontekst wypowiedzi.

Kolejnym wyzwaniem naukowym jest projekt CLARIN-PL. To duże przedsięwzięcie naukowo-badawcze realizowane przez ponad 200 osób, które ma na celu utworzenie narzędzi i zasobów dla naukowców i przedsiębiorców wykorzystujących przetwarzanie języka naturalnego. Jeden z elementów projektu stanowi zakup sprzętu komputerowego o wartości blisko 100 mln zł. Docelowo na tym sprzęcie można będzie dostosować wielkie modele językowe do potrzeb polskiego użytkownika i opublikować te modele w otwartym dostępie.

Sztuczna inteligencja to szansa, ponieważ stwarza zupełnie nowe możliwości rozwojowe. Dlatego 14 września 2020 r. Komitet Rady Ministrów ds. Cyfryzacji (KRMC) przyjął dokument zatytułowany „Polityka rozwoju sztucznej inteligencji w Polsce”. Jak uzasadniono, nowe technologie i rozwiązania wykorzystujące sztuczną inteligencję mają coraz większy wpływ na budowanie potencjału gospodarczego poszczególnych krajów. Jakie są możliwości rozwoju naszej gospodarki dzięki zastosowaniu AI?

Myślę, że warto przytoczyć przykład naszego kolejnego projektu naukowego – Crisis Detector. Jego efektem jest system przeznaczony dla firm, a także osób z obszarów polityki i spraw publicznych. Chodzi o partie polityczne, fundacje, ministerstwa, organizacje rządowe i pozarządowe, przedsiębiorstwa produkcyjne, usługowe, firmy doradcze, agencje PR i marketingowe.

Istotą systemu Crisis Detector jest wczesne wykrywanie w strumieniu informacji medialnych sygnałów świadczących o rodzącym się kryzysie wizerunkowym, zagrażającym np. bezpieczeństwu firmy czy danej organizacji politycznej lub też osobie ubiegającej się o ważny urząd. Jednocześnie system ten zapewnia wiedzę o tym, jakie wątki upowszechnianych informacji są krytyczne oraz, co bardzo ważne, czy informacje te mają cechy fake newsa (FN).

W warunkach ostrej konkurencji gospodarczej, ale także politycznej, rozpowszechniane opinie o danej firmie czy organizacji mogą mieć istotne przełożenie np. na dalszy rozwój, uzyskiwanie kredytów, nowych kontraktów etc. A to decyduje o kondycji gospodarczej i firm, i państwa.

Polskie władze wspierają rozwój AI, czego dowodem są publiczne fundusze przeznaczane na badania prowadzone przez naukowców Politechniki Wrocławskiej. Jednocześnie jednak zaznaczają, że rozwój AI ma się dokonywać przy zapewnieniu ochrony godności człowieka, że ma on także wymiar etyczny. Czy tego rodzaju zastrzeżenia wyznaczają zakres badań w ramach uruchamianej infrastruktury badawczej?

Zastrzeżenia te są uzasadnione koniecznością uzyskania wiedzy na temat rozwoju sztucznej inteligencji, szczególnie generatywnej, czyli takiej, która już bardzo dużo potrafi, nadal się intensywnie uczy i samodzielnie podejmuje decyzje. Chodzi o to, aby proces rozwoju AI nie uległ nieprzewidzianym i szkodliwym deformacjom. Dlatego też coraz częściej dyskutuje się na rozmaitych konferencjach właśnie o etyce sztucznej inteligencji, a na szczeblu UE opracowywane są formalnoprawne zabezpieczenia przed jej niekontrolowanym rozwojem. W tej międzynarodowej debacie uczestniczą także polscy naukowcy. Trzeba jednak zauważyć, że w 2022 r. aż 90 proc. modeli zbudowanych na bazie sztucznej inteligencji opracowywano w prywatnych firmach. Firmy zaś mają swoje priorytety, niekoniecznie pokrywające się z interesem społecznym, a społeczna kontrola jest ograniczona. Tymczasem systemy tworzone za pomocą sztucznej inteligencji mają duży wpływ na ludzkie życie. I ten proces będzie się nasilał, ponieważ obserwujemy dynamiczny rozwój AI i coraz szersze jej zastosowanie w różnych dziedzinach życia. Pytania, czy to, co tworzymy na bazie AI, jest etyczne, społecznie uzasadnione i poddane systemowi kontroli zapobiegającej rozmaitym wynaturzeniom, są więc w pełni zasadne. Stąd ogromne znaczenie społecznego sprzeciwu np. wobec działań uznawanych za nieetyczne. To oraz odpowiednie regulacje prawne powinno dać pożądane efekty w postaci skutecznych zabezpieczeń przed ewentualnymi zagrożeniami.

Obawy jednak istnieją, i to od dawna. Już 10 lat temu, w grudniu 2014 r., słynny brytyjski fizyk Stephen Hawking w wywiadzie dla BBC powiedział, że istnieje niebezpieczeństwo, iż stworzone przez człowieka technologie wezmą sprawy w swoje ręce. Mają one zdolność samodzielnego przeprojektowywania się w coraz szybszym tempie. Ludzie natomiast są ograniczeni w swoim rozwoju, bo tempo ewolucji biologicznej jest dużo wolniejsze. Może się zdarzyć, że człowiek nie będzie w stanie rywalizować z maszyną i zostanie przez nią zastąpiony. Czy to uzasadniony pogląd?

To prawda, że rozwój AI spowoduje przejęcie niektórych zawodów przez systemy funkcjonujące na bazie sztucznej inteligencji. Ponieważ jej rozwój dokonuje się tak dynamicznie, nastąpi to zapewne w nieodległej przyszłości. Wymienia się w tym kontekście m.in. zawody: kasjera, dziennikarza, farmaceuty, tłumacza, analityka, nauczyciela, bibliotekarza, sprzedawcy ubezpieczeń czy brokera giełdowego. Co ciekawe, zawody, które w przeciągu najbliższych lat mogą zostać wyparte z rynku pracy przez modele oparte na AI, zostały wytypowane przez... same maszyny AI. To, przed czym przestrzegał Stephen Hawking, odnosi się do takiej sytuacji, kiedy model o wysokim stopniu generatywności, czyli o zdolnościach i inteligencji przewyższających ludzkie, dominuje intelektualnie nad człowiekiem. Weźmy przykład medycyny, gdzie już odnotowano, że system zbudowany z wykorzystaniem sztucznej inteligencji potrafi lepiej niż lekarz zdiagnozować schorzenie. Z powodzeniem funkcjonują też inteligentne roboty wykonujące skomplikowane operacje chirurgiczne. Jednak od tych przykładów do przejęcia przez inteligentne maszyny kontroli nad światem, przed czym w istocie przestrzegał Hawking, droga bardzo daleka.

Trzeba jednak odnotować i to, że Stephen Hawking nie jest odosobniony w swoich obawach. Elon Musk – magnat branży technologicznej całkiem niedawno ostrzegał, że musimy niezwykle ostrożnie podchodzić do kwestii sztucznej inteligencji, że to jedno z nadchodzących zagrożeń dla istnienia gatunku ludzkiego, a zabawy z tą technologią to jak igraszki z diabłem. Musk stwierdził wręcz, że sztuczna inteligencja „niesie ze sobą potencjalnie większe zagrożenie niż broń nuklearna”. Czy takie głosy to przesada i nadmierna ostrożność?

Niewątpliwie istnieją uzasadnione obawy dotyczące wpływu AI na nasze życie w perspektywie nadchodzących lat. I dobrze, że się o tym mówi. Nie ma jednak powodu, aby już teraz bić na alarm. Nadal bowiem mamy wpływ na to, w którym kierunku to wszystko pójdzie. Warto zaakceptować niewątpliwe korzyści, jakie AI może nam przynieść. Równocześnie jednak trzeba pracować nad tym, aby jej rozwój był zgodny z zasadami etycznymi, mającymi na celu wspólne dobro.

Należy też odnotować, że sztuczna inteligencja nie jest z natury dobra lub zła. Może być użyta zarówno do pozytywnych, jak i negatywnych celów. Do nas, jako społeczeństwa, należy zapewnienie, że jej rozwój oraz wykorzystanie będą podporządkowane zasadom etycznym i moralnym. Mamy już także organizacje, takie jak IEEE i rady etyki AI, które opracowują kodeksy mające na celu kierowanie rozwojem i wykorzystaniem AI w sposób odpowiedzialny i etyczny. 

Za tym, że zagrożenie związane ze sztuczną inteligencją należy brać pod uwagę, przemawiają także pewne symptomatyczne zdarzenia. Opisywane są przypadki, że programiści, którzy sami stworzyli maszynę ze sztuczną inteligencją, nie wiedzą, dlaczego podejmuje ona takie, a nie inne decyzje. Czy to nie oznacza, że niezależnie od stworzonych zabezpieczeń sztuczna inteligencja może po prostu wyrwać się spod ludzkiej kurateli i stworzyć samodzielny byt, alternatywny wobec ludzkiej cywilizacji?

Nieprzewidziane skutki działania AI najczęściej wynikają z ogromu nieprzejrzanych danych, które obecnie są używane do treningu. Dodatkowo dużym wyzwaniem są obecnie halucynacje modeli, które jednak coraz lepiej jesteśmy w stanie wykrywać. Niewiedza, jak działa model, wynika raczej z trudności w interpretacji samej sieci, która ma nierzadko kilkadziesiąt miliardów parametrów, co przekracza nasze zdolności poznawcze. Pewną analogią mogą być też nasze mózgi – ich także nie rozumiemy i nie jesteśmy w stanie wyjaśnić naszych własnych decyzji w takim stopniu, jakiego oczekujemy od AI. Trzeba sobie jasno powiedzieć, że od sztucznej inteligencji nie ma odwrotu. Już teraz AI znajduje swoje miejsce w wielu dziedzinach. Wciąż pojawiają się też doniesienia o nowych zastosowaniach i możliwościach, nierzadko oryginalnych. Na przykład Japończycy wykorzystują AI do kojarzenia par, ponieważ chcą w ten sposób doprowadzić do zwiększenia przyrostu naturalnego. AI jest wykorzystywana w nauczaniu szkolnym. Są systemy, ChatGPT – chatbot, komunikujące się z użytkownikami w ich naturalnych językach. Pada pytanie, a bot udziela szczegółowych odpowiedzi. Do tego dochodzą systemy rozpoznające mowę i automatycznie tłumaczące teksty obcojęzyczne. Pojawiła się też kwestia miłości w relacjach człowiek i wprawdzie atrakcyjna, ale maszyna. Są dyskusje o prawach systemów opartych na AI. Dziś rozwój dronów bojowych pokazuje, że AI wkracza na współczesne pole walki. Być może jednak już wkrótce na wojnie będą strzelać do siebie także żołnierze maszyny. Pojawia się kwestia etyczna. Bo czy żołnierz człowiek ma ratować trafionego kulą towarzysza broni stworzonego na bazie sztucznej inteligencji?

Skoro sięgamy w przyszłość, to czy można stworzyć na bazie AI także strażaków, którzy nie tylko samodzielnie ocenią zagrożenie, ale i podejmą decyzję o sposobach jego likwidacji? Czy takie systemy, zbudowane na podobieństwo ludzi, będą na przykład udzielały pierwszej pomocy osobom poszkodowanym?

Paradoks współczesnych rozwiązań AI polega na tym, że w pierwszej kolejności sztuczna inteligencja zyskała zdolności, o których długo uważaliśmy, że są wyłącznym przymiotem człowieka i niełatwo będzie je zastąpić. Mam na myśli różnorakie działania intelektualne i zawody z tym związane: programiści, prawnicy, tłumacze, dziennikarze itp. Dużo trudniej nam zaś zbudować humanoidalnego robota, który równie efektywnie jak człowiek naprawiałby rury, układał kafelki czy też udzielał pierwszej pomocy. Technicznie jest to możliwe, jednak koszty obecnie dalece przekraczają biznesową zasadność tworzenia takich maszyn, człowiek jest po prostu wielokrotnie tańszy i sprawniejszy. Możemy się jednak spodziewać, że w kolejnych latach to się zmieni.

Istnieje przekonanie, że AI to rozwojowa szansa, ale i zagrożenie dla ludzkiej cywilizacji. W odpowiedzi padają uspokajające stwierdzenia, że my, ludzie, mamy coś, czego nie ma i nie będzie miała żadna maszyna. To ludzka świadomość, nieprzewidywalność, nielogiczność, emocje. Tego sztuczna inteligencja nigdy nie posiądzie i to nam gwarantuje bezpieczeństwo. Tylko czy to wystarczy?

Nie jestem do końca pewien, czy nie jest możliwe, by siecią neuronową symulować świadomość, nieprzewidywalność i odczuwanie emocji. Już teraz te rozwiązania są w stanie przejść test Turinga, innymi słowy – człowiek nie jest w stanie odróżnić, czy rozmawia z drugim człowiekiem, czy z maszyną. Znamy sporo technologii, które już dziś można wykorzystać do dokonania zagłady ludzkości, jednak z jakichś względów do tej pory się to nie wydarzyło. Również wybitnie inteligentne jednostki w historii niekoniecznie wykorzystywały swoją inteligencję do tego, by zdobyć panowanie nad światem i wybić mniej inteligentnych. Wiadomości, jakoby AI miała spowodować zagładę ludzkości, bardzo dobrze się jednak klikają. Mamy tendencję do lepszego zapamiętywania negatywnych wiadomości i bardziej intensywnie reagujemy na takie treści, stąd lepiej się one sprzedają i dają więcej uwagi tym, którzy je propagują, co przekłada się bezpośrednio na zasięgi i zarobki „proroków zagłady”.

Większe zagrożenie widzę w tym, że część zawodów w krótkim czasie można będzie zastąpić sztuczną inteligencją, co może spowodować radykalny wzrost bezrobocia, a to w konsekwencji zrodzić wielkie niezadowolenie społeczne, prowadząc do buntu i zamieszek. Warto już teraz myśleć o tym, by zmiany związane z pojawieniem się AI wdrażać jako ewolucję, a nie rewolucję. Być może potrzebne są tu pewne regulacje, by w pierwszej kolejności AI była używana w charakterze asystenta osób już wykonujących pewne zawody, dzięki czemu ludzie mogliby pracować krócej, a odzyskany czas np. inwestować w rodzinę, relacje międzyludzkie, hobby, sport. Tylko od nas zależy, jak będzie wyglądała cyfrowa transformacja społeczeństwa.

Jan Kocoń jest adiunktem na Politechnice Wrocławskiej, gdzie uzyskał tytuł magistra inżyniera oraz stopień doktora nauk technicznych w dyscyplinie informatyka. Jest również liderem zespołu AI/ML oraz starszym analitykiem danych ML/NLP w projekcie CLARIN-BIZ. Od ponad dekady zajmuje się przetwarzaniem języka naturalnego (NLP), zwłaszcza z wykorzystaniem metod uczenia maszynowego. Jest autorem ponad 80 publikacji naukowych. Obecnie pracuje nad zaawansowanymi spersonalizowanymi modelami opartymi na głębokim uczeniu w zadaniach subiektywnych, takich jak rozpoznawanie emocji, wydźwięku, mowy nienawiści czy humoru. Zajmuje się również międzyjęzykowym transferem wiedzy i zastosowaniem modeli niezależnych od języka. Prowadzi badania nad wielkimi modelami językowymi i pracuje nad nowymi architekturami takich modeli. Prowadzi wykłady m.in. z zastosowania sztucznej inteligencji w przetwarzaniu języka naturalnego oraz budowy zaawansowanych modeli głębokich sieci neuronowych. Zwycięzca HackYeah 2021 – największego hackathonu w Europie – w zadaniu związanym z optymalizacją budowy elektrowni opartej na odnawialnych źródłach energii do produkcji wodoru.

 

Rozmawiał Lech Lewandowski

 

 

 

 

 

 

Lech Lewandowski Lech Lewandowski
do góry