Marzeniem byłoby to, żeby modele językowe były wykorzystywane do wszystkiego, co obsługuje bieżąco, powtarzalnie obywateli. Natomiast człowiek będzie coraz bardziej potrzebny, a nie coraz mniej - ocenił dr Maciej Kawecki podczas rozmowy na konferencji "Innowacyjny Samorząd".
Serwis Samorządowy PAP: Listopad 2022 r. i pojawienie się chata GPT zmieniło tempo rozmów o sztucznej inteligencji. W mediach pojawiają się różne narracje - od tych entuzjastycznych po apokaliptyczne. Gdzie my jesteśmy jeśli chodzi o rozwój AI? Kiedy sztuczna inteligencja przejmie zarządzanie światem?
Dr Maciej Kawecki, Uniwersytet WSB Merito: Nie wydaje mi się, żeby przejęła zarządzanie światem. Parę tygodni temu uczestniczyłem w Europejskim Kongresie Gospodarczym, siedzieliśmy w panelu dyskusyjnym w gronie dość prominentnych ekspertów od AI i w pewnym momencie temat dyskusji wkroczył na obszar świadomości - kiedy sztuczna inteligencja osiągnie świadomość, czyli dojdziemy do takiego momentu silnej sztucznej inteligencji. Zacząłem tych osób słuchać i w pewnym momencie sobie uwiadomiłem, że o zagadnieniu, które jest zupełnie interdyscyplinarne mówimy różnymi językami, nazywając pewne zjawiska tak samo. Jak matematyk czy fizyk słyszy o świadomej sztucznej inteligencji, to oczywiście on dostaje zawału serca. Dlatego że my nie wiemy, jak rodzi się świadomość - nie wiemy tego, nie potrafimy opisać wzorem matematycznym procesu tworzenia świadomości, nie możemy stworzyć algorytmu. Jak spojrzymy na socjologa albo psychologa, to dla nich świadomość jest zupełnie czymś innym.
Podobnie używamy terminu uczenie maszynowe. Dla psychologa uczenie maszynowe jest czymś zupełnie innym niż dla programisty, gdzie jest po prostu zwykłą interpolacją. I w tym sensie my używamy tych samych pojęć, ale nadając im zupełnie inne znaczenie w debacie publicznej, a potem finalnie trafia do odbiorcy zestawienie świadoma sztuczna inteligencja i on sobie jeszcze swoje własne znaczenie na to nakłada. Wydaje mi się, że my jesteśmy w miejscu zupełnej dezinformacji, takiego zupełnego zamętu i szumu komunikacyjnego związanego ze sztuczną inteligencją.
No to uporządkujmy to. O czym my w ogóle mówimy?
Mówiąc o sztucznej inteligencji dzisiaj, o tej, która nas zachwyca, o chatach konwersacyjnych, najczęściej mówimy o bardzo dużych modelach językowych. Takich, które działają w oparciu o teksty albo o teksty i obrazy. One są cały czas niezwykle złożoną, ale jednak maszynką statystyczną. To nie jest może jakieś popularne, clickbaitowe, nie jest może za bardzo poruszające, ale to jest nic innego jak interpolacja, jak pogłębiona statystyka. Jeżeli spojrzymy, jak są szkolone te modele, to one są szkolone w taki sposób, żeby po pierwsze ta odpowiedź nas satysfakcjonowała, a po drugie, żeby nigdy nie odpowiedziała nam "nie wiem", więc wyszukuje pewnych złożonych powtarzalności w ogromnym zasobie danych. Jest tam oczywiście pewien element losowości, natomiast losowość jest też filarem matematyki, zawsze była. To jest po prostu złożona maszynka statystyczna.
Jest kierunek dyskusji, kiedy mówimy, że ta maszynka statystyczna to jest nóż, którym możemy zabić, ale możemy też ukroić kanapkę. Tak nie jest. Bo sztuczna inteligencja dzisiaj jest inna niż będzie jutro, a nóż jest nożem, ma pewną konsystencję i to my funkcjonalnie decydujemy, co z tym nożem zrobimy. Natomiast w przypadku sztucznej inteligencji czy syntetycznych siedzi neuronowych, one "żyją", czyli ewoluują, zmieniają się. I w tym sensie ta metafora noża jest zła. Gdyby mnie Pani redaktor dzisiaj zapytała, czym dla mnie dzisiaj jest sztuczna inteligencja...
Czym dla Pana dzisiaj jest sztuczna inteligencja?
Do mnie najsilniej trafiają dzisiaj badania prof. Ostrowidzkiego z Uniwersytetu Jagiellońskiego, który mówi tak: sztuczna inteligencja to już nie jest nóż, to już nie jest narzędzie, ale też - mimo że tak bardzo lubimy przypisywać jej te cechy ludzkie, antropomorfizować - nie jest to żaden byt nieludzki. To jest jakaś zupełnie inna jakość, którą my tworzymy. I patrząc dzisiaj na to, czym jest ta nowa jakość, to najtrafniej chyba ją opisać, że to jest nowa strefa bytowania człowieka. Dlatego jest przedmiotem zainteresowania filozofii, bo człowiek dostał nową strefę do życia, nową strefę do bytowania. No i teraz co my robimy - my tę strefę bytowania staramy się urządzić na wzór i podobieństwo jedynego świata, który znamy, czyli tego świata rzeczywistego.
Problem polega na tym, że my o tym świecie cały czas bardzo mało wiemy, że my nie potrafimy bardzo wielu rzeczy wyjaśnić. Nie wiemy, jak ewolucja wpływa na tworzenie gatunków, a tworzymy algorytmy ewolucyjne. Nie wiemy, w jaki sposób grawitacja wpływa na procesy myślowe, a tworzymy coś, co ma naśladować przecież proces myślowy człowieka. I w tym obszarze pojawia się najwięcej problemów, że my chcemy, żeby ta nowa strefa bytowania była idealna, jak najbardziej przypominająca tą rzeczywistość dookoła. Tyle, że my nie jesteśmy w stanie skopiować natury. Jest bardzo wiele jeszcze rzeczy, o których nie wiemy. Bardzo prosty przykład, to jest zjawisko halucynacji, czyli błędu. Do dziś nie wiemy, co jest przyczyną błędów, w tym czarnym pudelku, dlaczego duże modele językowe po prostu kłamią. Mamy masę hipotez, ale nie ma jednego naukowego eksperymentu potwierdzającego tak to jest przyczyna halucynacji.
Właśnie o ograniczenia Pana chciałam zapytać. Zaczęłam z przymrużeniem oka od tego, kiedy sztuczna inteligencja przejmie zarządzanie światem, ale ten wynalazek to jeszcze nie ideał...
Przede wszystkim nie ma czegoś takiego jak sztuczna inteligencja. Po pierwsze, ona nie jest sztuczna, tylko jest prawdziwa, a po drugie - nie mamy jednej sztucznej inteligencji, tylko mamy sztuczne inteligencje, które są narzędziami. My oczywiście dzisiaj robimy wszystko, wykorzystujemy do tego wtyczki, żeby integrować te narzędzia ze sobą. Ale jednak to są cały czas narzędzia.
To jakie te narzędzia mają ograniczenia?
Halucynacja to jest pierwsze ograniczenie, czyli to, że przy dużym zasobie danych możemy mieć zasób danych, składający się wyłącznie z danych prawdziwych, a jednak model językowy halucynuje, czyli kłamie. Jest wiele różnych hipotez, ta najbardziej prawdopodobna, która mówi o tym, że modele większości językowe szkolone są w taki sposób, żeby odpowiedzieć na nasze oczekiwanie. Problem polega na tym, że my nie jesteśmy w stanie zbudować trafnego oczekiwania względem modelu, bo nie wiemy, jakie dane się w nim znajdują, ale on zakłada, że my budujemy trafne oczekiwanie i ten styk wiedzy i niewiedzy może być przyczyną halucynacji.
Dwa - dane syntetyczne. Mogliśmy pójść w dwie ścieżki. Jedna to jest kierunek - karminy model jak największą ilością danych, myśląc, że dojdziemy do tego punktu zero, a druga to jest uczynienie tego procesu przetwarzania danych coraz bardziej inteligentnym. My poszliśmy w kierunek karmienia coraz większą ilością danych. W pewnym momencie tych danych nam brakuje, są coraz droższe, w związku z tym tworzymy dane syntetyczne. One się faktycznie sprawdzają przy chorobach, żeby przewidywać wczesne diagnozy chorób takich jak choroba Alzheimera czy Parkinsona; tam, gdzie nie mamy po prostu pacjentów, u których tak wcześniej diagnozujemy te choroby, więc łapiemy pacjenta w możliwie wczesnym stadium i predykcją przewidujemy, jak ta choroba ewoluowała w przeszłości. Ale okazuje się, że te dane przeniknęły do wszystkich dzisiaj sektorów rzeczywistości, do marketingu również, podejmowania decyzji biznesowych. I nagle okazuje się, że baza danych nawet w 99,99 procentach składa się z dobrze, rzetelnie zrobionych danych syntetycznych, a ten jeden promil przy tak ogromnym zasobie danych może być przyczyną błędów. I to jest drugie wyzwanie.
No i trzecie wyzwanie bez wątpienia to jest moc obliczeniowa. My poszukujemy nowych technologii mocy obliczeniowej. Dzisiaj przestrzenie pomiędzy tranzystorami w jednostce powierzchni układu scalonego dzielimy w dwóch atomach, czyli weszliśmy na poziom cząstek elementarnych. Szukamy nowego kierunku mocy obliczeniowej. To są te trzy obszary, w których musimy sobie poradzić.
Wspomniał Pan trochę o zastosowaniach AI, bo pojawiła się medycyna czy marketing, a jakie Pan widzi możliwości zastosowania sztucznej inteligencji w administracji samorządowej?
Jest ich oczywiście cała masa i marzeniem byłoby to, żeby modele językowe były wykorzystywane do wszystkiego, co obsługuje bieżąco, powtarzalnie obywateli. To się dzisiaj już trochę dzieje, chociażby w branży tłumaczeniowej. W administracji coraz częściej korzysta się z mechanizmów, które fantastycznie tłumaczą teksty. Wszystko, co jest związane z przygotowywaniem takich wzorcowych odpowiedzi, taki podstawowy kontakt z obywatelem - głęboko wierzę w to, że on będzie zastąpiony przez maszyny. Natomiast człowiek będzie coraz bardziej potrzebny, a nie coraz mniej. Dlatego, że coraz większą znaczenie ma jednak nasza kreatywność, która jest wypadkową analizy danych, które pozyskujemy zmysłami. Modele językowe to cały czas są dane tekstowe, to są dane obrazowe, dane przestrzenne w malutkim zakresie. To w naszej głowie cały czas rodzi się ta impresja rzeczywistości.
To krzepiące, co Pan mówi, bo jednak po tym listopadzie 2022 roku była obawa o miejsca pracy...
To, co zrobiło open AI, niezależnie od tego, z kim rozmawiam, czy spotykam się z informatykiem z Oksfordu, Harvardu czy Uniwersytetu Warszawskiego, nigdy nie spotkałem się z nikim, kto by powiedział, że go to nie zaskoczyło. To było zaskakujące, to znaczy ta "intuicyjność" tego modelu była zaskakująca. To był jakiś jakiś kamień milowy na pewno.
Mówi się, że na przykład programiści stracą pracę...
To zależy od nich. Jeżeli taki pisarz, klepacz kodów nie będzie się rozwijał i nie nabędzie umiejętności miękkich czy umiejętności zarządzania zespołem, jakiejś kreatywności, wykorzystywania tego kreatywnie, wiedzy narzędziowej również, nie tylko do pisania kodu, no to tak. Bo rzeczywiście AI sobie fantastycznie radzi z tymi podstawowym pisaniem kodów. Z tłumaczem jest dokładnie tak samo - jeżeli tłumacz nie wymyśli na siebie pomysłu, no to oczywiście, że straci pracę.
A z urzędnikiem?
Nie wydaje mi się. Urzędnik jest w o tyle dobrej sytuacji, że wchodzi w grę coś, co nazywamy doliną niesamowitości. To jest taka teoria, która mówi o tym, że człowiek woli mieć bezpośrednio kontakt z człowiekiem. To znaczy, że mówimy "nie" temu, co względem nas zaczyna być konkurencyjne, kiedy czujemy taki lęk gatunkowy. Dlatego tak nie lubimy robotów humanoidalnych i ich nie mamy. I wydaje mi się, że z urzędnikiem jest trochę podobnie. To znaczy finalnie my chcemy mieć kontakt z drugim człowiekiem.
Na pewno uspokoił Pan urzędników, ale może nie burmistrza, który myślał sobie, że gdzieś ograniczy zatrudnienie i wykorzysta AI w biurze obsługi interesanta...
Niech to robi, ale to nie znaczy, że ma zwalniać urzędników. Musi mieć pomysł na to, jak wykorzystać tego człowieka, żeby usprawnić, zapewnić mu rozwój. Zawsze było tak, że technologie, innowacje, pewne obszary zastępowały i musieliśmy sobie z tym poradzić. Problemem jest to, że jak pojawiły się samochody, to wprowadziliśmy globalne regulacje związane z drogami, jak się poruszać, a tutaj brak jest takich regulacji, kierunkowskazów, co wolno, czego nie wolno. Obszar ekspansji tych technologii jest pozbawiony jakichkolwiek ram. Tego bym się bał dzisiaj.
Chciałabym jeszcze poruszyć temat bezpieczeństwa. Zastosowanie nowoczesnych rozwiązań może sprzyjać cyberatakom. Czy administracja samorządowa jest na to gotowa?
Nie wiem, czy samorządowa jest gotowa. Wydaje mi się, że chyba nie. Moja wiedza na temat stanu administracji samorządowej jest sprzed czterech lat, kiedy opuściłem grono administracji publicznej. Od tego czasu nie mam wglądu do wnętrz i nie wiem, jak wygląda stan obecny. Natomiast mam przekonanie, że nawet na poziomie świadomości, zwłaszcza w małych miejscowościach, małych gminach ona nie jest gotowa. Oczywiście trzeba mieć świadomość tego, że ta administracja samorządowa będzie na pewnym etapie wojny hybrydowej adresatem ataku, bo ona jest najbliżej obywatela, a tu chodzi o to, żeby finalnie sparaliżować życie obywatelowi. Oprócz infrastruktury krytycznej dojdzie do momentu, w którym ta administracja najniższego szczebla będzie padała ofiarą wojny hybrydowej. Warto o tym w ogóle mówić, że my nie jesteśmy w okresie powojennym, tylko jesteśmy w okresie przedwojennym, a z punktu widzenia cyfryzacji - wojennym.
Przestroga na koniec, ale myślę, że nasza rozmowa krzepiąca dla człowieka...
Zdecydowanie. Bardzo dobrze znam się z generałem Karolem Molendą, który kieruje polskimi cyfrowymi wojskami, i cały zespół, który zajmuje się dzisiaj tam kryptografią kwantową i rozwojem sztucznej inteligencji, pracuje nad tym, żeby wykorzystywać AI do tego, żeby nas chronić przed cyberatakami. Jakbym miał dzisiaj powiedzieć, jaki jest bilans, to zdecydowanie pozytywny.
Rozmawiała Anna Banasik
aba/