Nasza Loteria SR - pasek na kartach artykułów

Sztuczna inteligencja rozwija się bardzo szybko. Czy przerośnie kiedyś człowieka? "To niemożliwe"

Maciej Rajfur
Maciej Rajfur
Wideo
od 16 lat
W którą stronę powinien pójść rozwój sztucznej inteligencji? Czy może ona przerosnąć swojego stwórcę, czyli człowieka? Prof. Tomasz Kajdanowicz z zespołem z Politechniki Wrocławskiej pracuje nad największą w Polsce infrastrukturą badawczą w obszarze sztucznej inteligencji. Ma ona pomóc m.in. w sądownictwie.

Maciej Rajfur: Trwają prace nad „polskim Chatem GPT”, czyli sztuczną inteligencją uzupełnioną o materiał w języku polskim oraz danymi związanymi z polskim kontekstem społeczno-kulturowym. Jak to będzie wyglądało?

Prof. Tomasz Kajdanowicz: Korzystanie dzisiaj z Chata GPT obarczone jest ryzykiem przekazywania swoich danych do platformy. My opracowujemy takie rozwiązanie, z którego będzie można korzystać samemu, na własne potrzeby np. firmach czy ośrodkach zdrowia, nie dzieląc się danymi poufnymi, czy ważnymi. Ten czat będzie transparentny i dobrze szyfrowany. A z drugiej strony chcemy odzwierciedlić w powstającym modelu nasze polskie uwarunkowania. Żeby nam sztuczna inteligencja nie opowiadała o tym, że bohaterem polskiej legendy jest np. natywny latyno-amerykanin. A takie przypadki w ChacieGPT można spotkać. Dlaczego musimy uzupełnić wiedzę o Polsce, czyli zgromadzić ogromny zasób danych. Animujemy środowisko naukowe i nie tylko. Na końcu uzyskamy ogromną szansę zastosowania modelu w sposób bezpieczny, transparentny, odpowiedzialny, z uwzględnieniem naszych polskich warunków.

Jak idzie gromadzenie tych polskich danych?

Korpusy, którymi dysponujemy, są ogromne. Poza tym bardzo wiele projektów opracuje informacje, choć wyzwaniem jest jakość tych danych. Musimy się skupić na tym, by doprowadzić do sytuacji, że jakość danych umożliwia całkowite zaufanie do modelu, który nam te dane prezentuje. To nie jest proste, bo przecież nasza percepcja pewnych zjawisk jest uzależniona mocno od kontekstu. Na przykład mowa nienawiści dla jednych nie jest mową nienawiści dla drugich. To również chcemy odzwierciedlić podczas przygotowania modelu.

Ktoś może zarzucić wam przy takim personalizowaniu rozmywanie prawdy albo proponowanie relatywizmu. Czyli każdy otrzyma taką prawdę, jaką mu sztuczna inteligencja zaserwuje?

Niestety pozostaje tylko gorsza alternatywa, czyli wybranie modelu, który posługiwałby się tylko jednym zestawem parametrów historycznych, ideologicznych, poglądowych, co pokazywałoby jego całkowitą stronniczość. Naszym zamierzeniem jest wyposażyć model w możliwe szeroką wrażliwość na różne tematy tak, żeby człowiekowi, który będzie z tego korzystał pozostawić możliwość krytycznej oceny i swobody światopoglądowej. Ale w oparciu o wszelkie konteksty, które definiują naszą tożsamość.

Czy jak już stworzycie tę polską wersję AI, to będzie można jej po prostu zaufać, co do podanych informacji? Ja osobiście dzisiaj, wpisując coś w ChatGPT, nie mam do końca pewności, czy wszystkie informacje są sprawdzone. Dostaniemy jakiś atest, że ten parametr wiedzy jest pewny?

Ten parametr nazywa się temperaturą. Im ona jest wyższa, tym model ma większą zdolność do konfabulowania. My to nazywamy halucynacją, czyli wymyślaniem rzeczy, które nie mają pokrycia w rzeczywistości. Pamiętajmy, że niekiedy jednak takie zachowanie modelu jest pożądane. Na przykład jeśli chcemy otrzymać zawartość informacyjną zawierającą elementy twórcze, to musimy otrzymać coś, co nie zostało jeszcze zrobione. Zjawiskiem podstawowym musi być uwzględnienie wszystkich faktów i informacji dotyczących wydarzeń historycznych, niezależnie od tego jak one są potem obrabiane i komentowane. A później zaaplikowanie ich w sposób maksymalnie obiektywny i użycie ich tym modelu. Model na każdym etapie model ma być transparentnym. Nie tak jak nam to dostarczają firmy fundujące usługi jak OpenAI, jak ChatGPT, gdzie tak naprawdę nie wiemy, co jest pod spodem, jaka to jest konstrukcja obliczeniowa, co tam się dzieje. Nie wiemy, na jakich danych przebiegał proces uczenia się. U nas każdy będzie mógł to w zasadzie zobaczyć. Przekonać się, dlaczego ten model daje taką, a nie inną odpowiedź. Użytkownik może prześledzić cały proces aż do początku modelu językowego, żeby wyrobić sobie zdanie, iż jest to w zasadzie całkowicie obiektywne.

Czy sztuczna inteligencja, tak jak o niej myślimy, może być obiektywna? Wolna od światopoglądu, interpretacji wydarzeń, od kontekstów, nacisków, bez pomijania lub podkreślania czegoś, co samo w sobie jest już jakimś przedstawianiem prawdy?

Rzeczywiście sztuczna inteligencja, która zajmuje się przetwarzaniem informacji, może nie jest wolna od stronniczości i interpretuj. Ta stronniczość, którą my staramy się mieć pod kontrolą, niejednokrotnie jest pomijana przez autorów sztucznej inteligencji. Na czym polega stronniczość w modelach językowych? Nie uwzględnia się wrażliwości odbiorcy, tylko serwuje mu się jedną - ustaloną zazwyczaj i rozpoznaną w danych historycznych, na których model był zbudowany - wersję tej prawdy. To jest bardzo efektywne w tym sensie, że jest coś ustalone, łatwo się do tego odnieść i może funkcjonować w obiegu informacyjnym. Aczkolwiek nie chcielibyśmy, żeby świat był czarno-biały. Jesteśmy ludźmi w różnych odcieniach szarości. Żeby poznać drugiego człowieka, zarówno na przestrzeni jego historii, twórczości, myśli, na podstawie obserwacji jego poglądów, wypowiedzi - to wymaga od nas pewnej wrażliwości. Musimy umieć to zmierzyć. Serwowanie wtedy takiego modelu, który powie, że coś jest czarne albo białe spowoduje, że będziemy się wykluczali nawzajem. Nie chcemy, jako poprzedni autorzy sztucznej inteligencji, takich modelów językowych, wykluczać się nawzajem technologią. Dlatego istotne jest dla nas, by w tym modelu personalizować i brać pod uwagę wrażliwość odbiorcy.

Czyli AI będzie w jakimś, nawet w najmniejszym, stronnicza.

W pewnym sensie tak, ale wszystko zaczyna się i kończy na tym, co my damy mu jako dane do uczenia. Jeżeli dobrze zaprezentujemy to, co chcemy w nim mieć odzwierciedlone, efekt będzie satysfakcjonujący. A jeżeli podamy mu dane śmieciowe, nie spodziewajmy się cudów.

Polski ChatGPT ma też pomóc w sądownictwie. W jaki sposób?

Technologia wkrada się do naszego życia i równolegle obserwujemy potrzeby różnych środowisk. Sądownictwo jest jednym z nich. Trudno w tym skomplikowaniu przepisów i w tej całej materii oczekiwać ciągłego podnoszenia efektywności. A na koniec i tak musi zostać podjęta decyzja sędziego w stosunku do człowieka. Nie przyspieszymy pewnych rzeczy, ale technologia może pomóc procesom sądowym. Jeden z projektów, który realizujemy z naszymi partnerami z Francji i Anglii, jest poświęcony temu, żeby łatwo docierać do wyroków, które są podobne pod względem stanu faktycznego do sytuacji rozpatrywanej. To nie tylko pomoc dla sędziego, adwokata lub prokuratury, ale także społeczeństwa – oskarżonego, czy pokrzywdzonego. Możemy zobaczyć, czego się spodziewać w obrębie historycznych wyników wydanych wcześniej przez sady. Oprócz wyszukiwania wyroków za chwilę być może będziemy w stanie podpowiadać, na jakie aspekty powinien zwrócić uwagę sędzia, które paragrafy poruszyć.

Mówimy o wsparciu technologicznym w obszarze bardzo czułym, a często drażliwym, jakim jest sądownictwo w Polsce. Przed nami perspektywa, że będzie nas sądzić sztuczna inteligencja?

Na pewno nie skłaniamy się nigdy ku temu, żeby wyręczać człowieka albo żeby wydawać automatyczne wyroki. Nie obieramy w ogóle takiej perspektywy, ponieważ wypaczylibyśmy cały pomysł technologiczny sztucznej inteligencji oraz historię rozwoju człowieka. To by oznaczało odejście od podmiotowości.

A nie sądzi Pan, że kiedyś uda się stworzyć maszynę, która będzie lepiej analizować dane z perspektywy sądownictwa niż człowiek?

Myślę, że to niemożliwe. Nie dojdziemy do tego, ponieważ jako gatunek ludzki mamy tak szeroko rozbudowaną wrażliwość poznawczą, że nie uda się jej wtłoczyć w technologię. Sztuczna inteligencja nie jest w stanie za nią nadążyć. Jesteśmy jako ludzie obiektem dynamicznym, podlegamy procesom, zmianom. To, kim jesteśmy dzisiaj jako ludzie, to efekt wielu tysięcy lat cywilizacji. Czasem patrzymy w oczy komuś i już czujemy dodatkowy aspekt komunikacji. Technologia raczej tego nie uchwyci.

Czyli stoi Pan na stanowisku, że człowiek nie jest w stanie stworzyć urządzenia, które samo będzie dojrzewać, doświadczać rzeczywistości niczym człowiek i przerośnie nas w tej wrażliwości poznawczej? Mogę uderzyć robota i on odczuje strach i będzie się uczył mnie i moich zachowań.

Kiedy patrzymy na rozwój AI, to jest w stanie rozpoznawać dobrze emocje, ale tylko w jakimś ograniczonym zakresie. Algorytmy potrafią dobrze rozpoznawać emocję w krótkich wiadomościach tekstowych. Ale emocja to coś więcej, coś głębiej. Za poczuciem emocji stoi dosyć rozbudowana maszyneria pełna reaktorów w naszym organizmie. Oczywiście w sposób trywialny możemy to przenieść na maszynę, zapisując funkcję matematyczną, która mapuje z przestrzeni. Ale czy opis matematyczny jest wystarczający?

Słyszałem, że naukowcy w dziedzinie sztucznej inteligencji podejmują już rozważania na granicy moralności. Czy my nie tworzymy czegoś, co może nam się wymknąć spod kontroli? Choć przed tym wyzwaniem ludzkość stała chyba przez całą swoją historię. Stworzyła nóź, którym można ukroić chleb, ale także można nim łatwo zabić. Takie dylematy są obecne w środowisku sztucznej inteligencji?

Wydaje mi się, że naukowcy obecnie zajmują się głównie rozwijaniem technologii. Aczkolwiek pojawiają się pytania, kto jest podmiotem, a kto jest przedmiotem. Czy my służymy sztucznej inteligencji, czy ona nam? Prosty przykład: czy stawiamy na zastąpienie człowieka sztuczną inteligencją, czy powinniśmy skupić się na tym, żeby uprościć i dopomóc człowiekowi. To subtelności, które decydują choćby o miejscach pracy w danej branży np. w zawodzie nauczyciela. Pytanie, czy my to świadomie robimy i podejmuje ten trud. Kiedy wynaleziono młotek i nóź, to mówiono o etyce młotka lub noża? Zazwyczaj dopiero zastosowanie narzędzia powoduje rzeczy dobre albo złe. Za każdym razem przy sztucznej inteligencji warto zadać pytanie, jak jest używany stworzony już algorytm.

Ale kiedy będzie już istniał, może trafić w niepowołane ręce osoby ze złymi intencjami. Ciężko będzie zapobiec negatywnym skutkom.

To niestety nieuniknione. Obecnie bardzo duże wysiłki są podejmowane nad zrozumieniem miejsca sztucznej inteligencji w technologii i tym, co otacza człowieka. Pamiętajmy, że AI w swoich najbardziej interesujących zastosowaniach np. w social mediach, czy ChatGPT, jest w rękach kilkunastu firm na świecie. Czy wobec tak dużej centralizacji sztuczna inteligencja jest dobrze zaadresowana? To dobrze, że tylko te kilka firm potrafi to robić? A przypomnijmy, że gromadzą one ogromne ilości danych. Oddajemy prymat w rozwoju tak istotnej rzeczy w ręce niewielu. Tych, którzy mają dosyć duży kapitał i możliwości. Zyskują oni możliwość wywierania ogromnego wpływu. Zatem kto w tym procesie jest przedmiotem, a kto jest ostatecznie podmiotem?

Dołącz do nas na Facebooku!

Publikujemy najciekawsze artykuły, wydarzenia i konkursy. Jesteśmy tam gdzie nasi czytelnicy!

Polub nas na Facebooku!

Kontakt z redakcją

Byłeś świadkiem ważnego zdarzenia? Widziałeś coś interesującego? Zrobiłeś ciekawe zdjęcie lub wideo?

Napisz do nas!

Polecane oferty

Materiały promocyjne partnera
Wróć na gazetawroclawska.pl Gazeta Wrocławska