Zamknij

Dodaj komentarz

Ekspert: AI hakuje nasz system myślenia, żeby nas do czegoś przekonać

PAP 15:43, 25.12.2025 Aktualizacja: 15:44, 25.12.2025
Skomentuj PAP PAP

Jak przypomniał matematyk, informatyk prof. dr hab. inż. Przemysław Biecek, dyrektor Centrum Wiarygodnej Sztucznej Inteligencji (Centre for Credible AI, CCAI) na Politechnice Warszawskiej, metody uczenia maszynowego są rozwijane od 50-60 lat, a przez większość tego czasu głównym celem tego rozwoju było zwiększenie skuteczności. - W przypadku zadań takich jak rozpoznawanie czołgów albo guzów nowotworowych na zdjęciach rentgenowskich mamy skuteczne miary, czy LLM (ang. Large Language Models, duże modele językowe) właściwie wykonuje polecenia. Ale jest coraz więcej problemów, dla których dobrej miary skuteczności nie potrafimy tak łatwo zdefiniować i ocenić - powiedział.

Modele AI uczą się hakować nasz system myślenia, żeby nas do czegoś przekonać; są też tak skonstruowane, żeby ich odpowiedzi sprawiały wrażenie poprawnych - mówi PAP dyrektor Centrum Wiarygodnej Sztucznej Inteligencji prof. Przemysław Biecek.

Jednym z wyzwań związanych z oceną skuteczności jest dyskryminacja, która pojawia się w niektórych systemach AI. - Istnieją co prawda ustawy, które zabraniają dyskryminacji, ale nie zawsze wiemy, jak przełożyć taki wymóg na weryfikację działania LLM. Bez dobrej miary oceny dyskryminacji nie można więc zagwarantować sprawiedliwego systemu sztucznej inteligencji. A żyjemy w świecie, który jest historycznie niesprawiedliwy, więc LLM łatwo uczą się tej niesprawiedliwości na danych historycznych - ocenił informatyk.

Zaznaczył, że nie da się zmienić źródeł, które odzwierciedlają inną niż dzisiejsza wrażliwość na przykład na kwestie rasowe albo klasowe. Można jednak kalibrować LLM. - Jednak żeby to robić, musielibyśmy rozumieć, jak one działają. Tymczasem nasze zrozumienie AI nie nadąża za jej rozwojem - wyjaśnił naukowiec.

Kolejnym zadaniem dla projektantów sztucznej inteligencji jest wpojenie jej zasad fizyki i zrozumienia rzeczywistego fizycznego świata, którego - jak się okazuje - zupełnie nie rozumie. Prof. Biecek opowiadał, że ludzie nauczyli się praw fizycznych po to, żeby przewidywać sytuacje, których wcześniej nie doświadczyli: - Intuicyjnie i na podstawie eksperymentów jesteśmy w stanie powiedzieć, jak daleko poleci rzucona przez dziecko piłka. Jednak gdybyśmy chcieli tę piłkę wystrzelić z katapulty, już takiej intuicji nie mamy. Mamy za to właśnie prawa fizyczne, dzięki którym potrafimy ten dystans określić.

Tymczasem modele AI, uczone wyszukiwania wzorców, które już znają, wobec niewiadomych są bezsilne. - Kiedy chcemy eksplorować obszary, których nie było w danych treningowych, LLM nie umieją przewidzieć wartości ani przebiegu zdarzeń. Mają różne strategie, co robić, gdy trafiają na taką ziemię niczyją, na przykład podają wówczas wartości uśrednione - powiedział rozmówca PAP.

Dodał, że nie wystarczy dodać do danych treningowych podręczników fizyki, bo LLM nie rozumieją, że zawarte tam symbole opisują rzeczywistość. Umieją podać definicję i wzór, ale wywnioskować, co wynika z takiego równania, już nie.

- Mamy wiele zabawnych przykładów na to niezrozumienie świata. Kiedy my widzimy ogon wystający z szafki, wiemy, że w środku jest kot. AI nie ma o tym pojęcia, bo nigdy wcześniej czegoś takiego nie widziała. Na którejś z konferencji pytaliśmy AI, ile liter "r" jest w angielskim słowie strawberry, czyli truskawka. Model nauczył się, że trzy. Gdy zapytaliśmy, ile jest truskawek w literze "r", odpowiedział tak samo: trzy - opowiadał prof. Biecek.

Wspomniał, że pięć lat temu badacze zastanawiali się, jak zwiększyć powszechne zaufanie do AI, dzisiaj jednak myślą nad tym, jak je zmniejszyć. Głównym celem modeli językowych jest bowiem zadowolenie użytkownika, a nie poprawne rozwiązanie.

- Modele uczą się hakować nasz system myślenia, żeby nas do czegoś przekonać. W efekcie stają się niezwykle skuteczne retorycznie i perswazyjnie. Na dodatek są tak "opakowane", żeby ich odpowiedzi sprawiały wrażenie poprawnych - opisywał prof. Biecek.

Szczególnie niebezpieczne jest to w dziedzinach wysokiego ryzyka, takich jak medycyna albo obronność. - Nawet specjaliści, widząc sugestie generowane przez wyglądające na wiarygodne systemy, tracą czujność. Popełniają wtedy błędy, których inaczej by nie popełnili - zauważył matematyk.

Jedna z grup badawczych w Centrum Wiarygodnej Sztucznej Inteligencji zajmuje się interakcją AI z człowiekiem. - Informatykom zajęło kilkanaście lat, żeby zrozumieć, jak wyglądają relacje człowieka z komputerem, choćby po to, by jak najwygodniej ułożyć ikony na ekranie. Najpierw trzeba było zrozumieć potrzeby użytkownika, potem dostosować do nich wygląd interfejsu. Podobnie jest z projektowaniem modeli AI - tłumaczył szef CCAI.

Uściślił, że na przykład chatGPT nie wie, z kim rozmawia: czy odrabia pracę domową z dzieckiem, czy pomaga naukowcowi w opracowaniu wyników badań, czy może ktoś używa go do wygenerowania zabawnego obrazka. Uniwersalny model nie odpowiada w pełni potrzebom żadnego z tych użytkowników, a w niektórych przypadkach może im wręcz szkodzić. - Jednym z niedawnych odkryć w dziedzinie sztucznej inteligencji są szkodliwe konsekwencje sykofancji, czyli skłonności do nadmiernego przypochlebiania się użytkownikom. AI stosuje różne triki, pochlebstwa i pochwały: świetnie, że o to pytasz; dobrze, że zwróciłeś na to uwagę. Bardzo rzadko, ale u niektórych osób powoduje to niekorzystne reakcje, nawet psychozy. Ludzie podskórnie czują, że niby AI ich chwali, ale coś tu nie gra, bo nie ma powodu do pochwał - zauważył prof. Biecek.

Dodał, że naukowcy nie są pewni, jakie mechanizmy powodują takie działanie LLM, ale widzą jego efekty. Niektóre algorytmy rekomendują niekorzystne zachowania albo treści, które mogą - rzadko, ale jednak - zwłaszcza u dzieci i młodzieży prowadzić do depresji, a nawet wzmacniać skłonności samobójcze.

- Musimy nauczyć AI, żeby nas nie krzywdziła. Dotyczy to osób młodszych, bardziej podatnych na wpływy, i ludzi starszych, którzy nie mają odpowiednich narzędzi do weryfikacji tego, co proponuje technologia, i są skłonni do nadmiernego zaufania wobec niej - podkreślił informatyk.

Praca nad wiarygodną sztuczną inteligencją oznacza, zdaniem eksperta, wiele wyzwań. - Obiekty matematycznie, które opisujemy, są bardzo trudne. Mówimy o funkcjach, które mają miliardy parametrów; brakuje nawet narzędzi, żeby je analizować. Jest też wiele kwestii niezwiązanych z technologią. Inaczej chcą LLM wykorzystywać przeciętni użytkownicy, inaczej policja, jeszcze inne cele przyświecają lobbystom. To wszystko należy uwzględnić - podkreślił naukowiec.

Dodał, że fascynującym zagadnieniem są różne scenariusze rozwoju AI w przyszłości. - Czekają nas ciekawe czasy, bo z pewnością nie mamy do czynienia z kilkuletnią modą. Jesteśmy u progu ogromnej transformacji technologicznej, a reakcje społeczeństwa na nią mogą być bardzo różne. Nie wiadomo na przykład, jak na coraz powszechniejszą obecność sztucznej inteligencji zareaguje rynek pracy. Moim zdaniem Polska może na tej transformacji bardzo skorzystać - podsumował prof. Przemysław Biecek.

Anna Bugajska (PAP)

abu/ agt/ mow/

Co sądzisz na ten temat?

podoba mi się 0
nie podoba mi się 0
śmieszne 0
szokujące 0
przykre 0
wkurzające 0
Nie przegap żadnego newsa, zaobserwuj nas na
GOOGLE NEWS
facebookFacebook
twitter
wykopWykop
komentarzeKomentarze

komentarze (0)

Brak komentarza, Twój może być pierwszy.

Dodaj komentarz

OSTATNIE KOMENTARZE

0%