Reklama

Felietony

Pułapki sztucznej inteligencji

Modele AI, choć zaawansowane, nie są nieomylne. ChatGPT może generować odpowiedzi brzmiące wiarygodnie, ale zawierające błędy lub fałszywe informacje.

Niedziela Ogólnopolska 27/2025, str. 36

[ TEMATY ]

Monika Przybysz

Moim zdaniem

Red.

Bądź na bieżąco!

Zapisz się do newslettera

Wraz z rosnącą popularnością narzędzi sztucznej inteligencji, takich jak ChatGPT, rośnie ryzyko nadużywania kolejnego potężnego narzędzia. Nieodpowiedzialne korzystanie z modeli językowych może prowadzić do szeregu problemów – od utraty umiejętności krytycznego myślenia po dezinformację i uzależnienie od technologii. ChatGPT wykazuje negatywny wpływ na funkcje poznawcze, w tym pamięć operacyjną, zdolność cytowania i poczucie autorstwa.

Reklama

Ciekawe w tym względzie jest badanie wpływu ChatGPT na funkcje poznawcze. Zostało ono przeprowadzone w Massachusetts Institute of Technology (MIT) i potwierdza wcześniejsze badania opublikowane w czołowych naukowych czasopismach, które wykazały wpływ sztucznej inteligencji (AI) na zmiany w ludzkim myśleniu. Badanie przeprowadzone przez naukowców z MIT, oparte na analizie EEG pięćdziesięciorga czworga studentów, wykazało, że intensywne korzystanie z ChatGPT prowadzi do obniżenia pamięci, zdolności krytycznego myślenia oraz aktywności mózgu. Wskazuje na zjawisko „długu poznawczego” (ang. cognitive debt), czyli pozornej produktywności kosztem pogorszenia funkcji poznawczych. Nadmierne poleganie na odpowiedziach generowanych przez AI może osłabić zdolność użytkowników do samodzielnego analizowania informacji. Studenci, którzy regularnie korzystali z ChatGPT do pisania esejów i rozwiązywania problemów, wykazywali mniejszą skłonność do weryfikacji źródeł i krytycznej oceny danych. Automatyzacja procesów myślowych może prowadzić do intelektualnego lenistwa, szczególnie wśród młodych ludzi.

Pomóż w rozwoju naszego portalu

Wspieram

Modele AI, choć zaawansowane, nie są nieomylne. ChatGPT może generować odpowiedzi brzmiące wiarygodnie, ale zawierające błędy lub fałszywe informacje, zwłaszcza gdy użytkownicy nie weryfikują wyników. Według badania opublikowanego w Nature Communications (2024), aż 62% użytkowników AI nie sprawdza odpowiedzi modeli językowych, co zwiększa ryzyko rozprzestrzeniania fake newsów, szczególnie w mediach społecznościowych.

Korzystanie z AI jest wygodne, ale może prowadzić do uzależnienia. Chodzi o zjawisko „automatyzacji zaufania”, gdy użytkownicy bezrefleksyjnie przyjmują odpowiedzi AI jako ostateczne. Wyniki badań zamieszczonych w Frontiers in Psychology (2023) pokazują, że osoby regularnie korzystające z asystentów AI wykazują symptomy podobne do uzależnienia od mediów społecznościowych, takie jak kompulsywne sprawdzanie odpowiedzi czy niepokój w sytuacjach wymagających samodzielnego działania. Nadużywanie AI rodzi pytania o prywatność i manipulację. Modele językowe gromadzą dane użytkowników, co budzi obawy o ich wykorzystanie, np. w celach marketingowych lub politycznych. Co więcej, brak regulacji prawnych dotyczących AI zwiększa ryzyko nadużyć, np. w edukacji czy rekrutacji. Wyniki badania z AI & Society (2024) wskazują, że masowe użycie AI w rekrutacji może prowadzić do dyskryminacji, jeśli algorytmy nie są odpowiednio nadzorowane.

Nie jest to jednak nowość, ponieważ w badaniu z 2011 r., opublikowanym w Science Sparrow, Liu i Wegner opisali tzw. efekt Google; wskazali, że dostępność informacji w internecie zmienia sposób, w jaki nasz mózg przetwarza i przechowuje dane. Kiedy wiemy, że możemy łatwo sprawdzić informacje (np. za pomocą wyszukiwarki), nasz mózg mniej angażuje się w ich zapamiętanie, a zamiast tego „deleguje” pamięć zewnętrznym źródłom. Badanie wykazało, że uczestnicy lepiej zapamiętali, gdzie można znaleźć informacje (np. w którym folderze lub wyszukiwarce) niż same fakty, co sugeruje, że współczesne technologie przekształcają naszą pamięć w bardziej „transaktywną”, opartą na współpracy z narzędziami cyfrowymi.

Aby zminimalizować zagrożenia, kluczowe jest świadome korzystanie z AI. Dlatego lepiej przyjąć pozytywne nastawienie do sztucznej inteligencji i wdrażać edukację w zakresie krytycznego myślenia i weryfikacji informacji. Warto również ustalić granice korzystania z narzędzi AI, szczególnie w edukacji i pracy zawodowej. Wniosek badaczy z MIT jest kluczowy: „Musimy uczyć ludzi, kiedy warto używać AI, a kiedy lepiej samemu się zastanowić”.

2025-06-30 18:52

Oceń: +3 0

Reklama

Wybrane dla Ciebie

Kradzież instytucji

Jeśli teraz nie zdobędziemy się na solidarny gest skutecznego oporu, to nasze dzieci i wnuki będą żyły w superpaństwie rządzonym pod dyktando najbogatszych ludzi na świecie.

Na razie przegrywamy, i to solidnie, w grze uprawianej przez lewicę, którą zwą współczesnym kulturkampfem. To praktyka wynikła z przesłań włoskiego komunisty Antonia Gramsciego. Od 1968 r. lewicowcy rozpełzli się jak szkodliwa choroba po wszelkich instytucjach, fundacjach i uczelniach. Najpierw pod pozorem dobroczynności, a dziś chcą nam założyć kagańce (maseczki?) na usta i zmusić do bezwarunkowego czczenia ich obłąkańczych pomysłów na świat. Oto dziwaczna artystka Lady Gaga (notabene kompromitująco stylizowała się na nią Luna, „nasza” reprezentantka w konkursie Eurowizji) na wielkim koncercie w Los Angeles przekazuje najbardziej szatańskie przesłania, ubrana jak córka Lucyfera prowadzi do finałowej konstatacji swojego „widowiska” (sabatu?): czcijcie tych, którzy mają odwagę być inni... To przesłanie dla społeczności LGBT – wyjaśnia po chwili, aby już nikt nie miał wątpliwości, w czym bierze udział. Swoją najbardziej znaną balladę gra na fortepianie ustylizowanym na wrota piekieł. Stadion – 52 tys. ludzi – szaleje.
CZYTAJ DALEJ

Bp Artur Ważny o spadku zaufania do Kościoła: biję się w piersi

2025-09-18 07:12

[ TEMATY ]

bp Artur Ważny

Karol Porwich/Niedziela

Bp Artur Ważny

Bp Artur Ważny

Zaufanie do Kościoła spadło w 9 lat z 58 proc. (2016) do 35,1 proc. (2025). Biję się w piersi, chociaż wiem, że to nie wystarczy - napisał w środę na portalu X biskup sosnowiecki Artur Ważny.

Według opublikowanego w środę badania IBRiS łączny odsetek osób, które deklarują zaufanie („zdecydowanie” lub „raczej”) do Kościoła katolickiego, spadł z 58 proc. we wrześniu 2016 roku do 35,1 proc. we wrześniu 2025 roku. To spadek o 22,9 punktu procentowego. Jednocześnie poziom nieufności wzrósł w tym samym okresie prawie dwukrotnie, z 24,2 proc. do 47,1 proc.
CZYTAJ DALEJ

Bp Stułkowski o św. Stanisławie Kostce: konsekwencja prowadzi do świętości

2025-09-18 15:04

[ TEMATY ]

św. Stanisław Kostka

bp Szymon Stułkowski

konsekwencja

Karol Porwich/Niedziela

Rozpoznać wolę Bożą w swoim życiu, stać się jej posłusznym i realizować ją w codzienności - to jest tajemnica powołania do świętości. I to się udało świętemu Stanisławowi - mówił bp Szymon Stułkowski w płockiej katedrze. W liturgiczne wspomnienie św. Stanisława Kostki, głównego patrona diecezji, biskup płocki przewodniczył Mszy św., która zainaugurowała ogólnopolską konferencję naukową o historii diecezji, w roku 950-lecia jej istnienia.

Biskup podkreślił, że świętość dojrzewa w codziennych decyzjach.
CZYTAJ DALEJ

Reklama

Najczęściej czytane

REKLAMA

W związku z tym, iż od dnia 25 maja 2018 roku obowiązuje Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia Dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) uprzejmie Państwa informujemy, iż nasza organizacja, mając szczególnie na względzie bezpieczeństwo danych osobowych, które przetwarza, wdrożyła System Zarządzania Bezpieczeństwem Informacji w rozumieniu odpowiednich polityk ochrony danych (zgodnie z art. 24 ust. 2 przedmiotowego rozporządzenia ogólnego). W celu dochowania należytej staranności w kontekście ochrony danych osobowych, Zarząd Instytutu NIEDZIELA wyznaczył w organizacji Inspektora Ochrony Danych.
Więcej o polityce prywatności czytaj TUTAJ.

Akceptuję