Reklama

Felietony

Pułapki sztucznej inteligencji

2025-06-30 18:52

Niedziela Ogólnopolska 27/2025, str. 36

Red.

Modele AI, choć zaawansowane, nie są nieomylne. ChatGPT może generować odpowiedzi brzmiące wiarygodnie, ale zawierające błędy lub fałszywe informacje.

Bądź na bieżąco!

Zapisz się do newslettera

Wraz z rosnącą popularnością narzędzi sztucznej inteligencji, takich jak ChatGPT, rośnie ryzyko nadużywania kolejnego potężnego narzędzia. Nieodpowiedzialne korzystanie z modeli językowych może prowadzić do szeregu problemów – od utraty umiejętności krytycznego myślenia po dezinformację i uzależnienie od technologii. ChatGPT wykazuje negatywny wpływ na funkcje poznawcze, w tym pamięć operacyjną, zdolność cytowania i poczucie autorstwa.

Reklama

Ciekawe w tym względzie jest badanie wpływu ChatGPT na funkcje poznawcze. Zostało ono przeprowadzone w Massachusetts Institute of Technology (MIT) i potwierdza wcześniejsze badania opublikowane w czołowych naukowych czasopismach, które wykazały wpływ sztucznej inteligencji (AI) na zmiany w ludzkim myśleniu. Badanie przeprowadzone przez naukowców z MIT, oparte na analizie EEG pięćdziesięciorga czworga studentów, wykazało, że intensywne korzystanie z ChatGPT prowadzi do obniżenia pamięci, zdolności krytycznego myślenia oraz aktywności mózgu. Wskazuje na zjawisko „długu poznawczego” (ang. cognitive debt), czyli pozornej produktywności kosztem pogorszenia funkcji poznawczych. Nadmierne poleganie na odpowiedziach generowanych przez AI może osłabić zdolność użytkowników do samodzielnego analizowania informacji. Studenci, którzy regularnie korzystali z ChatGPT do pisania esejów i rozwiązywania problemów, wykazywali mniejszą skłonność do weryfikacji źródeł i krytycznej oceny danych. Automatyzacja procesów myślowych może prowadzić do intelektualnego lenistwa, szczególnie wśród młodych ludzi.

Pomóż w rozwoju naszego portalu

Wspieram

Modele AI, choć zaawansowane, nie są nieomylne. ChatGPT może generować odpowiedzi brzmiące wiarygodnie, ale zawierające błędy lub fałszywe informacje, zwłaszcza gdy użytkownicy nie weryfikują wyników. Według badania opublikowanego w Nature Communications (2024), aż 62% użytkowników AI nie sprawdza odpowiedzi modeli językowych, co zwiększa ryzyko rozprzestrzeniania fake newsów, szczególnie w mediach społecznościowych.

Korzystanie z AI jest wygodne, ale może prowadzić do uzależnienia. Chodzi o zjawisko „automatyzacji zaufania”, gdy użytkownicy bezrefleksyjnie przyjmują odpowiedzi AI jako ostateczne. Wyniki badań zamieszczonych w Frontiers in Psychology (2023) pokazują, że osoby regularnie korzystające z asystentów AI wykazują symptomy podobne do uzależnienia od mediów społecznościowych, takie jak kompulsywne sprawdzanie odpowiedzi czy niepokój w sytuacjach wymagających samodzielnego działania. Nadużywanie AI rodzi pytania o prywatność i manipulację. Modele językowe gromadzą dane użytkowników, co budzi obawy o ich wykorzystanie, np. w celach marketingowych lub politycznych. Co więcej, brak regulacji prawnych dotyczących AI zwiększa ryzyko nadużyć, np. w edukacji czy rekrutacji. Wyniki badania z AI & Society (2024) wskazują, że masowe użycie AI w rekrutacji może prowadzić do dyskryminacji, jeśli algorytmy nie są odpowiednio nadzorowane.

Nie jest to jednak nowość, ponieważ w badaniu z 2011 r., opublikowanym w Science Sparrow, Liu i Wegner opisali tzw. efekt Google; wskazali, że dostępność informacji w internecie zmienia sposób, w jaki nasz mózg przetwarza i przechowuje dane. Kiedy wiemy, że możemy łatwo sprawdzić informacje (np. za pomocą wyszukiwarki), nasz mózg mniej angażuje się w ich zapamiętanie, a zamiast tego „deleguje” pamięć zewnętrznym źródłom. Badanie wykazało, że uczestnicy lepiej zapamiętali, gdzie można znaleźć informacje (np. w którym folderze lub wyszukiwarce) niż same fakty, co sugeruje, że współczesne technologie przekształcają naszą pamięć w bardziej „transaktywną”, opartą na współpracy z narzędziami cyfrowymi.

Aby zminimalizować zagrożenia, kluczowe jest świadome korzystanie z AI. Dlatego lepiej przyjąć pozytywne nastawienie do sztucznej inteligencji i wdrażać edukację w zakresie krytycznego myślenia i weryfikacji informacji. Warto również ustalić granice korzystania z narzędzi AI, szczególnie w edukacji i pracy zawodowej. Wniosek badaczy z MIT jest kluczowy: „Musimy uczyć ludzi, kiedy warto używać AI, a kiedy lepiej samemu się zastanowić”.

Podziel się:

Oceń:

[ TEMATY ]

Wybrane dla Ciebie

Wybory zakupowe

Mniej rzeczy to więcej kreatywności i poświęconego czasu.

Więcej ...

Zmiany kapłanów 2025 r.

Karol Porwich/Niedziela

Maj i czerwiec to miesiąc personalnych zmian wśród duchownych. Przedstawiamy bieżące zmiany księży proboszczów i wikariuszy w poszczególnych diecezjach.

Więcej ...

Rzecznik PAŻP: system zarządzania ruchem lotniczym został przywrócony

2025-07-19 15:13

Adobe Stock

Podstawowy system zarządzania ruchem lotniczym został przywrócony – przekazał w sobotnim oświadczeniu rzecznik Polskiej Agencji Żeglugi Powietrznej (PAŻP) Marcin Hadaj. Rano doszło do awarii tego systemu, wskutek czego samoloty w całym kraju nie mogły startować.

Więcej ...

Reklama

Najpopularniejsze

Dobrowolnie poszli na pewną śmierć. Bł. Achilles...

Święci i błogosławieni

Dobrowolnie poszli na pewną śmierć. Bł. Achilles...

W parafii w Kępnie niespodziewanie zmarł ks. Grzegorz...

W diecezjach

W parafii w Kępnie niespodziewanie zmarł ks. Grzegorz...

Nowenna do św. Krzysztofa

Wiara

Nowenna do św. Krzysztofa

Nowenna do św. Marii Magdaleny

Wiara

Nowenna do św. Marii Magdaleny

Świadectwo: 52 lata spełnionego małżeństwa. Jak to...

Wiara

Świadectwo: 52 lata spełnionego małżeństwa. Jak to...

Nowenna do Matki Bożej Szkaplerznej

Wiara

Nowenna do Matki Bożej Szkaplerznej

Co tak naprawdę powiedzieli biskupi na Jasnej Górze?

Kościół

Co tak naprawdę powiedzieli biskupi na Jasnej Górze?

Zmiany kapłanów 2025 r.

Kościół

Zmiany kapłanów 2025 r.

Diecezja siedlecka: Ksiądz zmarł nagle w wieku 52 lat

Kościół

Diecezja siedlecka: Ksiądz zmarł nagle w wieku 52 lat