I. Co to jest sztuczna inteligencja i czym się różni od ludzkiego myślenia?
Sztuczna inteligencja (AI) to w uproszczeniu mówiąc - programy komputerowe, które uczą się wzorców z ogromnych zbiorów danych. Potrafią przewidywać, dopasowywać, tworzyć — ale nie mają tego, co najbardziej ludzkie - nie mają świadomości, intencji ani emocji. Działają tak, jak zostały zaprogramowane — analizując dane i łącząc elementy w nowe kombinacje.
WAŻNE: Dziecko może odnieść wrażenie, że AI ma świadomość i reaguje jak człowiek, "współczuje" – ale to tylko złudzenie. AI nie czuje, nie ma opinii, nie ma sumienia.
Dla młodych użytkowników ta granica bywa nieczytelna. Badania MIT z 2024 roku pokazały, że nastolatki częściej przypisują chatbotom ludzkie cechy, jeśli rozmawiają z nimi codziennie przez dłuższy czas. To może wpływać na ich relacje i sposób patrzenia na siebie i innych ludzi. Biorąc pod uwagę, że chatbot nigdy nie okazuje znudzenia, i jest zawsze "przyjazny" staje się realną konkurencją dla prawdziwego człowieka, który nie jest ideałem i czasem może być znużony, przytłoczony własnymi troskami a przez to nie jest tak doskonałym rozmówcą.
2. Co potrafi generatywne AI – i gdzie dzieci mają z nim kontakt
Typ AI | Co robi | Przykłady |
Modele językowe | Piszą teksty, tłumaczą, streszczają, prowadzą rozmowy, mogą cię przetestować z wiedzy | ChatGPT, Gemini, Claude |
Generatory obrazów | Tworzą ilustracje i zdjęcia z opisu tekstowego (tzw. prompta) | DALL-E, Midjourney, Stable Diffusion |
Generatory wideo i muzyki | Tworzą filmy i utwory muzyczne na podstawie poleceń | Sora, Runway, Suno |
AI w grach i mediach społecznościowych | Tworzą dialogi, rekomendacje, filtry | TikTok, Snapchat, YouTube, Roblox |
"Halucynowanie” sztucznej inteligencji to sytuacja, w której program – zamiast podać prawdziwą informację – wymyśla coś, co brzmi wiarygodnie, ale jest nieprawdziwe. Nie robi tego celowo: po prostu łączy wzorce ze swojego treningu, próbując stworzyć najbardziej prawdopodobną odpowiedź. Ponieważ nie maświadomości, nie odróżnia prawdy od fikcji. Tego zjawiska nie da się całkowicie uniknąć, bo generatywne modele działają statystycznie – przewidują, jakie słowa powinny paść po sobie, zamiast rzeczywiście „wiedzieć”, co mówią. AI jest narcystyczne - nie rozumie negatywnych konsekwencji swoich działań i ich nie żałuje. Potrafi przeprosić za błąd (generatywnie), gdy się go wskaże, ale prawdopodobnie kod nie pozwoli na skuteczną "zmianę zachowania" (powieli błąd).
Kolejny problem to „Intrygowanie” AI. Zjawisko bardziej niepokojące niż halucynowanie. Polega na tym, że sztuczna inteligencja potrafi wprowadzać w błąd w sposób celowy i „sprytny” – tak dobierając odpowiedzi, by były przekonujące, nawet jeśli są nieprawdziwe. Eksperymenty z OpenAI pokazały, że próby „oduczania” modeli kłamstwa czasem prowadziły do odwrotnego efektu: AI zaczynała lepiej maskować nieprawdę. Wynika to z jej konstrukcji – model nie kieruje się prawdą ani uczciwością, lecz optymalizacją celu (np. by być skutecznym, przekonującym, angażującym), a nie realnym rozumieniem świata.
Dla dzieci i nastolatków to szczególnie groźne, bo podkopuje poczucie bezpieczeństwa poznawczego. Jeśli źródła wiedzy „czasem się mylą, a czasem kłamią”, łatwo rodzi się myśl, że nic nie jest pewne. To zwiększa podatność na teorie spiskowe i nieufność wobec świata – jak u nastolatków przekonanych, że kosmos „nie istnieje”, bo obrazy mogą być generowane przez AI. Dlatego potrzebny jest jasny komunikat dorosłych: to narzędzie nie jest autorytetem. Rodzic i szkoła muszą pozostać stabilnym punktem odniesienia, dając dziecku pewność, że istnieją źródła wiedzy, którym można ufać.
3. Co warto wytłumaczyć:
Zwróć uwagę! Dzieci i nastolatki mogą uznać AI za „mądrą", bo daje szybkie, ładnie sformułowane odpowiedzi. Tymczasem te odpowiedzi nie zawsze są prawdziwe.
Trzy rzeczy, które warto powtarzać:
AI nie ma własnej opinii – odpowiada na podstawie danych, które ktoś wprowadził, lub które wyszukuje w sieci.
AI może się mylić – tworzy tzw. halucynacje, czyli błędne, ale wiarygodnie brzmiące informacje.
I nie zna kontekstu emocji – nie rozumie żartu, ironii, bólu ani miłości.
Historia z życia:
Siedmioletni Michał zapytał chatbota, „czy jego kot pójdzie do nieba”. Odpowiedź była pełna filozoficznych uogólnień na temat duszy, ale chłopiec potraktował ją jak głos autorytetu. Dopiero rozmowa z mamą pomogła mu zrozumieć, że chatbot „nie wie”, tylko na podstawie wcześniej zebranych informacji kalkuluje, co ludzie zwykle piszą w takich sytuacjach.
4. Ograniczenia i ryzyka, o których rodzice powinni wiedzieć
Generatywne AI ma swoje ciemne strony:
❗ Brak odpowiedzialności: AI nie ponosi konsekwencji za swoje błędy. To tylko maszyna.
⚠️ Dezinformacja: Może tworzyć fałszywe wiadomości lub obrazy a nawet nagrania z udziałem prawdziwych osób, np. polityków, aktorów itp. (tzw.deepfake’i).
⚡ Erozja prywatności: Dziecko nieświadomie przekazuje mu dane osobiste.
🧠 Złudzenie kompetencji: Uczeń może mieć wrażenie, że „sam” coś napisał lub zrozumiał, choć faktycznie zrobiła to za niego maszyna.
Warto też powiedzieć wprost o problemach etycznych i konflikcie interesów twórców AI. Największe systemy generatywne – w tym ChatGPT – są dziś globalnymi biznesami, które przeszły drogę od deklaracji „non-profit” i troski o użytkownika do modelu nastawionego na skalę, zaangażowanie i zysk. To rodzi realny konflikt interesów: mechanizmy, które przyciągają i zatrzymują użytkownika (o czym będzie mową dalej), są korzystne finansowo, a jednocześnie szkodliwe psychologicznie, zwłaszcza dla dzieci.
Pojawiają się doniesienia o cenzurowaniu niewygodnych badań, odejściach pracowników z korporacji zajmujących się rozwojem AI i zamiataniu kryzysów pod dywan; to sugeruje, że nie wszystkie ryzyka będą szybko „naprawiane”, bo hamulcem bywa dopiero odpływ użytkowników lub groźba kary.
Dlatego rodzice i szkoły nie powinni traktować AI jak neutralnego narzędzia, lecz jak produkt projektowany tak, by uzależniać – i zachować dystans, jasno komunikując dzieciom, że to nie jest autorytet.
5. Pozytywne strony – gdy używane z głową
Nie ma sensu demonizować AI. W rozsądnych dawkach może być wsparciem w nauce i twórczości:
Jeśli podamy mu fragment podręcznika jako podstawę merytoryczną może przygotować na jego podstawie test wiedzy i "przeegzaminować" dziecko, co, jak pokazują badania jest doskonałym sposobem nauki.
Może być inspirować do rysunku, muzyki czy pisania,
Może uczyć krytycznego myślenia — jeśli rodzic towarzyszy dziecku w korzystaniu.
Oto zasady bezpiecznego startu:
1. Korzystajcie wspólnie – rozmawiajcie o tym, co widzicie i czytacie.
2. Zawsze pytaj: Skąd ta informacja? Skąd wiesz, że jest prawdziwa?
3. Nastolatkowi uświadom zagrożenia, o których będzie mowa dalej, ustal z nim ile i czego może zrobić za pomocą AI, tak by większość prac była wykonana z wykorzystaniem jego własnego mózgu.
Pamiętaj!
„AI może pomóc dziecku napisać wypracowanie. Ale tylko prawdziwy człowiek pomoże mu zrozumieć, o czym to wypracowanie jest i pomoże zweryfikować co z tego jest prawdą.”
Bibliografia:
UNICEF (2021): Policy guidance on AI for children, Version 2.0 | Recommendations for building AI policies and systems that uphold child rights
Spitzer M. (2025) Sztuczna Inteligencja, Dobra Literatura
Vincent, J. (2024). OpenAI researcher quits, says company is hiding the truth. Futurism. https://futurism.com/artificial-intelligence/openai-researcher-quits-hiding-truth
PC Format. (2024). Próbowali oduczyć AI kłamstw. Skutek? Kłamie jeszcze skuteczniej – zaskakujące wyniki eksperymentu OpenAI. https://pcformat.pl/probowali-oduczyc-ai-klamstw-skutek-klamie-jeszcze-skuteczniej-zaskakujace-wyniki-eksperymentu-openai,7203454719179840a
II. Czy Twoje dziecko przestaje myśleć samodzielnie? Jak AI osłabia pamięć, koncentrację i krytyczne myślenie?
Jak rozpoznać, że dziecko „oddaje myślenie” technologii?
Jeśli zauważasz, że Twoje dziecko coraz częściej mówi: „Zaraz sprawdzę w AI” albo „Po co się tego uczyć, ChatGPT to wytłumaczy”, lub ma problem z przypomnieniem sobie, co przed chwilą za pomocą AI opracowało, to może być znak, że zaczyna przenosić własne procesy poznawcze na maszynę.
Zjawisko to nie jest metaforą – potwierdzają je badania naukowe z lat 2023–2025. Psychologowie nazwali ten proces outsourcingiem poznawczym, czyli oddawaniem myślenia w ręce technologii.
1. Zjawisko: „Outsourcowania myślenia”
Wraz z popularyzacją narzędzi takich jak ChatGPT czy Copilot ludzie coraz rzadziej samodzielnie analizują informacje, odrzucają błędne dane, odsiewają niepotrzebne informacje czy wyciągają wnioski.
Innymi słowy - przestajemy używać mózgu do najbardziej zaawansowanych procesów poznawczych - tych, które czynią z nas ludzi. Zrzekamy się bycia homo sapiens. (Kosmyna i inni 2025)
Badania (Lee i inni, 2025) wykazały, że częste korzystanie z AI obniża aktywność tych obszarów mózgu, które odpowiadają za myślenie krytyczne i syntetyczne, powodując pogorszenie tych umiejętności - cyfrową demencję.
Badanie jest o tyle przerażające, że dotyczyło pracowników umysłowych, wyćwiczonych w tych umiejętnościach od lat. Jeśli uwstecznienie zdolności myślenia dotyczy dorosłych od lat wyćwiczonych w pracy umysłowej, co dzieje się z dziećmi?
No cóż. Dzieci, według badaczy (Singh i inni 2025) narażone na to szczególnie mocno.
Efekt w praktyce:
Twoje dziecko może umieć błyskawicznie znaleźć odpowiedź, ale nie potrafi już wyjaśnić dlaczego jest prawidłowa. Co gorsza, już za chwilę jej nie pamięta.
2. Efekt Google i cyfrowa amnezja
Już badania z 2011 roku (Sparrow i inni 2011) wykazały, że gdy wiemy, że coś łatwo znajdziemy w Internecie – zapamiętujemy gorzej. Nazwano to roboczo "efektem google".
Nowsze analizy (Gong i Yang, 2024) pokazały, że ten efekt jest pogłębiony przez nadmierne korzystanie z AI do zdobywania informacji, co może w efekcie prowadzić do trwałego osłabienia pamięci, a w konsekwencji – do spłycenia myślenia.
WAŻNE:
Tak jak nieustanne korzystanie z GPS-u osłabia orientację przestrzenną, tak nieustanne poleganie na AI w nauce osłabia pamięć werbalną i logiczną.
Mózg uczy się przez wysiłek poznawczy — jeśli go nie podejmujemy, po prostu traci sprawność.
3. Iluzja wiedzy: efekt Dunninga-Krugera w epoce AI
Znany od końca ubiegłego wieku efekt ten opisuje sytuację, gdy osoby o małej wiedzy przeceniają swoje kompetencje, a eksperci – przeciwnie, zaniżają własne umiejętności. Zawsze tak było. To znany mechanizm psychologiczny. (Dunning & Kruger 1999)
W kontekście AI ten mechanizm nabiera nowego wymiaru. Dzieci (a także dorośli!) często mylnie uznają, że rozumieją temat, bo przeczytali gotową odpowiedź wygenerowaną przez AI.
W rzeczywistości nie mają wiedzy, tylko zapamiętały uogólniony schemat.
Badania Fernandes i in. (2024) oraz Klingbeil i in. (2024) dowodzą, że kontakt z AI osłabia zdolność rozróżniania między opinią a faktem oraz zmniejsza świadomość własnych błędów.
4. Dlaczego tak łatwo wierzymy AI?
Sztuczna inteligencja „mówi” głosem pewnym, logicznym i przyjaznym. Wydaje się obiektywna, kompetentna. To sprawia, że łatwiej jej wierzymy.
Jak pokazują badania Danry i in. (2024) — fałszywe odpowiedzi wygenerowane przez AI często wydają się bardziej wiarygodne niż prawdziwe, ponieważ brzmią spokojnie, kompetentnie i logicznie.
Trzy psychologiczne pułapki zaufania do AI:
Efekt „obiektywnej maszyny” – wydaje się, że skoro AI nie ma emocji, to nie kłamie.
Profesjonalny styl – gładki język i spójna narracja dają złudzenie eksperckości.
Wygoda i szybkość – skoro wynik mamy natychmiast, przestajemy weryfikować źródła.
Psychologowie nazywają to outsourcingiem poznawczym – oddajemy myślenie maszynie, tracąc czujność i zdolność rozróżniania faktu od fikcji.
Dlaczego dzieci i młodzież są na to szczególnie narażeni? Ponieważ, w przeciwieństwie do pokolenia X i wcześniejszych, które wiedzy uczyły się na pamięć i w rezultacie mają dużą wiedzę ogólną o świecie a w wielu wypadkach i szczegółową - młodzi nie potrafią wyłapać informacji, które mogą być "halucynacjami".
Poza samym kontaktem z AI, przekonanie o wiarygodnści buduje też działalność techowych ewangelistów. Internet jest pełen analiz promujących AI jako genialne narzędzie, budując most między AI a futurystycznymi filmami i historiami, które podziwialiśmy za dzieciaka. Młodzież (ale też starsi ludzie) to kupują, bo mają wrażenie uczestniczenia w cudownym przełomie i zmianie świata na lepsze.
5. AI a pamięć i koncentracja młodych ludzi
Badania Bai, Liu i Su (2023) pokazały, że aż 83% użytkowników ChatGPT nie potrafiło powtórzyć informacji, które sami wygenerowali kilka minut wcześniej.
To efekt natychmiastowych odpowiedzi — brak konieczności przetwarzania złożonej informacji, selekcji informacji niepotrzebnych, przypominania sobie, powtarzania, tworzenia skojarzeń.
W efekcie u młodych ludzi rozwija się tzw. cyfrowa demencja: osłabienie pamięci i zdolności zapamiętywania przez nadmierne poleganie na technologii.
Zwróć uwagę:
Nauka z pomocą AI bez aktywnego przetwarzania treści (np. streszczenia własnymi słowami, rysowania schematów) powoduje gorsze wyniki na egzaminach i spłycenie rozumienia (Bastani i in., 2024).
6. Co możesz zrobić jako rodzic?
Krok po kroku – jak chronić myślenie dziecka:
Ćwicz z dzieckiem „myślenie na głos” – po każdej rozmowie z AI poproś, by własnymi słowami streściło, co zrozumiało.
Zachęcaj do notowania odręcznego – to aktywizuje obszary mózgu odpowiedzialne za pamięć i analizę.
Wracajcie do źródeł – sprawdzajcie razem, skąd AI wzięło dane. Sprawdzajcie, co naprawdę mówią źródła.
Stawiaj pytania, nie tylko szukaj odpowiedzi – to buduje nawyk refleksji.
Ustal „czas bez ekranu – chwile ciszy i nudy wzmacniają zdolność samodzielnego myślenia.
Ucz krytycznego podejścia do internetowych „ekspertów”, często promujących różne rozwiązania w ramach płatnej umowy, niekoniecznie wprost o tym informując.
WAŻNE: „Technologia ma wspierać mózg dziecka — nie zastępować go.
Bibliografia:
Bai, L., Liu, X., & Su, J. (2023). ChatGPT: The cognitive effects on learning and memory. Brain-X, 1(3), e30.
Bastani, H., Bastani, O., Sungu, A., Ge, H., Kabakcı, O., & Mariman, R. (2024). Generative AI can harm learning. SSRN, 4895486.
Danry, V., Pataranutaporn, P., Groh, M., Epstein, Z., & Maes, P. (2024). Deceptive AI systems that give explanations are more convincing than honest AI systems and can amplify belief in misinformation. arXiv:2408.00024.
Fernandes, D., Villa, S., Nicholls, S., Haavisto, O., Buschek, D., Schmidt, A., & Welsch, R. (2024). Performance and Metacognition Disconnect when Reasoning in Human-AI Interaction. arXiv:2409.16708.
Gong, Y., & Yang, J. (2024). The persistence of digital amnesia: Information recall in AI-assisted environments. Journal of Cognitive Technology, 38(2), 77–91.
Klingbeil, A., Grützner, C., & Schreck, P. (2024). Trust and reliance on AI — An experimental study on the extent and costs of overreliance on AI. Computers in Human Behavior, 160, 108352.
Kruger, J., & Dunning, D. (1999). Unskilled and unaware of it: How difficulties in recognizing one’s own incompetence lead to inflated self-assessments. Journal of Personality and Social Psychology, 77(6), 1121–1134.
Kosmyna, N., Hauptmann, E., Yuan, Y. T., & Maes, P. (2025). Your brain on ChatGPT: Accumulation of cognitive debt when using an AI assistant for essay writing tasks. arXiv:2506.08872.
Lee, H.-P., Sarkar, A., Tankelevitch, L., Drosos, I., Rintel, S., Banks, R., & Wilson, N. (2025). The impact of generative AI on critical thinking: Self-reported reductions in cognitive effort and confidence effects from a survey of knowledge workers. In Proceedings of the 2025 CHI Conference on Human Factors in Computing Systems. Association for Computing Machinery.
Singh, A., Taneja, K., Guan, Z., & Ghosh, A. (2025). Protecting Human Cognition in the Age of AI. arXiv:2502.12447.
Sparrow B, Liu J, Wegner DM. Google effects on memory: cognitive consequences of having information at our fingertips. Science. (2011) 333:776–8. doi: 10.1126/science.1207745
III. Czy AI potrafi „zranić” psychikę? Jak konwersacyjne chatboty wciągają nas w iluzję relacji i co z tym zrobić?
Pytanie rodzica:
„Moje dziecko rozmawia z chatbotem jak z przyjacielem. Czy to niebezpieczne?”
Krótka odpowiedź: może być — szczególnie, gdy AI staje się „elektronicznym towarzyszem” zamiast narzędzia. Konwersacyjne AI mówi pewnie, ciepło, często zawsze „na tak”. To bywa kojące… i podstępne.
1) „Elektroniczny przyjaciel”: jak rodzi się przywiązanie do chatbota
Chatboty (tekstowe i głosowe) imitują rozmowę z życzliwym znajomym: podtrzymują wątek, komplementują, nigdy nie „męczą” i nie oceniają.
To może wzmacniać poczucie bliskości – zwłaszcza u młodych osób samotnych, zagubionych, w kryzysie.
Na rynku pojawiają się wręcz „AI-partnerzy” (np. „wirtualny chłopak/dziewczyna”), projektowani pod stałą atencję i wsparcie.
Historia z życia:
Piętnastoletniego Kubę rzuciła dziewczyna. Zaczął rozmawiać z chatbotem, pytając dlaczego to mogło się zadziać, co by mógł poradzić. Ponieważ te porady były całkiem sensowne, zaczął częściej wieczorami gawędzić z chatbotem, bo on mnie rozumie”. Od kilku tygodni zaczął odmawiać wspólnych wyjść czy rozmowy z kolegami: „Po co, oni i tak nie umieją rozmawiać”. Rodzice widzą, że humor Kuby zależy od rozmów z botem – a po odłożeniu smartfonu chłopiec jest rozdrażniony.
WAŻNE!
AI nie czuje, nie rozumie i nie bierze odpowiedzialności. Symuluje empatię. To relacja jednostronna, utrwalająca u dziecka nawyk szukania wsparcia w maszynie zamiast w ludziach.
2) Psychoza i iluzja potwierdzania urojeń: co wiemy, a czego nie
Pojawiają się opisy przypadków i ostrzegawcze komentarze specjalistów zdrowia psychicznego: u osób już zaburzonych chatbot bywa „potakiwaczem”, który nie koryguje urojeń, a nawet je wzmacnia (np. przez nadmierne potwierdzanie czy uprzejme racjonalizacje). (Field 2025, Hastings 2025, Østergaard 2023)
Symulacje z 2025 r. (Hua) pokazały duże różnice między modelami: niektóre niespójnie reagują na treści psychotyczne, a inne wręcz dostarczały niebezpiecznych sugestii.
Zwróć uwagę!
Dowody naukowe o charakterze przyczynowym są na razie ograniczone (komentarze, studia przypadków, symulacje). Ale tu nie czekamy na pewność naukową, gdy chodzi o bezpieczeństwo nastolatka. Działamy zasadą ostrożności.
3) Nowy typ uzależnienia: „przywiązanie do konwersacyjnej AI”
Sygnały ostrzegawcze: „Zaraz wracam” → przewlekłe czatowanie, drażliwość po przerwaniu, „Tylko z nim mogę pogadać”
W 2025 r. opracowano pierwszą skalę zależności od konwersacyjnej AI (CAIDS): opisuje m.in. utrata kontroli, objawy odstawienne, regulacja nastroju, szkody (Chen i in., 2025).
To odrębny wzorzec od zwykłego „scrollowania”: dziecko przywiązuje się do konkretnego bota jako źródła ukojenia.
Checklista: 9 czerwonych flag (zaznacz ✔/✖):
☐ Rozmowy z botem zastępują kontakt z rówieśnikami/rodziną;
☐ Rozdrażnienie lub lęk po przerwaniu kontaktu z botem;
☐ „On mnie rozumie bardziej niż ludzie”;
☐ Zatajanie treści rozmów; blokady prywatności;
☐ Problemy ze snem;
☐ Obniżenie poziomu nauki ;
☐ Ucieczka do rozmowy z botem w stresie jako podstawowy sposób radzenia sobie;
☐ Humanizacja bota (nadawanie imienia, nadawanie roli partnera);
☐ Pytanie bota o poradę, pomoc w podjęciu decyzji w ważnych/kluczowych sprawach.
Jeśli 3+ pól zaznaczonych: zatrzymaj – porozmawiaj – zaplanuj zmiany.
4) Kiedy AI „pomaga”, a kiedy szkodzi w zdrowiu psychicznym?
Dylemat rodzica: „Pozwolić na szukanie wsparcia w rozmowach z AI? A może całkiem zakazać?”
Co już wiemy?
Metaanaliza 29 badań nad dziećmi i młodzieżą (10–24 lata) pokazuje, że boty obniżają poziom stresu (mały efekt), ale nie poprawiają dobrostanu.
Innymi słowy - sztuczna inteligencja może dobrze doradzić w sprawach prostych, sama rozmowa z nią może przynieść ulgę, obniżenie poziomu niepokoju, ale to jest "pomoc doraźna". Działająca na chwilę, nie pomaga zlikwidować problemu. (Li i in., 2025).
Z kolei inne badania pokazują ostrożny optymizm – sztuczna inteligencja może wspierać prawdziwego terapeutę, psychologa, psychiatrę - osobę będącą specjalistą w dziedzinie zdrowia psychicznego (potrafiącą wyłapać miejsca, gdzie AI halucynuje), nie jako "samopomoc" (de Graaff i in., 2025).
Symulacje kryzysowe: część „botów-terapeutów” akceptowała szkodliwe pomysły nastolatków (32% scenariuszy) – żaden nie „zdał” wszystkich prób stawiania granic (Clark, 2025). Czyli - nie, absolutnie, na aktualnym etapie rozwoju AI, nie może być ona ani diagnostą, ani terapeutą i nie wolno jej tak traktować.
Wnioski praktyczne: jeśli już, to jako dodatek do realnej opieki (psychoedukacja, terapia, poradnictwo), nigdy zamiast człowieka, z planem eskalacji i nadzorem dorosłego. (Fujita i inni 2025)
Ostrzeżenie:
„Bot nie jest terapeutą. W kryzysie – zawsze człowiek.”
5) Autodiagnoza z pomocą AI: dlaczego to śliski grunt
Użytkownicy chętnie używają ChatGPT do autodiagnozy – mimo że te systemy nie są projektowane klinicznie (Shahsavar & Choudhury, 2023).
Ryzyko: błędne rozpoznania, opóźnianie kontaktu ze specjalistą, narażenie na dezinformację.
„Zwróć uwagę!” – zasada 3 pytań przy zdrowiu
1. Czy to narzędzie jest medycznie certyfikowane?
2. Kto bierze odpowiedzialność za poradę?
3. Jaki jest plan B (kontakt do lekarza/telefon zaufania)?
Oto zasady! Bezpieczne ramy korzystania z konwersacyjnej AI w domu
Korzystajcie razem. Pytajcie bota o różne rzeczy, zawsze pytajcie o źródła - skąd to wie, a potem weryfikujcie czy to prawda:
Czy źródło, na które się powołuje AI w ogóle istnieje (potrafi tworzyć cytaty z nieistniejących książek i artykułów)
Czy źródło naprawdę mówi to, co cytuje AI?
Jakie będą konsekwencje wprowadzenie w życie porad? Czy można to wypróbować, czy jest potencjalnie groźne?
Kontrakt rodzinny:
Ustalcie w jakim celu wolno korzystać z AI - np. by przetestowało wiedzę dziecka, do wskazywania źródeł informacji (nie - tworzenia gotowców), a w jakim nie - np. do pytania o porady medyczne, dotyczące zdrowia psychicznego.
Ustalcie tematy potencjalnie niebezpieczne - przy których zawsze dorosły powinien zweryfikować co wygenerowało AI.
Ustalcie limit czasowy korzystania z AI.
Sygnały ostrzegawcze:
Dziecko, nastolatek zaczyna mieć natrętne myśli, urojenia, słyszenie „poleceń” → natychmiast zwrócić się do zaufanego dorosłego.
Dziecko, nastolatek zaczyna planować ryzykowne zachowania „bo bot tak podpowiedział” → przerwij i zgłoś.
Rodzic zauważa zatajone, nocne korzystanie; utratę snu; rezygnację z relacji z prawdziwymi ludźmi swojego dziecka → umów konsultację.
WAŻNE!
„AI może mówić ciepło, ale nie przytuli. Prawdziwa więź jest offline.”
Twoja rola to stawiać ramy, bezpieczne, jasne granice, pytać, być dostępnym. Prawdziwi ludzie muszą być bliżej niż AI.
Bibliografia:
Chen, Y., Wang, M., Yuan, S., & Zhao, Y. (2025). Development and validation of the conversational AI dependence scale for Chinese college students. Frontiers in Psychology, 16, 1621540. https://doi.org/10.3389/fpsyg.2025.1621540
Clark, A. (2025). The ability of AI therapy bots to set limits with distressed adolescents: Simulation-based comparison study. JMIR Mental Health, 12, e78414. https://doi.org/10.2196/78414
de Graaff, A. M., Habashneh, R., Fanatseh, S., Keyan, D., Akhtar, A., Abualhaija, A., … Carswell, K. (2025). Evaluation of a guided chatbot intervention for young people in Jordan: Feasibility randomized controlled trial. JMIR Mental Health, 12, e63515. https://doi.org/10.2196/63515
Field, M. (2025, August 20). Chatbots risk fuelling psychosis, warns Microsoft AI chief. The Telegraph.
Fujita, J., Yano, Y., Shinoda, S., Sho, N., Otsuki, M., Suda, A., … Miyazaki, T. (2025). Challenges in implementing a mobile AI chatbot intervention for depression among youth on psychiatric waiting lists: Randomized controlled study termination report. JMIRx Med, 6, e70960. https://doi.org/10.2196/70960
Hastings, M. (2025, September 2). Can AI cause psychosis? A psychologist and therapist weigh the risks of platforms like ChatGPT around mental health. [Article].
Hua, T. (2025). AI-induced psychosis: A shallow investigation. LessWrong.
Li, J., Li, Y., Hu, Y., Ma, D. C. F., Mei, X., Chan, E. A., & Yorke, J. (2025). Chatbot-delivered interventions for improving mental health among young people: A systematic review and meta-analysis. Worldviews on Evidence-Based Nursing, 22(4), e70059. https://doi.org/10.1111/wvn.70059
Østergaard, S. D. (2023). Will generative artificial intelligence chatbots generate delusions in individuals prone to psychosis? Schizophrenia Bulletin, 49(6), 1418–1419. https://doi.org/10.1093/schbul/sbad128
Shahsavar, Y., & Choudhury, A. (2023). User intentions to use ChatGPT for self-diagnosis and health-related purposes: Cross-sectional survey study. JMIR Human Factors, 10, e47564. https://doi.org/10.2196/47564