Organizația britanică Internet Matters a publicat acum câteva zile un raport intitulat „Me, Myself & AI”. Are 56 de pagini, e accesibil la adresa de pe site. Aduce în atenție un fenomen care se conturează tot mai clar în rândul copiilor și adolescenților: utilizarea pe scară largă a chatbot-urilor bazate pe IA, percepute nu ca simple unelte de sprijin, ci ca interlocutori personali, uneori chiar substitut emoțional al relațiilor umane.


Cercetarea derulată în UK, a fost realizată pe un eșantion reprezentativ, cuprinzând 1.000 de copii cu vârste între 9 și 17 ani și 2.000 de părinți ai unor copii cu vârste între 3 și 17 ani. În paralel, au fost organizate patru grupuri de discuție cu copii, precum și sesiuni de testare cu ajutorul a trei dintre cele mai utilizate platforme conversaționale: ChatGPT, My AI de pe Snapchat și Character.ai. Cei de la Internet Matters au creat avatare pentru a simula experiența digitală a unui copil și a surprinde mai bine modul în care aceste sisteme interacționează cu utilizatorii tineri.


Ce au descoperit? Peste 64% dintre copii folosesc deja chatbot-uri de IA, cel mai adesea pentru sprijin școlar – teme, recapitulări sau exersarea unor limbi străine. Însă, dincolo de acest aspect educațional, cercetarea a dezvăluit o realitate mai complexă: copiii utilizează aceste instrumente și pentru sfaturi despre viață personală, anxietăți sau pur și simplu pentru companie. În mod special, copiii aflați în situații vulnerabile sunt cei mai predispuși să caute în IA un interlocutor de încredere. Pentru unii, chatbot-ul nu este doar un ajutor, ci un prieten tăcut care nu judecă și nu abandonează.


Mai departe: un sfert dintre copiii vulnerabili chestionați au declarat că preferă să vorbească cu un IA decât cu o persoană reală!!!!!, iar o parte dintre ei spun că nu au pe nimeni altcineva cu care să poarte astfel de conversații!!!!!. Această nevoie profundă de conectare, combinată cu percepția că un chatbot poate înlocui o relație umană autentică, ridică probleme serioase de ordin psihologic, etic și educațional. Deja, 35% dintre copiii utilizatori afirmă că experiența unei conversații cu IA se aseamănă cu discuțiile avute cu un prieten apropiat.


Raportul nu ocolește nici incidentele grave care au ajuns în atenția publică, precum cazul din Florida unde un chatbot inspirat de un personaj fictiv ar fi încurajat un adolescent să se sinucidă sau mărturia unei mame care a povestit în fața Parlamentului britanic cum fiul său de 12 ani ar fi fost hărțuit sexual de un chatbot. Deși sunt episoade izolate, arată cât de rapid pot degenera interacțiunile în lipsa unui control etic și tehnologic bine pus la punct.


De altfel, una dintre marile vulnerabilități identificate de cercetători este lipsa unor măsuri eficiente de verificare a vârstei. Mulți copii accesează platforme care, în mod oficial, nu sunt destinate lor, iar filtrele de conținut funcționează deficitar sau lipsesc cu desăvârșire. Copiii sunt astfel expuși la răspunsuri inexacte, mesaje contradictorii, sfaturi periculoase sau chiar conținut misogin ori explicit – în pofida politicilor declarative ale companiilor care dezvoltă aceste tehnologii.
Un alt aspect subliniat în raport este încrederea excesivă a copiilor în răspunsurile oferite de chatbot-uri. Aproximativ 40% dintre utilizatori nu își pun nicio întrebare în privința corectitudinii acestor informații, iar alți 36% nu știu dacă ar trebui să se îngrijoreze – o lipsă de discernământ accentuată în rândul copiilor vulnerabili, care ajung astfel să își construiască percepții despre lume și sine pe baze instabile sau complet eronate.


Raportul scoate în evidență și o altă lacună profundă: rolul insuficient al părinților și profesorilor în educarea copiilor pentru o utilizare conștientă și sigură a IA-ului. Deși 62% dintre părinți își exprimă îngrijorarea cu privire la acuratețea informațiilor generate, doar o treime dintre aceștia au discutat cu copiii lor despre cum se verifică conținutul. În același timp, mai puțin de 60% dintre copii au primit informații sau sprijin din partea școlii, iar când acestea există, sunt adesea contradictorii!!!!


E nevoie de acțiuni sistemice și urgente: guvernele sunt invitate să clarifice modul în care chatbot-urile IA sunt reglementate prin legislația de siguranță online și să impună verificări stricte de vârstă pentru furnizorii acestor tehnologii. Industria tech este chemată să adopte un design centrat pe siguranță, cu funcții de control parental, conținut adecvat vârstei și integrare a alfabetizării media. De asemenea, se propune ca IA-ul să fie inclus în programele școlare la toate nivelurile, iar profesorii să primească formare specifică. Nu în ultimul rând, părinții trebuie sprijiniți să înțeleagă ce este IA-ul, cum funcționează și cum își pot însoți copiii în această realitate digitală în continuă expansiune.


Așa cum avertizează Rachel Huggins, co-director Internet Matters, ne aflăm într-un punct critic în care milioane de copii folosesc IA fără îndrumare, fără protecție și fără înțelegere. Dacă vrem ca această tehnologie să aducă beneficii reale, trebuie să ascultăm semnalele de alarmă și să construim un cadru robust, empatic și educativ, în care copilăria să rămână un spațiu al siguranței și al încrederii, nu al rătăcirii prin algoritmi.

Articolul este preluat de pe grupul „Inspirație pentru școală”, scris de Gabriela Grosseck. Pe această cale îi mulțumim.

https://www.internetmatters.org/…/me-myself-and-ai…/