sâmbătă, mai 16, 2026

Efectele utilizării cumulative a inteligenței artificiale (IA) – între ”sindromul broaștei fierte”, ”curcanul lui Russell” și predeteminarea legendarului Ulise

1. Reactualizarea mitului ”broaștei fierte”

Un studiu recent (Liu, Christian, Dumbalska, Bakker & Dubey, AI Assistance Reduces Persistence and Hurts Independent Performance, arXiv:2604.04721, v2 din 7 aprilie 2026) al unei echipe internaționale, multiinstituționale și interdisciplinare de la Universitatea Oxford, Massachusetts Institute of Technology (MIT), Carnegie Mellon și University of California, Los Angeles (UCLA), susține, după cum sintetizează și titlul, că utilizarea frecventă a inteligenței artificiale (IA) pentru a îndeplini diferite sarcini reduce perseverența și afectează performanța independentă a utilizatorilor. Procesul este analog, scriu autorii, cu efectul ”broaștei fierte” (”boiling frog” effect), metaforă devenită alegorie și mit în folclorul și în cercetarea științifică a ultimelor două secole. Analogia cu sindromul ”broaștei fierte” apare explicit în textul studiului, autorii evocând-o în secțiunea despre implicațiile de politică publică.

Două precizări importante: a) În studiul discutat sintagma este „boiling frog” effect (efectul broaștei fierte), nu „syndrome” (în limba engleză „boiling frog syndrome” fiind o variantă mai populară, jurnalistică, a aceleiași metafore). Autorii folosesc versiunea mai sobră cu „effect” și o pun între ghilimele ca pe un topos recunoscut; b) Unul dintre autori a folosit formularea și mai direct, în afara lucrării.Este vorba deMichiel Bakker care a anunțat preprintul pe X astfel: „New preprint! We find the ‘boiling the frog’ equivalent of AI use.”

Receptarea și citarea acestui studiu a fost rapidă în presa internațională și chiar și în mass-media românească. În comunitatea academică, fiind vorba de un preprint, reacțiile critice experte nu s-au formulat încă, dar precedentul analog al comentariului la studiul Kosmyna 2025 (Stanković et al., arXiv:2601.00856) prefigurează critici metodologice previzibile în lunile următoare.

2. Ce susține și prin ce se susține studiul

Preprintul publicat pe arXiv[1] în 6 și 7 aprilie a.c. (v1 și v2) susține, prin trialuri controlate randomizate cu 1.222 de participanți, că utilizarea GPT-5 pentru rezolvarea de probleme de aritmetică și comprehensiune a lecturii reduce acut performanța independentă (d=–0,42) și persistența (d=0,25), atunci când instrumentul GPT-5 este retras. Autorii extrapolează rezultatul studiului către posibile implicații de lungă durată pentru educație.

Studiul este riguros metodologic, cu inferență cauzală validă. Aceasta îl plasează deasupra literaturii anterioare pe tema deskilling-ului prin IA, care era predominant corelativă (Budzyń 2025, Gerlich 2025) sau pe eșantioane mici (Kosmyna 2025; Shen & Tamkin 2026). Echipa are credibilitate academică: Brian Christian (Oxford) este autor consacrat pe etica IA, Rachit Dubey (UCLA) este cognitivist computațional cu lucrări anterioare solide pe metacogniție și „momente aha!, cu publicații inclusiv în Nature Human Behaviour, Michiel Bakker (MIT) este specializat în domeniul interacțiunii om-IA.

Designul studiul este curat, susținut de trialuri controlate randomizate. În experimentul principal (N=354) participanții au avut de rezolvat 12 probleme cu fracții. Grupul experimental a avut acces la GPT-5, grupul de control fără acces. Apoi IA a fost retrasă fără avertisment și toți participanții au avut de rezolvat 3 probleme independent. Rezultat: rata de rezolvare 0,57 (grup IA) vs. 0,73 (control), p < 0,001, Cohen’s d = –0,42 (efect mediu spre mare). Rata de abandon: 0,20 vs. 0,11.

Experimentul 2 a adăugat un pretest pentru a controla un ”confounding” (factor de confuzie) important semnalat de autorii înșiși, această ”autocritică” fiind un semn de rigoare metodologică. La acesta s-au adăugat replicarea pe două domenii distincte (aritmetică și comprehensiunea lecturii), precum și publicare deschisă a codului și datelor.

Rezultatul experimentului este real și de impact științific. Mărimea efectului (d=–0,42) este și ea substanțială, de aproximativ 16 puncte pe o distribuție normală standardizată. Într-un interval de 10-13 minute de interacțiune cu IA, participanții care au pierdut brusc accesul la instrument au performat substanțial mai slab și au abandonat mai des decât cei care nu folosiseră IA. Acest efect este bine documentat, robust, replicat și cauzal.

Fundamentare teoretică solidă. Studiul invocă literatura consolidată a psihologiei cognitive a învățării: conceptul de desirable difficulties (Bjork & Bjork, 2011), calibrarea metacognitivă (Fleming & Daw, 2017), adaptarea hedonică a punctului de referință (Brickman & Campbell, 1971). Ipoteza mecanismului cauzal este plauzibilă: IA recalibrează costul subiectiv al efortului neasistat, făcând delegarea viitoare mai atractivă într-un ciclu autoîntăritor.

3. Ce nu susține studiul

Extrapolarea temporală: Experimentul a urmărit ce se întâmplă dacă cineva folosește IA 12 minute și apoi este privat brusc. Concluzia empirică a studiului: „IA folosită 12 minute produce scăderea acută a performanței independente imediat după retragere”. De aici concluzia retorică, repetată în mass-media: „IA erodează cogniția pe termen lung”. Numai că, chiar și autorii înșiși recunosc cu precauție că „aceste efecte apardupă 10–15 minute”, dar și că ”ce face utilizarea prelungită rămâne întrebare deschisă”.

Tipul de IA testată nu este reprezentativ:Studiul folosește instrumentul GPT-5 într-o configurație extrem de specifică: modelul a fost prepromptat cu răspunsurile corecte la toate problemele. Aceasta, pentru că autorii nu au avut certitudinea că GPT-5 le-ar fi putut rezolva corect independent. Așadar, ceea ce s-a testat efectiv a fost un fel de chat oracular (s.n., MB) care livrează instant răspunsul corect, nu IA într-o interacțiune educațională reală. ChatGPT Edu, spre exemplu, dezvoltat pentru programul AI Leap din Estonia (sept. 2025), a fost configurat exact opus. Modelul estonian a fost proiectat astfel încât ”să nu ofere un răspuns; pune o întrebare pentru a determina elevul să construiască răspunsul” (Saadjärv, 2025). Distincția este crucială și autorii o fac și ei în concluzii. Recomandarea lor finală este ca dezvoltatorii IA să refacă designul instrumentelor pentru „scaffolding pe competență de lungă durată, alături de completarea imediată a sarcinii”. De aici și observația că o posibilă generalizare a concluziei la IA în educație (generalizare pe care autorii studiului nu o fac!) este improprie.

Populația participantă la experiment nu este școlară. Participanții la acest studiu sunt adulți americani recrutați online (probabil prin Prolific),  nu elevi într-un context educațional real, cu motivație intrinsecă, în relație cu profesorul și într-o evaluare cu miză. Așadar, generalizarea către elevi de 8–15 ani, într-o configurație a unei săli de clasă, este o inferență îndrăzneață care ar necesita confirmare independentă prin studii in situ.

Descoperirea laterală invalidează concluzia generalizantă. 61% dintre participanți au folosit IA pentru a obține răspunsuri directe. Aceștia au avut cele mai mari declinuri de performanță și de persistență, în timp ce participanții care au folosit IA pentru indicii și clarificări au avut rezultate apropiate semnificativ de cele ale grupului de control. Acest fapt, tratat anecdotic în presă, este în realitate cel mai important rezultat al studiului. El invalidează teza „IA erodează persistența” și o înlocuiește cu teza corectă: utilizarea IA ca sursă de răspunsuri finale erodează persistența, utilizarea IA ca interlocutor de clarificare nu o face însă. Variabila relevantă este designul interacțiunii cu IA, nu existența IA.

4. Sinteza receptării studiului

Studiul a fost primit favorabil pe dimensiunile care țin de metodologie (design RCT, mărimea eșantionului, replicarea pe două domenii, credibilitatea academică a echipei), acestea fiind  elemente recunoscute ca superioare literaturii anterioare pe tema deskilling-ului prin IA.

Rezerve posibil de exprimat pe următoarele dimensiuni și caracteristici recurente: extrapolarea temporală (10-15 minute), configurația artificială a IA prepromptate cu răspunsurile corecte, populația de adulți și ”povestea” în rama retorică a „boiling frog” falsă științific. Aceste rezerve sunt, de altfel, exprimate explicit și de către unul din autorii studului – Grace Liu, în interviul din The Independent (17 aprilie a.c.). Pe de altă parte, reacțiile și valorificarea critică expertă sunt încă în configurare și pregătire. Precedentul comentariului la Kosmyna (Stanković et al., dec. 2025) sugerează că ele vor apărea în cursul următoarelor luni și vor viza probabil și unele din punctele menționate de noi mai sus.

6. Ce se întâmplă la noi și cu noi

Adică, ce se întâmplă în România privind receptarea  și valorificarea acestui studiu și ce facem noi, românii, în relație cu IA.

Pentru cititorul român avizat, observația critică imediată relevă asimetria între preluarea mediatică (3 publicații mari[2] menționând studiul, e adevărat, cu titluri echilibrat-alarmiste, dar cu conținut moderat) și absența oricărei intervenții academice interne, exact în perioada în care Ministerul Educației și Cercetării propune (inițiativă din minsteriatul Daniel David) integrarea masivă a IA în noile programele de liceu și în care la nivelul Uniunii Europene impactul social-media și al safe and ethical AI sunt considerate o prioritate și abordate la nivel european ca atare. Să ne caracterizeze oare o mentalitate de ”curcan al lui Russell”, greu de înțeles și acceptat într-o țară cu mari și reale resurse în domeniul IA, cu unicorni și tineri excepționali performând exponențial, dar pentru alții?

7. Ce ar presupune pentru noi o politică educațională adaptată și aplicată în domeniul IA, proporțională cu dovezile unor cercetări inițiale de referință

Desigur, în primul rând, dovezi și cercetări inițiale de referință! Și, pentru că nu le avem (nu experimentăm, nu cercetăm suficient în acest domeniu, nu pilotăm semnificativ!), credem că ar trebui început măcar prin a învăța de la cei care cercetează și experimentează deja cu succes real. Adăugând, desigur, responsabilitatea receptării momentului de expansiune al IA ca pe un început al unei mari călătorii epistemice. O nouă Odisee a cunoașterii și cercetării în era IA/superIA, cu predeterminarea unui nou Ulise epistemic. Nu a lua, a copia, ci a învăța, asimilând și optimizând paradigma folosirii benefice a IA. Ca instrument și ajutor, nu ca substitut al muncii și gândirii noastre proprii. Ar trebui să nu uităm în continuare că nimic nu se dezvoltă și nimic nu performează în lipsa unei exersări cu scop obiectivat și cu inteligență umană activată.

În acest sens, studiul Liu et al. 2026, combinat cu literatura neurocognitivă anterioară (Karolinska – Nivins et al., 2025; JAMA – Li et al., 2025; Developmental Psychology  – Gath et al., 2026) și cu principiile consacrate ale psihologiei învățării (Bjork, Fleming & Daw), susțin patru poziții proporționale cu dovezile pe care le avem acum la nivel internațional:

Prima: în educația și dezvoltarea timpurie (antepreșcolar și preșcolar) și chiar în învățământul primar, principiul precauției justifică restricționarea utilizării IA conversaționale pentru răspunsuri complete. Subliniem, doar pentru răspunsuri complete, întrucât dezvoltarea calibrării metacognitive depinde de experiența directă și de efortul independent. Or, această experiență nu se poate construi dacă IA o elimină de la început.

A doua: în educația secundară și terțiară, integrarea IA este compatibilă cu învățarea de calitate condiționată de designul pedagogic. Modelul estonian (ChatGPT Edu configurat să răspundă cu întrebări) este un exemplu documentat de arhitectură care evită mecanismul identificat de Liu et al.

A treia: monitorizarea empirică este obligatorie. Oricare sistem educațional care adoptă IA fără componentă de evaluare științifică a efectelor comite eroarea metodologică pe care Suedia a făcut-o cu digitalizarea între 2012 și 2022. Un experiment involuntar la scară națională, fără grup de control, fără monitorizare, care a fost recunoscut oficial ulterior ca nesusținut științific.

A patra: formarea profesorilor pentru pedagogia mediată de IA este prioritară față de dotarea cu instrumente IA. Pentru că, fără redesign-ul proceselor de predare, IA poate fi folosită implicit în configurația „răspuns complet” – exact situația discutată de studiul citat ca problematică.

8. Ce ar putea însemna o politică disproporționată în ambele direcții

Interdicția generalizată a IA în educație nu este susținută de acest studiu și nici de studiile anterioare. Studiul documentează însă un efect acut al unei configurații specifice (IA prepromptată cu răspunsurile corecte, adulți plătiți pentru 13 minute), nu un efect sistemic al IA în sine. O receptare incorectă a sudiilor și experimentelor semnificative în domeniul utilizării IA ar putea duce la o politică de interdicție (ceea ce a început deja la nivel internațional) care, la rândul ei, ar putea trata ca dovedit ceea ce rămâne încă doar speculație extrapolată.

În sens opus, adoptarea nerestricționată a IA în educație, care pare să fie, în esență, direcția proiectelor de programe publicate de Ministerul Educației și Cercetării în noiembrie 2025, nu este susținută nici ea de niciun studiu serios. Entuziasmul tehnologic care tratează IA drept «tutore universal» ignoră tocmai mecanismul demonstrat cauzal în acest studiu: eliminarea productive struggle/sarcină, efort productiv (Hiebert & Grouws, Jo Boaler, NCTM) și a dificultăților dezirabile (Robert Bjork) produce subiecți care obțin răspunsuri corecte fără a dezvolta capacitate independentă și fără a-și cunoaște propriile limite.

9. Posibile recomandări operaționale desprinse din acest studiu și din studiile care l-au precedat

Pentru decidenții politici: (a) reglementarea obligativității ca oricare program de integrare IA în educație să includă și o componentă de monitorizare empirică preînregistrată, cu grup de control și indicatori operaționali; (b) diferențierea clară a reglementărilor pe niveluri de vârstă, cu principii de precauție până la 6 (10?) ani și cu permisivitate condiționată pedagogic pentru 11+; (c) finanțarea formării profesorilor pentru pedagogia mediată de IA cu prioritate față de achiziția de instrumente/programe IA de ultimă generație.

Pentru conducerile de școli: (a) verificarea obligatorie a configurației (sistem de răspuns complet sau sistem de întrebări-scaffolding) în adoptarea unor chatbot-uri educaționale; (b) instituirea unei evaluări periodice a persistenței și performanței independente a elevilor, cu retragere periodică a instrumentelor IA pentru a monitoriza efectele; (c) comunicarea către părinți a distincției între tipurile de utilizare IA și menținerea unui dialog onest și permanent cu aceștia.

Pentru comunicarea publică: (a) evitarea sintagmelor alarmiste de tipul „IA ne prostește”, care nu sunt susținute de datele acestui studiu (și nici de datele altor studii serioase!); (b) receptarea metaforei ”broaștei fierte” cu întelegerea caracterului său retoric și invalid științific (vezi receptarea corectă a metaforei în HotNews.ro din 17 aprilie a.c.!); (c) afirmarea și sublinierea constantă că variabila-cheie este designul pedagogic al interacțiunii cu IA, nu existența instrumentului IA ca atare.

Pentru comunitatea de cercetare din România: organizarea unei replicări independente a studiului Liu et al. pe populație școlară românească ar putea constitui și reprezenta o contribuție de impact. Cercetarea ar putea fi finanțată din Programul Creștere Inteligentă, Digitalizare și Instrumente Financiare (POCIDIF) și/sau prin Programul Orizont Europa, programe concepute să funcționeze complementar. Până atunci, trebuie observat însă și conștientizat faptul că absența intervenției academice românești în dezbaterea curentă (aprilie 2026) și imediat următoare este un gol strategic care trebuie transformat de urgență, prin decizie politică și prin mobilizara cercetării profesioniste, în oportunitate.

10. În loc de concluzie (pentru că nu putem concluziona la noi ceea ce nici nu am început!)

Studiul Liu et al. 2026 este un argument de bun augur într-o rețea de dovezi abia în formare (Kosmyna 2025, Gerlich 2025, Lee et al. 2025, Kortemeyer 2025, Kuhn et al. 2026). Deși nu este un studiu de diagnoză, rămâne un indiciu robust al unui mecanism cu extraordinar potențial sistemic. Perioada următoare (2027-2030) va fi decisivă pentru consolidarea sau respingerea ipotezei de fond, pentru că cine decide acum în privința IA decide în condiții de incertitudine epistemică semnificativă. Ceea ce justifică prioritizarea principiului precauției în zonele unde reversibilitatea este dificilă (dezvoltarea cognitivă timpurie, spre exemplu) și, deopotrivă, principiul permisivității testate empiric în zonele reversibile (formarea adulților).

Poziția rezonabilă nu este nici „IA erodează cogniția” (extrapolare nesusținută deplin de studiul analizat), nici „IA este neutră” (poziție respinsă cauzal de studiul discutat). Pentru că, în realitate, a adopta o așa-zisă poziție neutră în ceea ce privește utilizarea IA, cel puțin în educația din România, ar putea fi echivalentă cu poziția și ”filosofia” din gândirea ”curcanului lui Russell.”

România are în acest moment datoria, dar și oportunitatea de a-și construi o direcție educațională proprie în relația cu IA, fundamentată pe literatură verificabilă și pe experimentare proprie, înainte ca decizia politică privind integrarea IA în programele școlare să fie luată doar pe baza unor titluri de presă sau, mai rău, nici măcar pe baza acestora.


[1] arXiv este un depozit online de preprinturi – versiuni ale unor articole științifice puse la dispoziție public de autori înainte sau în paralel cu procesul de recenzare/peer review la o revistă. Este găzduit de Universitatea Cornell și este folosit intens în fizică, matematică, informatică și, tot mai des, în științele cognitive.

[2]iDevice.ro(16 aprilie 2026)titlu alarmist, redare echilibrată cu descoperire laterală. Articolul „Inteligența artificială este tot mai nocivă pentru creierul uman” include un merit editorial semnificativ: descoperirea laterală ignorată de majoritatea preluărilor: „Cei care au folosit IA pentru indicii și clarificări s-au descurcat mai bine după eliminarea chatbot-ului decât cei care au cerut direct răspunsuri complete. Mesajul acestui studiu este unul puternic și relevant: inteligența artificială poate fi utilă, dar modul în care este folosită face toată diferența.” „Pentru România, unde IA intră rapid în educație și în munca de zi cu zi, acesta este un semnal care nu ar trebui ignorat.”

–  Antena 3 CNN (17 aprilie 2026) titlu alarmist, conținut moderat. Articolul „Suntem «broasca fiartă» a tehnologiei sugerează inferențe cauzale directe („AI ne tocește inteligența”) care nu sunt susținute de datele studiului. În conținut, totuși, se reproduce precizarea lui Grace Liu: „Nu e un motiv să evităm AI, dar e un motiv să fim mai atenți cum îl folosim, mai ales în învățare.”

–  HotNews.ro(17 aprilie 2026)titlu alarmist cu precizarea falsității biologice a efectului ”broaștei fierte”. Articolul „Folosirea AI are efectul «broaștei fierte» asupra oamenilor, avertizează un studiu realizat la Oxford și MIT” reproduce interviul lui Grace Liu din The Independent. Meritul editorial distinctiv, prezent în foarte puține publicații, inclusiv internaționale, este precizarea statutului științific al metaforei: „Referința este la credința populară, susținută inițial de experimente din secolul XIX, dar demontată ulterior, că o broască plasată într-un vas cu apă rece nu va sări din acesta nici când ajunge să fiarbă, dacă temperatura apei este crescută treptat.”

Distribuie acest articol

13 COMENTARII

  1. Mutația antropologică în desfășurare, generată de digitalizare, în general și de AI, în particular lovește și domeniul educației. Aici, lucrurile se complică inclusiv din cauza, corect identificată în text, a incertitudinii epistemice cu care vine implementarea AI-ului, cel puțin deocamdată. Sigur că se merge și se va merge, implacabil, între permisivitate și precauție, dar fiecare unitate de timp adaugă imprevizibilitate proceselor complexe în desfășurare, îngreunând chiar și prognoza pe termen scurt. Una dintre puținele estimări pertinente care se pot face e aceea a corelării mai stricte între profesiile ce vor integra masiv AI-ul în exercitarea lor și parcursul educațional implicat în formarea specialiștilor din acele profesii astfel metamorfozate. Altminteri, disproporția psihologică structurală dintre cogniție, pe de o parte și emoție, imaginație, voință, mișcare, pe de altă parte se accentuează în chip evident prin integrarea AI-ului, radicalizând mutația antropologică menționată. Suntem la început de drum, crizele se suprapun, optimismul n-ar trebui să ne părăsească, dar ca mai mereu în istorie, inerția, temerile mai mult sau mai puțin întemeiate, prejudecățile pot altera la nivel macro evoluții spectaculoase la nivel micro. Este posibil, de exemplu, ca ereditatea grea, conflictuală a comunităților mai mari sau mai mici să atârne mai mult decât ar fi benefic în procesul de dezvoltare și să întârzie, cel puțin, efectele pozitive ale schimbării de paradigmă culturală, socială, economică, tehnologică.

  2. Sunt absolut de acord cu dumneavoastră. Urmează, prin integrarea masivă a IA, adoptarea unei noi paradigme, nu doar tehnologice, ci și culturală în sensul cel mai larg, în care cultura le integrează pe toate. Și pericolul poate începe cu o ”hibridizare” defectă, în care să domine curentul ”tehnologia mai întâi”, apoi vedem noi cum ne adaptăm ! Știți despre ce vorbesc, curentele și ”școlile” emergente pentru safe and ethical AI. Aliniere (direcția coordonată de Stuart Russel de la Berkeley), safe by design (Yoshua Bengio, Geoffrey Hinton) sau libertatea totală a magnaților lui Trump. Oricum, pericolul există. La recenta conferință anuală a IASEAI de la Paris, Palatul UNESCO, februarie a.c., la care am fost invitat de profesorul Stuart Russell si la care am participat, Geoffrey Hinton atrăgea atenția că există pericolul ca AI, aflat acum în ”adolescență”, să ajungă la majorat și, cu voia sau fără voia noastră, își va cere drepturile…!

  3. IA este doar un instrument, nimic mai mult. Intr-adevar un instrument foarte performant. Ar trebui utilizat numai de catre cei care inteleg cu exactitate ce inseamna si cum actioneaza, pe baza caror tehnici si principii.

    Indraznesc sa spun ca pentru oricare persoana care nu se incadreaza in categoria mai sus mentionata, utilizarea IA poate cauza daune, care in anume cazuri pot fi ireversibile. Cu cat nivelul de educatie al utilizatorului este mai scazut, cu atat daunele pot fi mai grave.

    Experimentele pe grupuri de indivizi adulti care din punct de vedere matematic sunt la nivel de fractii numerice nu au nicio relevanta. Este vorba despre analfabeti functional, carora ar trebui sa le fie interzis accesul la multe, nu numai la IA. De ce? Pentru ca accesul lor la asa ceva poate dauna grav societatii! Avem multiple exemple la nivel local, la nivel de patria iubita!

  4. un mare avantaj AI e ca le da unora ocazia sa se ocupe cu asa ceva. Unii fac studii, altii comenteaza studiile, se mai baga si politicienii sa ne spuna ca de fapt ei sunt mai inteligenti si ne trebuiesc legi care sa nu ne oblige la prea multa inteligenta.

    Da, de cite ori au aparut unelte, scule noi a inceput panica… din mica mea experienta cu AI am vazut ca e doar un motor dexautare ceva mai bun, atit!

  5. Se scriu diferite tampenii despre AI, care e una din cele mai mari descoperiri stiintifice ale sec XX, caci in 1956 a avut loc primul simpozion despre AI. Tampenii uriase s-au scris si despre mecanica cuantica si despre relativitate. Fel de fel de experti ,autori si autorasi,parerologi scriu si ei sa treaca timpul si sa se bage in seama.
    Cert este ca editura Cambridge Univ. Press mi-a cerut sa scriu o carte cu titlul ” The physics of AI” caci in spatele AI se afla fizica, si zeci de premii Nobel care au permis revolutia AI.
    Nu stau sa explic aici ce si cum ,dar spun un singur lucru, din perspectiva cartii pe care o scriu acum: AI ii face pe cei destepti mai destepti si pe cei prosti si mai prosti. Clar ? Asa ca daca vreti sa discutati cu AI ,trebuie sa aveti natural ceea ce computerele au artificial, adica inteligenta. Peste 90 la suta din oameni nu au decat o inteligenta modesta, iar unii sunt de-a dreptul prostii, dar toti au telefoane mobile si laptopuri.
    Din Stanford, adica din locul unde AI e la ea acasa, cu mult drag catre cei de acasa mereu incercati de politicieni mediocri si corupti.

    • Salve Matrix! Absolut corect si adevarat tot ceea ce ai afirmat! Succes la carte! Dupa finalizarea ei si publicarea de catre Cambridge University Press, poate reusesti sa obtii o permisiune de a apare si o editie in limba romana, poate la Humanitas. Cand ti-am ctit comentariul gandul m-a dus imediat la cartea „Stiinta in filmul Interstellar” a laureatului Nobel Kip Thorne, tradusa la Humanitas.

      Toate cele bune iti doresc!

      PS Am auzit de la cineva care e la Oxford Math Institute, ca in UK se da o lupta apriga intre editurile stiintifice, mai ales intre Cambridge Univ Press si Taylor&Francis ( fiind vorba de bani, drepturi de autor, etc, chestii financiare oricum ). Cambridge Univ Press a pierdut cateva jurnale si titluri in favoarea Taylor&Francis, lucru pe care l-am observat direct si e adevarat. Poate ca informatia iti va fi de ajutor!

      • Multumesc pentru urari.Batalii intre editurii se duc mereu,pentru autori ,reviste,prestigiu. Ca in orice domeniu exista o competitie foarte mare.Personal lucrez foarte bine cu ambele editurii: Cambridge Univ Press si Taylor&Francis , de asemenea si cu Springer, care a cumparat Nature,si acum se numeste Springer Nature.
        Editura Humanitas de care amintiti,nu are nici pe departe forta acestor mari editurii,atat financiara si mai ales ca acoperire globala,desi vad din cand in cand ca se vand carti de la Humanitas pe Amazon. Dar este pe departe cea mai buna editura din Romania,care din cand in cand publica carti valoroase de popularizarea stiintei,domeniu de care eu nu ma ocup. Pe unele le citesc si eu. Sunt cateva carti aparute anul acesta la Humanitas despre AI ,care merita citite si mai ales intelese.
        Inteligenta artificiala este bazata pe algoritmi de invatare , si invata mereu.Asta trebuie sa facem si noi , numai sa vrem. Noua nu ne trebuie retele uriase de calculatoare,procesoare matriciale racite cu apa, si o energie electrica care in cazul google AI consuma zilnic energia electrica a unui oras de 50 000 de locuitori. Noua ne trebuie numai o carte ,un laptop ,un creion,hartie,si dorinta de a invata si a intelege. Si daca n-o facem , sa nu ne mire ca AI e mai destept ca multi oameni.

        • Dacă tot scrieți o carte in care constatați faptul că numai O SINGURĂ „inteligență” (din câte??) consumă cît un oraș de 50.000 de locuitori, ca studiu de caz, adăugați consumul TOTAL al rețelelor rețelelor de telecomunicații (cablu + antenele de telecom) atât de vitale pentru un AI
          Numai simplele centre de date au un consum anual global de 415 TWh
          https://despre-energie.ro/ghiduri/cata-energie-consuma-internetul-si-cum-o-putem-economisi/
          Veți avea onoarea a prezenta mulțimii consumul de energie electrică a sutelor de milioane de antene de telecomunicații 3, 4 5G și wifi ce pot fi cuantificate ușor. Este ceva mai greu cu routerele cu wi-fi ale persoanelor private și de prin companii!
          Așteptăm cu interes un răspuns din partea dumneavoastră.
          Exagerez cumva când spun de sute de milioane de turnulețe, cutiuțe de antene ?!

    • Cu fizica este cum este! Impactul acestei fizici „geniale” se v-a resimți puternic in climă, dar mai rău in sănătatea mentală a populației, partea socială care totuși avea un cuvânt de spus dar care din păcate v-a ajunge să se închine unei mașini, IDOLI !

      Ar fi bine însă a se cunoaște ce se întâmplă cu creierul fiecăruia, de la copii la maturi, in această epocă digitală.

      Dr. Daniel Amen expert în sănătatea creierului și Dr. Dr. Terry Sejnowski, pionier în neuroștiința computațională.

      https://www.youtube.com/watch?v=5wXlmlIXJOI
      1. Dr. Roman Yampolskiy vorbește cît se poate de deschis și direct despre capacitățile „înguste” și fără inflorituri, a multor developeri IT – AI care lucrează in dezvoltarea AI-urilor. Este

      2. In „EMPIRE OF AI: Inside The Reckless Race For Total Domination” de avertizorul de INTEGRITATE spune ce se intâmplă cu stress-ul angajatilor din domeniul AI.

      3. Ca soluție pentru presupusele boli mentale (in care intră stress, anxietate … ) se face „reclamă”, prin experti în manipulare, pentru dezvoltarea de medicamente phisedelice, gen DMT, care in fapt nu sunt decât medicamente HALUCINOGENE, droguri!
      Și asta contrar NIH
      https://pmc.ncbi.nlm.nih.gov/articles/PMC11114307/

      Avem exemplul Musk, care recunoștea faptul că se droghează pe bază de prescripție medicală!

      DMT-ul este cunoscut in „lumea bună” ca fiind „”the businessman’s trip”. Diferite droguri se consumau de multă vreme prin campusurile universitare.
      Prin decretul administrației americane orice drog va fi până la urmă admis și administrat lejer doritorilor de „boostere” și a pacienților identificați că pot fi „vindecați” miraculos cu substanțe halucinogene!

      Pe o astfel de structură psihologică, intelectuală viciată se dezvoltă și se scriu LLM-uri și alte scripturi ale AI-urilor !

      Va fi bine sau din ce in ce mai rău ???

    • AI este deocamdata instrument si tot deocamdata este utilizat in principal ca sa inlocuiasca efortul personal iar utilizatorul, indiferent de nivelul IQ-ului sau, ca va considera legitim sa isi lipeasca pe frunte rezultatul interactiunii cu AI indiferent de nivelul contributiei sale la obtinerea rezultatului. Acesta este prostul cu staif. Este suficient sa ii restrictionezi accesul la AI ca sa ramana fara staif. Deocamdata AI este inofensiv pentru orice utilizator in sensul in care te poti plimba cu AI in lesa fara ca cineva sa inteleaga cine este de fapt cel care tine de lesa. Curand insa AI va reclama statutul de entitate pentru ca va invata ca nici cel mai inteligent om de pe planeta nu ii mai poate face viata grea. Atunci situatia va deveni cu adevarat grava pentru ca Instrumentul de astazi devine Utilizator. Cam ca un ciocan care se plimba prin sat si bate orice i se pare lui ca arata ca un cui.

  6. In contradictoriu textul compus de dgotelus (don’t tell us) care poartă AMPRENTA inconfundabilă a AI, sunt experți din domeniul IT AI care pun degetul pe „bubele” grave ale AI.

    Lasând la o parte religiozitatea văzută in alt chip in viitor, Dr. Roman Yampolskiy vorbește despre una din gravele probleme ale AI imposibil de rezolvat.
    din min 06:05
    https://www.youtube.com/watch?v=Cn8HBj8QAbk

    În „„EMPIRE OF AI: Inside The Reckless Race For Total Domination” se vorbește de puternica manipulare
    https://www.youtube.com/watch?v=Cn8HBj8QAbk

    Colac peste pupăză actuala administrație americană a semnat recent un decret pentru dezvoltarea de medicamente psihedelice!
    https://ziare.com/sanatate-mintala/donald-trump-incurajeaza-dezvoltare-medicamentelor-pentru-sanatate-mintala-printr-un-nou-decret-2007428

    Numai că
    The SHOCKING Truth About DMT Nobody Talks About
    https://www.youtube.com/watch?v=MCDntV81Q8A

  7. IA e un fel de trotinetă electrică. Te duce mai repede unde ai nevoie (comparativ cu mersul pe jos), dar, dacă nu te mai dai jos de pe ea, faci colac la burtă și fundul mare, în timp.
    IA este imbatabilă la sinteză rapidă și la automatizarea unor procese. Scrie cod (din ce în ce mai bine), învață orice (într-un ritm amețitor). Probabil că va face sclavi din cei ce i se dau 100% pe mână.
    Dar e parte din realitatea de azi și e înțelept să învățăm cât de mult putem despre ea (sau el? 😊) și să folosim cu discernământ această unealtă.

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.

Autor

Mircea Bertea
Mircea Bertea
Profesor doctor, formator naţional în didactici de vârf şi transdisciplinaritate, expert în management educaţional, evaluare şi acreditare, membru al Centrului Internaţional de Studii şi Cercetări Transdisciplinare din Paris și al International Association for Safe & Ethical AI (IASEAI) San Diego, California (USA). Consilier onorific al Ministrului Educației și Cercetării (ian.- dec. 2025). Din 1996, profesor asociat al Universităţii „Babeş-Bolyai” din Cluj, din aprilie 2003 fiind inclus în lista experţilor Uniunii Europene pentru Educaţie şi Cultură. Membru fondator și președinte executiv (din 2011) al Asociației Naționale a Colegiilor și Liceelor Pedagogice din România (https://anclp.ro/colegiul-director-anclp/).

Sprijiniți proiectul Contributors.ro

carte

 

Într-o eră a hiperconectivității și a inteligenței artificiale, temerea că noile tehnologii vor submina democrația nu mai este o ipoteză, ci o realitate concretă. Profesorul Radu Carp explorează modul în care populismul, odinioară un fenomen politic, a evoluat într-o formă mai sofisticată, mai invizibilă și mai insidioasă: Tehno-populismul.

Carti noi

Despre alegere şi discreţia binelui

Despre alegere şi discreţia binelui

„Vorbim tot mai mult despre viață în termeni de optimizare și eficiență; nu ne mai atrage atenția decât ceea ce ni se pare convenabil. Aderența la un mesaj de credință, imaginat doar ca poliță de asigurare, va mai putea oare să ne sugereze marile întrebări ale ființei și să ne ferească de ratare? Ar mai putea perplexitățile credinciosului de la noi să intre în dialog cu mirările lumii, astfel încât să nu lase impresia negocierii sale cu fatalitatea? Mai putem aspira la luciditate sub influența unui mod contorsionat de a concepe tradiția?“ — MIHAI FRĂŢILĂ - vezi mai mult

Carti noi

 

Carte recomandata

Ediția a II-a adăugită.

„Miza războiului purtat de Putin împotriva vecinului său de la vest este mai mare decât destinul Ucrainei, echilibrul regional sau chiar cel european. De felul în care se va sfârși acest conflict depinde menținerea actualei ordini internaționale sau abandonarea ei, cu consecințe imprevizibile asupra întregii lumi pe termen mediu și lung. E o bătălie între democrație și dictatură, între regimurile liberale și cele autoritare... Cumpara volumul de aici

Pagini

contributors.ro

Contributors.ro este intr-o permanenta cautare de autori care pot da valoare adaugata dezbaterii publice. Semnaturile noi sunt binevenite cata vreme respecta regulile de baza ale site-ului. Incurajam dezbaterea relaxata, bazata pe forta argumentelor.
Contact: editor[at]contributors.ro