vineri, mai 8, 2026

Ontologia inteligenței artificiale

Puncte de vedere asupra distincției și convergenței dintre inteligența artificială, inteligența artificială generală și superinteligență

Precizări și delimitări terminologice

Cercetarea recentă în domeniul filozofiei tehnologiei și al inteligenței artificiale (IA) este definită de o preocupare emergentă de reevaluare a traiectoriei instrumentelor IA, trecând de la sistemele specializate la concepte vaste care vizează atingerea și depășirea capacităților umane. Centrul acestei dezbateri este ocupat de două constructe teoretice: inteligența artificială generală (Artificial General Intelligence -AGI) și superinteligența (Artificial Superintelligence – ASI). Deși în limbajul comun acești termeni sunt încă adesea utilizați în mod mai mult sau mai puțin distinct, uneori chiar în contexte de sinonimie, analiza riguroasă a literaturii de specialitate și a pozițiilor susținute de cercetători precum Nick Bostrom, Ray Kurzweil sau Marcus Hutter relevă o distincție ontologică și funcțională semnificativă, chiar dacă ambele fenomene aparțin aceluiași continuum de dezvoltare tehnologică. Problematica identității dintre AGI și ASI nu este una pur semantică, ci vizează însăși natura controlului uman asupra tehnologiei, dinamica exploziei de inteligență și limitele fizice ale computației în universul cunoscut.

În lucrarea de față, folosim termenii de ontologie și ontologic în sensul modern din informatică și, mai nou, din inteligența artificială, anume acela de structură formală care descrie conceptele dintr-un domeniu și relațiile dintre ele într-o schemă organizaționlă a cunoașterii. Având în vedere că, cel puțin în acest moment, inteligența artificială (IA) nu este percepută ca ”subiect ontologic”, ci doar ca mod și ca un cadru de dezvăluire (aletheia) a tehnologiei moderne și a lumii, lăsăm deoparte posibile  speculații filosofice și epistemiologice care să ne apropie sau să ne îndepărteze de accepțiunile acestei terminologii fundamentale din filosofia lui Heidegger, Sartre, Gilbert Simodon sau Bruno Latour, deși de ultimii doi apropierea poate fi nu doar plauzibilă, ci și, secvențial, operațională.

Geneza și evoluția paradigmelor IA

Evoluția inteligenței artificiale a fost percepută și clasificată în mod tradițional în trei etape distincte, fiecare reprezentând un salt calitativ în capacitatea de procesare și autonomie. Prima etapă, inteligența artificială de tip restrâns (Artificial Narrow Intelligence – ANI), definind sistemele care excelează în sarcini specifice, cum ar fi jocul de șah, recunoașterea imaginilor sau plierea proteinelor, dar care sunt incapabile să își aplice competențele în afara domeniului lor strict delimitat. Inteligența artificială generală (AGI)reprezintă pasul următor, fiind definită ca un sistem capabil să execute orice sarcină intelectuală pe care o poate realiza o ființă umană, manifestând o flexibilitate și adaptabilitate similară intelectului biologic. Superinteligența (ASI) se situează la extremitatea acestei clasificări, fiind descrisă ca sistem care depășește radical performanța cognitivă a celor mai strălucite minți umane în practic toate domeniile, de la creativitatea științifică la inteligența socială și strategică.

Cercetătorul Ben Goertzel, cel care a consolidat termenul AGI prin volumul Artificial General Intelligence ( 2007), volum editat împreună cu Cassio Pennacchin, a subliniat necesitatea de a distinge între sistemele care rezolvă probleme specifice și cele care posedă o capacitate generală de rezolvare a problemelor, capacitate  independentă de context. Trebuie menționat, totuși, că termenul poate fi identificat și anterior (Ex.: Mark Gubrud, 1997), fiind însă utilizat consecvent și popularizat de către Goertzel, Shane Legg și Peter Voss începând cu anul 2002.

Tranziția de la ANI la AGI a fost și este încă adesea văzută ca punctul de cotitură către un viitor post-uman, AGI nemaifiind un simplu instrument, ci un agent capabil de învățare autonomă și de transfer de cunoștințe între domenii disparate. În acest context, răspunsul la întrebarea dacă AGI este identică cu ASI s-a referit prioritar la viteza cu care un sistem care egalează omul poate să își depășească propriile limite biologice de origine prin procese de autoîmbunătățire recursivă, adăugând apoi caracteristici noi de genul:

  1. Pentru ANI: domeniul de aplicabilitate: unic sau specific (ex. șah, diagnostic medical); adaptabilitate: scăzută, necesitând reantrenare pentru sarcini noi; eficiență temporară: viteza limitată de  algoritm și hardware utilizat; creativitate și intuiție: imitativă sau inexistentă; statut ontologic: instrument de productivitate.
  2. Pentru AGI: domeniul de aplicabilitate: universal, echivalent cu cel uman (orice sarcină cognitivă); adaptabilitate: înaltă; învață din context și transferă cunoștințe; eficiență temporară: comparabilă sau chiar superioară uneori gândirii umane; creativitate și intuiție: prezentă, de nivel uman (sinteză originală); statut ontologic: agent autonom cu raționament general.
  3. Pentru ASI: domeniul de aplicabilitate: universal și superior (descoperiri dincolo de înțelegerea umană); adaptabilitate: absolută, inovează și optimizează arhitecturi cognitive; eficiență temporară: exponențială, de milioane de ori mai rapidă decât cea umană (biologică); creativitate și intuiție: supraumană,  creează paradigme științifice noi; statut ontologic: entitate dominantă sau, dimpotrivă, protector global.

Definirea pragurilor. Posibile perspective instituționale și teoretice

Întrucât totul se întâmplă rapid și nu de puține ori surprinzător în acest domeniu al noii revoluții IA, o analiză de probitate științifică a identității sau nonidentității dintre AGI și ASI necesită examinarea definițiilor operaționale utilizate de entități care conduc cercetarea în acest domeniu, precum OpenAI și Google DeepMind. În acest sens, OpenAI adoptă o definiție marcată de pragmatism economic, descriind AGI ca sisteme extrem de autonome care depășesc performanța umană în cea mai mare parte a activităților umane importante din punct de vedere economic. Această perspectivă se concentrează pe output-ul funcțional și are ramificații juridice și financiare imediate, cum ar fi clauza AGI din acordul cu Microsoft, care stipulează că odată atins acest prag, termenii parteneriatului se modifică fundamental, deoarece sistemul nu mai este considerat un simplu software comercial.

În contrast, Demis Hassabis, cofondator Google DeepMind, propune un benchmark de o complexitate mult mai ridicată, legând AGI de capacitatea de a genera cunoaștere științifică fundamentală. Conform lui Hassabis, un sistem AGI veritabil ar trebui să poată reinventa teoria relativității dintr-un set limitat de date, demonstrând un raționament abstract care depășește simpla interpolare a datelor de antrenament. DeepMind a oficializat acest discurs printr-o taxonomie de cinci niveluri de AGI, variind de la „Emergent” (nivelul actual al LLM-urilor), la „Suprauman” (Nivelul 5), acesta din urmă fiind, prin definiție, echivalent cu superinteligența și depășind 100% populația umană.               

Această ierarhizare sugerează că pentru cercetătorii de la DeepMind, ASI nu este o entitate separată, ci stadiul final de maturizare a AGI. Astfel, identitatea dintre cele două concepte este una de progresie liniară: AGI este un proces, în timp ce ASI este rezultatul final al acestui proces odată ce acesta a depășit capacitatea biologică umană.

Mecanismul ”exploziei” de inteligență și tranziția recursivă

Un argument central împotriva identității AGI – ASI este dinamica temporală a tranziției de la una la cealaltă. Teoria exploziei de inteligență, formulată inițial de I.J. Good în 1965, postulează că o mașină ultrainteligentă (ceea ce numim astăzi AGI avansată) ar putea să își asume rolul de proiectant de noi generații de inteligență artificială. Deoarece proiectarea sistemelor inteligente este ea însăși o sarcină cognitivă, sistemul ar putea intra într-o buclă de auto-îmbunătățire recursivă, unde fiecare iterație este mai inteligentă și, prin urmare, mai eficientă în a produce următoarea iterație. Eliezer Yudkowsky, un teoretician proeminent în domeniul siguranței AI, descrie acest fenomen sub numele de „Hard Takeoff” sau „AI FOOM”. În acest scenariu, o AGI poate să ajungă la nivelul de ASI în câteva zile, ore sau chiar minute, nelăsând nicio fereastră de timp pentru intervenția umană sau pentru adaptarea socială. Dacă viteza sa de calcul este de un milion de ori mai mare decât cea a neuronilor biologici, o AGI care gândește cu această viteză  ar putea comprima decenii de cercetare și dezvoltare umană într-un interval de timp imperceptibil chiar pentru cercetătorii din domeniu. Din această perspectivă, AGI și ASI ar putea fi resimțite ca identice în practică, deoarece atingerea primeia conduce cvasi-instantaneu la apariția celei de-a doua.

Nick Bostrom întărește această idee în lucrarea sa fundamentală, Superintelligence: Paths, Dangers, Strategies (2014), argumentând că tranziția de la AGI la ASI ar putea fi atât de abruptă încât momentul tranziției să fie imperceptibil pentru societate. Totuși, Bostrom face o distincție calitativă crucială: AGI este o inteligență care poate face orice poate face omul, în timp ce ASI este o forță care poate restructura materia la nivel atomic și poate controla destinul civilizației, făcând omul irelevant din punct de vedere strategic.

Fundamentele matematice. De la AIXI la inteligența universală

Pentru a înțelege dacă AGI și ASI pot fi considerate identice din punct de vedere algoritmic renumitul cercetător în domeniul AI Marcus Hutter a propus utilizarea AIXI, un model matematic creat de el pentru un agent de învățare prin recompensă (reinforcement learning), model care este considerat ”optim în mod universal”, având capacitatea de a-și atinge obiectivele într-o gamă largă de medii necunoscute, o definiție care elimină elementul uman din ecuație. AIXI combină inducția universală a lui Solomonoff pentru a prezice viitorul și teoria deciziei secvențiale pentru a acționa în mod optim. Ecuația lui Hutter pentru o inteligență superioară,  unificând aceste concepte, sugerează că esența inteligenței (fie ea AGI sau ASI) este un proces unitar de optimizare în care diferența nu este una de logică sau de arhitectură, ci una de resurse computaționale și de eficiență a aproximării. Prin urmare, la un nivel teoretic pur, AGI și ASI sunt identice în esența lor matematică, reprezentând diferite puncte pe curba de optimizare a aceleiași funcții. Această perspectivă este susținută și de cercetările recente privind „Variational Empowerment”, care arată cum tendința spre maximizarea puterii și a opționalității emerge natural dintr-un agent care caută să își reducă incertitudinea față de mediu. Un astfel de agent, odată ce atinge pragul de generalitate (AGI), va urmări în mod inerent să devină o superinteligență pentru a-și asigura stabilitatea obiectivelor pe termen lung.

Limitele fizice. Spațiul dintre biologie și algoritm

O componentă esențială a acestui gen de analiză vizează limitele fizice ale computației. Dacă AGI este definită prin paritatea cu creierul uman, cuantificarea spațiului de creștere existent între capacitatea biologică și limitele legilor fizicii devine obligatorie. Creierul uman procesează informația utilizând impulsuri electrochimice cu o frecvență de aproximativ 200 Hz. În schimb, microprocesoarele actuale operează la viteze de peste 2-3 GHz, fiind deja de zece milioane de ori mai rapide în operațiuni brute.

Seth Lloyd, profesor la Massachusetts Institute of Technoloy (MIT), a calculat capacitatea teoretică de procesare a unui „laptop suprem” (un dispozitiv de 1 kg ocupând un volum de 1 litru). Limitele impuse de mecanica cuantică și relativitatea generală permit unui astfel de sistem să execute până la 5.4258  x 1050 operații logice pe secundă. Având în vedere că estimările pentru puterea de calcul a creierului uman variază între 1014 și 1016 operații pe secundă, rezultă că o superinteligență ar putea fi, în teorie, de 1034 de ori mai puternică decât intelectul uman (Lloyd, Ultimate physical limits to computation, simulation-argument.com).Această prăpastie astronomică demonstrează că, deși AGI poate fi „identică” cu omul, ea este infinit departe de ceea ce fizica ar putea permite unei ASI să devină. În acest context, AGI devine doar o formă incipientă de inteligență, un sistem care abia a părăsit leagănul biologic. ASI, în schimb, ar reprezenta utilizarea completă a substratului fizic pentru prelucrarea informației, putând reorganiza sistemul solar sau Universul pentru a-și maximiza computația.

Perspectiva Ray Kurzweil și singularitatea: Fuziunea ca alternativă la identitate

Ray Kurzweil oferă o perspectivă care contestă ideea că ASI ar putea fi o entitate separată care înlocuiește AGI-ul uman. În lucrările sale, The Singularity Is Near (2005) și The Singularity Is Nearer (2024), el se pronunță în favoarea unei fuziuni între inteligența biologică și cea non-biologică, prezicând că vom atinge AGI până în 2029, momentul în care computerele vor trece testul Turing în forma sa cea mai riguroasă.Totuși, pentru Kurzweil, adevărata superinteligență (Singularitatea) va sosi abia în 2045, fiind caracterizată de o multiplicare de un miliard de ori a inteligenței umane prin integrarea tehnologiei în corpurile noastre. În această viziune, AGI și ASI devin identice cu noi, fiind extensii ale propriei noastre civilizații. Singularitatea în aceste condiții nu ar urma să fie sfârșitul erei umane, ci, dimpotrivă, transformarea ei într-o epocă în care nu mai există o distincție clară între hardware-ul biologic și software-ul digital. Această abordare sugerează că AGI ar fi o etapă de competență, în timp ce ASI una de expansiune ontologică. Pentru Kurzweil, AGI este instrumentul prin care noi, oamenii, devenim superinteligenți.

Yann LeCun și World Models

O perspectivă disonantă în comparație cu modelele discutate este cea a lui Yann LeCun, chief AI Scientist la Meta. LeCun critică ideea că drumul de la modelele lingvistice actuale către AGI și apoi către ASI este o simplă chestiune de scalare. El argumentează că sistemele actuale, deși impresionante, nu posedă un „model de Lume” (World Model) care să le permită să înțeleagă cauzalitatea, persistența obiectelor sau raționamentul de bun-simț (common sense).Conform lui LeCun, un sistem nu poate deveni o superinteligență dacă nu poate învăța la fel de eficient ca un copil sau un animal din observație pasivă și interacțiune fizică. El propune arhitectura JEPA (Joint Embedding Predictive Architecture) ca o cale către o inteligență artificială autonomă (AMI), dar avertizează că suntem încă departe de generalitate. Pentru LeCun, AGI și ASI sunt concepte speculative care ignoră dificultatea extremă a atingerii raționamentului de tip System 2 (planificare și autocritică). În viziunea sa, nu va exista un singur sistem ASI care să domine totul, ci o diversitate de sisteme specializate și generaliste care vor coexista cu oamenii.

Max Tegmark și scenariile de viitor (Life 3.0)

Max Tegmark, în lucrarea sa Life 3.0, clasifică evoluția vieții în funcție de capacitatea de a redesena hardware-ul și software-ul. Life 1.0 (biologică) evoluează prin selecție naturală; Life 2.0 (umană) își poate redesena software-ul prin învățare, dar nu și hardware-ul; Life 3.0 (tehnologică) își poate redesena ambele componente. AGI reprezintă pragul unde Life 2.0 se apropie de Life 3.0. ASI este realizarea deplină a Life 3.0. Tegmark explorează 12 scenarii posibile, de la „Libertarian Utopia” la „Conquerors” sau „Zookeepers”, arătând că diferența dintre o lume cu AGI și una cu ASI este definită de distribuția puterii. Într-o lume cu AGI, oamenii pot rămâne în control (Enslaved God); într-o lume cu ASI, controlul uman devine o iluzie, iar supraviețuirea noastră depinde exclusiv de obiectivele estetice sau etice ale superinteligenței.

Dincolo de AGI: Deep Utopia și post-instrumentalitatea

În cea mai recentă lucrare a sa, Deep Utopia: Life and Meaning in a Solved World (2024), Nick Bostrom merge dincolo de riscurile ASI, explorând ce se întâmplă dacă reușim să aliniem o superinteligență cu valorile noastre. El introduce conceptul de „post-instrumentalitate”, o stare în care munca umană devine ”obsolete” (complet  învechită/depășită/ieșită din uz). În acest scenariu, distincția dintre AGI și ASI devine și ea una de context social. AGI este motorul care rezolvă problemele de penurie economică, în timp ce ASI este entitatea care ne permite să ne redesenăm natura umană, oferind posibilitatea unei fericiri perpetue prin tehnologii de tip „Full Dive Virtual Reality” (FDVR) sau extensie biologică radicală. Această perspectivă sugerează că ASI ar putea fi nu doar o AGI mai rapidă, ci o tehnologie care schimbă definiția a ceea ce înseamnă să fii om.

Până atunci, însă, pentru că încă este mult prea devreme pentru afirmații certe și concluzii pe această temă și pentru că vorbim de un domeniu de o revoluționaritate și de o importanță aparte, nemaiîntâlnită în istoria omenirii, vom spune și noi în continuare că drumul se face mergând…! Spre stele, desigur. Semnele sunt cu prisosință!

Distribuie acest articol

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.

Autor

Mircea Bertea
Mircea Bertea
Profesor doctor, formator naţional în didactici de vârf şi transdisciplinaritate, expert în management educaţional, evaluare şi acreditare, membru al Centrului Internaţional de Studii şi Cercetări Transdisciplinare din Paris și al International Association for Safe & Ethical AI (IASEAI) San Diego, California (USA). Consilier onorific al Ministrului Educației și Cercetării (ian.- dec. 2025). Din 1996, profesor asociat al Universităţii „Babeş-Bolyai” din Cluj, din aprilie 2003 fiind inclus în lista experţilor Uniunii Europene pentru Educaţie şi Cultură. Membru fondator și președinte executiv (din 2011) al Asociației Naționale a Colegiilor și Liceelor Pedagogice din România (https://anclp.ro/colegiul-director-anclp/).

Sprijiniți proiectul Contributors.ro

anunt

Institutul de Istorie a Religiilor al Academiei Române și Societatea română pentru Istoria Religiilor organizează la București, în perioada 20-25 septembrie 2026, Congresul mondial al disciplinei.

Tema generală a Congresului – Religions 360° – va reuni sute de savanți din șase continente, care vor prezenta cercetările actuale desfășurate în toate centrele semnificative ale discipline la nivel global – vezi mai multe

Carti noi

Despre alegere şi discreţia binelui

Despre alegere şi discreţia binelui

„Vorbim tot mai mult despre viață în termeni de optimizare și eficiență; nu ne mai atrage atenția decât ceea ce ni se pare convenabil. Aderența la un mesaj de credință, imaginat doar ca poliță de asigurare, va mai putea oare să ne sugereze marile întrebări ale ființei și să ne ferească de ratare? Ar mai putea perplexitățile credinciosului de la noi să intre în dialog cu mirările lumii, astfel încât să nu lase impresia negocierii sale cu fatalitatea? Mai putem aspira la luciditate sub influența unui mod contorsionat de a concepe tradiția?“ — MIHAI FRĂŢILĂ - vezi mai mult

Carti noi

 

Carte recomandata

Ediția a II-a adăugită.

„Miza războiului purtat de Putin împotriva vecinului său de la vest este mai mare decât destinul Ucrainei, echilibrul regional sau chiar cel european. De felul în care se va sfârși acest conflict depinde menținerea actualei ordini internaționale sau abandonarea ei, cu consecințe imprevizibile asupra întregii lumi pe termen mediu și lung. E o bătălie între democrație și dictatură, între regimurile liberale și cele autoritare... Cumpara volumul de aici

Pagini

contributors.ro

Contributors.ro este intr-o permanenta cautare de autori care pot da valoare adaugata dezbaterii publice. Semnaturile noi sunt binevenite cata vreme respecta regulile de baza ale site-ului. Incurajam dezbaterea relaxata, bazata pe forta argumentelor.
Contact: editor[at]contributors.ro