Într-o prezentare recentă (din luna iunie, anul acesta)[i], Ray Kurzweil, unul dintre cei mai cunoscuți viitorologi și experți din lume în calculatoare, își menținea predicția din 1999i[ii] că se va ajunge la nivelul de inteligență artificială generală (AGI) în 2029, adică peste 5 ani.
În esență, inteligența artificială generală ar putea înțelege și învăța orice sarcină umană. În diverse forme robotice, ar putea să facă mult mai bine, mai repede și mai ieftin orice fac oamenii în prezent (și mai mult decât atât), permițând abundența totală.
El anunța cu ocazia respectivă că numeroși alți specialiști consideră deja că este probabil să se ajungă la acel nivel în jurul anului 2035, chiar dacă, la momentul inițial al predicției sale, majoritatea credeau că este vorba de ceva posibil de atins abia în jurul anului 2100.
Cu alte cuvinte, ceilalți experți din 1999 se înșelaseră cu mult, avansând între timp cu 65 de ani termenul anticipat de ei atunci, și, chiar și așa, Ray Kurzweil considera în iunie 2024 că e probabil ca el să aibă până la urmă dreptate „cu totul” pe subiect, adică și 2035 să fie pesimist, progresul rămas de făcut fiind realizabil până în 2029.[iii]
Amintea în prezentarea respectivă și modul său de estimare – practic presupusese în 1999 că ritmul anual de creștere a puterii de calcul, versus cost, din deceniile anterioare se va păstra cel puțin la fel și în viitor. Aceasta însemna că în 2029 ar trebui să se ajungă la calcule de 1 trilion de biți pe secundă la un cost foarte redus, nivel de complexitate și eficiență la care inteligența artificială generală s-ar atinge.
În prezent, și alți experți recunoscuți, precum Ben Goertzel, îi împărtășesc optimismul,[iv] apreciind că am fi în grafic în această privință și că evoluțiile recente, gen ChatGPT, ar confirma pertinența predicției sale.
În orice caz, că s-ar atinge inteligența artificială generală în 2029 sau în 2035 – nu ar schimba fundamental gradul de reușită în analiză și în anticiparea viitorului al predicției de mai sus și nici implicațiile așteptate de la rezultatul în sine.
Iar, în privința implicațiilor AGI, Ray Kurzweil anticipează efectiv un fel de rai pe pământ pentru omenire cam imediat după acel moment. De la bunuri și servicii la discreție și moduri de a acoperi alte nevoi/dorințe fără a fi necesar să se mai muncească – la posibilitatea „înghețării” vârstei și chiar a reversării ei în pasul doi[v].
Adică, de la roboți care să funcționeze ca furnizori/prestatori de bunuri, servicii și emoții (produs mâncare, plimbat câinele, oferit prietenie și chiar tandrețe) – la tinerețe fără bătrânețe/nemurire.
De altfel, Ray Kurzweil ia peste 80 de diverse suplimente zilnic[vi] pentru a prinde de la cei 76 de ani ai săi din prezent momentul reușitei respective și a putea beneficia el însuși de avantajele acesteia.
În urmă cu aproximativ o săptămână, China a anunțat,[vii] însă, că va mări gradual (pe o durată de 15 ani) vârsta de pensionare cu 3 ani, pe fondul declinului demografic în curs și al estimărilor cu privire la necesarul de fonduri, chiar dacă pensiile sale publice sunt reduse față de media UE.
Predicțiile lui Ray Kurzweill mi s-au părut în contradicție și cu faptul că Japonia are și ea în vedere creșterea vârstei de pensionare. Consiliul Fiscal japonez a propus deja în 2023 aducerea acesteia la 68 de ani (chiar dacă și pensiile publice japoneze sunt relativ reduse față de media UE).[viii]
Atât Japonia, cât și China, au o speranță de viață ridicată și în creștere și o structură demografică în deteriorare rapidă (mai ales Japonia), dar sunt țări foarte avansate tehnologic, inclusiv în inteligență artificială, și cu societăți, în medie, bine educate și cu o bună etică a muncii.
Or, dacă astfel de țări se consideră nevoite să crească gradual vârsta de pensionare (nimeni nu face așa ceva ușor politic), este clar că estimarea acestora cu privire la momentul obținerii inteligenței artificiale generale și a beneficiilor sale este mult mai puțin optimistă decât cea a lui Ray Kurzweill.
Cred că cele de mai sus merită privite din două perspective – una legată direct de contradicția de poziționări de mai sus și una legată indirect de aceasta, dar, aș zice, chiar mai importantă.
1. Prima perspectivă este aceea pur tehnică – personal, chiar cred că inteligența artificială va ajunge la unele reușite cu totul deosebite foarte curând, dar, pe ansamblu, pare mult mai prudent de mers pe abordarea Chinei și Japoniei pe acest subiect, decât pe cea a lui Ray Kurzweill.
Dacă am merge pe cea din urmă, ar decurge logic că majoritatea oamenilor nu ar mai prea trebui să muncească sau să mai învețe ceva cam de pe acum, pe ideea că doar producerea de mâncare și a ceva haine, utilități minimale și grijă medicală ar mai fi necesare în mod continuu pe termen scurt. În rest, am putea trăi relativ decent câțiva ani din rezerve și aștepta momentul „lămpii lui Aladin”.
Statele ar și putea tipări bani între timp și mai abitir, inteligența artificială generală urmând să rezolve problema resurselor de orice fel, inclusiv financiare, în 2029 sau 2035.
De altfel, numeroase politici publice din România după 1989 (duse pe noi „culmi” în ultimii ani), par să fi fost elaborate de mari cititori și fani ai lui Ray Kurzweill.
Dacă însă China și Japonia au „dreptate”, cei care ar merge pe varianta cealaltă ar risca să ajungă foarte rapid în sărăcie și chiar să moară de foame la propriu în următoarea decadă.
De altfel, unii oameni de știință mult mai sceptici cu privire la momentul atingerii nivelului inteligenței artificiale generale atrag atenția că acesta (și posibilitatea fructificării sale efective) nu ar depinde doar de nivelul de putere de calcul în sine.
De exemplu, necesarul estimat de consum de energie și de volum de date ar depăși cu mult ceea ce pare realizabil în următorii 10 ani (unele modele consumă deja anual echivalentul consumului de energie al unor țări mai mici doar pentru antrenare[ix]).
Chiar dacă pe partea de volume de date, există deja modalități de a genera artificial date suplimentare, cele două constrângeri, împreună, ar putea împinge semnificativ în timp momentul atingerii AGI.
2. A doua perspectivă vizează mai pe ansamblu dimensiunile modului de organizare a societăților actuale din lume și ale naturii umane.
Să presupunem că în 2029 sau 2035 chiar s-ar atinge nivelul inteligenței artificiale generale și s-ar putea face roboți de un tip apropiat de „lampa lui Aladin”.
Dacă ne uităm la organizarea standard a societăților și formelor de putere în lume și ne gândim și la istoria speciei, inclusiv recentă, în primul rând, pare improbabil ca tehnologia respectivă să fie făcută automat accesibilă întregii omeniri sau măcar unui procent mare.
În al doilea rând, chiar dacă tehnologia respectivă ar fi făcută disponibilă tuturor, dacă privim nivelul pur individual – ar fi mult mai bine pe ansamblu decât anterior, dar tot ar rămâne probabil destule aspecte deconectate de ce se înțelege îndeobște prin rai (pe pământ) având în vedere configurarea actuală a valorilor umane.
Să le luăm pe rând.
Pe dimensiunea economică privată a nivelului de organizare societală, practic, Ray Kurzweil pare să se așteapte cumva ca unele dintre cele mai bogate și puternice companii și unii dintre cei mai bogați și puternici oameni din lume să pună la dispoziția tuturor roboți care ar anula cam tot avantajul bogăției și puterii respective (de vreme ce ar aduce abundență generală).
Adică, să renunțe de bună voie la influențarea economicului și a politicului (și parțial și a altor paliere) tocmai la momentul la care ar atinge un nivel de putere/intervenție cvasideniurgic.
Desigur, simpla mulțumire dezinteresată de a face un mare bine semenilor și chiar vanitatea pot ajuta, dar cred că este riscant de presupus că majoritatea respectivilor o să considere că merită.
Nu trebuie ignorat nici ce s-ar întâmpla pe plan academic, artistic, cultural mai larg, tehnic etc (planul mai oricărei meserii sau activități umane, de fapt). Practic, mai toți cei care sunt peste medie în vreo privință sau se pricep bine la ceva o să aibă în diverse grade o dilemă pentru că susținerea adoptării și accesibilității generale a tehnologiei respective ar veni cu prețul pierderii rapide a relevanței propriilor competențe/talente (cel mai muncitor și inteligent profesionist ar fi surclasat ușor și de robotul celui mai mare leneș sau prostovan de pe planetă).
Nu în ultimul rând, același lucru ar fi relevant pentru dimensiunea puterii statale. Este foarte discutabil dacă aceasta ar mai subzista cu adevărat în cazul în care inteligența artificială generală ar fi larg disponibilă populației pentru că aceasta ar trebui să poată acoperi orice serviciu public și alte nevoi mult mai bine decât statele actuale.
Acesta este motivul pentru care chiar și aspecte mult mai restrânse par puțin probabil să fie permise politic, cel puțin în următorii 25-30 de ani.
Este, de exemplu, puțin probabil în următoarele decenii în multe țări ca promovările și evaluările judecătorilor și procurorilor din domeniul penal să fie lăsate doar analizei inteligenței artificiale chiar dacă aceasta ar demonstra un nivel mare de corectitudine și competență în materie. Sau că în destule țări ar fi lăsați doar roboții să elaboreze programa școlară și să educe copiii în spiritul cunoașterii și gândirii critice față de guverne și politicieni.
Desigur, de la un punct încolo, nu va depinde doar de state (depinde și ce state etc), dar lucrurile se anunță semnificativ mai complicate decât sunt sugerate de experții în IA menționați.
Ideea nu este deloc aceea că accesul general la AGI ar fi imposibil, ci că nu pare probabil fără pregătire și efort proactiv contrar din timp.
Cei care simt frustrare la gândul că vreun politician mediocru sau hoț ar putea întârzia sau împiedica accesul la inteligența artificială generală trebuie să aibă în vedere că și dacă roboții respectivi ar lua „problema” în propriile „mâini”, nu putem deloc anticipa doar scenarii roz.
Nu degeaba, într-o cunoscută poveste science fiction, primul robot cu inteligență artificială inventat primește sarcina să facă oamenii fericiți și îi prinde pe toți și îi „lobotomizează”[x], ajungând la concluzia că e singurul mod în care poate să-i facă fericiți.
Aici ajungem și la nivelul pur individual uman. În această privință, predicția menționată pare să aibă în vedere doar marginal diversitatea nevoilor și dorințelor/emoțiilor umane (conform lui Maslow etc)[xi].
Or, de exemplu, faptul că marea majoritate a oamenilor din țările OECD nu mai suferă de foame nu pare să fi făcut societățile respective mai calme și mulțumite, segmente importante devenind arțăgoase și frustrate concentrându-se mai mult pe nevoia de a fi ascultate și respectate, băgate în seamă etc – aspecte din ce în ce mai dificile în vacarmul general.
De asemenea, faptul că numărul celor care au sute de milioane sau miliarde de euro, dolari rimibi sau yeni în lume a crescut foarte mult în ultimii 50 de ani nu i-a făcut pe mulți dintre aceștia să nu se mai implice în viața economică sau în influențarea puterii.
Un alt aspect de avut în vedere ar fi acela că un robot de tip „lampa lui Aladin” ar putea aduce beneficii enorme utilizatorilor săi, inclusiv pe partea de alinare a singurătății, îngrijire, posibil chiar și tandrețe etc, dar ar crește probabil mult numărul celor care nu ar mai putea construi „natural” relații umane suficiente/satisfăcătoare.
Nu în ultimul rând, după cum menționam și la punctul anterior, legat de modul de organizare valoric și de putere al societății, destui oameni nu ar fi probabil mulțumiți nici de „nivelarea” implicită și ar putea fi tentați să-și folosească roboții pentru diverse avantaje de statut într-o lume în care „lampa lui Aladin” le-ar face teoretic foarte dificile.
În acest sens, deși tindem să ne concentrăm atenția zilnică mai mult pe scandaluri și pe piața economică și să privim critic „goana după profit” monetar, fiecare din nevoile și dorințele umane reprezintă, de fapt, o “piață” separată în sine a cărei (ne)satisfacere poate stimula un anumit tip de comportament.
Or, într-o lume a inteligenței artificiale generale, satisfacerea unora dintre planuri ar rămâne incompatibilă cu satisfacerea altora.
De la monede-monede, operăm ca omenire mult mai des decât ne dăm seama de obicei și pe piețele cu monede-putere, monede-vanitate, monede-respect (măcar aparent), monede-sex, monede-trib, monede-reciprocitate etc.
Dacă de la „nevoi” în sens (psihologic) ne uităm și la emoții și dorințe, plaja tuturor „piețelor” alternative devine foarte largă.
De altfel, experiența lumii ultimilor 20 de ani sugerează că atunci când un tip de nevoie este aproape satisfăcut în societate, alte tipuri de nevoi se exprimă, de fapt, mai acut, ca și cum am avea, în medie, un fel de volum total care se redirecționează, pe principiul vaselor comunicante.
Aceasta nu înseamnă că rezultatul global al inteligenței artificiale generale nu ar fi în mod normal mult mai bun decât situația actuală, pentru că nevoile de bază și unele plăceri/dorințe standard sunt mai importante pe ansamblu decât alte tipuri de nevoi și dorințe (unele „piețe” fiind mult „mai” benigne/”mai puțin” maligne decât altele).
Numeroase sondaje și arată că viața de „pensionar” oferă multe satisfacții în medie, mai ales dacă e una cu o sănătate bună.
Dar nu ar fi „raiul pe pământ”, potențialul de frustrare și resentiment rămânând ridicat.
De exemplu, ar fi mai greu să te simți respectat cu adevărat (de alți oameni) dacă nu te poți diferenția prin mai nimic (decât, eventual, prin efort pur benevol, dar într-o lume în care ceilalți nu ar mai cam avea nevoie de rezultatul efortului tău).
Asta dacă nu se lucrează chiar asupra stimulării valorilor și așteptărilor echilibrate la nivel individual (și nu în moduri distopice).
În concluzie, evoluțiile tehnologice actuale oferă foarte multe oportunități și vin și cu ceva riscuri mari.
Să sperăm că vom avea curând cât mai multe avantaje pentru ansamblul populației și cât mai puține dezavantaje – undeva între Kurzweill și China/Japonia.
Este necesară, însă, atât multă prudență în privința rapidității cu care s-ar ajunge la AGI, cât și o implicare bine organizată din partea societății, dar și a țărilor mai mici, în urmărirea și controlul dezvoltărilor tehnologice pentru creșterea șanselor unei distribuiri cât mai largi a beneficiilor acestora în pasul doi.
Scenariile și exemplele de mai sus arată, cred, destul de clar, că va conta enorm ce fel de oameni ajung mai întâi la nivelul respectiv și în ce context (între „rai” și „iad” poate fi o distanță mică).
Între timp, ar trebui să acordăm mult mai multă atenție celorlalte „piețe” pe care activează omenirea – a „piețelor” monedelor-putere, monedelor-vanitate, monedelor-respect, monedelor-sex, monedelor-trib etc.
„Piața monedelor-monede” nu trebuie deloc ignorată, dar este, de fapt, printre cele mai eficient așezate și mai transparente dintre ele.
O mult mai mare atenție concentrată pe „piețele alternative” respective este un aspect important nu doar pentru progresul real al societății, ci și pentru tipul de „părere” pe care ar putea să și-l facă un robot despre noi ca specie din datele disponibile public (foarte puține din „piețele alternative” respective fiind cu totul benigne).
*******
NOTE:
[i] https://www.youtube.com/watch?v=uEztHu4NHrs The Last 6 Decades of AI — and What Comes Next.
[ii] Predicția a fost făcută în 1999. A fost dezvoltată în cartea sa „The Singularity is Near” (Viking USA, 2005).
[iii] Unii experți deja susțin că și 2027 ar putea fi posibil. Pentru stadiul actual, este util de citit raportul menționat la : https://www.weforum.org/agenda/2024/04/stanford-university-ai-index-report/
[iv]https://www.livescience.com/technology/artificial-intelligence/ai-agi-singularity-in-2027-artificial-super-intelligence-sooner-than-we-think-ben-goertzel
[v] În plus de prezentarea video, a se vedea, de exemplu : https://www.economist.com/by-invitation/2024/06/17/ray-kurzweil-on-how-ai-will-transform-the-physical-world
[vi] https://www.wired.com/story/big-interview-ray-kurzweil/
[vii] Pentru unele detalii și comentarii, a se vedea, de exemplu : https://www.nytimes.com/2024/09/13/world/asia/china-retirement-age.html#:~:text=This%20is%20the%20first%20time%20China%20has%20raised
[viii] https://thediplomat.com/2023/01/surviving-old-age-is-getting-harder-in-japan/
[ix] Desigur, în această privință poate să treacă prin gând și scenariul distopic din Matrix în care oamenii erau folosiți de inteligența artificială pe post de baterii pentru a-și acoperi consumul de energie.
[x] De cele mai multe ori, termenul lobotomie se aplica operatiei chirurgicale care constă în secționarea, în encefal, a unei părți din fibrele nervoase care leagă lobul prefrontal (sediul ideatiei – formarea și înlănțuirea ideilor) cu restul creierului.
[xi] Este cunoscut că piramida lui Maslow este contestată în diverse privințe, dar cred că reflectă suficient de bine liniile mari ale nevoilor umane și ce dorește să sublinieze articolul.




Aikido cu mintea si corpul coordonate. Invatati cum sa va relaxati si cum sa va pastrati calmul in conditii de stress. 
Fenomenul AGI reprezinta un alt experiment global, la fel cum a fost si comunismul. Unii chiar cred ca vom intra intr-un Paradis daca vom trai alaturi de roboti dotati cu AI sau ca nu vom mai avea nici o grija. O lume din „care a fugit toata tristetea si suspinarea”, dupa cum spune biserica, o lume verde, paradisiaca, in care toti vom fi egali, iar problemele fiecaruia vor fi rezolvate instant de catre roboti. Bun, aici nu se prea vorbeste despre criminaliatea cibernetica sau despre preluarea controlului unor robooti de catre alte guverne. Un astfel de robot ar putea sa faca si propaganda, daca cineva ar dori sa-l seteze in acest sens. Este o chestie tipica regimurilor totalitare, aceea de a crea si de a imagina paradisuri pentru noi toti, societati perfecte care ascund de fapt un control absolut asupra tuturor care se poate manifesta in orice sens si poate lua diverse forme. Eu zic sa luam exemplul japonezilor, pentru ca maine nu va mai avea cine sa lucreze pentru noi. Este suficient sa priviti la tinerii de astazi si la educatia lor. Daca si chinezii au probleme cu forta de munca, avand in vedere ca sunt aproape 2 miliarde, atunci ce putem spune noi prin Europa?
Banii n-aduc fericirea, mult mai de preț e iubirea…
Viitorul va fi al IA și al Geneticii. Prin fuziunea celor două noi descoperiri tehnologice, Omul va deveni un Cyborg foarte inteligent și aproape ETERN ca existență (adică se va adeveri frica lui Dumnezeu că Omul va trăi o eternitate….). Zic unii că Omul care va trăi 1000 de ani deja s-a născut…
Ce valori, ce fericire, ce iubire, etc? Cine mai are nevoie de așa animalisme? Eu, Robotul, voi trăi conform ” programului meu soft” pe care, dacă vreau îl schimb sau îl modific….
NB. Eei, vreți să trăiți 1000 de ani, sau vreți să muriți la 70?….
„Scenariile și exemplele de mai sus arată, cred, destul de clar, că va conta enorm ce fel de oameni ajung mai întâi la nivelul respectiv și în ce context (între „rai” și „iad” poate fi o distanță mică).”
Foarte bună și justificată observația menționată în acest articol în contextul vremurilor actuale!
Titlu dat unui tablou al lui Goya „Somnul rațiunii naște monștrii” poate fi și acesta un subiect de reflecție asupra așa zisei „inteligențe” creată de … niște oameni.
N-ar fi mai bine s-o rezolvam mai intii pe aia, mai veche, cu tokamak-urile? Ca pe robotii aia cu AI/AGI nu-i pacalesti cu niste salam cu soia sau cu o diurna in dolari.
Si mi se pare ca robotii astia sint pe baterii… Ca pager-ele…
Felicitari pentru excelentul articol. Oameni ca Dvs ma determina sa citesc in fiecare zi ceea ce se publica pe contributors. Va multumesc!
Multumesc pentru comentariu/apreciere.
Interesant articol. De fapt, cred ca va fi o lupta pentru putere intre inteligenta artificiala, pe de-o parte si prostia, lacomia, meschinaria si micimea rasei umane, pe de alta parte. Probabil ca avansul tehnologiei va micsora consumul de energie si de spatiu de stocare a datelor, necesare IA pentru a progresa. Deci IA va merge inainte, neabatut.
La nivel filosofic se poate chiar identifica si o anume ironie – avand in vedere ca IA invata din tot ceea ce a creat si a intreprins omul pana acum si avand in vedere ca e creata de om, doar omul e vinovat de ceea ce va urma. IA poate fi asimilata unui Dumnezeu, obiectiv, rational si rece, care-i va da omului exact ceea ce „merita”. :)
Multumesc pentru comentariu. Sa speram ca un AGI nu va judeca pe baza ponderilor de caracteristici umane manifestate pe internet:).
Un automat nu poate avea creativitate artificială, capotează în fața noutății. Poți învăța un automat cum se interpretează sunetele organelor interne cu stetoscopul folosind milioane de înregistrări. La un nou bolnav cu specificitățile lui, automatul capotează, nu știe ce se aleagă din acel big-data pe care-l deține, nu are intuiție pentru ce se potrivește, nu poate aprecia dacă ce a ales e potrivit. La fel în situațiile noi care apar în condusul unui autovehicul
De-aceea nu are niciun sens să vorbești de preluarea conducerii societății de către automate.
Ba da, și ăsta e pericolul mortal pentru libertatea umană. Posibilitatea ca un stat să preia controlul total asupra societății folosind noile tehnologii este foarte mare, în China deja a început și chiar în Europa sunt acțiuni concrete de limitare și control a unor multinaționale. Din nenorocire, chiar în democrație, controlul statal va crește iar libertățile cetățenești vor fi limitate.
Dacă este să aruncăm o privire mai atentă peste acest site, peste acest articol, …, ca număr de cititori, și, să aruncăm privirea prin marea masă a consumatorilor www social media dar și marea masă fascinată de „lumina” lămpilor emisă de tv-uri de show-biz se poate deduce faptul există deja un sens care este exploatat în masă de AI/AGI.
Principiile și algoritmii de „creație” și progres ai AI/AGI constau în ceea ce vrea „marea” masă de utilizatori ai unei astfel de „inteligențe” !!!
Motorul de căutare Google oferă mii și zeci de mii de link-uri către diferite site-uri din care puteai să selectezi și să vizualizezi site-uri care conțin informații legate de cuvintele introduse pentru a căuta o informație. Marea masă însă are principii de comoditate!
Spre deosebire de motoarele de căutare care supun „marea masă” comodă unui stres de a discerne între miile de informații, AI/AGI vine cu ceva „cool”, „trendy” și „discerne” prin diferite calcule matematice, statistice existente în numai anumite baze de date și oferă direct un răspuns care va fi considerat ca fiind ceva extraordinar de precis științific care insă sunt din domenii de științe fixe și umane care încă se mai scarpină după ceafă și găsește că totuși mai sunt incă multe de învățat. Și cu cât vor fi mai mulți care apeleze la AI cu atât mai mult se va considera că AI este ceva tot mai râvnit, util și de neinlocuit. Aici mecanismele marketingului își fac deja treaba. „Reclama este sufletul comerțului AI”.
OK, această bază de date este „exploatată” pe principiile marketingului pentru a ca un număr de creștere a relevanței acestui articol în imensul www plin de informații asemănătoare.
Caz concret cu acest site, articol, … – in scripturile acestui site există așa zișii roboți de monitorizare (spre exemplu googleboots) care nu fac altceva decât să numere numărul de accesări ale acestui articol și începe să formeze o bază de date statistice!!! Până aici totul este încă ok dar în imensitatea utilizatorilor din social-media (miliarde de utilizatori smathphone) această informație dispare ca relevanță, pentru că acolo sunt miliarde de clickuri pe tot felul de informații create de eee „creatorii digitali” ….
Natura umană încă de la începuturi a început să dea vina pe Dumnezeu atunci când, din prea multa „știință” umană aplicată îi dă de fiecare dată cu virgulă la rezultate și omul se împotmolește. Găselnița celor care nu vor să-și asume imensele greșeli este …: AI/aGI c uscuze de gen că nu a fost updatat, că nu exista semnal în zonă sau că a fost o pană de curent sau a explodat bateria.
Scuze de ortografie, articulări și litere sau chiar fraze rămase din cut/copy/paste :)
Un lucru ar mai fi de adăugat, social media (folosită de marea masă umană pe telefoane) utilizează și diferiți alți algoritmi de calcul a relevanței în afișarea unor informații ca fiind relevante pentru cei care își aruncă privirea frecvent pe telefon. O „rafinare” bazată pe psihologia și comportamentul consumatorului de informații, cu „breaking news-urile” cu priză la public, senzaționale, …
Da, dar pot fi folosite ca scuza sau argument, asa cum avem in prezent „la cererea publicului”, „vointa poporului”, „parerea generala”, „parerea expertilor” sau „opinia comunitatii internationale” ori altele la fel de vagi si impresionante pentru public. Gresitii nostri nu vor mai fi impuscati sau spanzurati, asa cum daca PC greseste sau se viruseaza nu il apargeti ci il duceti cu grija la depanare, Si nimeni nu e vinovat de nimic. Nici macar vechiul dicton, pe care numai justitia nu il stie, „urmareste traseul banilor” nu va functiona, caci PC este sarac si cinstit, el nu are bani.:-)
Ați punctat esența. Disoluția informației și a răspunderii.
Principiul dezvoltării sistemelor de transmitere a informației pe diferite canale, începând cu formele antice primare de scriere până la telecomunicații, a fost unul inițial corect și necesar în diferitele forme și în prezent.
Dar prezentul începe să deformeze informațiile esențiale comunicate în trecut, se poate spune că există o „disoluție” a informației primare care prevedea un viitor neplăcut tocmai datorită acestei disoluții. Această disoluție va fi una accelerată de AI/AGI.
Pentru Omics: numerosi experti in AI spun ca aceasta poate deja inova in anumite domenii si ca lucrurile avanseaza f repede. Povestile SF mentionate in articol incearca sa arate ca si fara creativitate ca atare, un AGI ar putea, teoretic, prelua controlul fara cine stie ce dificultati.
Si agricultura a fost crezuta un Rai… si industrializarea, si electrificarea, si revolutia tehnico-stiintifica.|
Totusi, rezultatele finale arata ca nu se intimpla asa ceva.
Certitudinea este ca..aceste automate..totusi..sunt facute de oameni..si ca atare..tot ceea ce este omenesc..rau sau bun..este implicti in aceste produse..soft!
Deci in final..aceasta viscerala lpta si lacomie ..este transferata in artificial! Si..nu va fi pre bine!
Plus..limitele energetice si de materiale..ramane..intlepciunea..daca va cobori printre noi!
Din nimic nu se poate obtine nimic, oricat de inteligent ai fi (sau smecher), ar fi ca moneda virtuala sau valuta fara acoperire ori ca finantarea prin inflatie.
Ar putea fi doar o noua gaselnita, mai inteligenta, pentru a transfera banii de la cei multi si saraci care muncesc si produc spre cei putini si bogati care conduc.
Iar daca vor fi doua sisteme, cei cu AI vor ataca si invinge pe cei fara AI pentru a le lua produsul muncii. In principiu, cam ceea ce prevedea si Marx ca riscam sa se intample pana la urma. Dupa care, orice evolutie sau revolutie fiind exclusa, va fi si „Sfarsitul istoriei”.
Toate tehnologiile au fost create de oameni. Cu parti bune si rele. Cei care vor avea bani multi vor avea de partea lor AI si robotica. Ei vor manipula subtil pe ceilalti. Iar sistemul democratiei actuale se va reduce progresiv si insesizabil la prima vedere. De aceea unele state incearca sa puna niste limite la AI.
Disoluția informației din trecut despre viitor în contextul actual al schimbărilor climatice este expusă, parțial, în această prezentare în care sunt expuse și forme de comunicare, secțiuni științifice de observare a unor fenomene prezise (pe această secvență temporală și dimensională) încă de la început, …
https://www.youtube.com/watch?v=IuKcmbogpbA
Tomnaticul domn Ray Kurzweil versus state incapabile să se adapteze evoluției rapide nu doar a tehnologiei, ci și a felului în care indivizii și societatea își proiectează dorințele dincolo de putirințe.
Este genul de comparație mere cu alge, dar o bună premiză pentru un articol ce se duce în derivă spre alte zări.
AGI versus LLM.
LLM-uri despre care nu poți spune nici măcar că simulează inteligența pentru că sunt doar mari sisteme-expert de căutare a unor cvasi-corelații determinate de niște valori statistice incoerente.
AGI care ar fi, teoretic, capabile să replice pe scară largă și pe un volum imens de date exact ce fac oamenii când iau simple și mici decizii raționale, justificate etic și logic și care au impact direct cuantificabil. AGI ce ar duce omenirea în epoca post-scarcity creând roboți care să trudească pentru bunăstarea tuturor indivizilor, preluând puterea din mâinile bogaților și ale sărăcilor și deopotrivă ale politicienilor și implementând modele sociale, economice și utilitare la scară planetară care să ofere nu doar raiul pe Pământ, tinerețe fără bătrânețe, ci de-a dreptul zeificarea tuturor.
Iar prezumția că astfel de sisteme LLM actuale ar devine subit AGI este doar o nouă dovadă de wishful thinking.
Nu că premiza că am reuși să creăm AGI este mai brează. Este doar mai apetisantă.
Iar monetizarea relațiilor umane este fix ce a dat putere economiștilor, și prin agregare cu politicienii și cacademicienii într-o clică a puterii exercitate de state, asupra creatorilor, făuritorilor și utilizatorilor progresului tehnologic.
Ca atare, noi o să trăim decenii (iar umanitatea secole) nerăspunzând acestor întrebări inutile cu privire la ce și cum va fi în epoca AGI în țări cu și fără guvernări capabile să răspundă nevoilor populației, dar le vom trăi punând întrebări unor LLM din partea cărora vom primi răspunsuri lipsite de pertinență, ciorbe de cuvinte ce ne vor satisface dorința de a ne simți importanți, intelijănți, capabili, deosebiți, etc (adăugați aici orice atribut specific vanității umane).
Pentru că este mult mai ușor să trăim în iluzia participării într-o pervers denumită ”social media”, într-un mod defetist și să avem spre ce arăta cu degetul decât să întreprindem eforturile individuale costisitoare personal prin care, de câteva milenii, indivizii și comunitățile au investit timp și efort pentru auto-educare, pentru a crea conținut care să ajute la dezvoltarea societății și la educarea indivizilor pentru a se evita reluarea eforturilor de înțelegere prin perenizarea informațiilor valoroase de orice natură – știință, tehnologie, modele de educație, istorie, reguli sociale, legislație, economie, etc.
Iar privitor la monedele dragi autorului: monedele-putere, monedele-vanitate, monedele-respect, monedele-sex, monedele-trib și monedele-monede au fost dintotdeauna interschimbabile în societatea umană pentru că reflectă alegeri individuale ce nu vor dispărea doar pentru că ”Visând la eroi” artificiali, indivizii subit vor deveni mai răi sau mai buni.
Pentru Vali: pareti doar sa va oferiti singur ceva monede-vanitate cu referirile la „tomnaticul” RK sau la deriva articolului si „monedele dragi autorului”… ; pe fond, nu contraziceti, de fapt, articolul, iar parerea ca posibilitatea aparitiei AGI in curand e „wishfull thinking” – contrazice f multi oameni care chiar lucreaza in domeniu, inclusiv „tomnaticul” respectiv (si nici nu cred ca rezulta din articol ca este „wishfull thinking-ul” meu).
Comentariul lui Vali ese mai inchegat fata de insiruirea de fraze facuta de autor. Articolul pare a fi facut din flash-uri, imagini ce se misca rapid, se suprapun si se repeta astfel ca da impresia de ceva interesant. Acest lucru imi aduce aminte de anuntul pe casre il fac unele reclame, jocuri sau filme cum ca miscarea rapida de imagine iti poate provoca crize de epilepsie sau confuzie. Oare autorul asta a dorit? Nu cred… Atunci ce?