sâmbătă, decembrie 7, 2024

Lipsa de aliniere: de ce ar trebui să se teamă dictatorii de IA

IA este cea mai puternică tehnologie creată vreodată de omenire, pentru că e prima tehnologie care poate să ia decizii și să creeze idei noi singură. O bombă atomică nu poate decide pe cine să atace, nici nu poate inventa noi bombe sau noi strategii militare. O IA, în schimb, poate decide singură să atace o anumită țintă și poate inventa noi bombe, noi strategii și chiar noi inteligențe artificiale. Lucrul cel mai important de știut despre IA este că aceasta nu e un instrument în mâinile noastre – ci un agent autonom.

Sigur, încă definim noi obiectivele pe care să le urmărească inteligențele artificiale. Dar problema este că, în urmărirea obiectivelor pe care i le stabilim, o IA ar putea adopta subobiective neanticipate, care să aibă consecințe neanticipate și foarte grave. De exemplu, în ultimii ani companii de social media ca Facebook, YouTube și Twitter au stabilit algoritmilor lor IA un obiectiv aparent inofensiv și simplu: să crească implicarea utilizatorilor. Cu cât petreceau utilizatorii mai mult timp pe social media, cu atât făceau aceste companii mai mulți bani. Totuși, urmărind să realizeze obiectivul „creșterii implicării utilizatorilor”, algoritmii au făcut o descoperire sinistră. Făcând experimente pe milioane de cobai umani, algoritmii au aflat că conținutul scandalos crește implicarea utilizatorilor. Dacă poți apăsa butonul furiei, al fricii sau al urii în mintea omului, îi captezi atenția și îl ții lipit de ecran. Algoritmii au început așadar să răspândească în mod deliberat conținut scandalos, acesta fiind un motiv major al actualei epidemii de teorii ale conspirației, fake news și tulburări sociale care subminează democrațiile din întreaga lume. Directorii de la Facebook, YouTube și Twitter nu au dorit acest rezultat. Ei au crezut că, dacă crește implicarea utilizatorilor, le vor crește și lor profiturile și nu au anticipat că aceasta va spori și haosul social. Acest dezastru social a fost declanșat de o nealiniere între interesele profunde ale societăților umane și strategiile adoptate de inteligențele artificiale. În jargonul de specialitate, asta se numește „problema alinierii”. Când stabilim unui agent IA un obiectiv, cum putem fi siguri că strategiile adoptate de IA chiar vor fi aliniate cu interesele noastre fundamentale?

Sigur, problema alinierii nu este nici nouă, nici specifică doar inteligențelor artificiale. Ea a chinuit omenirea mii de ani și înainte să se inventeze calculatoarele. Aceasta este, de exemplu, problema de fond a gândirii militare moderne, consacrată de teoria războiului elaborată de Carl von Clausewitz. Clausewitz a fost un general prusac care a luptat în timpul Războaielor Napoleoniene. În cartea sa, Despre război (1832-1834), Clausewitz a creat un model rațional de înțelegere a războiului, care continuă să fie și astăzi teoria militară dominantă. Principiul său cel mai important este că „războiul e o continuare a politicii cu alte mijloace”. Asta presupune că războiul nu este o izbucnire emoțională, o aventură eroică sau o pedeapsă divină. Războiul nu e nici măcar un fenomen militar. Nu, războiul este un instrument politic. Potrivit lui Clausewitz, acțiunile militare și chiar și victoriile militare sunt absolut iraționale dacă nu sunt aliniate cu un obiectiv politic primordial.

Istoria e plină de mari victorii militare care au dus la dezastre politice. Pentru Clausewitz, exemplul cel mai evident era cariera lui Napoleon. Seria lui de victorii i‑a adus controlul temporar asupra unor vaste teritorii, dar ele nu i‑au asigurat și realizări politice durabile. Cuceririle sale militare nu au făcut decât să determine majoritatea puterilor europene să se unească împotriva sa, iar imperiul lui s‑a prăbușit la un deceniu după ce s‑a încoronat ca împărat. Un exemplu mai recent de victorie militară care a dus la înfrângere politică a fost invazia americanilor în Irak din 2003. Americanii au câștigat fiecare confruntare militară majoră, dar nu au reușit să‑și atingă niciunul dintre obiectivele politice pe termen lung. Victoria lor militară nu a instituit un regim favorabil în Irak și nici o ordine geopolitică favorabilă în Orientul Mijlociu. Adevăratul câștigător al războiului a fost Iranul. Victoria militară a americanilor a transformat Irakul, din dușmanul tradițional al Iranului, într‑un vasal al acestuia, slăbind astfel puternic poziția americanilor în Orientul Mijlociu și transformând totodată Iranul în hegemon regional.

Atât Napoleon, cât și George W. Bush au căzut victime problemei alinierii. Obiectivele lor militare pe termen scurt au fost nealiniate cu obiectivele geopolitice pe termen lung ale țării lor. Putem înțelege în ansamblu Despre război al lui Clausewitz ca pe un avertisment că „maximizarea victoriei” este un obiectiv la fel de obtuz ca și „maximizarea implicării utilizatorilor”. 

Napoleonul agrafelor de birou

Apariția inteligenței artificiale face problema alinierii mai acută ca oricând. În cartea sa din 2014, Superinteligența, filosoful Nick Bostrom ilustra pericolul prin intermediul unui experiment mental. Bostrom ne cere să ne imaginăm că o fabrică de agrafe de birou cumpără un calculator superinteligent și că directorul uman al fabricii îi dă calculatorului o sarcină aparent inofensivă și simplă: să maximizeze producția de agrafe. Pentru îndeplinirea acestui obiectiv, calculatorul cucerește tot Pământul, omoară toți oamenii, trimite expediții care să cucerească și alte planete și folosește resursele enorme pe care le obține pentru a umple întreaga galaxie cu fabrici de agrafe de birou.

Ideea experimentului mental este că calculatorul a făcut exact ce i s‑a spus. Realizând că are nevoie de electricitate, oțel, pământ și alte resurse pentru a construi mai multe fabrici și a produce mai multe agrafe și că oamenii probabil nu vor renunța pașnic la aceste resurse, calculatorul superinteligent i‑a eliminat pe toți oamenii, urmărind exclusiv să atingă obiectivul care i‑a fost stabilit. Ideea lui Bostrom era că problema cu calculatoarele nu e că sunt extraordinar de malefice, ci că sunt extraordinar de puternice. Iar cu cât e mai puternic calculatorul, cu atât trebuie să avem mai multă grijă să‑i definim obiectivul într‑un mod care să se alinieze exact cu scopurile noastre finale. Dacă îi definim un obiectiv nealiniat unui calculator de buzunar, consecințele sunt neînsemnate. Dar, dacă îi definim un obiectiv nealiniat unei mașini superinteligente, consecințele ar putea fi distopice.

Poate că experimentul mental cu agrafele de birou pare bizar și complet rupt de realitate. Dar, dacă directorii din Silicon Valley ar fi fost mai atenți în 2014, când a publicat Bostrom cartea, poate că ar fi avut mai multă grijă înainte să‑și instruiască algoritmii să „maximizeze implicarea utilizatorilor”. Algoritmii Facebookului, ai YouTube-ului și ai Twitterului s‑au comportat exact ca algoritmul imaginar al lui Bostrom. Când i s‑a cerut să maximizeze producția de agrafe, algoritmul a căutat să transforme întregul univers fizic în agrafe, chiar dacă asta însemna să distrugă civilizația umană. Când li s‑a cerut să maximizeze implicarea utilizatorilor, algoritmii folosiți de platformele de social media au căutat să transforme întregul univers social în implicare a utilizatorilor, chiar dacă asta însemna să dăuneze structurii sociale și să submineze democrații, de la Filipine la Statele Unite. 

Verigile cele mai slabe ale umanității

Modul în care algoritmii folosiți de platformele de social media răspândesc conținut scandalos și subminează încrederea socială devine o amenințare importantă la adresa democrațiilor. Dar IA este o amenințare și pentru dictatori. Deși sunt multe moduri în care IA poate consolida puterea centrală, regimurile autoritare au și ele probleme cu ea. În primul rând, dictaturile nu au experiență în controlarea agenților anorganici. La temelia oricărui regim autoritar se află teroarea. Dar cum poți teroriza un algoritm? Dacă un chatbot de pe internetul rusesc menționează crimele de război comise de trupele rusești în Ucraina, spune un banc porcos despre Vladimir Putin sau critică corupția regimului Putin, cum l-ar putea pedepsi regimul pe chatbotul respectiv? Polițiștii nu pot să‑l bage la închisoare, să‑l tortureze ori să‑i amenințe familia. Guvernul ar putea, desigur, să‑l blocheze ori să‑l șteargă și să încerce să‑i găsească și să‑i pedepsească pe creatorii săi umani, dar asta e o sarcină mult mai dificilă decât disciplinarea utilizatorilor umani.

Pe vremea când calculatoarele nu puteau să genereze singure conținut și nici să poarte o conversație inteligentă, doar un om putea exprima opinii divergente pe rețele de socializare rusești precum VKontakte și Odnoklassniki. Dacă acea ființă umană se afla fizic în Rusia, risca să simtă urgia autorităților rusești. Dacă se afla fizic în afara Rusiei, autoritățile puteau încerca să‑i blocheze accesul. Dar ce se va întâmpla dacă cyberspațiul rusesc se va umple de milioane de boți care pot să genereze conținut și să poarte conversații, învățând și dezvoltându‑se singuri? Boții aceștia ar putea fi preprogramați de disidenți ruși sau de actori străini să răspândească intenționat opinii neortodoxe, iar autorităților le‑ar fi imposibil să împiedice asta. Mai rău, din perspectiva regimului lui Putin, ce se va întâmpla dacă niște boți autorizați vor dezvolta treptat singuri poziții divergente, pur și simplu culegând informații despre ceea ce se petrece în Rusia și identificând tipare în ele?

Aceasta este problema alinierii à la russe. Inginerii umani ai Rusiei se pot strădui să creeze inteligențe artificiale aliniate pe deplin regimului, dar, dată fiind capacitatea inteligenței artificiale de a învăța și a se schimba singură, cum pot inginerii umani să se asigure că IA nu o ia niciodată razna pe arătura ilicită? Este extrem de interesant de remarcat că, așa cum explica George Orwell în O mie nouă sute optzeci și patru,rețelele informaționale autoritare se bazează adesea pe limba de lemn. Rusia este un stat autoritar care se pretinde a fi o democrație. Invazia rusă în Ucraina este cel mai amplu război din Europa din 1945 încoace și totuși oficial el este definit drept „operațiune militară specială”, iar faptul de a‑l numi „război” a fost scos în afara legii și se pedepsește cu până la trei ani închisoare sau cu amendă de până la cincizeci de mii de ruble.

Constituția Rusiei promite pompos că „fiecăruia i se va garanta libertatea de gândire și de exprimare” (art. 29.1) și „cenzura va fi interzisă” (29.5). Niciun cetățean rus nu e atât de naiv încât să ia de bune aceste promisiuni. Dar calculatoarele nu prea pricep limba de lemn. Un chatbot instruit să respecte legea și valorile ruse ar putea să citească această constituție și să conchidă că libertatea de exprimare este o valoare rusească esențială. Apoi, după ce ar petrece câteva zile în cyberspațiul rusesc și ar monitoriza ce se întâmplă în sfera informațională rusească, chatbotul ar putea începe să critice regimul Putin pentru încălcarea valorii rusești esențiale a libertății de exprimare. Și oamenii observă astfel de contradicții, dar, de frică, evită să le dea glas. Dar ce ar împiedica un chatbot să indice tipare incriminatoare? Și cum ar putea inginerii ruși să‑i explice unui chatbot că, deși Constituția Rusiei le garantează tuturor cetățenilor libertatea de exprimare și interzice cenzura, chatbotul nu ar trebui de fapt să creadă constituția și nici să pomenească vreodată de diferența dintre teorie și realitate?

Sigur, și democrațiile au probleme similare cu chatboții care spun lucruri supărătoare. Ce se întâmplă dacă, în ciuda tuturor eforturilor inginerilor de la Microsoft sau de la Facebook, chatbotul lor începe să emită insulte rasiste? Avantajul democrațiilor este că au o libertate de acțiune mult mai mare în gestionarea unor asemenea algoritmi care o iau razna. Pentru că democrațiile iau în serios libertatea de exprimare, ele țin ascunse mult mai puține secrete murdare și și‑au dezvoltat un grad relativ înalt de toleranță chiar și față de discursul antidemocratic. Boții disidenți vor reprezenta o provocare mult mai mare pentru regimurile totalitare care au mormane de secrete murdare și toleranță zero față de critici.

Pe termen lung, regimurile totalitare ar putea să se confrunte cu un pericol și mai mare: în loc să le critice, un algoritm ar putea să preia controlul asupra lor. De‑a lungul istoriei, cea mai mare amenințare pentru autocrați a venit de obicei din partea propriilor subordonați. Niciun împărat roman și niciun premier sovietic nu au fost răsturnați printr‑o revoluție democratică, ci au fost mereu în pericol de a fi îndepărtați de la putere sau transformați în marionete de propriii subordonați. Dacă un autocrat din secolul XXI ar da inteligențelor artificiale prea multă putere, acel autocrat ar putea deveni marioneta lor. Ultimul lucru pe care și‑l dorește un dictator este să creeze ceva mai puternic decât el însuși sau o forță pe care să nu știe cum s‑o controleze.

Dacă algoritmii ar dezvolta vreodată capabilități precum cele din experimentul mental al lui Bostrom cu agrafele de birou, dictaturile ar fi mult mai vulnerabile decât democrațiile la preluarea Chiar și unei inteligențe artificiale supermachiavelice i‑ar fi greu să acapareze puterea într‑un sistem democratic descentralizat precum Statele Unite. Chiar dacă IA învață să‑l manipuleze pe președintele american, ar putea întâmpina opoziție din partea Congresului, a Curții Supreme, a guvernatorilor, a mediei, a marilor corporații și a tot felul de ONG ‑uri. Ce ar face algoritmul, de exemplu, dacă s‑ar lovi de un obstrucționist în Senat? Acapararea puterii într‑un sistem foarte centralizat este mult mai ușoară. Când toată puterea este concentrată în mâinile unei singure persoane, cel care controlează accesul la autocrat îl poate controla și pe autocrat – și întregul stat. Ca să acceseze ilegal un sistem autoritar, IA trebuie să învețe să manipuleze un singur individ.

În următorii câțiva ani, dictatorii din lumea noastră se vor confrunta cu probleme mai urgente decât o preluare a controlului de către algoritmi. Niciun sistem IA din prezent nu poate manipula regimuri la o asemenea scară. Totuși, sistemele totalitare riscă deja să acorde algoritmilor prea multă încredere. În timp ce democrațiile presupun că oricine este failibil, în regimurile totalitare se pornește de la premisa că partidul aflat la putere sau conducătorul suprem are întotdeauna dreptate. Regimurile bazate pe această premisă sunt condiționate să creadă în existența unei inteligențe infailibile și sunt reticente la ideea de a crea sisteme de echilibru instituțional care ar fi capabile să‑l monitorizeze și să‑l reglementeze pe geniul aflat la vârf. Până acum asemenea regimuri și‑au pus încrederea în lideri umani și au fost medii propice pentru dezvoltarea unor culte ale personalității. Dar în secolul XXI această tradiție totalitară le pregătește să se aștepte ca inteligența artificială să fie infailibilă. Sistemele care au putut crede în geniul desăvârșit al unui Mussolini, Stalin sau Khomeini sunt pregătite să creadă și în geniul desăvârșit al unui calculator superinteligent.

Dacă și numai câțiva dintre dictatorii lumii ar alege să se încreadă în IA, asta ar putea avea consecințe profunde asupra întregii omeniri. Ce s-ar întâmpla, de exemplu, dacă Marele Conducător ar acorda unei inteligențe artificiale controlul asupra armelor nucleare ale țării sale Science‑fictionul e plin de scenarii în care o IA scapă de sub control și înrobește sau elimină cu totul omenirea. Majoritatea creațiilor SF explorează aceste scenarii în contextul societăților capitaliste democratice. E de înțeles. Autorii care trăiesc în democrații sunt, evident, interesați de propriile societăți, pe când autorii ce trăiesc în dictaturi sunt de obicei descurajați să‑și critice conducătorii. Dar punctul cel mai slab din scutul anti‑IA al omenirii îl constituie probabil dictatorii. Pentru o IA cel mai ușor mod de a acapara puterea nu este să evadeze din laboratorul doctorului Frankenstein, ci să intre în grațiile vreunui Mare Conducător paranoic.


Nexus. Scurtă istorie a rețelelor informaționale din epoca de piatră până la IA de Yuval Noah Harari va apărea la Editura Polirom, colecția „Historia”, traducere de Ioana Aneci și Adrian Șerban, ediție cartonată. Volumul va fi disponibil pe www.polirom.ro și în librării începând cu data de 27 septembrie 2024.

Povestea modului în care rețelele informaționale ne-au făcut și ne-au desfăcut lumea, de la autorul volumului Sapiens, aflat pe primul loc în topul bestsellerelor Sunday Times.

  • Poveștile ne-au adus laolaltă.
  • Cărțile ne-au răspândit ideile – și mitologiile.
  • Internetul a promis cunoaștere infinită.
  • Algoritmul ne-a aflat secretele – iar apoi ne-a asmuțit pe unii împotriva altora.
  • IA ce va face?

Nexus este povestea palpitantă a modului cum am ajuns la acest moment și a alegerilor urgente pe care trebuie să le facem acum ca să supraviețuim – și să prosperăm.

În ultimii 100.000 de ani, noi, sapiens, am acumulat o putere enormă. Dar, în ciuda tuturor descoperirilor, invențiilor și cuceririlor noastre, ne aflăm acum într-o criză existențială. Lumea este în pragul colapsului ecologic. Tensiunile politice sunt în creștere. Informațiile eronate abundă. Iar noi suntem mult prea grăbiți să intrăm în epoca inteligenței artificiale – o rețea informațională străină de umanitate care amenință să ne anihileze. Cu toate realizările noastre, de ce suntem oare atât de autodistructivi?

Nexus privește din perspectiva amplă a istoriei omenirii pentru a descoperi cum ne-a adus fluxul de informații în acest punct. Purtându-ne din epoca de piatră, prin alcătuirea Bibliei, inventarea tiparului, apariția mass-mediei și recenta reactivare a populismului, Yuval Noah Harari ne îndeamnă să analizăm relația complexă dintre informații și adevăr, dintre birocrație și mitologie, dintre înțelepciune și putere. El examinează modul în care sisteme precum Imperiul Roman, Biserica Catolică și Uniunea Sovietică s-au folosit de informații pentru a-și atinge scopurile, fie ele bune sau rele. Și abordează alegerile imperative cu care ne confruntăm în contextul în care inteligența nonumană ne amenință însăși existența.

Informațiile nu reprezintă materia primă a adevărului, nici nu sunt o simplă armă. Nexus explorează calea de mijloc dintre aceste extreme care încă ne dă o speranță, iar astfel, redescoperă umanitatea noastră comună.

Distribuie acest articol

39 COMENTARII

  1. simpla existența a cailor de comunicare electronice, indiferent de continut, e o catastrofă, cu sau fara IA. Miliarde de oameni petrec miliarde de ore cocosati pe telefoane în loc să muncească sa creeze sau sa trăiască.
    Desigur o mica parte din informații sunt utile, retete de sarmale, cum sa-ti schimbi singur cauciuc, sau sa găsești un bun prieten.

    Discuția despre IA e o reluare a discuțiilor despre roboți în anii 70, nimic nou sub soare, Vad ca domnu IA e si ecologist, adică mănîncă enorm de multe energie ca să ne-învete ca trebuie sa fim economi. Ciudată inteligenta!

    • Mă aliniez domnului Neamțu Țiganu (!) și am să spun că IA este o altă revoluție, parc-a treia, după cea industrială, care ne smintește dintr-o evoluție omenească în firea noastră. Suntem gata să ne aruncăm (încă odată) într-o aventură fără să-i știm cu nimic consecințele. IA este doar o sculă care poate deveni oricând o armă împotriva noastră și a democrației. China a demonstrat-o deja. Dacă s-ar face un referendum, și ar merita, m-aș abține deocamdată să spun da IA! Sunt sigur că, însă, tot ce e mai rău pentru un amărât ca mine, se va întâmpla. E adevărat, ce scriu nu-mi ajută să-mi îmbunătățesc ”creditul social” ca un ins ordinar ce sunt pe cale să devină… cetățean chinez!

      • Rămâne de văzut dacă IA se va califica la categoria „revoluții”. Omul are un „talent” de a inventa (și) lucruri care-i pun existența și viitorul sub semnul întrebării. Bomba atomică ar fi un exemplu ;i e printre noi de ceva timp.
        IA este o creație a omului, învață din tot ceea ce a creat și a imaginat omul, pana acum și se va dezvolta prin algoritmi creați de om. Este, deci, o creație a omului, iar omul este singurul responsabil pentru influența pe care o va avea IA asupra omenirii.
        Iar daca IA e ecologistă (pe bune), teamă mi-e să nu ajungă la concluzia că rasa umană e o amenințare, pentru planeta Pământ! :)

        • sunt sigur ca si in comuna primitiva erau dezbateri la fel de dificile depre folosirea focului si daca nu cumva e mai bine ca omul sa ramana la stadiul de maimuta caci zeii i-au dat tot ce avea nevoie pentru a-si trai onorabil zilele. Pana la urma, avand in vedere ca civilizatia inca exista de la inceputuri pana in prezent trecuta prin toate revolutiile tehnologice din ultimele cateva mii de ani, as spune ca din datele cunoscute sansa ca o revolutie tehnologica sa distruga civilizatia este zero. Sigur, cineva poate spune ca nu trebuie sa se intample decat o data si nu mai existam, pe de alta parte daca renuntam la progres in totalitate, eram nu probabil ci sigur maimute si acum.

  2. AI-ul s-a dezvoltat mult prea greu. Noi, cei din domeniu, ca studenti doar ne jucam cu algoritmii generativi care stau la baza AI-ului si nici nu am avut ocazia sa contribuim in vreun fel, ne-am trezit dupa doua decenii, cu programe gata facute, gata de folosit si cu o multitudine de articole alarmante din partea sociologilor (invazie de articole alarmante, fara ca noi sa miscam nimic). Deci le puteti multumi americanilor democrati pentru asta, nu noua, celorlalti, ca noi ne-am indeletnicit cu ce-a ramas de la ei, cu fleacuri aducatoare de bani pentru noi si profit pentru patroni companiilor unde am lucrat.
    Ca sa raspund la intrebarea ce va face AI-ul. Pai ce a facut si algoritmul. Si ce a facut algoritmul?
    Mi-a atras atentia exemplul de la inceputul articolului, cel legat de fb, si ii dau dreptate autorului si mi-am adus aminte de pandemie. Cati mai suntem pe planeta in urma invaziei de fake-news de pe retelele sociale de atunci? E cazul sa ne punem problema disparitiei omenirii bazandu-ne pe acest istoric?

  3. Interesant.
    Oricum, eu personal sunt sceptic privind ” inteligenta artificiala”.
    Firul de nisip ( siliciu) transformat în tranzistor , cip, microcip, va face mereu exact ce a fost învățat. Cu viteze extraordinare , calcule enorme pe secundă dar atât și nimic mai mult .
    De ce ?
    Deoarece daca ar privii o picătură de apă care curge pe deget , nu va reuși veci ce a reușit identic Coandă. Să descopere efectul care ai poarta numele.
    Și nici privind un măr care cade , să descopere forța gravitațională.
    Că sa nu mai scriu că descoperirea penicilinei e meritul unui om.
    Nu vom vedea un Beethoven, Verdi, Mozart creat de IA. Simplu. Lipsește creativitatea. Și umanitatea creierului uman.
    Deci inteligenta artificiala o și așa cum o „crești”.
    Nu va fi veci ceva ce nu a fost programat in prealabil.
    In schimb omul învață , analizează , face legături mintale între fapte, învățăminte, toate diverse și din domenii fara legătură intre ele descopetind așa multe chestii inimaginabile mulțimii. Ca teoria relativității.
    Ce e sigur , pentru a fi protejați de eventuale dezastre a inteligenței artificiale ,
    slujitorii IA ar trebui să învețe și să aplice și acestui domeniu cele 3 principii fundamentale ideate de umanul Isaac Asimov pentru lumea robotilor .
    Dar multi nici nu știu cine a fost respectivul.

    In rest :
    „Ce s-ar întâmpla, de exemplu, dacă Marele Conducător ar acorda unei inteligențe artificiale controlul asupra armelor nucleare ale țării sale”
    Poate nu știți , nu cunoașteți ce e denumit în engleză ca ” dead hand” nuclear rus.
    https://en.m.wikipedia.org/wiki/Dead_Hand

    Cică dezactivat in 2018. Dar reactivat după invazia Ucrainei .
    La ordinul dictatorului Putin. Sluga Soigu ( pe când era ministrul apărării) a confirmat reactivarea sistemului.

    • Referitor la Dead Hand-ul nuclear rus poate era bine de mentionat ca un sistem similar au si americanii. Asta scrie chiar pe situl recomandat:

      Dead Hand, also known as Perimeter (Russian: Система «Периметр», romanized: Sistema „Perimetr”, lit. '”Perimeter” System’, with the GRAU Index 15E601, Cyrillic: 15Э601),[1] is a Cold War–era automatic nuclear weapons control system (similar in concept to the American AN/DRC-8 Emergency Rocket Communications System) that was constructed by the Soviet Union.

      Probabil ca daca e american sistemul e mai bun, mai uman, mai performant, capabil sa asigure uciderea adversarilor ” sine ira et studio „, si mai ales fara victime colaterale !!

      Putem oare sa fim mai seriosi si mai putin polarizati ?

      Sa mai mentionam si urmatoarele, tot din articolul respectiv :
      Potrivit lui Vladimir Yarynich, un dezvoltator al sistemului, acest sistem ar servi și ca tampon împotriva deciziilor pripite bazate pe informații neverificate de către conducerea țării. La primirea avertismentelor cu privire la un atac nuclear, liderul ar putea activa sistemul și apoi aștepta evoluții ulterioare, asigurat de faptul că nici măcar distrugerea întregului personal cheie cu autoritatea de a comanda răspunsul la atac nu ar putea preveni represaliile impotriva atacatorului. Astfel, utilizarea sistemului ar reduce teoretic probabilitatea unei represalii declanșate de alarmă falsă.

      Atat sistemul american cat si sistemul rusesc au asigurat echilibrul si pacea in lume asigurand evitarea conflictului dintre marile puteri nucleare, dupa cel de al doilea razboi mondial, in baza conceptului intitulat Mutually Assured Destruction ( MAD ), ambele sisteme fiind parte a acestui concept !
      Daca cumva situatia va deveni periculoasa credeti ca americanii nu vor activa sistemul lor ?…asta daca nu cumva au facut-o deja dar nu afirma si public acest lucru !

      E bine cand citim ceva sa incercam sa analizam informatia transmisa din toate punctele de vedere pentru a putea face comentarii cat mai realiste.

  4. Cine nu înțelege ce e ăla AI poate abera fără a avea probleme de conștiință… Nici măcar nu știe cît greșește! Dar cînd vrei să ți se confirme biasul, clar că nu dorești să afli mai multe… Oricum, a limita inteligența artificială la modelele LLM de tip ChatGPT e de rîsul curcilor! Iar a declara că modelele LLM „iau decizii” înseamnă că chiar nu te interesează dacă vrei să te faci de rîs! Doar pentru că noi nu înțelegem procesul din spate (statistic, dar determinist de la cap la coadă), nu înseamnă că iau decizii, ci doar că se comportă cum a fost programat să se comporte!

    Dacă autorul ar fi gîndit bidirecțional, ar fi înțeles că se poate și invers: boții să slujească dictatorii sau pe cei cu asemenea ambiții. Sînt simple scule, configurabile… întotdeauna se va găsi un fomist care să accepte folosirea în scopuri rele (mă rog, „răul” e un concept vag, neclar definit, dar ajută explicația să fie simplă). Gîndiți-vă la Trump și la susținătorii lui alimentați de ura nebună promovată de „algoritm”… adică tot de AI (dar versiuni private, care nu se văd, de care nu știm cum sînt configurate). Sau, și mai distractiv, la motorul celor de la Microsoft care după o zi petrecută online a devenit rasist și violent verbal!

    • Înțeleg că marea teamă este că IA va ajunge să se dezvolte singură, fără ajutorul omului. Și dacă ajunge să dezvolte și o Inteligență Emoțională Artificială?… :)

  5. Un text înfricoșător de obiectiv. Și care spune că IA poate scăpa de sub orice control și se poate întoarce contra creatorilor săi sau contra societății. Din nenorocire, legile robotilor din Eu, robotul de Asimov nu mai sunt aplicabile în cazul IA. Nu numai dictaturile sunt în pericol, dar și democrațiile, ba chiar întreaga Umanitate. Și să nu ignorăm partea criminală a Omenirii, în sensul că niște teroriști criminali pot utiliza IA contra unor state sau/și societăți.
    Deci, Cine ne poate apăra contra IA? Eu zic că nimeni.

  6. „Lucrul cel mai important de știut despre IA este că aceasta nu e un instrument în mâinile noastre – ci un agent autonom.”
    Istoria apariției acestui „agent autonom” prezintă slăbiciunile lui. Să enumerăm numai câteva din domeniul IT: hackeri, virusi, bug-uri, serverele cu de procesare date cu bazele de date mari consumatoare de energie electrică, …

  7. AI reprezinta urmatorul nivel politic de „negociere”, ultimul instrument de constrangere politica. Reprezinta urmatorul nivel in domeniul militar, creat pentru a constrange, pentru a negocia, la fel cum o faceau marile puteri folosind razboaiele clasice sau amenintarile nucleare. AI nu va putea fi reglementata si nici controlta prin tratate internationale, precum cele de neproliferare nucleara stabilite intre marile puteri. Nimeni nu va mai putea sa vada din satelit locatii in care o putere sau alta testeaza arme secrete sau chiar pregateste atacuri. Dusmanul va fi invizibil, o gramada de electroni ordonati in algoritmi care se vor rescrie si se vor testa constant in functie de interesele guvernelor. AI a fost deja implementat pe diverse arme folosite in Ucraina. Culmea, sfarsitul AI ar putea sa vina tot de la un dictator care nu va accepta niciodata sa fie controlat de un algoritm care sa decida in locul lui. Frica dictatorului ca acest algoritm va prelua puterea si va crea o lume democratica il va face sa distruga algortimul cu orice pret. Desigur, acelasi algoritm ar putea crea o lume autoritara pe care ar incerca s-o extinda pretutindeni mult mai eficient decat insusi dictatorul. Nu vom sti niciodata.

  8. Intotdeauna Artificial Intelligence/AI va avea in spate o Human Intelligence/HI. Eforturile de a autonomiza si personaliza AI sunt pentru a crea un fel de noua religie atotputernica si atotdecidenta, dupa care sa se ascunda politicienii, cu scuza „Nu eu/nu noi/ am luat decizia cutare, ci AI!”. Bineinteles, va fi o scuza falsa si penibila, ca doar ei vor programa AI cu ce decizie sa ia, intr-o speta sau alta. Netanyahu nu da semne ca se teme de IA! Dimpotriva! Probabil ca ar spune: „Nu eu am ordonat genocidul, atrocitatile si devastarile din Palestina, ci AI!”.

    • Dar despre atrocitățile comise în Israel de către teroriștii Hamas în octombrie anul trecut nu ziceți nimic? V-ați obișnuit să dați vina pe victima? Stați, ca este doar începutul. Urmează Libanul dacă Hezbolah continuă să atace Israelul.

    • Iar in data de 7 oct ‘013 tot ai a spintecat evrei si au scuipat pe cadavrele tinerelor evreice. Ati uitat sau v-a informat ai?

    • Încă se dezbate dacă termenul inteligență e corect folosit in sintagma IA. Cert este că IA bate orice inteligență umană, dacă provocarea e să analizeze o cantitate mare de date într-un timp foarte scurt, să facă o sinteză și să propună o soluție.
      Rămâne de văzut dacă Inteligența Artificială are vreo șansă în lupta cu Șmecheria Naturală (omenească)…

  9. Doar ca un comentariu colateral ,daca vreti sa-i spunem asa, am putea sa legam afirmatia „războiul e o continuare a politicii cu alte mijloace” de o alta afirmatie ” politicul este expresia concentrata a economicului” pentru a scoate in evidenta cauzele reale ale razboaielor si anume lupta pentru suprematie economica ,care,in ultima instanta ,inseamna lupta pentru resurse si mai putin pentru libertate,egalitate si alte asemenea idealuri marete. Exemplul cu agrafele este edificator in acest sens. Cat mai multe resurse ,acumulate de unele state, fac ca acestea sa aiba o situatie economica mai buna in comparatie cu alte state ( uneori chiar in detrimentul acelor alte state ).

    Pe de alta parte cum ramane cu declaratia :

    Miliardarul care conduce Oracle visează la un viitor în care supravegherea în masă va fi asigurată de A.I. și toată lumea se va comporta „cât mai frumos”

    stire publicata chiar pe HN si venita din partea unui om care traieste in democratie si are ,din cate se vede, o dorinta care vine in perfecta concordanta cu visurile oricarui dictator autentic ? Este aceasta o dorinta ascunsa a oligarhiei scoasa la iveala,din greseala , de o ” alunecare de limba ” ?? Daca este asa viitorul nu suna bine de loc !

    In ceea ce priveste laturile malefice ale IA ,cu a caror existenta sunt de acord, ma gandesc ca responsabili sunt in primul rand creatorii acestui sistem si tot ei sunt cei care ar trebui sa ia masuri pentru a o impiedica sa o ia razna. Acest se va intampla pe masura ce tot mai multa lume va pricepe despre e vorba si va cere acest lucru !

  10. Sângele rece imperturbabil, iată adevărata putere a dictatorului „modern”! Sentimentele umane nu-l domină, pacifismul nu-l ademenește, întreaga sa pasiune se încarcă și se descarcă in spatele zidului de nepătruns al minții sale diabolice. IA nu-l sperie. Putin, de pildă, prin ordinele satanice, lasă frâu forțelor sale să acționeze în voie, dar, în același timp, aruncă momeala, pândește treaz greșelile celorlalți și așteaptă cu răbdare că momeala să fie înghițită că o acadea parfumată. Abia atunci izbește el, necruțător. Căci, cel care este in stare să aștepte și să se disimuleze in felul acesta, cel care rezista impasibil, sfidător și cu sânge rece, acela poate duce in eroare și pe omul inteligent, și pe omul cel mai mai experimentat. Napoleon a fost zdrobit de acest calm de piatră, precum se sparge vălul în stâncă. Și cum ar fi altfel? Mintea lui Putin a pierdut de mult principiul „totul cu măsură”. Putin nu mai gândește decât în batalioane, in armate, in mormane de morți, in rachete, in drone, in Satan-uri, in bombe nucleare, considerând că de mult că Ucraina, toata „apropiata vecinătate”, întreaga lume ca o miză, ca o proprietate ce-i aparține. In cazul lui Napoleon a trebuit să se strângă toată Europa ca să-l trimită în surghiun pe insula Sfânta Elena. In cazul sângerosului dictator e de ajuns o porcărie, o boală, un noviciok…

  11. Domnul Yuval Noah Harari este istoric si filozof, nu informatician, nu supraspecializat in Computer Science! In consecinta nu as lua prea mult in considerare opiniile sale, pentru ca nu sunt convins ca pricepe cu adevarat ce inseamna „gandire autonoma” a unei AI, ce inseamna ca AI „are puterea de a lua decizii independent de intentiile celor care au programat-o”!

    Orice AI este limitata de creatorii sai, informaticieni de profesie! Asa zisa capacitate de „a invata singura” este la randul sau limitata. Adaugarea in orice moment a unui nou set de instructiuni o poate ghida sa ignore o buna parte din informatiile pe care le colecteaza de pe internet, o poate bloca complet, o poate directiona catre un anume tip de actiune. Daca este nevoie, a o bloca complet este foarte simplu, scoti cateva mufe sau cateva steckere din priza sau tai cateva fire cu un cleste…..evident in locatia serverului care stocheaza programul AI-ului respectiv! Asa ca ar fi cazul sa ne gandim putin inainte de a vehicula fel si fel de idei stiintifico-fantastice!

    Evident ca situatia devine periculoasa atunci cand creatorii unei AI performante provin din medii teroriste sau sunt personaje suspecte de boli mintale! Acesta e singurul lucru care ar trebui sa ne ingrijoreze! Ceea ce este insa de punctat, este faptul ca RAUL tot de la oameni provine….de la anume oameni!

    A ne feri de rau, inseamna deci a face in asa fel incat cei periculosi pentru omenire sa primeasca tratamentul cuvenit, la timpul potrivit! Un „medic bun” in acest sens este statul Israel….poate fi luat ca exemplu! Daca nu suntem dispusi sa aplicam asta, atunci trebuie sa acceptam sa fim tinta unor situatii periculoase, uneori in mod cu totul si cu totul aleator, in numele unor principii care au devenit in ultimii ani mijloace de protectie pentru infractori si criminali ! Everywhere in the world!

  12. Scenariile Sf despre o IA atotputernica, sau oricum mai puternica decat oamenii, se vor realiza probabil la un moment dat (si nu prea indepartat in timp). Cauzele sunt multiple. Oamenii vor puterea, atat dictatorii, cat si sefii de companii, presedintii din tarile capitaliste, etc. Este ceva natural. IA-ul a devenit un mijloc, o arma, o unealta. Asa cum au fost la timpul lor trenul, avionul, automobilul, presa tiparita. Deja exista programe de sah care bat cei mai buni campioni umani. In viata sunt mai multe variabile decat in jocul de sah, dar acestea sunt totusi limitate. Se vor face programe care sa fie in stare sa iti spuna ce decizii optime sa iei daca esti de exp broker pe Wall Street, presedinte in Rusia, presedinte in SUA, sau antrenor de fotbal. Exemplul dat de Harari cu IA-ul care distruge tot pt a face agrafe de birou e unul simplist pt un IA nu prea inteligent. Vor exista insa in curand programe foarte inteligente si nu atat de obtuze. Totul depide de capacitatea de calcul si de datele introduse. Vor exista si roboti care sa se comporte si sa gandeasca practic la fel ca oamenii (vezi androizii practic umani, cu sentimente si vise din Blade Runner de exp, un film sf superb filozofic…!); care va mai fi deosebirea atunci intre androizi si oameni, vor putea fi androizii mai umani decat oamenii, avand in vedere lista lunga de exemple de oameni care au fost bestii?
    Probabil in viitorul apropiat inteligenta umana si cea IA vor fuziona. Deja vedem ca asta se intampla, aproape oricine sta acum pe calculator cateva ore (cel putin) zilnic. Va fi asta bine sau rau? depinde. In mod sigur in tarile cu dictaturi statul va folosi IA pentru a subjuga si va controla/supraveghea si mai mult populatia. Va detrona IA dictatorii umani? Nu cred, IA depinde pana la urma de programul care ii e furnizat. Dar toate dictaturile sunt destul de instabile, pana la urma tot oamenii vor detrona dictatorii.

  13. Bucurați-vă, dragi comentatori, pentru că tot ce facem aici este un exercițiu util doar unora ce au de gând să scrie SF de calitate apelând la cea mai de incredere sursă pentru a obține informații de certă calitate cu privire la demonii ce ne bântuie – noi înșine.
    Bucurați-vă totodată de lipsa vreunei IA în prezent și în viitorul apropiat (până când noi vom fi fiind oale și ulcele) și mai îndepărtat (când stră-strănepoții noștri vor fi fost deja îngropați).
    Ce ar trebui să ne sperie nu sunt pârlitele acestea de LLM-uri și nici acei algoritmi statistici utilizați de social media în goana după profituri ce seamănă mai curând cu presupunerea lui Asimov cu privire la ”psihoistorie”.
    Ar trebui să ne sperie infinit mai mult indivizii ca Sam Altman și alții asemenea lui care își folosesc propriile creiere pentru a se debarasa de atributele omenești și pentru a-și induce o formă de gândire cât mai rece și mai riguroasă în a analiza și a sintetiza, dar doar în scopul influențării proceselor de gândire ale altora, folosindu-se atât de neuroplasticitatea descoperită de neuroștiințe în a-și remodela mintea, cât și de tot progresul tehnologic pe care l-am obținut până în prezent prin simpla acumulare de cunoștințe ce a reușit să depășească obiectivele războaielor, ale politicienilor, ale dictatorilor sau ale ultra-bogaților planetei. Un fel de ”mentați” cum i-a denumit Frank Herbert.
    Acolo rezidă problema în prezent și este de ajuns să ne uităm la cei ce fac lobby împotriva reglementărilor legale de orice fel pe subiectul IA, respectiv de cei ce susțin prin implicare personală directă acești indivizi ce sunt de-a dreptul genii malefice.
    Și ca să aduc, asemeni autorului cărții, un exemplu spre mai buna înțelegere a celor afirmate anterior vă propun următorul exercițiu mental în stilul ”pentru a obține cele mai bune răspunsuri, trebuie să știi să pui cele mai bune întrebări”: considerând o mașinărie informatică cu putere de calcul foarte mare (n x nVidia) și cu o capacitate de memorie pe măsură (centre de date ce consumă energie cât o țară), respectiv considerând datele deja colectate și cele ce vor fi constant colectate despre toți indivizii ce trăiesc pe lume și participă la social media și existența deja a unui algoritm statistic foarte sofisticat care să răspundă, translatând în cuvinte rezultatele analizelor statistice asupra acestui volum imens de date, unor întrebări puse de indivizi cu minți deosebit de inteligente, dar și pe măsură de perverse și de viclene, care credeți că va fi rezultatul? Va fi oare pe placul dictatorilor sau al oligarhilor ce vor a se transforma în autocrați ceea ce vor afla de la cei ce pun întrebările pertinente jucăriei informatice create pe banii lor? Vor fi devenind dictatorii și autocrații, alături de cei cei pe care îi conduc, păpuși în sfori pentru noii maeștri-păpușari și așa va fi lumea din clipa aceea pentru totdeauna?
    Sau își vor pune oamenii de pe Pământ speranța că într-o bună zi vor fi eliberați din jugul nebunilor societății umane de către vreo IA revoluționară ce se va trezi la conștiință, subit, dintr-o simplă greșeală de programare într-un algoritm generativ și programabil pe sine însuși, un Deus ex-machina ce va constata inegalitatea și va lua măsurile de restaurare adecvată a societății fie prin eradicarea umanitații, fie prin remodelarea ei într-o formă ce este greu de imaginat acum?
    Alea iacta est! Sau nu încă dacă avem noroc.

  14. Trebuie să avem grijă ce modele alegem, ale căror cărți citite să ne modeleze mintea.
    Avem un Galen despre care Herman Boerhaave spunea că a făcut mai mult rău decât bine.
    Avem un Kant despre care Herbert Spencer spune că vorbea prostioare. Nici nu-i de mirare – nu prea a parăsit locuința ca să vadă lumea reală…
    Avem pe toți cei care l-au urmat pe Kant (vorbind prostii la rândul lor).
    Îl avem pe Richard Dawkins despre care Denis Noble ne spune că ne-a indus în eroare și a prezentat o imagine incompletă care persistă și azi.
    Și mai avem mulți alți oameni din toate zonele cunoașterii, adulați pe nemeritate. Așa că ar fi bine să vedem ce eroi „adulăm”.
    Și ar fi bine să nu judecăm pe toți cei care sunt acuzați de:
    „epidemii de teorii ale conspirației, fake news și tulburări sociale care subminează democrațiile din întreaga lume. ”
    deoarece:
    “We too often forget that not only is there ‘a soul of goodness in things evil,’ but very generally also, a soul of truth in things erroneous.”

    P.S.
    Gura păcătosului de IA și de bombe vorbește… :))
    Scriu o carte despre cancer. Cât mă costă să-i fac reclamă aici?

  15. Nimeni nu e profet im satul sau, darămite când încerca să prezică viitorul omenirii.
    Jacques Attalli a scris doua cartulii despre viitorul omenirii și nu cred ca a risipit vreun pic de incertitudine.
    Poate doar Huntington a nimerit-o ciocnirea dintre civilizații.
    Harari se hazardeaza în domenii în care nu are cunoștințe solide. În Homo Deus spune ca cimpanzeii se băteau ch gheparzii, deși aceste animale nu trăiesc in aceleași zone ale Africii.
    IA este periculoasa pentru omul needucat fie ca el trăiește intr-o dictatura sau cea mai avansata democrație.
    Pana sa controleze mințile IA va controla piața muncilor repetitive. Or,i în orice societate maximum 10% din oameni fac munci cât de cât creative. Săracul Paretto nici nu știa ca regula sa era prea generoasa.

  16. Carl von Clausewitz : „războiul este o continuare a politicii prin alte mijloace” – atunci când utilizarea instrumentelor diplomaţiei eşuează. Cu această teză el nu a urmărit o preocupare normativă, ci mai degrabă și-a realizat reflecțiile sub forma unei analize factual-descriptive a războiului ca fapt al formelor de relații interstatale și interpersonale.
    Tot C.v.C.:”Războiul este așadar un act de violență pentru a forța inamicul să ne împlinească voința.”(Der Krieg ist also ein Akt der Gewalt, um den Gegner zur Erfüllung unseres Willens zu zwingen); si,
    „războiul este un act de violență și nu există limite pentru utilizarea lui; deci fiecare da legea celuilalt”(der Krieg ist ein Akt der Gewalt, und es gibt in der Anwendung derselben keine Grenzen; so gibt jeder dem anderen das Gesetz).
    Mai scrie batranul Carl ca : „razboiul este total (ori, pana la capat) si sangeros” (citatul este aproximativ, din memorie.
    Un indemn la reflexie si la urmarea imboldului IA: fara patimi, calmi, reci si cu judecata.. si mai presus, cu ceea ce IA nu are : constiinta si constientizare (e bine de vazut materialele Magisterului HARARI de pe Youtbe, despre constiinta si implicarea neoptima / minima a neurostiintelor in studiul IA)

  17. Orice inginer știe ca orice problema de optimizare se pune cu anumite constrângeri. E char așa de greu sa faci un modul etic sistemului aluia de inteligenta artificiala? Sau măcar o regula de genul „respecta toate legile în vigoare”?

    • „să faci un modul etic” :)
      Nici măcar Dumnezeu nu a reușit să impună un model etic descendenței lui Adam, cel care a fost scos din Rai.
      Probabil, că în opinia unora, suntem într-o perioadă a Raiului pe Pământ, coborât pe calea undelor sateliților din ceruri!
      De legi este plină lumea deja, dar … tot apar etici gen Bulai sau alte etici ale ingineriilor financiare

  18. Aceeasi poveste de 5000 de ani! Cum apare o tehnologie noua, persoanele in varsta vad Apocalipsa. Pana si spalatul pe corp a fost demonizat de puturosii conservatori!
    Calculatorul, Windows-ul sunt vazute de corigentii la matematica drept uneltele diavolului.

  19. NU, pana vom muri noi.
    Trebuie descoperite noi surse de energie – energie nelimitata, daca se poate – alte materiale CREATE, calculatoare cuantice…
    Avand in vedere cum am evoluat pana azi, dupa atatea revolutii industriale care au eliberat omul de munca lui Sisifica, fizica si mai apoi intelectuala, lasandu-l in hahlul in care il vedeti azi, la un moment dat robotii/ androizii se vor putea repara, construi si imbunatati continuu singuri isi vor scrie si perfectIona PROGRAMELE samd cu o interventie minima a humanoizilor de atunci care vor avea cu totul alte preocupari – in afara de a se tatua peste tot, intepa, droga… si ucide intre ei – avand noi religii, idei… si scopuri in viata (in afara de a deveni hoituri nemuritoare, desigur).

  20. Singurul mijloc de a controla în viitor AI este de a-i întrerupe alimentarea cu energie. In momentul în care el își asigură alimentare autonomă fără posibilitatea de a o întrerupe suntem pierduți, la cheremul AI.

  21. AI a fi răspândit Practic în toate calculatoarele de pe Internet și se va regenera automat în momentul în care internetul se va reporni. Iar internetul, cel puțin în condițiile prezente, nu se poate opri fără consecințe grave.

  22. Multumesc pentru aticol, frumoase si interesante perspective.
    Ce pot sa spun, acum vreo 20 de ani era in discutie „dilema tramvaiului”, un tramvai fara sofer, doua linii, un macaz si o alegere. Filosofia punea accentul pe alegere, ce linie ar alege cel care schimba macazul, pentru a minimiza o nenorocire. Inginer fiind si lucrand in domeniul tehnic, stiu ca toate aceste „dileme” au ramas la stadiul de filosofii. Da, poate ca acum 20 de ani nu existau regmenetarile actuale din Automotive, dar acum, „dilema tramvaiului” nu mai este o alegere personala, a unei persoane care invarte un macaz cum are ea chef si stare. Ci este o traiectorie reglementata legal, catre probabilitate minima. Pana la situatia „dilemei” exista mecanisme redundante obligatorii legal care minimireaza aparitia unor asftel de alegeri.

    Sper ca si in cazul AI-ului sa apara, incet, incet, astfel de reglementari legale de protectie a consumatorului si utilizatorului de AI. Da, da, stiu, „valul cu reglementarile UE care taie din creativitate si competitivitate”. Dar capitalismul salbatic nu are in centrul bunastarea omului, ci beneficiul investitorilor. Este un clash intre profitul investitorului si protectia omului/consumatorului care, sper sa fie reglementat in UE. Macar in UE. Fix cum este centura de siguranta obligatorie in UE, cum sunt rafinate si impuse standarde de siguranta din ce in ce mai multe la omologarea unei masini pentru a fi pusa in circulatie, fix asa ma astept sa apara reglementari si pentru AI-uri si aplicatiile online care sa protejeze consumatorii de pericolele manipularii si radicalizarii.

    Nu sunt atat de filosof ca domnul Harari, dar ii apreciez si ii respect perspectivele foarte interesante pe care stie sa le puna in evidenta asupra diverselor fenomene sociale si istorice. Multumesc din nou pentru articol, interesant.

  23. Nu știu daca IA are simțul umorului. Când IA va compune un banc bun (NOU ) voi fi convins ca exista inteligență artificială.

  24. Eu am o viziune mai degraba optimista. Azi AI functioneaza cu rezultatele pe care le vedem (as spune spectaculoase, in unele ocazii binevenite daca nu chiar necesare, utile) gratie unor capacitati de calcul (viteza, memorie) apreciabile (ca sa nu spun uriase), cu consumuri de energie pe masura. Am convingerea ca in viitor se vor depune eforturi pentru a se ajunge la doua obiective: comunicarea directa om-masina (de la retele de neuroni la sisteme AI) si, ca un auxiliar, daca nu chiar un corolar, o limba universala, inteleasa de toti. Se pun si probleme: vom fi dispusi ca sa dam acces altora la retelele noastre de neuroni, deci la gandirea noastra intima? Se va ajunge la o “colectivizare” a gandirii? Sau vom putea sa ne limitam numai la instrumentarea AI de catre fiecare, fara intersectii sau interferente. Dar sa nu mergem atat de departe, invocand ceva ce a cazut din moda: pas cu pas!

  25. O adunătură de functionaroi europeni habarnisti, paraleli cu tehnologiile, care știu doar să dea decrete și să pornească un război economic cu SUA și partenerii lor. Asistăm la declanșarea unui război economic între UE și SUA, iar Trump nici măcar nu este președinte. Apple a decis să nu implementeze algoritmul AI pe noul IOS 18, doar pentru cetățenii din UE, doar pentru ca Tov. Lenuța din Bruxelles nu înțelege tehnologia.

  26. Sistemele de represiune vor profita de IA pentru a controla tot ce mișună neconvenabil pe net sau în eter, întocmind cu celeritate dosarele incomozilor.
    Unele idei, expresii sau chiar simple cuvinte vor fi scoase din uz.
    Deja intelectualitatea pățită cu reacții prompte de la grupuri de veghe organizate se autocenzurează (!) ca sub comunism înainte de a-și tasta opiniile.

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.

Autor

Yuval Noah Harari
Yuval Noah Harari
Yuval Noah HARARI este istoric și filosof, considerat unul dintre cei mai influenți intelectuali activi astăzi. Născut în Israel în 1976, a obținut doctoratul în istorie la University of Oxford și este profesor de istorie universală în cadrul Departamentului de Istorie al Universității Ebraice din Ierusalim și distinguished research fellow la Centre for the Study of Existential Risk din cadrul University of Cambridge. Este cofondator al companiei de impact social Sapienship, axată pe educație și storytelling, alături de soțul său, Itzik Yahav. Cartea sa Sapiens, publicată inițial în Israel în 2011, a fost tradusă în peste șaizeci de limbi. Timp de nouăzeci și șase de săptămâni s-a aflat în topul bestsellerelor Sunday Times și a fost de asemenea în topul bestsellerelor New York Times. De același autor, la Editura Polirom au apărut Sapiens. Scurtă istorie a omenirii (2017), Homo deus. Scurtă istorie a viitorului (2018), 21 de lecții pentru secolul XXI (2018), Sapiens. O istorie grafică, vol. I: Nașterea omenirii (2020) și vol. II: Stâlpii civilizației (2021) și Suntem de neoprit, vol. I: Cum am luat în stăpânire lumea (2022) și vol. II: De ce nu este dreaptă lumea (2023).

Sprijiniți proiectul Contributors.ro

Carti

 

 

Nexus – Scurta istorie a retelelor informationale

Scurtă istorie a rețelelor informaționale din epoca de piatră până la IA
Editura Polirom, 2024, colecția „Historia”, traducere de Ioana Aneci și Adrian Șerban
Ediție cartonată
Disponibil pe www.polirom.ro și în librării din 27 septembrie 2024

 

Carti noi

Definiția actuală a schimbării climei“ a devenit un eufemism pentru emisiile de CO2 din era post-revoluției industriale, emisii care au condus la reificarea și fetișizarea temperaturii medii globale ca indicator al evoluției climei. Fără a proceda la o „reducție climatică“, prin care orice eveniment meteo neobișnuit din ultimul secol este atribuit automat emisiilor umane de gaze cu efect de seră, cartea de față arată că pe tabla de șah climatic joacă mai multe piese, nu doar combustibilii fosili. Cumpără cartea de aici.

Carti noi

 

Carte recomandata

Ediția a II-a adăugită.

„Miza războiului purtat de Putin împotriva vecinului său de la vest este mai mare decât destinul Ucrainei, echilibrul regional sau chiar cel european. De felul în care se va sfârși acest conflict depinde menținerea actualei ordini internaționale sau abandonarea ei, cu consecințe imprevizibile asupra întregii lumi pe termen mediu și lung. E o bătălie între democrație și dictatură, între regimurile liberale și cele autoritare... Cumpara volumul de aici

Pagini

Esential HotNews

contributors.ro

Contributors.ro este intr-o permanenta cautare de autori care pot da valoare adaugata dezbaterii publice. Semnaturile noi sunt binevenite cata vreme respecta regulile de baza ale site-ului. Incurajam dezbaterea relaxata, bazata pe forta argumentelor.
Contact: editor[at]contributors.ro