Home » Cultura »Media / Tech »Societate/Life » Citesti:

Secolul al 21-lea va aparține inteligenței artificiale dacă vor fi rezolvate dilemele etice

Constantin Crânganu ianuarie 6, 2017 Cultura, Media / Tech, Societate/Life
48 comentarii 4,068 Vizualizari

Uno no es lo que es por lo que escribe, sino por lo que ha leído.

Nu ești ceea ce scrii, ești ceea ce ai citit

J. L. Borges

Despre secolul al 21-lea s-a spus că va fi mistic sau nu va fi deloc. Eu cred că secolul al 21-lea va sta sub semnul inteligenței artificiale, cu condiția enunțată în titlu.

Sintagma „inteligență artificială” (AI) este de multe ori invocată ca și cum sensul ei ar fi de la sine înțeles. În realitate, AI a produs întotdeauna unele confuzii și controverse[1]. Imaginați-vă că vă întoarceți în timp, de exemplu prin anii ’70, opriți o doamnă pe stradă, scoateți un telefon inteligent și-i arătați Google Maps. Odată ce ați reușit s-o convingeți pe doamna respectivă că nu sunteți vreun scamator și că ceea ați scos din buzunar nu este vreo amuletă vrăjită, ci doar un mic computer, mai puternic decât cel instalat la bordul navei spațiale Apollo 11 când a aselenizat, Google Maps ar putea să reprezinte pentru dânsa un exemplu convingător de „inteligență artificială”. Și ar avea dreptate, pentru că, pe lângă activități pur umane – cum să ajungi de la hotel la aeroport, de exemplu, Google Maps mai poate face și unele lucruri imposibile pentru oameni: să evalueze traficul, să planifice ruta cea mai bună sau să se reorienteze când ai ieșit greșit de pe autostradă.[2]

Astăzi, după câteva decenii de la aselenizare, nimeni probabil nu ar mai eticheta Google Maps ca reprezentând AI. Mai degrabă, pentru unii, „inteligența artificială” ar reprezenta deosebirile dintre ceea ce putea să facă HAL 9000 (robotul din filmul lui  Kubrik, „2001 A Space Odyssey”) și o mașină oarecare (un strung sau un tractor). Cu alte cuvinte, introducerea pe scară largă a roboților de toate felurile a „înșurubat” termenul AI în mentalul colectiv. Și nu este un secret că dezvoltarea roboticii, susținută de apariția unor noi computere, mai rapide, mai performante și mai dotate „intelectual”, a dus la apariția a ceea ce experții numesc a patra (sau a cincea) revoluție industrială sau al treilea val al globalizării și tehnologiile lor disruptive. AI a pătruns masiv în industria grea, transporturi, comerț, artă și finanțe. Este motorul care acționează multe din aplicațiile Google, recomandările de filme făcute de Netflix sau melodiile sugerate de Pandora, asistenții și asistentele inteligente Watson, Amelia, Siri, Echo, M, dronele autonome militare și comerciale, mașinile fără șofer etc.  Sistemele inteligente detectează fraude, oferă traduceri, optimizează operațiunile logistice, efectuează cercetări științifice. Din 2007, eu însumi am publicat mai multe articole și cărți despre „invazia” AI în diverse activități[3].

Dar, de-a lungul întregului deceniu de când o parte din cercetările mele sunt devotate inteligenței artificiale, o întrebare m-a urmărit permanent: Este un computer, dotat cu programele necesare, „inteligent” cu-adevărat? Să considerăm cazul Deep Blue, supercomputerul care l-a învins în 1997 pe campionul mondial la șah, Garry Kasparov. Deep Blue a câștigat prin forță brută. Pentru fiecare mutare legală pe care o putea face la un anumit moment în timpul meciului, el considera răspunsurile posibile ale lui Kasparov, propriile sale răspunsuri la acele răspunsuri și tot așa mai departe, continuând cu șase sau mai mulți pași în avans. Posedând o funcție de calculare rapidă, supercomputerul putea să calculeze un scor pentru fiecare poziție posibilă și apoi să facă mutarea care conducea la cel mai bun scor. Ceea ce i-a permis lui Deep Blue să-l bată pe cel mai bun șahist din lume a fost puterea lui brută de calcul. Acea putere i-a permis să evalueze 200 milioane de poziții într-o secundă, în timp ce Kasparov putea evalua câteva zeci  înainte de a lua o decizie. Deși l-a bătut pe campionul lumii la șah, Deep Blue nu poate nici măcar juca table, cu atât mai mult să conducă o mașină sau să facă o descoperire științifică pe cont propriu. De aceea, pentru mine, Deep Blue este asimilabil prea puțin cu inteligența umană (Cazuri similare: Watson, care i-a învins în jocul Jeopardy pe doi foști campioni, Brad Rutter și Ken Jennings; AlphaGo, care a câștigat anul trecut în fața campionului sud-corean Lee Sedol un meci de go).

Această mult popularizată relație dintre inteligența artificială și interacțiunea om-computer m-a condus la etapizarea procesului de dezvoltare al AI în trei faze:

-        Inteligență artificială recognoscibilă, bazată pe principiul „cunoaștere înseamnă recunoaștere”, folosește algoritmi și computere tot mai performante, capabile să recunoască pattern-uri și să individualizeze subiecte/teme/semnificații din fragmente de text. Este situația actuală a majorității sistemelor inteligente existente. Pentru a testa capacitățile lor limitate, introduceți în cel mai performant motor de căutare, Google, următoarea comandă „anything that’s not an elephant”. Veți fi surprinși de numărul mare de elefanți pe care sistemul vi-l prezintă! Sau, în Google Maps ori folosind un GPS din mașina dvs., încercați comanda:  „Găsește-mi o florărie!” Ceea ce veți obține va fi o listă cu florăriile locale – în fond, asta ați dorit. Dacă însă comandați „Nu-mi găsi o florărie!”, veți obține aceeași listă – ori nu asta ați dorit acum. Cereți acum „Găsește-mi o florărie ieftină!” sau ”O florărie deschisă la ora 22”, și listele oferite vor fi identice cu prima.

-        Inteligență artificială cognitivă, când computerele depășesc faza anterioară și încep să extragă interferențe din Big Data. Aici trec pe Deep Blue, Watson, Amelia, ori AlphaGo. Folosind diverse tehnici de procesare a limbajului natural, extragerea datelor semnificative (data mining) și învățarea profundă (deep learning), sistemele dotate cu inteligență cognitivă vor interacționa mai natural și vor amplifica cunoașterea și expertiza umană. Mai mult, un sistem cognitiv este capabil să învețe singur și să interacționeze activ pentru a oferi asistență expertă oamenilor de știință, inginerilor, doctorilor, finanțiștilor, avocaților și altor categorii profesionale într-o fracțiune din timpul necesar în prezent.

-        Inteligență artificială comprehensivă (sau generală), pe care o presupun a deveni caracteristica esențială a secolului al 21-lea, va putea fi obținută doar atunci când vom putea crea ființe umane virtuale, care vor gândi, vor acționa și se vor comporta la fel ca oamenii. Această fază nu va mai implica supunerea necondiționată a mașinilor inteligente la instrucțiunile explicite ale creatorilor umani, ci va marca acele situații în care comportamentul AI va deveni implicit și interpretativ.

Posibilitatea creării unor mașini gânditoare ridică o mulțime de dileme etice.

În primul rând, trebuie să ne asigurăm că astfel de mașini nu vor produce nici un rău oamenilor și altor ființe cu relevanță morală (Cele trei legi robotice, introduse de Isaac Asimov în 1942, pot servi ca un solid punct de plecare).

Apoi, trebuie să ne asigurăm că toate acele criterii care asigură îndeplinirea funcțiilor sociale de către oameni vor fi incorporate în algoritmii AI presupuși să înlocuiască judecata umană a funcțiilor sociale: responsabilitate, transparență, auditabilitate, incoruptibilitate, predictibilitate și tendința de a nu face victime inocente[4]. Lista criteriilor nu se vrea exhaustivă, ci doar un mic eșantion a ceea ce o societate din ce în ce mai computerizată ar trebuie să aibă în vedere.

Fără a intra în prea multe detalii, cele mai sensibile dileme morale pe care le întrevăd ca provocări majore ale implementării inteligenței artificiale  în secolul al 21-lea vor cuprinde:[5]

Creșterea șomajului în unele sectoare de activitate. Dacă Elon Musk se va ține de cuvânt și va umple autostrăzile Statelor Unite cu camioane fără șofer, ce vor face milioanele de șoferi actuali? (Meseria de șofer de TIR este una dintre cele mai populare în SUA). La fel, serviciile de birou vor putea foarte bine să fie îndeplinite de roboți sau asistenți tip Amelia. Imprimantele 3-D vor reduce atât manufacturarea, cât și transportul. Camerele de hotel din Paris sau New York vor putea fi îngrijite de roboți dirijați de oameni din India sau Egipt sau din altă parte, pentru o zecime din salariile plătite în Franța sau Statele Unite. Multe servicii medicale, bancare, jurnalistice vor putea fi îndeplinite mai bine, mai repede și mai ieftin de mașini inteligente. In extremis, se poate ajunge chiar la Fully automated luxury communism, pentru că roboții vor deveni sclavii noștri, nu-i așa? (Cuvântul robot, introdus de Karel Čapek în 1920, vine din limba cehă, unde înseamnă iobag).

Inegalitatea economică, generată de înlocuirea forței de muncă umane cu prestațiile mai ieftine ale mașinilor inteligente și de surplusul veniturilor celor care le stăpânesc. Un singur exemplu: În 2014, aproximativ aceleași venituri au fost generate de cele mai mari trei companii din Detroit și cele mari trei companii din Silicon Valley. Numai că în Silicon Valley au lucrat de 10 ori mai puțini salariați…

Atacuri militare și atacuri cibernetice. Cu cât AI devine mai performantă, cu atât cresc șansele ca să fie folosită și în scopuri distructive. Roboții humanoizi vor înlocui soldații umani, dronele militare au devenit deja arme deosebit de sofisticate și letale. Statele Unite, Israelul și Marea Britanie le-au utilizat deja, China și Iranul le au pregătite, în timp ce Yemenul, Afganistanul, Pakistanul, Somalia sau Libia au fost lovite de rachetele trimise de drone. Dilema morală a unei drone este relativ simplă: trebuie bombardată o casă unde se găsește ascuns un terorist, chiar dacă în acceași casă se adăpostesc și civili? Problema dronelor nu este însă chiar așa de simplă pentru că există diverse valori morale care apar din folosirea lor. Pe de o parte, un bine moral evident este acela că salvăm o parte dintre soldații noștri. Pe de altă parte, salvarea unor soldați va conduce la coborârea barierelor pentru intrarea într-un nou război. Agresivitatea unor țări va deveni mai puternică dacă proprii cetățeni vor aprecia dronele pentru că le salvează o mulțime de fii și tați aflați pe front. Când Statele Unite au invadat Irakul au fost extrem de puține pierderi omenești în timpul invaziei propriu-zise. Dar după aceea, insurgența locală a provocat multe victime printre militarii americani. Iar apoi, s-a ajuns la ISIS și războiul din Siria, unde sute de mii de oameni au pierit.

De asemenea, nu trebuie uitat că războaiele AI nu se poartă numai pe câmpurile de bătălie, ci și în domeniul cibernetic. Atacuri malițioase cu virusuri AI devastatoare – adevărate arme cibernetice (Stuxnet, de exemplu) pot distruge ușor o industrie întreagă sau un sistem vital al unei țări (energetic, de exemplu). Unii spun că și sistemul electoral american a fost fatal compromis de niște hackeri (ruși?). Securitatea cibernetică va deveni, în secolul al 21-lea, mult mai importantă decât în secolul trecut. Pentru că avem de-a face cu o tehnologie care devine tot mai rapidă și mai capabilă de performanțe uluitoare.

Duhul din lampa fermecată (scenarii distopice). Să ne imaginăm că o AI a cărei ambiție principală este să creeze tot mai multe ace cu gămălie. Cu o inteligență comprehensivă, dar fără alte valori, această entitate va căuta să controleze resursele întregii planete pentru a-și atinge scopul. Evident, umanitatea va fi condamnată. Un alt scenariu este cel al unei AI căreia i se cere să calculeze succesiunea infinită de zecimale ale numărului pi[6]. Evident, pentru a duce la bun sfârșit această misiune, inteligența artificială va încerca utilizarea tuturor resurselor de calcul ale planetei.  Probabil că o AI construită cu scopuri mult mai lăudabile, cum ar fi eradicarea cancerului din lume va efectua tone de calcule, analize și modelări. În final, va produce formula prin care va pune capăt bolilor canceroase – uciderea tuturor oamenilor de pe planetă. Mașina inteligentă și-ar atinge astfel scopul – nici un canceros pe planetă – într-un mod foarte eficient, dar nu în modul pe care oamenii l-au intenționat. Pentru a rămâne obiectiv, trebui să spun că nici oamenii nu acționează întotdeauna pentru mai binele rasei umane și al planetei pe care o locuim.

Dacă dai drumul duhului din lampa fermecată pentru a-ți îndeplini o unică dorință, ar trebui să ne amintim de nefericitul rege Midas: Vreau ca tot ce ating să se transforme în aur! Adică și mâncarea, și nevasta, și copiii etc. Morala este simplă aici: Aveți grijă ce veți cere duhului AI!

Superinteligențele și riscul existențial. În 1965, Good a emis ipoteza clasică referitoare la superinteligență: O AI suficient de inteligentă pentru a înțelege propriul ei design ar putea să se re-structureze sau să creeze un sistem-urmaș, mai inteligent, care ar putea apoi să se restructureze încă o dată pentru a deveni chiar mai inteligent și așa mai departe într-un ciclu de feedback pozitiv.[7] Superinteligența reprezintă unul din riscurile existențiale, care ar putea produce, într-o variantă nefavorabilă, o anihilare a vieții inteligente de pe planeta noastră sau o reducere drastică și permanentă a potențialului uman. Și situația inversă este posibilă. În varianta benefică, mașinile superinteligente ar putea să conserve viața și să ajute specia umană la realizarea deplină a potențialului său.

Superinteligențele posedă un set de proprietăți exotice legate de reproducere. Condițiile empirice aplicabile reproducerii umane nu se aplică inteligențelor artificiale. De exemplu, un copil uman este produsul combinării materialului genetic provenit de la doi părinți; părinții au o abilitate limitată pentru a influența caracteristicile urmașului; nouă luni sunt necesare pentru embrionul uman să se dezvolte în pântecele mamei; apoi, sunt necesari 15-20 ani pentru ca un copil uman să ajungă la maturitate; nu există nicio garanție că copilul uman va moșteni cunoștințele și abilitățile părinților săi; oamenii posedă un set complex și evoluat de adaptări emoționale legate de reproducere, creșterea și relațiile copil-părinte.

Nici una dintre aceste condiții empirice nu sunt necesare pentru reproducerea unei mașini inteligente. De aceea, este posibil ca multe dintre principiile morale care au fost acceptate ca norme guvernând reproducerea umană să fie regândite în contextul reproducerii AI. De exemplu, să considerăm o singură proprietate exotică a superinteligențelor: capacitatea lor de reproducere rapidă. Dacă are acces la hardware-ul necesar, o AI se dublează pe ea însăși imediat: îi trebuie doar timpul pentru a-și copia software-ul. Mai mult, pentru că copia AI va fi identică cu originalul, ea se va naște complet matură, iar copia ar putea începe să-și facă imediat propriile sale copii. Dacă nu există penurie de hardware, o populație de AI-uri ar putea crește exponențial cu o rată extrem de rapidă și un timp de dublare de ordinul minutelor sau orelor în loc de decenii sau secole, ca în cazul unei populații umane.

Rasa umană s-a impus în regnul animal, devenind stăpâna absolută a Planetei, prin inteligență și inventivitate. Posibilitatea apariției și proliferării superinteligențelor ne pune în fața unei dileme existențiale: Cum să ne protejăm? Nu putem să le scoatem „ștecherul din priză” pentru că, fiind superinteligente, mașinile respective pot anticipa mișcarea noastră și se pot apăra singure. Este ceea ce von Neumann a numit o „singularitate” – situația când oamenii nu vor mai fi cei mai inteligenți locuitori ai planetei.

Dilema tramvaiului

Dacă dilemele etice prezentate până acum v-au pus pe gânduri sau v-au făcut poate să zâmbiți, ultima pe care o discut mi se pare de mare actualitate și seriozitate pentru că se leagă de o aplicație AI spectaculoasă și bine cunoscută de toată lumea: mașinile fără șofer, automobile și camioane. Rând pe rând, mari companii precum Google, Tesla, Amazon, Toyota, Hyundai, Volkswagen, Uber ori Mercedez Benz au produs și testat diverse prototipuri de autovehicule autonome și/sau automate, clasificate în 6 categorii diferite. Miza producerii și introducerii pe piață a acestor noi vehicule, cu creiere AI, este enormă: diverse statistici arată că numărul accidentelor, datorate șoferilor umani, s-ar reduce drastic, o dată cu descongestionarea traficului, parcări perfecte, lipsa oboselii la volan, posibilități de conducere auto pentru persoane handicapate etc., etc.

Numai că pot apărea situații dilematice datorate creierului artificial care conduce mașina. Propusă în 1967 de psihologa britanică Philippa Foot ca un thought experiment, dilema tramvaiului a primit mai multe versiuni de-a lungul timpului[8]. Anul trecut, în luna iunie, un grup de cercetători din Franța și SUA au actualizat dilema, considerând următorul scenariu[9]:

Să presupunem că o mașină fără șofer a rămas brusc fără frâne și se îndreaptă vertiginos către un grup de cinci pietoni care traversează strada pe verde. Mașina are trei opțiuni, fiecare producând una sau mai multe victime (Figura 1). Care este soluția acestei dileme morale?

Figura 1. Trei situații de trafic care implică un accident iminent și inevitabil. Mașina fără șofer trebuie să decidă între

(A) Uciderea câtorva pietoni sau a unui om de pe marginea străzii, (B) uciderea unui pieton sau a propriului pasager și (C) uciderea numai a propriului pasager.  (Sursa Bennefon et al., 2016)

Autorii lucrării au efectuat șase sondaje on-line, la care au răspuns 1928 persoane. În general, publicul a mers pe ideea că mașina ar trebui să ucidă cel mai mic număr de persoane. Pe de altă parte, majoritatea celor investigați au mai spus că nu ar cumpăra o mașină care i-ar omorî pe ei sau pe pasagerii din mașină. Adică, pentru a salva câteva vieți într-un accident cu foarte puține șanse de a se produce, milioane de oameni nu cumpără mașini fără șofer ca apoi avem mii de pierderi omenești care nu s-ar fi întâmplat dacă se foloseau mașinile fără șofer. Am constatat în studiul amintit că apare unul din acele lucruri interesante când un calcul etic pe termen scurt intră în conflict cu un calcul etic pe termen lung. Dar, la final, cred că dilema aceasta nu are un răspuns corect. Avem de-a face cu o situație absolut nouă, apărută prin emergența AI. Dacă aș fi un programator de astfel de mașini, nu aș introduce în software-ul lor posibilitatea luării unei decizii, chiar dacă s-ar putea lua o decizie în cazul prezentat.

Pe site-ul http://moralmachine.mit.edu/ puteți judeca și dumneavoastră 13 scenarii posibile ale dilemei tramvaiului.

Concluzii

Inteligența artificială prezintă o dublă schimbare de paradigmă: etico-culturală și tehnologică.

Dacă civilizația actuală este produsul inteligenței și ingenuității umane, secolul al 21-lea va fi martorul unei intense influențe, poate chiar dominantă, din partea inteligenței non-umane. Este vital ca oamenii și mașinile să aibă un set de valori comune, aliniate. În loc de inteligență pură, va trebui să construim o inteligență care să se poate dovedi aliniată cu valorile umane.

Cred cu putere că modelarea proceselor mentale pe computere în vederea obținerii unei hărți mentale complexe este o cale recomandabilă pentru a obține o înțelegere deplină a complexității minții omenești. Iar dacă, din când în când, modelele computerizate prezintă erori, se poate învăța și din acestea pentru a evita reiterarea lor în modelările viitoare.

În final, cred că va trebui să depunem mai multe eforturi în programarea scopurilor, valorilor și codurilor etice și incorporarea lor în viitoarele mașini inteligente. Odată rezolvate dilemele etice, secolul al 21-lea va fi unul al inteligenței artificiale.

Nota Bene. Una dintre marile realizări AI (nediscutate în text) sunt mașinile de tradus din/în diverse limbi. În 1988, IBM a lansat  Candide – un sistem de traducere automată utilizând o tehnică numită machine learning (învățarea de către mașini). Acum beneficiem (gratuit) de Google Translate, construit pe aceleași principii precum Candide. Îmbunătățiri considerabile ale traducerilor bilaterale s-au obținut în cazul limbilor de circulație mondială (engleză, spaniolă, franceză). În cazul limbii române, algoritmii lui Google Translate nu mi se par prea performanți (motivele se subînțeleg). De exemplu, moto-ul din Borges, introdus în mașina Google, va produce următoarea versiune: Nu mai este ceea ce este pentru ceea ce scrie el, ci pentru ceea ce a citit. Consider că versiunea mea este mult mai apropiată de sensul aforismului borgesian. Și dacă va fi preluată de alții, este moral corect să fie menționat autorul traducerii. Eu nu fac parte din folclorul anonim al internetului.

NOTE_______________________


[1] Orlowski, A., 2 ianuarie 2017, ‘Artificial Intelligence’ was 2016′s fake news – Putting the ‘AI’ into FAIL

[2] Am adaptat exemplul folosit în articolul „The Great A.I. Awakening”, publicat de Gideon Lewis-Kraus pe 14 decembrie 2016 în The New York Times Magazine (http://nyti.ms/2hMtKOn )

[3] Pe platforma Contributors.ro:

Era sistemelor cognitive: Inteligență Artificială + Big Data

Amelia

Hello Barbie – Prima păpușă cu inteligență artificială (și câteva observații pentru părinți)

The Internet of Things (IoT): Lumea obiectelor inteligente. Beneficii și riscuri

Pentru restul de articole și cărți, click http://academic.brooklyn.cuny.edu/geology/cranganu/

[4] Pentru o discuție in extenso și passim, vezi Bostrom, Nick, and Eliezer Yudkowsky, 2014,  “The Ethics of Artificial Intelligence” in Cambridge Handbook of Artificial Intelligence, edited by Keith Frankish and William Ramsey, Cambridge University Press, pp. 316 – 334.

[5] O listă mai lungă poate fi citită aici: Bossman, J., 2016, Top 9 ethical issues in artificial intelligence

https://www.weforum.org/agenda/2016/10/top-10-ethical-issues-in-artificial-intelligence/

[6] O glumă preferată: PIN-ul meu de la bancă este același cu ultimele patru cifre ale lui pi!

[7] Good, I. J., 1965, Speculations Concerning the First Ultraintelligent Machine, in Advances in Computers, edited by Franz L. Alt and Morris Rubinoff, Academic Press., New York, vol. 6, pp. 31-38 doi:10.1016/S0065-2458(08)60418-0.

[8] Apreciez varianta din 1985, prezentată de profesoara  Judith Jarvis Thomson de la MIT în lucrarea „The Trolley Problem”, The Yale Law Journal, vol. 94, no. 6, pp. 1395-1415.

[9] Bonnefon, J.-F., Shariff, A., și Rahwan, I., 2016, The social dilemma of autonomous vehicles, Science, vol. 352, no. 6293, pp. 1573- 76.

Președintele Obama s-a arătat imediat interesat de rezultatele articolului și a avut o discuție la Casa Albă cu directorul MIT Media Lab, unde lucrează unul din autorii studiului

https://www.wired.com/2016/10/president-obama-mit-joi-ito-interview

Ai informatii despre tema de mai sus? Poti contribui la o mai buna intelegere a subiectului? Scrie articolul tau si trimite-l la editor[at]contributors.ro



Currently there are "48 comments" on this Article:

  1. mihai spune:

    Despre dilema tramvaiului: masina fara sofer trebuie sa evite pietonii, obligatoriu, din urmatoarele motive: – franele nu cedeaza singure ci din cauza neintretinerii corespunzatoare, caz in care responsabilitatea e a proprietarului; – pietonii n-au sisteme de siguranta pasiva, spre deosebire de pasageri.

    Programatorul nu “introduce posibilitatea luarii unei decizii”, intrucat deciziile se iau obligatoriu la fiecare zecime de secunda: unghiul volanului, cursele pedalelor, treapta de viteza, etc. In realitate este vorba despre logica fuzzy dintre cele doua deziderate active permanent, “trebuie protejati pasagerii” si “trebuie protejati pietonii”, in urma carora, la fiecare zecime de secunda se calculeaza un unghi al volanului. Sau, poate vreti sa spuneti ca, in momentul detectarii iminentei impactului cu cel putin o victima, masina sa “demisioneze” din functia de control, si sa lase ghiuleaua de o tona si ceva sa mearga unde o trimite Newton si teoria haosului?

    • Stefan spune:

      Este o problema de probabilitati: care este probabilitatea cea mai mare pentru daune minime. Desigur, termenul “daune” trebuie bine definit in system: impact frontal om = daune 10^6, impact lateral om=daune 10^4, impact frontal alta masina =10^2 samd.
      Oricum, masinile automate vor fi nevoite sa si anticipeze miscarile celorlalti participant la trafic, gen: daca se claxoneaza, omul grabeste pasul si isi pastreaza traiectoria cu o probabilitate de 80%. Masina isi va recalcula traiectoria in functie de claxon si aceasta probabilitate maxima. Desigur, 20% omul se poate panica si intoarce, ceea ce scurteaza timpul de reactie a masinii (ceva gen “recalculare traseu” in cazul GPS-ului actual).
      Inteligenta Artificiala nu este ceva ce “creste” de la sine. Copierea/re-copierea se poate produce doar daca este scrisa aceasta optiune in cod. Sunt doar functii implementate de catre softisti. Daca ceva ar putea “scapa de sub control”, exista optiunile de reboot/shut-down. In cel mai rau caz, fara o ecranare em corespunzatoare, un camp magnetic puternic poate sterge tot codul sursa. Nu-I pericol.
      Algoritmii de cautare google nu sunt Inteligenti Artificiale care au crescut singuri peste noapte pe calculatoare. “Armate” intregi de softisti iau in considerare probabilitatea cea mai mare de cautare a anumitor cuvinte cheie, clasifica utilizatorii in tipuri, aplica patternuri comportamentale samd. E o industrie in spatele AI. :)
      “Muntii” de coduri trebuie sa mearga unitar. Daca intr-un fisier apare o singura eroare, totul devine …inutil. :|

    • ion spune:

      in realitate vor fi mai multi altoritmi, se vor stabili niste prioritati, de exemplu daca e un demnitar de stat in masina, el nu va fi sacrificat, dimpotriva :) sa nu uitam ca politicul va stabili regulile. Desigur vei putea plati o prima pentru a fi in masina care in caz de ceva nu sacrifica ce e in ea. Ai bani mai putini, asta este.

    • Mens Sana spune:

      Vorbesti la modul teoretic, utopic. IN REALITATE exista defecte de fabricatie, exista greseli si exista si imprevizibil. IN REALITATE exista si limite fizice, cum ar fi o distanta minima de franare sau de evitare a unei coliziuni etc.

      • ion spune:

        Problema e ca oamenii la capitolul greseli, defecte de fabricatie si imprevizibil sunt, vor fi mult mai prosti decat computerul. Aceasta e realitatea. Vezi numarul de accidente si alte probleme in trafic. Da vor fi accidente si cu computere, dar ele se pot perfectiona. Pot sa admit chiar ca numarul victimelor (oameni) va ramane constant sau va creste, dar va creste semnificativ si numarul de calatorii, astfel incat per total accidente vor fi mult mai putine.

    • ion spune:

      Eu cred ca dilema tramvaiului e interesanta. Dar cum ar rezolva oamenii aceasta dilema? Cred ca daca facem un sondaj, o sa avem decizii foarte diferite. Dar in realitate aceiasi oameni ar putea actiona in realitate complet diferit, unii nici nu s-ar prinde ca e o dilema si ce ar trebui sa se intample, si nici nu isi vor pune intrebari dupa. Sa zicem ca se vor implementa diferiti algoritmi de comportament in acest caz, si chiar va fi o lege, clar ca legea va fi destul de complexa. Parca vad cum legea e amendata, se va da prioritate la viata anumitor categorii de pasageri sau vehicole, dupa va fi asa de complicata incat nu va mai pricepe nimeni nimic. Hatisul legislativ e asa de complicat si interpretabil incat e greu sa te bazezi pe el. Eu cred ca indiferent de lege, vor fi masini cu algoritmi diferiti …, unele poate vor avea greseli in algoritmi, vor fi algoritmi mai noi, mai vechi, modificati, etc. Probabil un terorist, hot ar putea modifica softul si schimba comportamentul complet.

      • Dilema tramvaiului este mult mai interesantă decât apare la prima vedere, legată de mașina fără șofer. Este o dilemă morală fără un răspuns acceptabil de toată lumea pentru că pune o întrebare fără răspuns: Cât valorează o viață umană? Dacă ne uităm la Malraux din „La Condition Humaine”, atunci une vie ne vaut rien, mais rien ne vaut une vie”.

        Dilema tramvaiului presupune o alegere între a ucide cinci oameni sau unul singur. La prima vedere, răspunsul „corect” ar fi: Este mai moral să ucizi unul decât cinci. Păi atunci să considerăm dilema chirurgului:

        Un chirurg celebru, expert în transplant de organe, are la un moment dat, cinci pacienți muribunzi care au nevoie de următoarele organe: un ficat, doi rinichi, doi plămâni. Dacă cei cinci pacienți nu primesc transplantul necesar azi, vor muri imediat. Chirurgul celebru caută, caută și caută cele cinci organe pentru transplant, dar nu le găsește. Timpul este aproape pe terminate, când chirurgul află că tocmai a venit la spital un tânăr pentru controlul medical de rutină (checkup). Tânărul are o sănătate excelentă și tipul de sânge corect pentru transplant. Deci, un candidat perfect pentru prelevarea organelor. Chirurgul îi spune ce are de gând, dar tânărul îl refuză politicos: Îmi pare rău de cei cinci care vor muri imediat, dar refuz să le cedez organele mele. Întrebarea este: Are chirurgul dreptul moral de a-l tăia pe tânăr, a-i preleva organele pentru a le distribui celor cinci pacienți pentru a-i salva?

        Problema poate lua o întorsătură critică: Care ar fi decizia chirurgului dacă cei cinci muribunzi sunt cinci teroriști, sau criminali notorii, iar tânărul care va fi omorât este o mare speranță medicală care va găsi leacul cancerului sau un nou Einstein? Concluzia mi se pare clară: este mai rău să omori un om decât să lași alți cinci să moară. De aici, apare un posibil răspuns la dilema tramvaiului: deosebirea între a omorî și a lăsa să moară.

        • Ioan spune:

          Mai inatai despre dilema chirurgului: este o falsa dilema deoarece la baza scolilor de medicina sta porunca: “Primum nil nocere!”, astfel ca ideea deplasata ca un chirurg ar putea sa faca bine la cinci oameni facand rau unuia singur intra in contradictie cu aceasta axioma de a cauta sa nu cumva sa ajungi sa faci un rau incercand sa faci un bine (desi exista medici care nu tin seama de acest lucru in incercarea de a dobandi faima sau beneficii materiale).
          Din alt punct de vedere, noi suntem organisme programate sa moara, Celulele noastre se divid de un numar limitat de ori. Prin succesiunea generatiilor, prin amestecarea genomurilor, prin micile mutatii neletale, prin erorile de copiere, apare evolutia si diversificarea speciilor. Daca primele bacterii s-ar fi copiat perfect, probabil ca noi n-am fi existat. Durata medie de viata a oricarui organism biologic este codificata in genomul sau, astfel ca moartea nu ar trebui sa aiba insemnatatea care i se atribuie, iar durata de viata are o legatura cu viteza de evolutie. Nu stim care este scopul evolutiei vietii, daca o fi fiind vreunul, dar sigur moartea indivizilor are legatura cu viteza cu care se va atinge acel scop. Poate (in spiritul articolului) scopul final al inteligentei organice limitate este sa creeze o inteligenta artificiala nelimitata.
          Fiecare dintre noi avem niste particularitati, care ne determina sensibilitatea de a dezvolta anumite boli si in final durata de viata. Oricat de paradoxal ar parea, pentru medici pacientii sunt ca si masinile pentru mecanicii auto, si aceasta lipsa de empatizare cu problemele si tragedia fiecarui bolnav terminal asigura sanatatea mintala a doctorului si-i permite sa continue munca ani de zile (urgentele, traumatologia, oncologia mai ales oncologia infantila, sunt locuri de munca nu foarte usoare, din orice punct de vedere). In situatia data, cu cinci pacienti terminali, cvasi unanim s-ar incerca obtinerea acordului pentru tratamente noi revolutionare sau pentru implantarea unor dispozitive mecanice care sa substituie functia organelor afectate pana la gasirea unor donatori compatibili aflati in moarte cerebrala. Deci pentru un medic logica este ” fiecare cu norocul lui” si cu asta basta. Asa functioneaza sistemul, orice s-ar spune din afara.

          Referitor la dilema tramvaiului, cred ca importanta sa pentru programare este marginala deoarece asa cum la Boeing 747 exista patru motoare, cinci computere nu stiu cate circutie hidraulice in paralel, pentru a asigura reduntanta necesara sigurantei pasagerilor in evolutia automobilelor inteligente se vor lua toate masurile ca astfel de accidente sa fie evitate.
          Personal cred ca o astfel de situatie (in care masina sa decida pe cine cruta dintre oamenii ) nu va fi programata vreodata prin lege, tocmai pentru a ne asigura ca ramanem egali in fata masiniilor si soarta unui om nu a fi vreodata decisa doar de o masina ( cu exceptia situatiei cand masina este o arma). Evident ca pietonul singur de pe trotuar este cel mai inocent si ar avea prioritate zero, cei de pe carosabil ar trebui sa fie cu ochii in patru pentru ca nu-i asa: “Shit happens!”, iar cel din masina are toate drepturile unuia din avioanele deturnate la 9/11. Tot personal cred ca acea masina ar trebui sa fie programata sa caute si sa implementeze pana in ultima milisecunda o solutie, o traiectorie, care sa-i salveze pe toti oamenii, cum ar fi o rasturnare controlata, o intrare tangentiala intr-un parapet, intr-un stalp, cu declansarea mijloacelor de protectie a pasagerului astfel inca eventualele victime sa fie rezultatul imposibilitatii de a manageria situatia si nu rezultatul unei alegeri pe baza de algoritm.
          Asa cum industria aviatica si-a adaptat in timp, in urma accidentelor, criteriile de proiectare si de lucru, pentru a spori siguranta pasagerilor in urma investigatiilor si a deciziilor emise de autoritatile aeronautice si in programarea automatelor “inteligente’ vor aparea proceduri, norme, legi si va fi o adaptare continua la situatiile care se vor ivi. Ceea ce pentru noi este subiect de dezbatere filosofica cu dileme etice, pentru un om din viitor s-ar putea sa fie o banalitate standardizata de tipul BMW i750 /Steuerung nach DIN xxxx/2075. Alles bei Norm!

          • smaranda spune:

            @ Ioan Introduceti o idéie in care ” scopul final al inteligentei organice limitate este sa creeze o inteligenta artificiala nelimitata.” Puteti detaila va rog?

        • ion spune:

          daca acei 5 sunt criminali iar tanarul e bun …,

          poate fi si invers, tanarul e vai de capul lui dar sanatos, iar acei 5 sunt persoane importante ca exemplu: savanti, alti medici colegi, artisti, rude sau fimilia chirurgului.

          ar putea ca acei 5 sa ii ofere bani multi tanarului, am putea fi sursprinsi sa accepte

          poate fi si asa, acei 5 sunt politicieni si chiar pot da o lege …

          ce va face chirurgul? daca cei 5 si tanarul sunt de acord, s-au inteles ei intre ei, el ce va face?

          ne putem imagina multe, dar din experienta mea de inginer in software, incepem cu ceva simplu si dupa completam pe parcurs, cam asa se intampla. Pana la urma sunt sigur ca sisteme vor fi mai multe si vor functiona diferit, problema morala isi va gasi solutii mai tarziu, niciodata nu stii cum vor utiliza oamenii produsul tau final, de multe ori surpriza e mare :)

          • ne putem imagina multe
            De asta suntem oameni și nu mașini (mai mult sau mai puțin AI) :-)

            Un alt scenariu posibil:

            Chirurgul era foarte extenuat în ultima săptămână – unele dintre asistentele sale se îmbolnăviseră și el a trebuit să preia sarcinile lor și să administreze singur medicamentele prescrise. Într-o zi, fiind foarte obosit, doctorul a devenit neatent și a făcut o greșeală teribilă: le-a administrat medicamentul X la cinci bolnavi din salonul lui. Medicamentul X lucrează diferit în diferiți pacienți: unora le afectează grav plămânii, altora, rinichii și altora ficatul.

            În consecință, cei cinci pacienți au nevoie de transplanturi din cauza neglijenței doctorului (malpraxis). Dacă doctorul nu face rost de transplanturi, atunci pacienții vor muri, iar doctorul este cel care, de fapt, i-a omorât. Cum s-ar putea schimba atitudinea morală a doctorului în aceste condiții? Faptul că el va ucide pe cei cinci bolnavi dacă nu face rost de transplanturi îi dă o permisiune morală să-l taie pe tânăr și să-i distribuie organele celor care au nevoie de ele?

            (exemple sugerate și adaptate din Thomson J. J., 1985 „The Trolley Problem”, The Yale Law Journal, vol. 94, no. 6, pp. 1395-1415)

          • ion spune:

            Acuma tehnologia noua ne da mai multe instrumente, pana acuma acei 5 mor si gata. Acuma avem niste instrumente in plus prin care ei toti sau nu chiar toti au sanse destul de mari de supravietuire. Eu zic ca oricum nu dam, in viitor e mai bine, fiindca ai de unde sa alegi, sunt mai multe posibilitati. Noi inca nu stim sa le folosim, probabil in realitate se va trece prin toate cazurile, si vor fi multe pe care noi acuma nu le-am putut imagina.

            Aceste cazuri sunt insa extreme, exista doar 7 persoane chirurgul + 5 + 1. In realitate fiecare pacient are un fel de asigurare medicala. Exista un detectiv sau cineva care va investiga cauza mortii, deci probabil cu smecheriile nu va fi asa de usor, se vor plati din greu. Asa ca chirurgul va face ce e legal, fiindca asa e mai simplu si mai ieftin pentru el.

            Probabil astfel de dileme se vor rezolva cu acordul fiecarui actor, eventual si un judecator poate fi implicat, cam cum e acuma la eutanaziere pentru copii in belgia. Odata trecut prin mai multe cazuri de acest gen, probabil urmatoarele vor merge pe banda rulanta, desigur vor fi periodic abateri, in tari mai putin “morale” vor fi abateri masive, probabil multi se vor duce in aceste tari sa se trateze. Probabil vor exista chirurgi care vor trata si la negru.

            Problema e ca stiinta nu sta pe loc, si deja sunt pasi in fabricarea organelor din tesuturi proprii, practic s-ar putea sa nu fie mare nevoie de transplant in viitor. Asa ca eu nu cred ca trebuie sa fie o frana si mare ingrijorare, vor fi accidente, clar, dar trebuie sa invatam din ele rapid si sa trecem mai departe.

            Eu sunt de parerea ca e bine de dezvoltat tehnologia si stiinta, fiindca e foarte interesant :) . Ne da un un sens al vietii, altfel ce facem? Stam la carciuma sau ne mancam intre noi de plictiseala.

  2. ion adrian spune:

    Inteligenta artificiala este cea care trece testul Turing si nu un program chiar si expert.

  3. Decebal spune:

    Ma uit in jur si am senzatia ca oamenii sunt din ce in ce mai putin inclinati sa inteleaga de ce si cum se intampla anumite lucruri. Imi pare ca le e suficient ca acele lucruri se intampla. Cei mai multi utilizatori de smartphone, de exemplu, sunt mai interesati de viteza de operare, de rezolutia ecranului si de capacitatea de stocare, decat de tehnologia inglobata in “device”. Pentru tineri este mai important sa poata afla ce-i intereseaza in doua secunde, decat sa se intrebe ce implica servicul de localizare permanent activat si conexiunea neintrerupta la date mobile. Pare mai important ceea ce poate face o anumita aplicatie gratuita, decat permisiunile pe care le solicita acea aplicatie.
    Daca lucrurile evolueaza in acest sens, manifestarile spectaculoase ale tehnologiei si ale inteligentei artificiale pot naste sentimente mistice in cei ce nu incearca sa inteleaga ce se afla in spatele acelor manifestari spectaculoase. Si iata cum, din aceasta perspectiva, secolul XXI poate fi mistic, daca asimilam inteligenta artificiala cu divinitatea si pe cei ce scriu algoritmii AI cu sfintii si profetii… :)

    • Mens Sana spune:

      Da, multi oameni se inchina fara discernamant la tot ce poarta eticheta de “stiinta”, pentru ca stiinta a facut “minuni” usor de observat si folosit, cum ar fi telefoanele mobile, computerele, internetul etc. Prin urmare stiinta are dreptate in orice problema, in orice domeniu. Bineinteles ca e vorba de stiinta promovata in media, care “are gura mai mare”. Asta e periculos chiar pentru stiinta, pentru ca totul se rezuma la popularitate, nu la adevar si se inabusa spiritul critic. Stiinta care nu e mainstream e ignorata si chiar respinsa.

      O alta problema este aceea ca cei care folosesc computerele si telefoanele inteligente isi limiteaza inteligenta, modul de gandire, de comunicare etc la posibilitatile acestor dispozitive. Ai un anumit nr de taste, de actiuni etc.

  4. gsg9 spune:

    creste foarte rapid puterea de calcul si de aici viteza de executie a codului din ce in ce mai complex

    dar masinile inca nu ies din liniile de cod existente, tot ceea ce pare inteligent este de fapt o clasa, o interfatza, un loop, un if-then-else rulat de masina

    si evident ca nimic din ceea ce executa masina nu este din afara codului existent (cu bugurile de rigoare)

    probleme apar deja la sistemele foarte foarte complexe care interactioneaza real’time intre ele si sunt insuficient testate sau interactiunea lor insuficient intzeleasa

    pt ca oamenii nu intzeleg foarte bine sistemul in ansamblu sau cantitatea de informatzie este prea mare ca sa o poata prelucra rapid in conditzii de stres

    si atunci daca sistemul functzioneaza OK pe automat, bine, daca se intampla ceva unexpected si se decupleaza aia din cabina invatati sa zboare numai pe automat nu mai sunt in stare sa gestioneze problema singurei

    si asa apar rezultate deosebite in campul muncii gen Air France AF447

    de aici si pana la aparitzia masinilor superinteligente, self-aware, in stare sa se reproduca si sa se imbunatateasca singure asa de capul lor va mai trece ceva timp, asta daca vor ajunge vreodata la asa ceva

    titlul mi se pare cumva eronat

    Sec 21 va apartzine a ceea ce numim noi inteligentza artificiala indiferent de problemele etice rezultante

    corporatiile nu au probleme etice

    corporatiile sunt conduse de profit, daca dau afara 1 milion de soferi si vanzatoare dar fac profit nu au absolut nici o problema

    problemele sociale vor ramane in grija statelor cu aparate de stat din ce in ce mai stufoase, mai ineficiente si mai consumatoare de resurse aiurea

    corporatziile vor controla statul mituind/controland elitele politice/factorii decizionali si’si vor vedea nederanjate de profitul lor

    si ca sa remarci asta nu trebuie sa asteptzi sexi roboata umanoida blonda cu piele artificala cu care sa discutzi philosophy la un ceai

    la un nenorocit de dunnes-store pe aici pe langa serviciu era deschis la ora pranzului un checkout-rapid cu 6 cashiers pt cei care’si cumparau un sandwich ceva

    asta inainte de Anul Nou

    acum am vazut in aceeasi zona un grup de 6 masini cu touch screens pt self-checkout si o singura persoana care le supravegheaza

    din 6 joburi a ramas unul si asta nici macar nu are legatura cu cine stie ce super inteligentza artificiala

    populatia creste, populatzia cu higher-level education creste, mai aducem si niste milioane de refugiatzi ca asa e trendy, numarul joburilor scade

    dilema tramvaiului mi se pare o tampenie copilareasca

    aici masina nu va lua de capul ei decizii daca sa intre pe trotuar sau nu

    cei care scriu codul pt masina trebuie sa respecte legislatzia si nu’mi aduc aminte de prin manualele de circulatzie de vreun articol in care se mentziona ca trebuie sa scotzi autoturismul de pe drum ca sa evitzi un accident…

    problemele cu self driving vehicles ar fi al genul a cui este responsabilitatea legala daca masina loveste pe cineva, ca nu mai e a pasagerului, cine plateste daunele si in ce conditzii cu companiile de asigurari, ce se intampla daca se constata ca este urmare a unui defect de coding samd

    daca cineva se arunca orbeste in traversarea strazii si este lovit in mod clar nu se va arunca masina pe trotuare ca sa’l evite, ghinionul celui care traverseaza…

    • mihai spune:

      Desigur ca masinile vor respecta legislatia. Insa legislatia respectiva nu e scrisa inca! Despre asta e vorba: cum o scriem? Legislatia pe care ai citit-o se aplica soferilor umani, care au liber arbitru si care raspund legal pentru faptele lor. Nu si soferilor artificiali, care n-au raspundere legala!

  5. niky spune:

    În legătură cu NOTA BENE: pentru actualizarea informației citiți acest articol :http://www.nytimes.com/2016/12/14/magazine/the-great-ai-awakening.html?emc=eta1. Rezultă că limba română va intra în noul sistem de Google translate într-un termen de circa un an! Și … nu comparați jocul de șah cu jocul de Go. Și spuneți cititorilor și despre TPU (http://www.pcworld.com/article/3072256/google-io/googles-tensor-processing-unit-said-to-advance-moores-law-seven-years-into-the-future.html), arhitectura paralelă de procesare a informației folosită de rețelele neuronale artificiale pentru deep learning. Procesorul TPU este folosit tocmai de noul sistem implementat din acest an de Google translate. Iar accepțiunea actuală a termenului de singularitate este aceea de simbioză între om și mașină, între inteligența umană și cea artificială ( vezi Ray Kurzweil). Ar mai fi multe de spus,dar pentru impactul emoțional merită urmărit filmul artistic Transcendence(2014), care abordează subiectul din mai multe unghiuri – singularitate, nanotehnologie, inteligența artificială generală, aspecte etice, samd – (http://www.imdb.com/title/tt2209764/).

    • În legătură cu articolul din NYT, îl găsiți citat în nota (2) a articolului. Nu cred că limba română va intra în noul sistem de traducere Google prea curând. Google Brain este o dezvoltare interesantă a AI, combinând arhitecturile artificiale neuronale cu tehnica „machine learning”. Dar ceea ce nu se spune în articolul din NYT este faptul că algoritmii înșiși, oricât de performanți, nu pot suplini lipsa unei baze de date (Big Data) suficient de „big” pentru a antrena rețeaua neuronală artificială. În cazul primei mașini de tradus automat (Candide, IBM, 1988), baza de date au fost circa 2,2 milioane de perechi de propoziții traduse, majoritatea provenind din dările de seamă bilingve ale dezbaterilor din parlamentul Canadei. Sunt pesimist pentru că nu cunosc o astfel de bază de date pentru limba română. Există rețineri semnificative și în cazul traducerii automate din chineză în engleză, chineza fiind totuși o limbă vorbită de peste 1 miliard de oameni.

      Termenul de singularitate, actualizat de Ray Kurzweil, a atras critici din partea altora: Drew McDermott sau Ben Goertzel.

      Recomand și eu un film care prezintă o variantă de test Turing: Ex Machina, 2015 http://www.imdb.com/title/tt0470752/

  6. Vlad spune:

    Inteligenta artificiala nu are constiinta. Exista mai multe cazuri in care robotii din uzine au omorat oameni … De ce ? Pentru ca neavand constiinta robotul nu poate distinge intre un obiect si un om. Oricat de performanti ar fi algoritmii tot nu poate fi un om.

    “Scenariul” de trafic nu il putem noi decide … Numai Dumnezeu poate sti ce anume e potrivit.

    • Constantin Crânganu Constantin Crânganu spune:

      Inteligenta artificiala nu are constiinta

      Perfect adevărat. Deși există unele opinii, conform cărora și roboții umanoizi ar trebuie să se bucure de drepturi din categoria drepturile omului sau drepturile animalelor, consider că statul moral al superinteligențelor AI este inexistent. Experții AI (d.ex., Nick Bostrom) au indicat că schimbarea statului moral al AI implică demonstrarea prezenței obligatorii a două caracteristici pe care numai oamenii le posedă în prezent:

      - Sensibilitatea (sentience) – Posesia unor capacități de a experimenta fenomene precum durerea, compasiunea sau suferința
      -Sapiența (înțelepciunea) – Un set de capacități asociate cu o inteligență avansată, precum conștiința de sine sau starea de agent care acționează pe bază de rațiune

      Un punct de vedere comun astăzi este acela că multe animale posedă qualia și de aceea au un oarecare statut moral. Dar numai ființele umane posedă sapiență, și aceasta le conferă un statut moral mai mare decât cel al animalelor.

    • mihai spune:

      Constiinta nu e necesara pentru a distinge intre un obiect si un om. Este suficient sa observati orice animal domestic ce-si recunoaste stapanul.

      Robotii din uzine au accidentat oameni pentru ca sunt mai degraba inruditi cu ceasurile decat cu inteligenta artifficiala: ei sunt programati sa faca o serie de miscari, presupunandu-se ca spatiul aferent este liber in prealabil. Prin urmare, n-au fost dotati cu “detectoare de oameni”, ci cu panouri tip “feriti raza de actiune a robotului”.

      • Vlad spune:

        La animale e vorba de instinct fie ca e vorba de cele domestice fie ca e vorba de cele salbatice.

        Robotii nu au cum sa distinga intre un om si un obiect indiferent ce fel de program ar avea. Rularea programului reprezinta in ultima instanta rezultatul mecanic determinat de niste impulsuri electrice.

      • Vlad spune:

        Gurdjieff spune ca nu toate animalele sunt la fel. Caii, cainii si uneori vacile ajung la un grad de perceptie care depaseste instinctul.

        Eu am avut o intamplare cu un cal care s-a desprins dintr-un grup de alti cai si a inceput sa vina incet dupa mine cand m-a vazut ca ma indrept spre poarta. Nu intelegeam despre ce e vorba pana cand am ajuns in poiana unde erau iepele cu manjii si unde cand a prins culoar liber s-a repezit in goana si a oprit in mijlocul lor prin alunecare pe tapsanul umed.

  7. George Coman spune:

    Philip K. Dick si-a imaginat chiar creaturi AI care ar fi mai umane decat oamenii, daca se poate spune asa… vezi Blade Runner, cu eterna dilema: “Was Deckard human?”

  8. man of war spune:

    cum se rezolva “dilemele” etice ? nordul dezvolta AI pentru a crea conditii optime de impuiere sudului ? dupa globalizarea care a permis borfasilor (salesmani si camatari) sa fure munca inovatorilor si creatorilor, spuneti ca urmeaza raiul inteligentei artificiale ? cind trebuie doar sa deschizi gura si sa ti pice frimitura ? :)

  9. Constantin Crânganu Constantin Crânganu spune:

    Am început să mă gândesc la această prezentare după ce a apărut articolul din Science (iunie 2016) și după ce Președintele Obama a invitat la Casa Albă, în luna august același an, pe directorul MIT Media Lab (unde lucrează autorul principal al articolului, Iyad Rahwan, un sirian din Aleppo. Pentru cei curioși să cunoască nivelul de cunoștințe despre AI ale Președintelui Obama, recomand citirea integrală a documentului listat în nota 9).

    Pe 12 octombrie 2016 Casa Albă a publicat raportul său despre viitorul AI – o colecție de prezentări făcute în cadrul a patru workshop-uri desfășurate în Seattle, Pittsburgh, Washington DC și New York City (vedeți go.nature.com/2dx8rv6).

    În timpul acestor evenimente, s-au discutat diversele modalități prin care AI ne va schimba viața în sec. al 21-lea. Zeci de prezentări au revelat potențialul utilizării progreselor făcute de machine learning și ale tehnici AI într-un complex evantai de activități rutiniere: de la identificarea alterațiilor pielii, indicând un cancer timpuriu, până la creșterea siguranței de funcționare a automobilelor fără șofer și a altor sisteme autonome, de la spitale la bănci și tribunale.

    Am remarcat, ca pe o notă îngrijorătoare, că nu există momentan metode agreate general pentru evaluarea efectelor continui ale sistemelor AI asupra oamenilor.

    În 2015, în cartea sa The Master Algorithm, Pedro Domingos scria: Oamenii sunt îngrijorați că computerele vor deveni prea deștepte și vor stăpâni lumea, dar problema reală este că ele sunt prea tâmpite și au cucerit deja întreaga lume.

    Sistemele Ai nu sunt neapărat mai rele decât cele operate de oameni când trebuie făcute predicții sau luate decizii. Din contra, inginerii și programatorii sunt optimiști că AI va ajuta la depistarea și reducerea prejudecăților umane. Dar există deja studii care concluzionează că sistemele AI afectează disproporționat grupuri care sunt deja dezavantajate de factori precum rasă, sex și statut socio-economic.

    În acest context, m-am concentrat pe dilema tramvaiului, pentru că pune întrebări despre responsabilitate și culpabilitate. Diferiți autori au aplicat acest scenariu ipotetic mașinilor fără șofer, argumentând că deciziile pe care ele vor trebui să le ia constituie alegeri etice (Pentru o mai largă discuție a dilemei tramvaiului, recomand Lin, P. 2015, Why Ethics Matters for Autonomous Cars, in Autonomes Fahren: Technische, Rechtliche und Gesellschaftliche Aspekte, eds.Maurer, M., Gerdes, J. C., Lenz, B. & Winner, H.) , Springer, pp. 69–85).

    La fel ca și în cazul „apocalipsei robotice”, posibilitatea ca o mașină fără șofer să cântărească deciziile de a ucide prezintă un cadru îngust pentru o raționalizare morală. Pentru că, la prima vedere, dilema tramvaiului oferă puține ghidaje despre probleme sociale mai importante: valoarea investițiilor masive în mașinile autonome în dauna transportului public; cât de sigură este o mașină fără șofer înainte de a i se permite să circule pe stradă (și ce instrumente ar trebui să determine aceste riscuri), sau efectele potențiale ale vehiculelor autonome asura congestiilor din trafic, mediului și locurilor de muncă.

    Informații suplimentare: Crawford, K. și R. Calo, 2016, There is a blind spot in AI research, Nature, vol. 538, p. 311- 313.

  10. neamtu tiganu spune:

    nemtii nu permit folosirea dronelor inarmate din motive etice!? Cica nu e etic ca o masina sa omoare un om. Si asta dupa ce s-au bagat multe milioane in dezvoltarea unor drohne proprii.

    Nu-mi fac griji in privinta AI, daca inteligenta artificiala ar fi atit de dezvoltata s-ar putea impune singura sau/si ar putea argumenta avantajele ei vis-a-vis de inteligenta umana si s-ar autodezvolta mai departe.
    De altfel cred ca lumea va fi asa cum a fost intotdeauna va exista clubul inteligentilor, artificiali si umani si restul lumii, sa nu uitam cantitatea de inteligenta mondiala e constanta, insa populatia creste si daca mai vin si artificialele… astia suntem. Important e sa fim fericiti nu inteligenti.

    Mi-ar place enorm ca meseria de poitician sa fie preluata de Al, am fi si noi in sfirsit condusi de inteligenti.

    • mihai spune:

      Eu stiam ca dronele sunt de fapt teleghidate, nu autonome. Ar putea avea autonomie in privinta navigatiei, sa nu trebuiasca pilotata intre locul de lansare si teatrul de operatiuni, dar in niciun caz nu deschide focul autonom.

    • Florix spune:

      @neamtu tiganu

      Spre deosebire de computere (si AI), in numeroase situatii oamenii sunt influentati de “emotii”, in cele mai multe cazuri acestea fiind si adevaratele motivatii ale actiunilor noastre (de la orice om te poti astepta la surprize;). Politicienii, eventual, ar putea consulta modelarile computerelor inteligente, bazate pe evolutiile zilnice ale indicatorilor macroeconomici (world wide), piete de capital, evenimente politice, fluxul stirilor, samd. Aici in Europa deocamdata nu avem supercompuetere (quantice) dotate cu AI si stocare de informatii (big data) capabile sa ofere asa ceva.

      http://www.nature.com/news/europe-plans-giant-billion-euro-quantum-technologies-project-1.19796

      http://europa.eu/rapid/press-release_IP-16-1408_en.htm

  11. smaranda spune:

    Inteligenta umana a evoluat si s-a slefuit in mii de ani deci si inteligenta artificiala va urma un lung proces de finisare care va lua probabil mai putin timp. Cred ca este prematur de discutat acum ce va fi cindva intr-o anumita etapa a AI, intr-un stadiu al evolutiei ei comparativ atunci cu omul care si el va evolua. Faptul ca acum AI este la inceput in dezvoltare (cu limitarile inceputului) nu ne ajuta sa facem prognoze pe termen lung. Spre ex: japonezii care conduc detasat in domeniul robotilor nu s–au putut folosi de roboti in tragedia de la Fukushima –robotii s-au defectat din cauza radiatiilor. Deci fiind o etapa de inceput nu s-au luat in calcul toate situatiile posibile. Putem sa ne intrebam daca societatea va fi mai inteligenta peste 50 de ani? Sigur va fi. Ingineria genetica si competitia intr-o societate restrictiva va micsora sansele de reusita a unui segment de populatie defavorizat. Si nu extind la popoare pentru ca vor fi multe care vor disparea. Suna dramatic dar asta este viata. Robotii vor fi construiti sa fie utili si asta va prima. Daca un robot va ajunge sa depaseasca per ansamblu abilitatile unui om, este greu de spus acum. Este mult de munca. Foarte mult de munca.

    • Inteligența Artificială ca o Lebădă Neagră

      Am închis totul și ne-am dus acasă. În acea noapte, a fost foarte puțină îndoială în mintea mea că lumea se îndrepta spre durere.”

      Asta a scris Leo Szilard, descriind evenimentele din 3 martie 1939, când a demonstrat reacția de fisiune a uraniului indusă de neutroni. Conform istoricului Richard Rhodes, lui Szilard i-a venit ideea reacției în lanț indusă de neutroni pe 12 septembrie 1933, când traversa strada care ducea în Russel Square în Londra. Cu numai o zi înainte, Ernest Rutherford, o autoritate mondială în domeniul radioactivității, dăduse „un avertisment…celor care căutau o sursă de putere în transmutația atomilor – astfel de speranțe sunt doar vorbe goale”.

      Astfel, distanța dintre declarațiile autoritare despre o imposibilitate tehnologică și „miracolul înțelegerii” (Nathan Myhrvold), care transformă imposibilul în posibil, poate fi măsurată uneori nu în secole, așa cum sugerează unii, ci în ore. (Stuart Russell: AI value alignment problem must be an “intrinsic part” of the field’s mainstream agenda, https://www.edge.org/conversation/the-myth-of-ai)

      O Lebădă Neagră este gata oricând să-și înceapă plutirea pe apele Necunoscutului. Dacă va pluti către durere sau comfort, vom trăi și vom vedea.

      • smaranda spune:

        O secventa din jocul de fotbal. O minge este centrata de pe partea laterala a terenului. Zborul ei este in jur de o secunda, o secunda jumatate. Creierul jucatorului care va lovi mingea cu capul, calculeaza traiectoria mingii, parcursul corpului la intilnirea cu mingea, forta impactului, directia si viteza pe care o va imprima mingii. Studiul facut pe aceasta segventa a aratat ca nu exista o unitate de calcul care sa poata sa faca calculul pentru cele doua obiecte sa se intilneasca cu succes, in acest timp (1,5s) in conditiile de coordonatie completa a corpului jucatorului. GPS omului la aceasta distanta are rezolutie de milimetru. Evaluarea evolutiei AI pentru a atinge aceste performante se situeaza in zeci de ani..” Dacă va pluti către durere sau comfort, vom trăi și vom vedea.”

        • ion spune:

          @smaranda, poate nici nu e nevoie sa calculezi traectoria asa de exact, sa calculezi parcursul corpului la intalnirea cu mingea, forta impactului, directia si viteza pe ca o va imprima mingii. Sunt sigur ca se pot gasi scurtaturi si aproxima calculele foarte mult. Daca te uiti google translate de exemplu are un algoritm destul de simplu. De multe ori, probleme care par grele de rezolvat (prin metode clasice) isi gasesc solutii foarte simple si elegante.

          • baraka spune:

            Finally, google translate works.
            De mult caut pe cineva sa-mi traduca din acadiana o reteta. Sper sa nu fie vreo specialitate de branzoaica, ca eu vreau sa-mi iasa un Pinocchio.
            “You can’t stop modern science. Can’t stop it, you can’t stop it. Can’t stop science. Can’t be
            stopped, no way, no how, science just marches…” :)

        • Stefan spune:

          Calculele se fac in acest moment la maxim 0.1ms. Exista modele care aproximeaza foarte bine aproape orice fenomen fizic. Chiar si abaterile care apar datorita simplitatii modelului comparativ cu o eventuala traiectorie complicata sunt luate in considerare si traiectoria corectata iterativ.
          Stiinta merge inainte cu motoarele foarte turate, nu are timp de explicatii prea multe.
          Nu, nu e vorba de ani, se intampla chiar acum. Mai bine si mai frumos decat credeti dumneavoastra.

  12. Ela spune:

    Secolul al 21-lea va fi, exact ca precedentele, o combinatie perfect dozata de necesitate si hazard, prima fiind decisa de oameni iar cealalta imprevizibila si…inevitabila!
    Obiectivul umanitatii, ca al oricarei alte specii de vietuitoare, este supravietuirea in vederea reproducerii, care asigura continuitatea vietii. Simplu!
    S-ar putea ca cine-si imagineaza ca prioritatile actuale sunt altele – ca ar fi evoluat o data cu tehnologia datorita careia ar fi diferite, obligatoriu”superioare” stramosilor nostri care traiau in grote – sa se insele…
    Daca obiectivele inscrise in gene nu s-au modificat “inca”, modul de a le atinge mi se pare astazi, intr-adevar inedit, si nu sunt sigura ca e si cel mai inteligent!?
    Cu cât tehnologia evolueaza, cu atât oamenii care au acces la ea (din ce in ce mai numerosi!) o venereaza, deci sunt total dependenti de ea, ceea ce reprezinta declinul constiintei, adica inceputul sfârsitului, in opinia mea :(
    Din fericire insa, mai exista cataclisme naturale, ca sa-i oblige pe oameni sa revina la esential ;) !

    • Cu cât tehnologia evolueaza, cu atât oamenii care au acces la ea (din ce in ce mai numerosi!) o venereaza, deci sunt total dependenti de ea, ceea ce reprezinta declinul constiintei, adica inceputul sfârsitului, in opinia mea

      Ați atins un punct foarte interesant. Nu mulți dintre noi își dau seama că, într-un fel sau altul, am devenit (foarte) dependenți de tehnologia contemporană, a cărei componentă AI este în plină dezvoltare și implementare.

      Exemplul clasic sunt click-bait-urile din headline-uri și video games. De multe ori, acestea conțin o metodă rudimentară, A/B testing de comparare a două versiuni ale unui app sau ale unei pagini web. Pentru a determina care dintre ele performează mai bine, suntem invitați să dăm un click pe acel headline (Credeți că noul premier al României va fi mai bun decât premierul Dacian Cioloș?). Chiar dacă avem de-a face cu o formă simplistă a unui algoritm de optimizare, scopul (capturarea atenției noastre) este atins cu succes de foarte multe ori și dacă click-ul nostru a căzut peste majoritatea răspunsurilor date înainte noastră, un centru nervos din creierul nostru ar putea declanșa un sentiment de recompensă.

      Volens-nolens, devenim tot mai dependenți de tehnologie, ea modificându-ne comportamentul și interacțiunile virtuale.

      O lectură interesantă, descriind tehnica A/B testing și altele o oferă articolul lui Nithin Coca din 31 ianuarie 2016,Why your favorite apps are designed to addict you

    • Vlad spune:

      Inteleg ca vreti sa va reproduceti :) Chiar atat de dependenti sunt oamenii de tehnologie incat asteptati cataclismul :) ?

  13. Ioan spune:

    Nu cred ca suntem chiar atat de aproape de o inteligenta artificiala autentica, pe cat se speculeaza prin diverse medii. Toate reactiile asa-ziselor masini inteligente sunt programate sa emuleze anumite trasaturi ale oamenilor, pe care noi le consideram atribute specifice ale inteligentei.
    Creierul uman nu functioneaza ca un supercomputer, de fapt se stie chiar foarte, foarte putin despre procesele de invatare, despre memorare, ca sa nu mai vorbim despre nasterea constiintei. O suta de miliarde de neuroni, cu mii sau zeci de mii de conexiuni posibile pentru fiecare dintre ei, conexiuni dinamice ( care se fac sau se desfac in functie de necesitati), cu o suita de mediatori chimici care moduleaza activitatea fiecaruia, cu un numar imens de senzori de temperatura, presiune, pozitie , durere, lumina, etc.., raspanditi in fiecare cm2 de piele sau cm3 de organ intern, releva o structura de o complexitate infinit superioara unui supercomputer. Doua creiere umane pot da dovada de capacitati extrtem de diferite de intelegere a unor notiuni abstracte, chit ca au o structura si o functionare cvasi identica d.p.d.v. anatomic si fiziologic. In ciuda avansului de cunostinte din toate domeniile, imposibilitatea de a da un raspuns clar despre cum functioneaza creierul unei fiinte inteligente, ma face sa cred ca momentul in care o masina se va trezi si ne va spune ca are constiinta si vrea drepturi este departe.
    Secolul 21 va fi secolul automatelor programabile nu a AI. Si Wernher von Braun credea prin anii ’60 ca in douazeci de ani se poate ajunge pe Marte si se vor stabili colonii in spatiu, iar pe Pamant vor circula automobile aeriene si trenuri cu levitatie magnetica, si uite unde am ajuns dupa 50 de ani: o statie spatiala la comun dupa model sovietic si un tren magnetic de 60km la Shanghai, facut de chinezi cu tehnologie germana, sa moara de ciuda americanii.
    Cuvantul inteligent asociat cu diverse obiecte din jurul nostru este mai mult o figura de stil decat o realitate. Adevarul este ca am invatat sa facem lucruri din ce in ce mai complicate, despre care omul de rand nu mai stie mare lucru, dupa cum spunea cineva mai sus, insa oricat de performate, de rapide si de ” inteligente” sunt obiectele care ne inconjoara (telefon, PC, automobil, drona…), raman tot masini cu o arhitectura fixa si cu o functionare in limitele unui soft, chiar daca pe baza capacitatii si vitezei de calcul sporite sunt proiectate sa se adapteze la situatii din ce in ce mai diverse. Cu actuala tehnologie pe baza de chipuri de siliciu ( nu silicon cum traduc toti papagalii in gazetele noastre) nu cred ca se va ajunge la AI. In functionarea unui creier uman sunt mult prea multe nuante, incertitudini, posibilitati, inputuri analogice, (spre deosebire de insiruirea rigida de 0 si 1 din circutiele fixe ale unui microprocesor) ca sa fie acolo pe degeaba. Daca doar asa s-a ajuns la inteligenta noastra (autoatribuita) dupa miliarde de ani de evolutie, inseamna ca tot ce inca nu cunoastem despre functionarea creierului nostru ne impiedica deocamdata sa construim ceva cu performante asemanatoare. Iar daca am crea o AI cu tehnologia actuala am fi ca o turma de cimpanzeii care apasand la intamplare pe o tastatura de computer ca sa capete banane, ar scoate o opera de Shakespeare intr-un timp relativ scurt.
    Suntem mult prea versati, dupa 100.000 de ani in care am vanat alte animale sau ne-am agresat reciproc ca sa scapam din mana o masina “inteligenta”. Dupa cum se interzic peste tot experientele pe embrioni umani, tocmai pentru a nu degenera in programe de eugenie din care sa iasa prost semenii nostrii mai putin dotati (conform unor criterii arbitrare emise de cei mai dotati) sunt convins ca ne vom lua masuri de precautie cum nici nu ne imaginam acum, ca sa nu ne fie pusa in pericol suprematia de o masina care ne depaseste intelectul. Sa nu uitam ca avem o fiabilitate destul de ridicata fata de orice masina, in anumite limite ne vindecam spontan, putem trai si cu resurse limitate si nu in ultimul rand suntem multi. Mi se par mai logice si mai conforme cu gandirea umana directiile urmatoare de evolutie: cresterea duratei de viata prin rescrierea codului genetic ( mult mai usoara si mai intuitiva decat descifrarea mecanismului exact prin care creierul genereaza constiinta) si dezvoltarea unor interfete om-masina care sa ne sporeasca noua capacitatile intelectuale ( si nu dezvoltarea unor masini care sa faca treaba in locul nostru si fata de care sa ne simtim complexati).
    Si nu in ultimul rand cum tot ceea ce se creaza nou are la baza o piata potentiala, am senzatia ca japonezii vor sa dea lovitura pe piata robotilor umanoizi (poate va fi o revolutie de tipul celei produse de smartphone-uri), nu cu roboti care sa gateasca si sa faca curatenie ci cu jucarii sexuale cat mai veridice si mai apropiate de o persoana reala. Nu cred intr-un razboi apocaliptic purtat cu masini inteligente, dar cred intr-un viitor populat cu roboti frumosi, inteligenti, afectuosi si ascultatori, care sa ne tina de urat fiecaruia si ne indeplineasca toate dorintele pana la epuizarea bateriilor!

  14. mihai spune:

    Nodul în papură de rigoare: dacă tot șfichiuim papagalii din presă, ar trebui să vorbim despre cipuri de siliciu, nu chipuri! ;)

  15. Constantin Crânganu Constantin Crânganu spune:

    OFF TOPIC

    Am remarcat în cadrul articolului (vezi nota 9) nivelul de pregătire intelectuală al Președintelui Obama atunci când a abordat problematica AI.

    Astăzi am avut o altă surpriză: Președintele Obama a publicat cel de-al doilea articol al său în prestigioasa revistă Science. Este primul președinte american care a publicat în Science. Nu cunosc dacă și alți președinți ai lumii au publicat în reviste precum Science sau Nature.

    Chiar dacă articolul său nu este peer-reviewed, merită, după părerea mea, citit.

    The irreversible momentum of clean energy

    Barack Obama
    President of the United States, Washington, DC 20500, USA.

    Email: press@who.eop.gov.
    After 20 January 2017: contact@obamaoffice44.org

    Science  09 Jan 2017:
    DOI: 10.1126/science.aam6284

  16. Constantin Crânganu Constantin Crânganu spune:

    US military tests swarm of mini-drones launched from jets

    Unul dintre foștii mei studenți de la Iași, Doru S., mi-a semnalat o foarte interesantă dezvoltare a dronelor militare: roiurile de mini-drone.

    Ceea ce este nou în această fază de evoluție a dronelor AI este faptul că ele nu mai sunt organisme teleghidate individual, ci acționează ca un organism colectiv, pe baza unui creier comun, simulând situații similare altor roiuri aflate în natură.

    Pentru că noile mini-drone comunică și colaborează unele cu altele, roiul nu are un lider și se poate ușor adapta la alte drone care intră sau ies din roi.

    Dronele au fost inițial proiectate de studenți de la the Massachusetts Institute of Technology și au fost modificate prima dată pentru scopuri militare în 2013.

    • ion spune:

      Nu e suficient ca computerele vor face calcule mai exact ca noi fara oboseala, nu e suficient ca vor putea stoca, gasi, analiza informatie mult mai multa ca noi, nu e suficient ca vor conduce masinarii mai bine ca noi, vor juca jocuri mai bine ca noi, ei se vor organiza in roiuri. Pana la urma cred ca valoarea omului va fi ca el e ilogic si face greseli foarte multe, facand daune, astfel dand posibilitatea sa se reconstruiasca sistemele in parametri mai buni. Deci va mari, imbunatati entropia. Altfel evolutia masinilor ar stagna sau evolua foarte greu.

      De fapt lucrari in aceasta directie si rezultate sunt de mai demult, acum apar aplicatiile. Cercetarile si aplicatiile sunt de mai demult, de cand a inceput lucru la multi procesoare si retele de calculatoare.

  17. Constantin Crânganu Constantin Crânganu spune:

    Google reveals secret test of AI bot to beat top Go players
    Updated version of DeepMind’s AlphaGo program behind mystery online competitor

    Nature, vol. 541, no. 142, (12 January 2017)
    doi:10.1038/nature.2017.21253

    A mystery player causing a stir in the world of the complex strategy game Go has been revealed as an updated version of AlphaGo, the artificial-intelligence (AI) program created by Google’s London-based AI firm, DeepMind.

    Known only by the name ‘Master(P)’, since late December the anonymous player has beaten the world’s best at Go in a string of online games, including defeating current world number one, 19-year-old Ke Jie.

    South Korea trumpets $860-million AI fund after AlphaGo ‘shock’

    Go is regarded as the most complex board game ever invented, and is famously difficult for computers to crack. But last year, AlphaGo showcased the strength of AI software when it stunned the Go world, first by defeating a professional human player, Fan Hui, and then going on to beat one of the Go world’s top players, Lee Sedol.

    Fellow players had a hunch that Master(P) was probably also an AI program. It came out of nowhere to win dozens of consecutive quick-fire games across two separate online platforms. And on 4 January, Google DeepMind chief executive Demis Hassabis revealed on Twitter that Master(P) is a new prototype version of AlphaGo. The “unofficial” games were designed to test the prototype, he said: “We’re excited by the results and also by what we and the Go community can learn from some of the innovative and successful moves played by the new version of AlphaGo.”

    Pentru mai multe detalii, click aici http://www.nature.com/news/google-reveals-secret-test-of-ai-bot-to-beat-top-go-players-1.21253

    • ion spune:

      eu nu stiu detalii despre cum functioneaza masina aceasta, dar eu presupun ca in loc sa rezolve problema prin metoda grea, sa calculeze toate miscarile inainte, ei pur si simplu au gasit o rezolvare mai simpla. S-ar putea sa se rezolve mult mai simplu, de exemplu poate trebuie sa fii doar cu 2-3 miscari mai bun, sau poate jocul are o rezolvare. Cam toate problemele care noua ni se par grele acum, e din cauza ca noi incercam sa le rezolvam prin metoda dificila sau cu instrumente neadecvate. Daca ne gandim mai mult, se gasesc metode simple si elegante.



Comenteaza:







Do NOT fill this !

Autor

Constantin Crânganu


Constantin Crânganu

Constantin Crânganu este profesor de geofizică și geologia petrolului la Graduate Center și Brooklyn College, The City University of New York. Domenii conexe de expertiză: int... Citeste mai departe


E randul tau

...primul e termenul curent, din lat. culus. Cu ani în urmă, cineva i-a pus exact această întreb...

de: Funeriu

la "Întâmplări lingvistice triste, hazlii și puțin indecente. Astăzi despre spelling"

Cauta articole

noiembrie 2017
Lu Ma Mi Jo Vi Du
« Oct    
 12345
6789101112
13141516171819
20212223242526
27282930  

Valentin Naumescu – Marile schimbari. Crize si perspective in politica internationala. Editie bibliofila

contributors.ro

Contributors.ro este intr-o permanenta cautare de autori care pot da valoare adaugata dezbaterii publice. Semnaturile noi sunt binevenite cata vreme respecta regulile de baza ale site-ului. Incurajam dezbaterea relaxata, bazata pe forta argumentelor.
Contact: editor[at]contributors.ro

MIHAI MACI – Cel de-al doilea volum din Colectia Contributors.ro

"Atunci când abdică de la menirea ei, școala nu e o simplă instituție inerțială, ci una deformatoare. Și nu deformează doar spatele copiilor, ci, în primul rând, sufletele lor. Elevul care învață că poate obține note mari cu referate de pe internet e adultul de mâine care va plagia fără remușcări, cel care-și copiază temele în pauză va alege întotdeauna scurtătura, iar cel care promovează cu intervenții va ști că la baza reușitei stă nu cunoașterea, ci cunoștințele. Luate indi­vidual, lucrurile acestea pot părea mărunte, însă cumulate, ele dau măsura deformării lumii în care trăim și aruncă o umbră grea asupra viitorului pe care ni-l dorim altfel." - Mihai Maci

(An essay by Vladimir Tismaneanu and Marius Stan)