Un articol peste care am dat face trimitere la o cercetare din care rezultă că aproape o treime din serverele aflate în datacenterele din lumea întreagă nu fac nimic util. Au fost probabil pornite cu un scop, însă nu mai rulează nici o aplicaţie utilă. Cifrele din studiu sunt destul de impresionante în ceea ce priveşte consumul total de energie pe care îl generează.
Bineînţeles, problema provine în primul rând din managementul defectuos al resurselor. Care provine şi el din dificultatea de a defini în mod concret fiecare aspect al managementului: alocarea şi dealocarea resurselor, dependenţa între diversele servicii şi nu în ultimul rând inapetenţa de înţeles a administratorilor pentru completarea scrupuloasă de formulare. Principial vorbind, s-ar putea imagina soluţii de inventory ( şi chiar există) care să automatizeze complet procesele şi să genereze rapoarte foarte clare referitoare la resurse. Doar că toate aceste soluţii sunt destul de complicat de implementat şi mai ales de întreţinut, pentru că în final depind de acurateţea datelor introduse. Introduse de obicei de un tehnician nervos şi sub presiunea timpului ( pentru că nu schimbăm ceva decât când e stricat).
De voie de nevoie, într-un datacenter mare, trebuie să foloseşti astfel de soluţii ( altfel haosul se instaurează repede) dar după cum se vede, randamentul lor nu e grozav; într-un datacenter mic, de companie de exemplu, s-ar putea ca implementarea să nu se justifice economic, ar fi mai scump decât să ţii un server inutil în priză. În timp începi să mai uiţi de câte o aplicaţie ( mai ales dacă se mai schimbă şi administratorul) şi la un moment dat începi să consideri fiecare intervenţie un risc pe care nu ţi-l asumi decât cu greu.
Dar articolul citat nu ia în calcul un alt aspect: acele servere care nu mai rulează aplicaţii utile, neîntreţinute şi uneori nepatch-uite, s-ar putea să ruleze totuşi ceva. Aplicaţii utile pentru alţii. După cum vedem, Internetul este plin de botnet servere, la care viruşii noştri cei de toate zilele se conectează, transmit date şi primesc comenzi. Este destul de evident că mare parte din aceste reţele se bazează pe astfel de servere mai mult sau mai puţin abandonate.
Și în afară de servere abandonate, mai există şi o altă categorie, a aplicaţiilor abandonate. Datacenterele sunt pline de site-uri vechi, majoritatea cu vulnerabilităţi cunoscute; unele au fost plătite în avans de firme care nu mai există, altele, şi mai rău, au fost hostate gratis în cadrul vreunei iniţiative de marketing sau ca bonus pentru alte servicii sau cine mai ştie din ce motiv. Evident, administratorul datacenterului nu poate şti dinainte; dacă atacatorul este suficient de abil şi îşi poate masca traficul sub aparenţa unei activităţi legitime ( de exemplu folosind doar pachete http şi nedepăşind un nivel rezonabil de trafic) probabil serverul lui de control va rămâne nedetectat mult şi bine. Poate că într-un datacenter local ar mai fi o şansă să observi că site-ul primăriei Văscăuţi-gară ( exemplu imaginar, evident, să mă scuze…) e accesat frecvent de un utilizator din Brazilia, dar într-un datacenter mare nu ai cum să faci astfel de corelaţii, tocmai pentru că poţi avea şi clienţi din Brazilia şi din Văscăuţi. Pe de altă parte, după cum spuneam mai devreme, într-un datacenter local e destul de posibil ca actualul administrator să nici nu aibă habar că pe serverul de web există un site al primăriei din Văscăuţi-gară, hostat gratis şi perpetuu drept bonus pentru nu ştim care proiect european derulat împreună cu succes acum 15 ani ( încă o dată, localitatea e aleasă pentru sonoritatea numelui, însă obiceiurile descrise sunt plauzibile) . Câtă vreme atacatorul se va mulţumi să îşi ruleze botnet controllerul, fără să încerce să compromită serverul şi fără să depăşească traficul rezonabil s-ar putea ca nimeni să nu se sesizeze.
O soluţie? Nu ştiu dacă există o soluţie la această problemă. Sigur că firmele de soluţii de securitate au un rol aici, deşi în general ele se concentrează mai degrabă pe utilizatorul final; uneori se mai întâmplă să colaboreze pentru a scoate din uz câte o reţea de botnets, dar până la urmă, banii lor provin din produsele de desktop, nu din asemenea activităţi. Datacenterele…. ele în general sunt interesate, dar în definitiv sunt entităţi bazate pe profit. Atâta timp cât costurile sunt mai mari decât economiile pe care le-ar produce…. e discutabil. Până la urmă, industrie fără reziduuri nu prea există, de ce ar face IT-ul excepţie?
Nu cred că e o problemă la care să fie nevoie de soluție, e o problemă care există pur și simplu. Pe lumea asta există clădiri abandonate unde nu locuiește nimeni și clădiri abandonate unde sălășluiește câte cineva :) ; există drumuri abandonate pe care nu circulă nimeni, având carosabilul în stare surprinzător de bună ; există uzine și depozite abandonate etc. etc.
La vreo 20 de metri de fereastra mea e chiar un pub abandonat, la care din 3 în 3 luni vine o firmă de întreținere spații verzi și taie vegetația din curte (probabil în baza unui contract din vremuri mai bune) însă ușile și ferestrele rămân mai departe bătute în scânduri. Doar vecinii din zonă își mai parchează mașinile lângă ziduri fiindcă e ”private land” și traffic warden-ul nu îi poate amenda, cum se întâmplă pe stradă, unde timpul de parcare e limitat.
E firesc să existe și servere în funcțiune abandonate, iar în multe cazuri dezafectarea lor ar costa bani, în timp ce evaluarea impactului în cazul dezafectării ar putea costa și mai mulți bani. România a fost dintotdeauna o țară săracă, resursele au fost mereu insuficiente și sunt mereu luate în calcule toate metodele de a reduce costurile (cu energia electrică, de exemplu).
Însă în lumea largă nu e așa, de-obicei nu prea îi pasă nimănui de consumul de energie. Ceea ce costă cu-adevărat e munca umană și dacă poți să lași niște servere să consume energie în loc să plătești sute de ore de muncă pentru a le dezafecta și ”dispose of properly”, atunci mai bine le lași să funcționeze în continuare.
Se aplică, poate, Pareto*? 80 % din data circulă prin 20% din servere?
* https://en.wikipedia.org/wiki/Pareto_principle
Teoretic nu am avea nevoie sa aplicam Pareto, atata vreme cat putem sa masuram acest trafic. Adminul dibaci ar trebui sa incerce sa echilibreze incarcarea, cel putin pe serverele despre care stie ca sunt in uz. Se pare insa ca din diverse motive ( si mie mi s-a intamplat) unele masini pur si simplu „dispar” din sistem. Noi vorbim de software de inventory, dar chiar si asa nu poti obtine o situatie instantanee. As da un exemplu simplu ( un pic depasit): Sa zicem ca avem un furnizor de electricitate care are un contor mare pe care vede consumul tuturor clientilor. La fiecare client vine cititorul de contoare si citeste consumul. Cand toate datele astea ajung la „centru” si le aduni, n-o sa obtii consumul de pe contorul mare, din diverse motive: in primul rand citirile s-au facut la ore diferite; pe urma poate la un client n-au putut ajunge fiindca era un incendiu, altul avea contorul stricat, altul fura curent etc. Deci te multumesti cu o valoare „pe acolo”. La fel si cu software-ul de inventory: pana obtii raportul un server se strica, altul e in mentenanta, altul se reinstaleaza… si tot asa, asta acolo unde datacenterul e suficient de mare.
Nici nu știți câtă dreptate aveți cu exemplul ales :P
Diferența între consumul de pe ”contorul mare” și totalul de pe contoarele de abonat este uriașă, iar din acea diferență nu știe nimeni câtă energie se pierde într-adevăr (prin efect Joule dar nu numai) și câtă energie se fură. Dacă discutați cu cineva de la Electrica, să aveți grijă să fiți așezat pe scaun când auziți cifrele :)
MI-au ajuns si mie la ureche ceva vorbe, dar bineinteles nu la asta ma refeream, ci la o incertitudine de tip Heisenberg , in care metoda viciaza rezultatul
In datacenterele private putem avea pierderi daca ne-am intins mai mult de cate ne tine plapuma si am bagat banu in ultimul racnet pentru prastia de site static, pe cand in cele comerciale avem profit – fiecare resursa neutilizata fiind deja platita in avans :)) chiar daca nu e deaia sharuita sa facem load balancing pentru maxim de prosteala la kilu de clienti :))
Sitele primariei Vascauti-gara dat pe gratis sigur a fost trecut in contabilitate cu costul pe eternitate si e deja amortizat in bilant, ca doar nu vrem mascatii DNA la portita :))
Cat despre botnet-uri, daca navem layeru de security pe datacenter ne trezim cu toti clientii zombie si afacerea explodata :))
P.S. Presupun ca „studiul independent” promovat pe Computerworld de catre firma de consultanta Anthesis nu are scopul de a face reclama la TSO Logic =))
Posibil ca materialul sa fie un fel de „promo” dar asta nu inseamna ca are concluzii false (pana la urma majoritatea studiilor care apar in publicatiile IT sunt cumva finantate de cate o companie care eventual are si o solutie la problemele constatate. Insa atata timp cat concluziile nu sunt falsificate grosolan, e ok) . Chiar daca cifra nu e de 30% ci de 20% tot pare mult, insa e relativ consistent cel putin cu experienta mea ( care nu am administrat datacentere mari, pentru provideri, ci administrez din cele mai mici, de intreprindere sau provider mic) . Layerul de security costa; am intalnit destui hosteri care ofera servicii pe servere nepatch-uite asa ca deja o solutie de securitate e prea mult pentru ei :)
Site-ul VAscauti-gara este desigur amortizat, si din motivele date de dvs :) insa probabil ca e cu atat mai periculos: nu se ocupa nimeni de el, daca il opresti il superi pe dom’ primar, daca nu-l opresti risti sa compromiti serverul, daca il repari costa . De asta l-am si adus in discutie.
Despre ce studiu este vorba? Sunt servere fizice sau virtualizate?
E un link in primul rand al articolului, despre el e vorba.