Mergi la conținut Mergi la navigare Mergi la subsol
Viorel Mocanu

Citește în limba:

Tot ce știu eu despre Inteligența Artificială: Trăim deja în viitor?

Tot ce știu eu despre Inteligența Artificială: Trăim deja în viitor?

Documentar despre inteligența artificială: istoria sa, tipurile de AI (Machine Learning, LLM, AGI) și impactul masiv asupra pieței muncii și joburilor IT.

Ne fură AI-ul job-urile? Sau ne ajută să progresăm? Mai concret: mai merită să te-apuci de învățat programare, design, marketing, copywriting, management sau orice altceva?

Știi momentul ăla când toată lumea stă și se relaxează în timpul liber, se bucură de vacanța de Crăciun și Revelion, și tu stai să tastezi într-o tastatură ca să termini odată script-ul și articolul pentru un video de YouTube despre AI, fiindcă te simți dator să le spui tuturor cât de mișto și terifiant e? Ei bine, ăsta e rezultatul efortului ăstuia.

După 3 luni de zile în care am adunat informații în care am investit fiecare secundă de timp liber să compilez detaliile, mi-a mai luat o lună să-l scriu, să-l filmez și să-l editez, deci 4 luni de efort în total. L-am filmat practic în 3 rânduri pentru că după filmarea inițială au mai fost 2 lansări mari în industrie de care n-aveam cum să țin cont, așa că aveți de vizionat (sau citit) un adevărat documentar făcut din perspectiva mea personală apropo de universul inteligenței artificiale.

Cu video-ul și articolul ăsta vreau să răspund la niște întrebări existențiale legate de inteligența artificială.
Ai văzut cât durează, da? Ești pregătit? Ți-ai luat cafeluța? Ceaiul? Vinul fiert? Perfect, hai să-ncepem!

Introducere

Probabil că ai auzit de AI-uri cum sunt Devin (care pare să fi fost o mega țeapă), sau Pythagora care sunt „atât de avansate” încât par că lucrează deja la nivelul unui junior cu 1-2 ani experiență.

Sau că ChatGPT trece toate testele pentru ingineri de nivelul 3 la Google.

Sau că tot ChatGPT rezolvă 85% din problemele ușoare de pe LeetCode.Dacă există oameni care cred că job-ul de programator va dispărea în 2 ani, cum e domnul din imaginea de mai jos, ce e de făcut?

Postarea lui Andrei Caramitru pe Facebook care spune că job-ul de programator va dispărea în 2 ani.

În video-ul și articolul ăsta vreau să răspund la întrebările asta dintr-o perspectivă personală, după o documentare de multe săptămâni în care m-am uitat la statistici, trend-uri, lucrări științifice, am testat AI-uri de tot felul și am vorbit cu specialiști din domeniu - atât în zona de AI cât și în spațiul de recrutare.

Există un soi de mitologie mai mult sau mai puțin factuală a inteligenței artificiale. Adică sunt multe zvonuri false și multe adevăruri nespuse.

Ești gata să săpăm adânc în ele și în felul cum afectează deja societatea și industria IT de azi?

Dacă te interesează domeniul și ești la început de drum în IT, sau dacă lucrezi deja în domeniu și vrei să înțelegi AI-ul mai bine, stai pe-aproape, fiindcă va fi un articol foarte interesant.

Așa cum am zis și mai devreme, primul video din serie, pe care-l puteți vedea în playlist-ul ăsta pe care-l pun și ca link în descriere, și primul articol aferent e o încercare de a analiza factorii economici care ne-au adus în situația de azi. După ce l-am publicat, a primit peste 250 de comentarii pe YouTube și încă vreo 100 în alte medii, ca Reddit și Facebook, și vreau să vă mulțumesc pentru feedback. Am realizat cu ocazia asta că mi-au scăpat niște detalii, dar cel mai probabil voi face un nou video și articol pe tema economică în care să le integrez cândva în 2025, după ce depășim toate alegerile, schimbările fiscale și orice alte surprize neplăcute mai apar între timp, ca să tragem linie și să vedem care-i situația.

Trump a câștigat prezidențialele din SUA a doua oară în 2024.
kek

Astăzi însă, e vremea AI-ului, pe care aș vrea să-l disecăm puțin.

Ce este cu adevărat Inteligența Artificială? Este doar o unealtă avansată sau e începutul unei revoluții tehnologice fără precedent?

Ca să înțelegi și tu ce înțeleg eu din AI, trebuie să discutăm despre:

  1. Ce este AI-ul
  2. Care sunt tipurile de AI existente în prezent
  3. Ce efect are tehnologia în general și AI-ul în special asupra pieței muncii
  4. Care sunt părțile bune ale AI-ului și cum îl putem folosi deja azi
  5. Care sunt părțile rele ale AI-ului și ce e de făcut în privința lor
  6. Care sunt gândurile și așteptările mele legate de AI în viitorul apropiat

Ce este AI-ul?

Înainte de toate, mă bucur mult că ești încă aici! Să știi că mă ajută enorm de mult să-mi lași un like la video și să-mi dai un subscribe, ca variantă gratuită de mulțumire pentru efortul depus de mine în compilarea informațiilor din articolul ăsta lung. Sper să rămâi până la final, pentru că merită tot timpul tău!

Contrar a ce cred mulți, AI-ul nu e deloc nou! Omul a fost tot timpul fascinat de automatizare.

Inteligența Artificială, prescurtată AI după denumirea din engleză, există într-o formă sau alta încă din antichitate:

  • miturile grecești ale lui Hephaistos și Pygmalion au încorporat ideea de mașinării automateHephaistos reprezentat de Adobe Firefly.
  • cum e Talos (protectorul metalic al Cretei, primul robot mitologic) sau alte ființe artificialeTalos reprezentat de Adobe Firefly.
  • cum sunt Galatea (statuia care prinde viață)Galatea și Afrodita în reprezentarea Adobe Firefly
  • sau Pandora (care pare să fie primul android din istorie),Pandora reprezentată de Adobe Firefly

…așa cum ne zice pagina de Wikipedia. Ideea de automatizare fără contribuția umană a fost îndelung căutată de inventatorii din toate secolele trecute ale istoriei cunoscute pentru a face viața oamenilor mai ușoară.

Automobilul lui Leonardo Da Vinci.

Andrew Ng, unul din cel mai renumiți profesori de AI din lume, care predă la Stanford, definește AI-ul ca o colecție de unelte cum sunt: învățarea supervizată (etichetarea lucrurilor), AI-ul generativ, învățarea nesupervizată și reinforcement learning. Andrew a mai zis și că importanța AI-ului probabil se va compara cu importanța electricității în societatea de azi.

Alți oameni deștepți, cum este Seth Godin, unul din cei mai buni marketeri în viață, face aceeași paralelă între AI și electricitate și spune că va fi atât de ubicuu încât nu se va mai vorbi despre el în sine, ci doar despre felul cum integrarea lui în toate produsele și serviciile ne va îmbunătăți viața.

Dacă e să vorbim în termeni tehnici, IBM ne oferă o definiție stratificată: după ei, inteligența artificială este o tehnologie care le permite calculatoarelor și roboților să simuleze învățarea umană, înțelegerea informației, rezolvarea problemelor, luarea deciziilor, creativitatea și autonomia. Cuvântul esențial de aici este „să simuleze”. Pentru că deși am ajuns la un nivel tehnologic destul de avansat, noi încă nu înțelegem și nu putem reproduce procesul chimic și biologic care permite creierului uman să învețe, decât într-o măsură limitată. Cu toate astea, AI-urile de azi pot să recunoască obiecte, să înțeleagă și să răspundă limbajului uman atât scris cât și vorbit, să înglobeze informații noi bazate pe ce îi punem la dispoziție, să facă recomandări, evaluări și rezumate și să funcționeze cu intervenție umană minimă.

Ca să ajungem aici a fost nevoie de multe inovații.

Definiția stratificată a AI-ului făcută de IBM

Nu e simplu să definești un lucru care evoluează permanent. Evoluția e atât de accelerată în zilele noastre încât e greu și să faci un timeline corect și complet al AI-ului modern datorită ritmului lui de evoluție. Au încercat mulți, dar nu prea au reușit, sunt prea multe detalii și lucruri de punctat pe care le poți uita.

O tentativă de reprezentare a unui timeline istoric al AI-ului.

De-asta nici eu nu garantez c-o să fiu exhaustiv. Oamenilor le e frică de ce nu înțeleg, și vreau ca după ce urmărești acest video sau citești acest articol, tu să înțelegi AI-ul, la nivelul la care se prezintă la final de 2024, din perspectiva mea personală.

Pentru asta, avem nevoie să intrăm puțin în detalii. Ar fi util să disecăm care sunt tipurile de AI care funcționează astăzi și ce ne așteaptă în viitor.

Tipuri de inteligență artificială (AI)

Sunt mai multe tipuri de clasificare ale inteligenței artificiale.

Dacă e să le categorisim după capabilități, adică după ce pot să facă, IBM le sparge în 3:

  1. Narrow AI: AI specializat și cu aplicabilitate îngustă, care e tipul de AI disponibil azi. El poate fi folosit pentru: recunoaștere facială, întoarcerea rezultatelor unei căutări, conducerea unei mașini autonome, jucarea unui joc cum e șahul, GO-ul și altele, și așa mai departe. Contextul în care funcționează e unul limitat și foarte bine definit.
  2. General AI: AI generalizat și cu aplicabilitate largă, care e următorul pas evolutiv la care, în ciuda aparențelor, încă NU am ajuns dar pare că nu suntem departe. Concret, o variantă mult, mult îmbunătățită de ChatGPT care nu doar regurgitează conținut existent folosind ceva similar cu Sistemul 1 de gândire definit de Kahneman (care înseamnă reacție reflexă), ci care gândește cu adevărat. Corelează noțiuni, stabilește relații de cauzalitate între concepte și poate funcționa relativ autonom, emițând ocazional idei originale. Cel mai aproape e ChatGPT o1 care orchestrează mai multe AI-uri cu niveluri diferite de precizie și specializare, pe care le coordonează să răspundă mai bine la întrebări. Răspunsul la acele întrebări poate dura mai mult decât răspunsul instantaneu al modelelor mai vechi, dar e încă prea devreme să intre în categoria asta de AI.
  3. Ăla de care se sperie toată lumea, AI-ul superinteligent,
    AI-ul ăsta e conștient că există, e conștient care îi sunt limitările și problemele și e capabil să se schimbe singur, să itereze asupra lui însuși și să evolueze. În principiu ar avea control și asupra propriei instanțe fizice, fiind capabil să se auto-replice, să se extindă fizic în ce fel consideră optim. Un astfel de AI ar putea rezolva teoretic orice problemă dacă îi dăm suficient timp, cam ca în Hichhiker’s guide to the Galaxy – dați un search pe Google după “the answer to life, the Universe and everything”. E un nivel pur speculativ la care nu se știe că vom ajunge vreodată, dar cu siguranță există șanse.

Categorisirea asta încă nu e foarte interesantă, pentru că are o rezoluție prea mică, nu intră în suficiente detalii imediate, nu prezintă posibilitățile AI-ului la care suntem expuși astăzi. Ca să vorbim mai în detaliu despre el, ar trebui să folosim altă împărțire, altă taxonomie, și anume: tehnologiile folosite sau la care contribuie fiecare tip de AI. Sau ca să fie mai simplu, putem să categorisim AI-ul după metodologiile cu care el încearcă să rezolve problemele.În termeni generici, AI-ul poate fi împărțit în: Machine Learning, adică învățare automată, și Expert Systems, adică sisteme de expertiză, conform diagramei ăsteia.

Împărțirea AI-ului în Machine Learning și Expert Systems.

Aici e o variantă ușor diversificată.

Împărțirea AI-ului în Machine Learning, Natural Language Processing, Expert Systems, Speech Recognition, Vision, Robotics și Planning.

Categoriile despre care vom vorbi acum nu se exclud una pe alta, sunt mai degrabă interconectate și folosesc principii comune, ca diagramele Venn din matematică.

O amibă cu o singură celulă nu poate să dea play unui video pe YouTube sau să deschidă acest articol de blog, însă tu care ai 30 de trilioane de celule interconectate prin organe și sisteme n-ai avut nicio problemă să faci asta, deci complexitatea și interconectarea sunt semne de evoluție. La fel și la AI: dacă până acum 10 ani, progresul tehnologic în materie de inteligență artificială a fost făcut în nișe foarte restrânse și cu cercetări adânci asupra unor fenomene și metodologii foarte înguste și bine definite, abia acum încep să se facă conexiuni adevărate între tacticile astea de abordare a problemelor și începe să se difuzeze informația între ele, să se creeze complexitate. Să le luăm pe rând

AI-urile de azi

Expert systems sau sisteme expert – sau dacă AI-ul tău ar fi doctor, inginer și instalator, toate într-unul.

  • Sisteme expert bazate pe reguli: Dacă A, atunci B. „Dacă ai febră, atunci ia un Ibuprofen!” Simplu, clar, plictisitor.
  • Sisteme expert bazate pe frame-uri: Practic, AI-ul are un dulap de cunoștințe – deschide sertarul potrivit și rezolvă treaba.
  • Sisteme expert cu logică fuzzy: Nu e alb, nu e negru, e… gri. Gândește-te la mașina de spălat care știe exact cât detergent să pună, cât timp să spele și cu ce temperatură în funcție de cât de murdară îți este încărcătura.
  • Sisteme expert cu rețele neuronale: Ăștia sunt învățăceii inteligenței artificiale adevărate – văd tipare și iau decizii mai bine decât te-aștepți.
  • Sisteme expert neuro-fuzzy: Combinație între fuzzy și neuronal. Practic, o combinație dintre Doctor House și ghicitoarea de la bâlci – face diagnoze și ghicește în bobi în același timp.
Doctor House combinat cu ghicitoarea de la bâlci.

Machine Learning (ML) – sau cum să-ți dresezi AI-ul să fie deștept.

  • Supervised Learning: Ca să înveți un câine să stea jos, îi zici „șezi” de 1000 de ori. Așa funcționează și AI-ul ăsta. Exemplele multe îl fac să prindă ideea. E folosit în detectarea fraudei sau recomandările de produse.
  • Unsupervised Learning: Îi dai haosul și îl lași să-și bată capul singur cu el. Netflix face asta când îți recomandă filme în funcție de mii de posibili factori diferențiatori între ele.
  • Reinforcement Learning: AI-ul care joacă șah sau Go de 1 milion de ori și devine mai bun decât orice campion uman. Care e scopul lui? Să câștige – sau să-ți distrugă scorul la jocuri video.

Rețelele neuronale – Sunt un creier digital care „gândește” în straturi. De la recunoașterea feței tale în poze, la traducerea unui text cum face Google Translate.

  • Deep Learning: Rețelele mai adânci care sunt mai deștepte - un fel de creier cu mușchi. Straturi multe, performanță maximă – adică AI-ul nu doar vede liniile de pixeli, ci îți spune și ce față tristă ai în poză.

NLP – Limbaj natural, înțeles nenatural de bine. AI-ul îți decodează mesajele text și îți răspunde mai uman decât fratele tău mai mare. Aplicații? Chatbots, traduceri, analiza sentimentelor și a comentariilor.

LLM-uri și - cazuri speciale - GPT-uri – LLM vine de la Large Language Model, iar GPT vine de la Generative Pre-trained Transformer. Sunt modele uriașe de limbaj, construite prin încărcarea întregului conținut de pe Internet ca bază de date de texte, care fac textul să sune mai deștept decât te-ai aștepta. De la scris articole până la conversații interactive, sunt cei mai buni prieteni ai marketerilor leneși.

Roboți și automatizări

  • Robotica sau AI-ul cu mușchi care face sarcini fizice.
  • Automatizările sau termostatul tău care știe când îți e frig și dă drumul la căldură.
  • RPA-ul - vine de la Robotic Process Automation - boții ăia care postează chestii extremiste la care dă share vecinul tău sau controlează o fabrică întreagă mai bine decât Elon Musk.

Toate astea sunt variante diferite care încep să se unească în aplicații mai interesante. ChatGPT 4 o1 de la OpenAI, sau Gemini 1.5 de la Google, sau Claude 3.5 de la Anthropic, sau chiar Grok 2 de la Twitter încearcă să combine, să orchestreze mai multe tipuri de AI-uri dintre cele menționate deja, ca să creeze ceva mai deștept decât suma părților componente. Unii numesc asta AGI - Artificial General Intelligence, care poate să gândească și să rezolve probleme în moduri originale, unice, cvasi-realiste. AI-ul generalizat, categoria a doua de care am vorbit mai devreme, precursorul lui Skynet.

AI-urile din viitor: Artificial General Intelligence (AGI)

Unii specialiști în AI, cum e și prietenul meu, Adrian Pungă, CTO la eJobs, cred că LLM-urile sunt piesele de puzzle de care ai nevoie ca să construiești într-un final un angrenaj AGI. Deci evoluția LLM-urilor este scara pe care urcăm spre AGI.

LLM-urile nu prezic doar următorul cuvânt dintr-o frază, sunt mai generale de atât. Fac predicții pentru următorul element dintr-o serie de elemente mai complexă. Sau următoarea idee dintr-o serie de idei. Au viziune mai de ansamblu, care momentan e relativ limitată de dimensiunea și calitatea antrenamentului lor, dar care are potențialul să se coaguleze într-un sistem capabil să rezolve realist o problemă, nu doar să regurgiteze soluții existente. Pentru că AGI-ul asta înseamnă…

Sam Altman, CEO-ul OpenAI din 2019 încoace, prezice că AGI, sau inteligența artificială generalistă, capabilă să gândească în mod real, foarte similar cu felul cum o facem noi, va apărea în maxim 50 de ani. Și alți oameni ca Sam Harris insistă că nu se pune problema de „dacă” va apărea, ci doar de „când” va apărea:

Nu știm dacă așa va fi, însă AGI, poate fi un film SF devenit realitate: o inteligență artificială capabilă să facă orice sarcină intelectuală umană, cu creativitate și adaptabilitate fără limite. Spre deosebire de un AI specializat, AGI ar putea învăța rapid din diverse domenii, de la știință la artă, fără a fi nevoie de o echipă de ingineri care să îi dicteze fiecare mișcare.

Odată cu apariția AGI, ar putea apărea soluții inovative pentru sănătate, climă, inegalitate socială. Însă, pentru a beneficia de pe urma lui, trebuie să ne protejăm, să ne luăm măsuri de siguranță – altfel, riscăm să intrăm pe un teritoriu periculos. AGI poate fi un aliat excepțional sau un risc uriaș; viitorul depinde de cum ne pregătim.

Deși pare puțin probabil comercial, gândirea pe termen lung și punerea binelui omenirii ca țel principal al tuturor companiilor care dezvoltă AI ASTĂZI e un pas bun în direcția corectă.

Ca să încheiem subiectul, hai să vedem care sunt cele mai bune modele AI de astăzi. Care sunt jucătorii principali și care e potențialul pe termen scurt? Chatbot Arena are un top al tuturor LLM-urilor:

Topul LLM-urilor în decembrie 2024 de pe ChatBot Arena.

Topul ăsta - valabil pe 20 decembrie 2024 - ne spune că proaspăt lansatul Google Gemini cu variantele 2.0 Flash Thinking Experimental și Experimental au trecut brusc pe primul loc, depășind ChatGPT 4o latest (lansat chiar acum o lună, pe 20 noiembrie). Alte variante de Gemini, ChatGPT, Grok, Yi și Claude urmează în top. E bine de reținut pe măsură ce parcurgem restul articolului.

Înainte să ne mai dăm cu părerea despre cum va fi peste niște ani, hai să vedem ce efect a avut tehnologia, automatizarea și AI-ul asupra job-urilor, că asta ne doare cel mai tare.

Ce efect are AI-ul și tehnologia asupra job-urilor?

Vreau să ne uităm puțin la istorie și să discutăm despre termenul de Creative destruction, sau cum progresul tehnologic invalidează job-uri și creează altele noi. Termenul e vechi, dar cartea scrisă de Richard Foster și Sarah Kaplan vorbește despre faptul că din perspectiva companiilor, supraviețuirea nu e posibilă decât dacă se adaptează și inovează continuu, mai ales odată cu progresul tehnologic accelerat.

La fel și noi, ca angajați, trebuie să ne adaptăm la progresul tehnologic. Hai să analizăm ce s-a întâmplat până acum în istorie pe tema asta și cum ne afectează „creativitatea distructivă” carierele acum și pe viitor.

Trecutul: Călătorie prin istoria job-urilor

Tehnologia a remodelat complet piața muncii în ultimii 100 de ani, într-un stil brutal. De la revoluția industrială la era digitală, fiecare mare invenție a distrus ceva vechi și a creat ceva nou.

Spre exemplu: în 1950 erau peste 1 milion de centraliste în SUA – vedeți povestea completă în acest video minunat de la Veritasium – dar ca să reducă din costurile cu personalul, companiile de telecomunicații care le angajau au inventat un sistem automatizat de rutare a apelurilor, ceea ce a dus la dispariția a 99% din posturile de centralist în câțiva ani.

Iluminatul electric a distrus complet lămpierii. Londra spre exemplu avea 25000 de lămpieri începând cu 1812, azi au rămas doar 5.

Și sunt multe alte exemple. Imprimatul a distrus scribii, trenurile au eliminat șoferii de diligențe, lifturile automate au distrus job-urile de liftieri – dar de fiecare dată când tehnologia a distrus job-uri, a și creat job-uri. Poate nu imediat, poate nu de același fel, dar e un proces ciclic și dovedit de istorie. El se va întâmpla și de acum încolo odată cu apariția și diseminarea AI-ului.

Până la urmă trebuie să înțelegem: creative destruction e baza capitalismului - creativitatea și inovația sunt disruptive și schimbă complet piața, și e normal așa, și asta ne și dorim pentru progresul umanității. Dar hai să vorbim puțin despre ritmul schimbărilor.

De multe ori, schimbările nu au fost așa dramatice precum par la prima vedere. Cei 25000 de lămpieri din Londra n-au dispărut peste noapte, n-a fost așa brusc procesul. De multe ori, ca să-și păstreze statutul social, oamenii au renunțat singuri la job-uri pentru că salariile s-au micșorat. Dacă stai să te gândești, salariul este felul cum îți apreciază, îți valorizează piața muncii în general și angajatorul în special orele de muncă. Atunci când unele job-uri pot fi automatizate, salariile oamenilor care le făceau încep să scadă fiindcă nu mai e nevoie atât de mare de ei în economie. Schimbările sau reconversiile profesionale se petrec proporțional cu cât de repede scade salariul față de nevoile curente și față de nivelul de trai cu care erau obișnuiți oamenii.

Astăzi însă, lucrurile sunt ceva mai dramatice, cu atâtea disponibilizări răsunătoare care au destabilizat complet piața muncii din IT. Faptul că se dau la nivel mondial sute de mii de oameni afară într-un an creează o creștere masivă a ofertei de talent în IT, și o scădere clară a cererii de oameni. Cum am vorbit în video-ul și articolul trecut, ăsta e unul din motivele pentru care suntem aici astăzi.

Prezentul: Realitatea de azi

Care e de fapt situația de azi? Un studiu al economistului David Autor din 2022 a descoperit că 60% din angajații din 2018 lucrează în job-uri care nu existau în 1940!

Job-uri care nu existau în 1940, evaluate în 2018.

În ultimii 40 de ani, multe fabrici care asamblau piese și-au schimbat compoziția forței de muncă de la muncitori necalificați la ingineri specializați în roboți industriali și mecanici în stare să-i repare. Se pare că datorită roboților industriali și inteligenței artificiale, milioane de salarii s-au redus cu 50-70% în SUA din 1980 până azi, în special în rândul muncitorilor necalificați. Și… e normal să fie așa. Creșterile de eficiență și rapiditate ale fabricilor respective a fost unul din factorii bunăstării noastre de azi. E motivul pentru care un iPhone sau un televizor costă câteva mii de lei, nu câteva zeci sau sute de mii de lei.

Hai să ne uităm pe niște cifre relevante de la World Economic Forum. Adopția tehnologiilor „de frontieră” cum este AI-ul cauzează creșteri de job-uri în multe domenii din IT care momentan nu au foarte mulți angajați, cum ar fi:

  • Cererea pentru specialiști în AI și Machine Learning e în creștere cu 40%, adăugând 1 milion de locuri de muncă în SUA în perioada 2023-2027.
  • Oamenii de Business Intelligence, Securitate Cibernetică, inginerii FinTech, specialiștii în analiză de date, specialiștii în robotică și în Big Data sunt mai căutați cu 30-35%.
  • Developerii de Blockchain, specialiștii în e-Commerce, Marketing Digital, inginerii de date, designerii comerciali și industriali, inginerii DevOps, arhitecții de baze de date, specialiștii în RPA, programatorii software, specialiștii tehnici, cei de rețele și de baze de date, dezvoltatorii de aplicații, project managerii și inginerii Full Stack cresc în cerere între 15% și 25%.
  • Majoritatea celorlaltor job-uri de IT sunt în creștere moderată sau mică, iar foarte puține sunt în scădere: job-urile în Data Warehousing, Social Media, testare software, relații clienți și suport sunt în scădere ușoară sau accelerată, de la -2% până la -10%.

Doar securitatea cibernetică, spre exemplu, pare că va aduce peste 200 de mii de locuri de muncă noi în piață odată cu creșterea pericolelor cibernetice în topul celor mai mari probleme ale IT-ului mondial pe termen scurt și lung.

Peste 3 milioane de noi locuri de muncă se vor crea în total în SUA în următorii 3 ani. Eu zic că sunt cifre semnificative…

Analiza cererii de job-uri în intervalul 2023-2027. Majoritatea job-urilor din IT vor crește ca volum, și câteva vor scădea.

Cu toate astea, deși pare că veniturile companiilor din IT cresc de la an la an, profesorul Scott Galloway a observat că multe companii au făcut layoffs oricum, chiar și după episoadele despre care am vorbit video-ul trecut, post-pandemie și post-angajări.

S&P 500 a crescut cu 25% anul ăsta, iar Magnificent 7 (Alphabet / Google, Amazon, Apple, Meta / Facebook, Microsoft, NVidia și Tesla) au fost responsabile pentru 70% din creșterea asta. Fiecare companie din lista asta a crescut între 5% și 16% în venituri, deci bazându-ne pe cifrele astea, angajările din pandemie pare că n-au fost o greșeală.

Creșterea Magnificent 7 la bursă în 2024.
Creșterea fiecărei companii din grupul Magnificent 7 la bursă în 2024.

La IBM anul trecut e discrepanța cea mai mare: companiei i-au crescut veniturile în 2023 de patru ori și jumătate față de 2022, dar tot a dat afară 1.5% din angajați, ca să nu mai vorbim de Meta care a scăpat de 13% din angajați deși a fost cu 73% peste anul precedent.

Business Insider a descoperit că IBM spre exemplu, a avut venituri aproape de 5 ori mai mari și tot a dat afară 1.5% din personal.

Pare că o parte din layoffs au fost cauzate de optimizări care ar putea avea legătură cu AI-ul și inovația în general, nu de condițiile economice, care par să fie mult mai bune. Galloway zice că AI-ul joacă un rol mai mare în disponibilizări decât vor companiile să recunoască. Microsoft, după ce au pus ChatGPT și GitHub Copilot pe cel mai înalt pedestal al creșterii productivității și Satya Nadella, CEO-ul lor, a zis clar că nu va înlocui oamenii din industrie, ar fi părut niște ipocriți dacă ar fi recunoscut că au dat afară 1900 de angajați (8%) din Activision Blizzard imediat după ce i-au cumpărat.

CEO-ul IBM, Arvind Krishna n-a zis că dă oameni afară (deși am văzut că a făcut-o), dar a zis că va pune pauză la angajările din rolurile care pot fi înlocuite cu AI. La fel, Google declară că nu restructurează datorită faptului că AI-ul elimină poziții din companie.Goldman Sachs a făcut o analiză în urma căreia a dedus că 25% din toate job-urile din SUA pot fi automatizate folosind AI, procentul cel mai mare fiind în sfera administrativă, legală și financiară. Deci o parte substanțială din job-urile americane sunt sub semnul întrebării, și piața muncii clar se va transforma în viitorul apropiat.

Ce procent din muncă poate fi automatizată cu AI?

Liderii companiilor mari poate că nu vor să recunoască faptul că AI-ul e în spatele „optimizărilor” ăstora. Dacă se va schimba situația și vor începe să recunoască public treaba asta, e posibil să se inflameze cei cu viziuni distopice asupra viitorului în care nu poate nimeni să găsească job-uri din cauza faptului că AI-ul ne înlocuiește pe toți. Eu sper că un asemenea viitor e imposibil, pentru că AI-ul va și crea job-uri, dar să vedem dacă va face asta suficient de repede pe cât le distruge.

Și nu, acum NU suntem în situația asta, chiar dacă unii din voi așa se simt, și vă înțeleg. Situația de acum e creată de ce v-am povestit video-ul trecut despre economie, și de ce vă voi povesti video-ul viitor despre problemele reale ale IT-ului românesc.

Mi-a plăcut formularea lui Scott Galloway: AI-ul e un Ozempic corporativ pentru a elimina pofta de recrutare. Sau e terapie hormonală pentru companii mature care vor să se simtă tinere ca niște startup-uri, însă în curând, o nouă generație de startup-uri reale hrănite din laptele matern al AI-ului vor crea o armată de supersoldați cu lasere și drone care se vor lupta cu armatele mai mari ale megacorporațiilor de azi, care par că încă luptă călare. E o metaforă puternică și destul de realistă.Și se simte în aer, toată lumea e preocupată de asta. 37% din angajații din China, Germania, India, Marea Britanie și SUA sunt îngrijorați apropo de automatizare și AI care riscă să destabilizeze job-urile, procentul fiind în creștere cu doar 4% față de 2014, semn că problema se resimțea încă de pe atunci, în special la blue collar workers, adică muncitorii din fabrici.

37% din angajații marilor țări industrializate se tem că vor fi înlocuiți de AI.

În piața muncii, da, pe termen scurt și mediu probabil vor rămâne oameni mulți fără job, dar tu, dacă-ți dezvolți skill-urile, ca actual sau viitor angajat în IT vei supraviețui și vei răzbi, ba chiar vei avea un job mai bine plătit, conform gigantului mondial de consultanță de management Price Waterhouse Cooper. AI e cea mai mare oportunitate a următoarei decade, și deja automatizează task-uri manuale și repetitive, iar curând va augmenta deciziile umane și va adăuga la Produsul Intern Brut global până în 2030 peste $15 trilioane de dolari, adică mai mult decât aportul total al Chinei și Indiei împreună, iar creșterea aia, dacă ne jucăm cărțile corect, va fi suficientă pentru a crea multe job-uri bune. Și da, va schimba și cum se vor face job-urile curente.

Un alt studiu ne zice că vor dispărea 73 de milioane de job-uri până în 2030 și peste 85 milioane până în 2050 datorită automatizării, adică vreo 30% din toate job-urile lumii care sunt „plictisitoare și repetitive”, preponderent în manufactură, unde sunt 20 de milioane de job-uri cu risc de dispariție.

Treaba asta se întâmplă deja, și nu neapărat în domeniile menționate. Cineva a postat pe Reddit că întreaga echipă editorială a unui radio local (de la ziariști la reporteri, editori, editori audio, graficieni) este înlocuită de Q AI, și odată ce se face implementarea cu succes în orașul respectiv, se va extinde pe toată țara, lucru care va face să dispară zeci de mii de job-uri. Dacă ți-am stârnit curiozitatea, citește și comentariile de pe Reddit, că sunt interesante.

Klarna a înlocuit 1000 job-uri cu AI, ceea ce e îngrijorător. Practic n-au mai angajat oameni, nu au făcut layoffs efectiv.

Ne așteptăm ca AI-ul să ne surprindă în continuare, zice alt studiu, și ca multe job-uri să fie automatizate. În absența unor descoperiri semnificative însă, ne așteptăm și ca limitările LLM-urilor să continuă să constrângă progresul automatizării pe perioadă nedeterminată, așa cum au arătat autorii acestui studiu încă de acum 10 ani. Autorii se referă la job-uri care implică inteligență socială, creativitate și abilități senzoriale și de manipulare complexe, la care AI-ul încă nu e așa bun – cu accent pe încă.

Eric Schmidt zice că job-urile periculoase, repetitive și unde e detrimental să te bazezi pe vigilența umană probabil vor fi înlocuite sau augmentate de sisteme automatizate, ca și până acum:

Hai să discutăm acum de sfera IT-ului în special.

Cum sunt afectate acum job-urile din IT

Un alt studiu din SUA, guvernamental de data asta, prezice că în următorii 10 ani se vor crea peste 327 de mii de noi job-uri de software developeri și testeri - 303 mii de programatori și 24 de mii de testeri.

Dar asta pare ceva distant, și geografic și ca întindere în timp.

Ce ne interesează pe noi acum e industria de IT de azi, din România și nu numai, și cum e afectată de inteligența artificială.

AI-ul ca tehnologie nu e deloc nou - oamenii îl folosesc deja de multe zeci de ani încoace în aviație, generare de rute, identificarea de pattern-uri și alte lucruri unde volumul pur al datelor sau posibilităților făceau imposibilă rezolvarea umană a problemelor în timp util. Hype-ul recent, și faptul că oamenii au senzația că e o chestie nouă și shiny acum, se datorează exclusiv faptului că lumea a dobândit acces la ChatGPT și alte LLM-uri care mimează inteligența, și care chiar dacă sunt foarte limitate, au abilitatea de a fi suficient de conversaționale încât te simți ca Iron Man discutând cu Jarvis.

Studiile la care au răspuns developeri ne spun că peste 90% din developerii de azi au testat tool-uri cum sunt ChatGPT, GitHub Copilot, Google Gemini, BingAI, Grok, Claude sau alte AI-uri și 76% au folosit sau plănuiesc să folosească tool-urile respective ca să-i ajute la muncă (în creștere cu 6% față de anul trecut), cu utilități diferite: 81% susțin că le crește productivitatea, 62% că-i ajută să învețe mai repede, 58% că îi ajută să fie mai eficienți, 30% că le crește acuratețea când codează și 25% că le scade cantitatea de muncă. Mai exact, 82% îl folosesc să scrie cod, 68% să caute răspunsuri, 57% să facă debugging, 40% să documenteze codul, 35% să genereze conținut (remember Lorem Ipsum?), 31% să învețe despre codul unui proiect, 27% să testeze cod și așa mai departe, deci există utilitate deja, chiar dacă încrederea în AI că face treabă bună din prima nu e decât în jur de 50%.

Dar studiul ăsta e despre ce cred programatorii despre AI în vara și toamna lui 2024. Dar am intrat deja în iarnă, și de acum încolo, datorită ritmului foarte alert de evoluție, lucrurile par că încep să se schimbe la nivel de industrie.

Au apărut niște studii noi, mai recente însă. Hai să le evaluăm rapid. Netlify a publicat State of Web Development 2024 care vorbește despre AI cum că ajută la automatizarea muncii repetitive, ajungerea mai rapidă a lucrurilor în producție, deschiderea unor oportunități care nu erau disponibile până acum, îmbunătățirea sharing-ului de cunoștințe intern în companii și mărirea productivității utilizatorilor produselor dezvoltate. DAR, dacă vă uitați la culori, vedeți clar că entuziasmul și procentele sunt în scădere față de 2023. Impactul AI-ului deci pare să fie pe pantă descendentă. Vom vorbi puțin mai încolo despre Gartner Hype Cycle care are legătură cu trend-ul ăsta evident.

Cum îmbunătățește AI-ul workflow-ul developerilor?

Se confirmă și creșterea scepticismului legat de scăderea calității codului, însă riscurile asociate restului lucrurilor măsurate în 2023 sunt în scădere, ceea ce-nseamnă că AI-ul se maturizează. Mai exact, developerii cred că riscul răspunsurilor incorecte e mai mic (și totuși aflat încă la 61%), riscul scăpării detaliilor confidențiale din cod e și el mai mic, la fel și riscul adăugării găurilor de securitate în cod sau lipsa legislației în domeniu. Și da, aici se vede clar că doar 18% din respondenți consideră că există risc să fie înlocuiți de AI, în scădere de la 20% anul trecut.

Riscurile adopției AI în rândul dezvoltatorilor.

A mai apărut între timp și State of JavaScript 2024. În privința AI-ului, studiul ăsta demonstrează ce AI-uri sunt folosite de developerii de JavaScript cel mai mult: ChatGPT 67% urmat de Copilot 48%, Claude 23%, Gemini 14%, Cursor 11%, v0 de la Vercel 9%, Codeium 8%, JetBrains AI 6%, la fel ca Perplexity 6%. Doar 14% din developeri n-au folosit deloc unelte AI.

Unelte AI folosite de developerii de JavaScript.

O proporție interesantă din studiul ăsta e ce procent din cod e generat de AI versus codat de mână:

Procentul de cod generat de AI de dezvoltatorii de JavaScript.

20% spun că nu generează deloc cod cu AI. Procentele cresc la 38%, apoi scad la 23% și 7% pe măsură ce progresăm de la zero cod generat cu AI la jumătate din cod generat cu AI. Sub 6% dintre cei 11371 respondenți generează mai mult de 50% din cod cu AI.

Chiar și GitHub a publicat recent Octoverse Report 2024 în care zic clar și răspicat că „AI-ul nu va fura job-ul niciunui software developer, decât dacă nu folosește AI”. Convenabil pentru Copilot, aș zice, care tocmai a devenit gratuit. 🙂

Concluzia cifrelor din chestionare este că developerii au descoperit și folosit cu succes AI-ul într-o măsură variabilă, însă pare că e o tehnologie care nu va pleca nicăieri și care chiar pare că ajută. Dar de înlocuit oameni nu cred că se pune problema.

Există totuși nișe care vor fi mai afectate decât altele și deci vor fi job-uri care se vor schimba fundamental, datorită faptului că folosind AI azi poți suplini în măsură relativ mare un specialist uman.

Spre exemplu, un specialist de 1st level support e disponibil pe chat în momentul în care există oameni care au nevoie de ajutor la tine pe site sau în aplicație, și un LLM bine antrenat s-ar descurca mai bine decât un om, pentru că 70-80% din situații se pot rezolva cu niște instrucțiuni simple pe care un LLM le poate extrage din documentație, și pentru restul de 20-30% din lucruri poate face legătura cu un om. Dacă folosiți eMag, știți exact la ce mă refer, pentru că ei au implementat deja asta. Cât de bine, e discutabil, dar s-a întâmplat deja.

Alt exemplu: un tester manual ia efectiv aplicația sau site-ul la mână și dă click-uri, face acțiuni, trece prin critical path-uri și parcurge tot ce are nevoie ca să valideze faptul că site-ul sau aplicația funcționează. Lucrurile astea pot fi automatizate de mulți ani deja, cu tot felul de teste, cele mai complete fiind cele end to end. Dar există deja și se vor perfecționa în timp AI-uri care analizează felul cum e folosită aplicația de utilizatorii reali și dezvoltă automat scenarii de teste end to end.

Încă un exemplu: un freelancer de pe Fiverr poate să-ți genereze, uneori bine, de cele mai multe ori insuficient de bine, artefacte creative de la texte, dacă ne referim la copywriteri și content writeri, până la imagini sau video-uri. Deși percepția tradițională asupra inteligenței artificiale presupunea că AI-ul va avea probleme mari cu creativitatea și job-urile creative vor fi ultimele afectate de progresul tehnologic, se pare că nu e chiar așa. Surprinzător pentru mulți, există deja scripturi, „difuzoare” de pixeli sau LLM-uri care creează texte întregi (ChatGPT), imagini și video-uri (StableDiffusion) fac deja asta, unele mai bine decât te aștepți.

Mai există alte nișe din IT care au job-uri care se vor schimba mai puțin, dar vor fi clar afectate de AI, preponderent prin amplificarea productivității. Dacă administrezi rețele, cel mai probabil folosești deja AI pentru monitorizarea pachetelor care circulă prin rețea și identificarea euristică a potențialelor breșe de securitate și atacuri.

AI folosit în rețelistică.

Ca programator, consider că dacă nu încerci măcar câteva luni să folosești zilnic un GitHub Copilot sau Cursor sau Codeium sau alt IDE cu AI, îți anulezi posibilitatea de a deveni mai productiv, cel puțin când vine vorba de codarea lucrurilor mai puțin complexe, mai de rutină.

Există uneori momente în carieră în care ai nevoie de soluții rapide, codate de alții, cărora să le dai copy paste. Aici, AI-ul te va ajuta cel mai mult. Spre exemplu, ai nevoie să validezi că un input de formular conține o adresă de mail. În loc să cauți pe Google și să dai copy paste unei funcții de validare de pe StackOverflow, poți deja să îl rogi pe GitHub Copilot s-o scrie pentru tine. Nu va fi perfectă, poate, dar va fi suficient de bună ca primă iterație.

Cu toate astea, unii oameni au renunțat la IDE-uri cu AI, dar sunt fie genul de oameni care codează lucruri high level în care ai nevoie de expresivitate maximă și distrageri minime, fie și-au dat seama că le distruge abilitatea de a învăța lucruri noi. Plus că dacă sugestiile AI-ului apar automat în timp ce scrii cod, fără să le ceri explicit, au potențialul să te deraieze uneori, mai ales dacă ești pe spectrul deficitului de atenție destul de prevalent azi printre noi.

Primeagen zice despre Copilot că nu e nimic altceva decât un autocomplete mai fancy și s-a oprit din a-l mai folosi când învăța Go. În momentul ăla a avut un reality check și și-a dat seama că se mințea pe el însuși că învață Go, fiindcă skill-ul pe care-l învățase era de fapt să folosească Copilot ca să scrie Go, nu să învețe el Go direct. Deci îi inhiba abilitatea de a învăța și de a coda fluent și cursiv.

Dacă ești front end developer, dacă știi deja tech stack-ul pe care vrei să-l folosești, faptul că IDE-urile astea îți învață stilul de a scrie HTML și CSS și JS și se adaptează pe cerințele proiectului curent mi se pare că le fac indispensabile pentru tine. Eu personal le folosesc constant, o să discutăm imediat cum exact și ce altceva mai folosesc. Cei de la Vercel cu care am discutat recent povesteau că au integrat v0 în IDE-urile unor clienți Enteprise de-ai lor care foloseau React, Next și ShadCN și asta le-a triplat productivitatea. Vercel folosesc ei înșiși v0 și lansează lucruri mult mai repede ca înainte.

Ce nu recomand însă e ca un începător să învețe să codeze exclusiv folosind uneltele AI. IDE-urile cu AI nu funcționează foarte bine pentru începători. Sau dacă nu ești la început dar vrei să înveți un limbaj nou de programare, nu cred că te ajută atât de mult AI-ul, ba chiar poate să te încurce, așa cum ai văzut din exemplul lui Prime. Sigur, unii îl pot vedea ca niște roți ajutătoare ca atunci când vrei să înveți să mergi prima dată pe bicicletă. Partea proastă e că acele roți ajutătoare îți arată o singură variantă de a rezolva o problemă în cod și dacă nu ai deja discernământul să validezi tu singur sau singură dacă soluția sugerată de AI e cea mai bună, e ca și cum ai lua medicamente după ureche în loc să-ți faci analize și apoi să te duci la un doctor cu experiență care să ți le prescrie. În cazul ăsta, analizele sunt documentația limbajului sau framework-ului pe care vrei să-l înveți și doctorul e seniorul mai experimentat de la tine din echipă care știe deja ce vrei tu să înveți.

Părerea mea e că AI-ul va putea face ce fac, spre exemplu, dezvoltatorii entry level în proporție de 70-90% în următorii 5-10 ani și va afecta ușor structura industriei de IT pe parcurs, dar nu cum te aștepți neapărat. Angajările entry level se vor relua la un moment dat, într-un ritm comparabil sau mai mare decât înainte de pandemie. Nu se va întâmpla brusc, pentru că nevoile computaționale ale unor sisteme AI serioase sunt mult peste ce poate produce o singură fabrică din Taiwan azi la nivel de procesoare, exact cum spune și The Primeagen în video-ul ăsta care abordează foarte bine subiectul: Should You Still Learn To Code? | Prime Reacts dar oamenii la început de drum nu vor fi afectați extraordinar de tare decât în perioada în care suntem acum, în care angajările au cam înghețat pentru începători. Și lucrurile nu se vor repara până nu se dezgheață economia. În România, asta înseamnă cel mai devreme în toamna anului viitor cel mai probabil, fiindcă după ce trec alegerile la care sper că ai fost și tu să votezi, o să fie jale câteva luni.

E important de reținut, însă, că niciunul din job-urile astea nu sunt momentan și nu cred că vor fi prea curând complet înlocuite de AI, pentru că există multe nuanțe și aspecte pragmatice și etice pe care AI-ul nu poate să le abordeze încă, și de-aia e nevoie de un om care să mânuiască uneltele, să le configureze sau să conlucreze cu ele pentru rezultate optime.

Cel puțin nu până ajungem la AGI, dacă ajungem vreodată.

Posibilul viitor al job-urilor și AI-ului: Universal Basic Income e oare o soluție viabilă?

Și dacă ajungem vreodată să creăm AGI sau superinteligență artificială capabilă să se auto-antreneze, să se adapteze la orice situație, să gândească structurat, să fie originală, creativă și să aibă eventual un sistem etic similar cu al nostru, probabil asta va însemna transformarea noastră profundă ca societate. Dar încă nu e clar, conform unei analize Goldman Sachs, că LLM-urile bazate pe transformere pot fi arhitectura fundației pe care se poate construi un sistem superinteligent. A reuși într-un fel care să fie sigur pentru noi e însă o provocare care va fi urmărită mulți ani de acum încolo.

Dar ce-ar însemna asta pentru umanitate?

Cel mai probabil, resursele pe care le va putea genera această superinteligență pentru noi în timp vor fi suficiente să acopere toate nevoile noastre, și n-ar mai trebui să muncim decât de plăcere, lucru pe care probabil o să-l facă majoritatea populației. În schimb, avem nevoie de un sistem care să înlocuiască salariile, și există deja teorii și experimente în direcția unui UBI - Universal Basic Income - practic un salariu de bază universal pe care să-l primească toți oameni și cu care să-și satisfacă toate nevoile. E o potențială soluție pentru a atenua efectele negative ale automatizării extreme asupra angajaților.

Venitul Unic de Bază presupune acordarea unei sume fixe de bani tuturor cetățenilor, fără condiții sau cerințe specifice. Un exemplu notabil este Fondul Permanent din Alaska, care, din 1982, oferă anual fiecărui rezident o sumă derivată din veniturile petroliere ale statului. Studiile indică faptul că acest program nu a redus semnificativ rata ocupării forței de muncă și a crescut cu 1,8 puncte procentuale (17%) munca cu jumătate de normă, semn că doar o parte din oameni chiar nu vor să muncească deloc și alții vor doar să muncească mai puțin, ceea ce e perfect OK.

Un experiment similar a fost realizat în Stockton, California, unde un program pilot a oferit pentru 125 de rezidenți aleși aleatoriu 500 de dolari pe lună timp de 24 de luni. Rezultatele preliminare au arătat că beneficiarii au avut o sănătate mentală și fizică mai bună și o creștere a angajării cu normă întreagă, semn că dacă reușești să-ți plătești toate facturile cu niște bani în plus, privești lumea ceva mai pozitiv ca înainte.

În Kenya, organizația GiveDirectly a implementat un program de venit universal în comunități rurale, observând îmbunătățiri în nutriție, educație și bunăstare generală. Practic, unde veniturile sunt deja foarte mici, orice bănuț în plus e foarte binevenit.Criticii venitului universal susțin că oferirea de bani fără condiții ar putea descuraja munca, ceea ce probabil e adevărat, dar nu pentru toată lumea. Datele din experimentele menționate nu susțin această îngrijorare. De exemplu, în Finlanda, un experiment de doi ani a arătat că beneficiarii venitului universal au avut o sănătate mentală mai bună și un nivel de încredere și bunăstare mai ridicat, fără o scădere semnificativă a angajării - din contră, ea a crescut. Bine înțeles, chestia asta poate depinde și de popor sau dispoziția la muncă în zona respectivă.

Efectele UBI în Finlanda.

Pe măsură ce inteligența artificială continuă să transforme piața muncii, venitul universal este considerat de unii experți o soluție viabilă pentru a asigura stabilitatea economică și socială. Totuși, implementarea sa la scară largă necesită o analiză atentă a costurilor, surselor de finanțare și a impactului pe termen lung asupra societății. Și trebuie să ne asigurăm că va exista în continuare o diviziune a muncii echitabilă pentru toți.

Cu toate astea, experți cum e Eric Schmidt nu vede UBI-ul ca o soluție:

Nu știu dacă UBI e o soluție viabilă, dar știu că tu poți folosi AI-ul chiar azi, cu rezultate remarcabile.

Părțile bune ale AI-ului: La ce poți folosi AI-ul astăzi?

Aproape că nu contează domeniul în care lucrezi. Două treimi din job-uri ar putea fi parțial automatizate cu ajutorul AI-ului conform Goldman Sachs. Și mai interesant, nu există job în care AI-ul să nu poată contribui la creșterea productivității măcar cu 30%, cum se vede în graficul ăsta.

Două treimi din ocupații vor putea fi automatizate cu AI conform Goldman Sachs.

Această creștere a productivității mi se pare foarte interesantă, și trebuie să afli și tu cum ai putea să faci asta azi, ca să ții pasul cu ce se întâmplă.

Hai să vedem câteva exemple de aplicații reale ale AI-ului de astăzi. Și sunt doar câteva, să știi. Dacă îți place ideea și vrei să fac un video și articol dedicat, despre platforme AI gratuite sau ieftine (care-și merită toți banii) și să vezi cum folosesc eu în mod uzual AI-ul să-mi cresc productivitatea, lasă-mi mai jos un comentariu!

Aplicațiile AI-ului în viața reală astăzi sunt foarte diverse. Voi încerca să dau exemple cât mai variate ca să îți arăt toate posibilitățile de care am aflat eu până acum. Dacă mai știi și tu exemple, știi deja unde să lașii comentarii! :)

O listă limitată de aplicații ale AI-ului.

Dar bine-nțeles că în timp ce filmam video-ul ăsta, Google a lansat Gemini 2.0 și alte variante de AI bleeding edge despre care voi vorbi în timp ce atingem zonele predilecte unde se folosește inteligența artificială chiar astăzi. Pare că viitorul gândit de Google se bazează pe agenți, care sunt instanțe de inteligență artificială care sunt sisteme sau programe care pot executa sarcini în mod autonom în numele unui utilizator sau sistem, având capacitatea de a percepe mediul înconjurător, de a lua decizii și de a acționa pentru atingerea obiectivelor specifice. Dar vorbim mai multe despre ele ceva mai încolo în articol.

Vom începe cu câteva exemple mai puțin tangibile pentru noi, oamenii de rând, dar foarte profitabile pentru nișa supercalculatoarelor medicale: GlaxoSmithKline descoperă noi medicamente și aplicații farmaceutice ale medicamentelor existente simulând plierea proteinelor cu un supercalculator care are un mega-procesor proaspăt lansat de Cerebras. Același procesor e folosit de Argonne pentru cercetarea pentru eradicarea cancerului, scăzând timpul necesar pentru modelarea tratamentelor pentru cancer de 300 de ori. Toate astea folosesc tehnici AI avansate și puteri de procesare foarte greu de conceput.

Cerebras WSE 2 vs A100 vs Cerebras Average - performanțele procesoarelor industriale.

Tot din sfera asta, pentru că are acces la calculatoare cuantice, Google DeepMind a lansat pe 20 noiembrie împreună cu echipa Google Quantum AI un decodor numit AlphaQubit care corectează erorile computaționale cuantice. Asta s-ar putea să ajute la integrarea procesoarelor cuantice în viitoarele datacentere dedicate AI-ului ca să repare în timp real erorile generate de LLM-uri și chiar de alte procesoare cuantice, cel puțin din ce-am înțeles eu despre asta. La ce ne va ajuta? În viitor, asta va contribui la descoperirea de medicamente, design-ul materialelor noi și cercetări în fizica fundamentală și în dezvăluirea părților ascunse momentan din legile fizicii.

Un alt exemplu, un pic mai simplu de înțeles, e faptul că AI-ul ne ajută să găsim cel mai scurt drum între două puncte, cu ajutorul Waze, Google Maps sau altor aplicații similare. Și există inclusiv aplicații industriale și logistice pentru același lucru, cum e Bearing AI, care stabilește cel mai eficient drum pentru navele care transportă mărfuri în oceanele lumii.

La polul complet opus al puterii computaționale, există AI-uri care fac machine learning… la tine pe telefon. Kin e un AI personal pentru munca și viața ta personală care rulează majoritar pe dispozitivul tău și foarte puțin în cloud. Baza de date e o variantă de libSQL / SQLite numită Turso care e stocată tot pe dispozitivul tău, ceea ce-nseamnă că dacă va fi vreodată Kin hack-uit, datele tale sunt în siguranță la tine pe telefon, nu la ei în cloud, iar părțile operaționale care ajung în cloud sunt criptate complet și dispar de acolo imediat ce AI-ul termină procesarea.

Tot în zona logisticii, dacă îl urmăriți pe Mark Rober – și sper c-o faceți, că e foarte tare omul – știți deja despre Zipline care e un sistem de drone care livrează pachete, care chiar funcționează deja în Africa, și par să fie viitorul în industrie. Ele se bazează pe AI pentru navigare și operațiuni, și există companii dedicate care dezvoltă astfel de AI-uri, cum este Skyfire (fostul Echelon).

În sfera aplicațiilor de pe telefon pe care toată lumea le știe sau ar trebui să le știe, tu ți-ai instalat deja ChatGPT pe telefon? De ce? Pentru că poate deja să vorbească cu tine fluent în aproape orice limbă, inclusiv în română. Deci poți să-l folosești pe post de traducător personal pentru interacțiuni mai naturale dacă ești în vacanță în altă țară a cărei limbă n-o știi, așa cum zice și băiatul ăsta, pe care-l voi prezenta un pic mai târziu:

Ce-i drept, puteai face asta deja cu Google Translate, dar nu e la fel de spectaculos pentru că motorul de traducere e destul de slăbuț, inorganic, cu limbaj din topor. Par că există și soluții enterprise specializate de traducere și adaptare bazate pe AI pe lângă ChatGPT, cum e SpeechLab, dar nu știu cât de eficiente sunt în realitate.

Combinând abilitatea de a vorbi în orice limbă cu abilitatea de a evalua CV-uri și a genera întrebări de interviu, există inclusiv soluții AI cum e Apriora care fac screening de candidați pentru job-uri:

Revenind la ChatGPT, există multe alte posibilități de a-l folosi, așa cum probabil te-ai gândit și tu de-a lungul timpului, chiar dacă există încă oameni astăzi care nu consideră că e o invenție care va schimba fundamental ceva până nu-i găsim un lucru pe care să-l poată face fără cusur, perfect, să-și dovedească valoarea indubitabil - un killer app. Eu nu-s neapărat de acord cu punctul ăsta de vedere.

Există asistenți personali care folosesc AI ca să-ți citească mail-ul și să formuleze draft-uri pentru toate mail-urile care îți vin în inbox, cum e FridayMail:

Sau alți asistenți personali care sunt gândiți să te ajute contextual cu ce ai nevoie în momentul în care ai nevoie de lucrul ăla, fiind integrați adânc în MacOS și știind întregul context în care te afli, cum este Raycast Pro. Partea mișto e că folosește engine-uri de AI diferite în funcție de ce vrei să faci cu el - ChatGPT cu diversele lui variante pentru anumite lucruri, Mistral pentru altele, Llama Sonar pentru altele, Llama pentru altele, Claude pentru altele, și are nenumărate alte funcționalități adiționale cum e sincronizare între device-uri, istorie nelimitată pentru ce dai copy paste, notițe nelimitate și alte customizări să-ți facă viața mai ușoară, și mai e și gratis.

Dacă tot vorbim de asistenți personali, să nu uităm de Alexa sau Google Assistant sau Siri. N-o să le auzi numele în video pentru că unii din voi poate au smart homes cu boxe care au deja asistenții ăștia instalați și n-aș vrea ca eu pronunțându-le numele să determine vreo reacție din partea lor. Unii spun că în 5-10 ani, acești asistenți personali integrați în casele și viețile noastre vor fi cu adevărat utili. Momentan sunt jucării utile dar de nișă, din păcate, destinate exclusiv pentru cei dintre voi care știu cine sunt Aqara, Tado, Sonoff, Home Assistant sau KNX. Apropo, dacă există astfel de oameni printre voi, lăsați un comentariu mai jos, să fac un video și articol dedicat smart home-urilor curând special pentru voi!

Tot din sfera lucrurilor pe care le folosesc zilnic, hai să discutăm despre GitHub Copilot. N-am încercat foarte multe AI-uri care să sugereze cod scris în IDE, însă GitHub Copilot e absolut excelent, și e și gratuit de pe 18 decembrie. Eu chiar îl folosesc constant de fiecare dată când deschid un fișier de front end în IDE, și chiar dacă rata de succes a sugestiilor e mai mică de 50% de multe ori - adică doar jumătate din sugestii sunt „acceptate” de mine, și 90% din cele acceptate sunt și editate de mine ulterior, asta mă face oricum mult mai productiv când scriu cod. Dar doar pentru că am deja experiență în a decide ce face bine și ce nu. Așa cum am mai zis, nu e un tool util pentru toată lumea și pentru toate tipurile de codat, dar eu îl folosesc destul de des.

Și nu sunt singurul!

Adrej Karpathy, omul care a scris AI-ul pentru mașinile care se conduc singure la Tesla, zice că scrie 80% din cod cu GitHub Copilot și are 80% precizie: „Copilot mi-a accelerat codarea dramatic, e greu de imaginat să mă întorc înapoi la “codarea manuală”. Încă învăț să-l folosesc dar deja îmi scrie 80% din cod cu aproximativ 80% acuratețe. Nici măcar nu mai scriu cod, doar îi dau prompt și editez.”

Și Satya Nadella, CEO-ul Microsoft, a observat tweet-ul respectiv, și a sugerat că e o tehnologie cu utilitate evidentă pentru toată lumea:

Vă aduc aminte că Microsoft a cumpărat GitHub, și implicit Copilot e făcut sub tutela lor.

Chiar și head of product de la ChatGPT, Kevin Weil, laudă GitHub Copilot aici:

Dar am prieteni care-mi spun că au testat și concurența lui Copilot: GPT-ul Claude 3.5 Sonnet prin Codium AI - sau Qodo cum se numește acum - și e absolut magic, mai deștept decât faimosul Copilot și mult mai apt să te ajute să codezi mai eficient. Poți chiar să rulezi LLM-uri locale care să-ți genereze cod în locul tău, dacă instalezi local Ollama și apoi Qwen 2.5 Coder 32b care e proaspăt apărut.

Există și AI-uri care pot face pair programming cu tine direct în terminal și să creeze fișiere întregi pentru tine, nu doar snippet-uri de cod, cum e Aider.

Și mai sunt multe pe listă - fie plugin-uri, fie IDE-uri de sine stătătoare cu AI integrat: JetBrains AI, TabNine, Cursor, Windsurf de la Codeium, Mentat, Cody, CodeBuddy, Amazon CodeWhisperer, Bito, AskCodi și așa mai departe.

Dacă vrei să fac o comparație între toate AI-urile care te ajută să codezi mai bine, lasă-mi ACUM un comentariu mai jos!

Repet ce-am zis mai sus însă: dacă ești la început de drum, Copilot te poate încurca mai mult decât te ajută. Din experiența de până acum, dacă vrei să prototipezi ceva super rapid, dacă vrei să faci lucruri pe care le stăpânești foarte bine mult mai repede și dacă te simți mai bine făcând review și corecturi decât scriind de la zero ca un developer senior cu mulți ani experiență, atunci Copilot sau concurența lui sunt ideale. În rest, nu recomand.

Sundar Pichai, CEO-ul Google, a recunoscut că 25% din codul scris de Google recent e scris cu AI, și nu prevede nicio decelerare a acestui ritm.

Tot din sfera codului, CircleCI e o soluție automatizată de Continuous Integration și Continuous Deployment (CI/CD) care face deja furori și simplifică procesul de DevOps substanțial. Și GitHub are o variantă similară de automatizare, dar încă nu la fel de puternică.

În zona digitală, de data asta într-o arie pe care nimeni n-o credea „în pericol”, au apărut tot felul de unelte care generează nu doar text, cum era ChatGPT inițial, ci și imagini, fotografii, ilustrații, artă, ce vrei tu. OpenAI a dezvoltat DALL-E, dar competiția e acerbă, fiindcă au apărut și Midjourney, Adobe Firefly – singurul care e deja gata pentru folosire comercială, Stable Diffusion, Replicate, Ideaogram, Google SGE direct în Google Search și altele. Din păcate (sau din fericire), în funcție de nevoile pe care le ai, generatoarele astea de imagini produc rezultate suficient de bune încât să determine site-urile de fotografie stock cum e Shutterstock să devină ceva mai puțin utile ca până acum.

Trebuie să vorbim și de noua lansare de la Google, Imagen 3, care pare să fie mai bun decât SDXL, NovaCanvas, MidJourney 6, DALL-E 3, Stable Diffusion 3.5 Large, Flux 1.1p, Ideogram v2 și Recraft v3, tot judecând după preferințele din benchmark-urile făcute de Google.

Imaginile generate sunt într-adevăr de nivelul următor față de ce am văzut până acum. Dacă vrei, poți să încerci și tu folosind Gemini și modelul 2.0 Flash Experimental.

Și mai e și Google Whisk care pare competitor cu Firefly și e un experiment interesant, dar care din păcate nu e disponibil în România și nici nu pare neapărat production-grade, dar e un pas în direcția bună la nivel de controlul facil al generării.

Unelte cum e Playground te ajută să generezi design-uri grafice, inclusiv gratuit. Sau dacă vrei să generezi grafica responsive, UI-ul pentru MVP-uri folosind AI, poți folosi V0 de la Vercel. Cu vanilla HTML, CSS și JS scârțâie, dar funcționează binișor cu React, Next.js și Tailwind CSS plus un ShadCN/UI peste – face layout-uri la nivelul unui începător cu 2 luni experiență, dar e un început bun de la care să pleci ca să n-o iei de la zero.Dacă tot vorbim de generare creativă, cele mai noi dezvoltări sunt în direcția generării de video-uri cu AI, și sunt multe unelte care fac asta, atât open source cât și comercial sau chiar gratuit. Dar sunt departe de a pune Hollywood-ul în pericol MOMENTAN, chiar dacă în ultima vreme au apărut foarte multe în zona asta.

Multitudinea de generatoare de video cu AI apărute până la jumătatea lui 2024.

Cu toate astea, regele a devenit brusc, în timp ce filmam acest video, enorm, nou lansatul Veo 2 de la Google DeepMind, care sună ca numele meu citit în engleză, și pare să fie de departe cel mai bun AI de creare de video-uri de pe piață astăzi, depășind proaspăt lansatul Sora de la OpenAI. Google DeepMind pare c-a „luat-o razna” ca să fac o încercare proastă de glumă. E clar cel mai bun generator de video-uri cu AI, cu niște clase peste ce s-a lansat până acum, după cum vedeți și voi în fundal, toate astea sunt scene generate de Veo 2. E superior pentru că spre deosebire de alte modele, înțelege mai bine permanența personajelor și fizica, deci simulează mai bine viața reală.

Benchmark-urile făcute de Google pe toate platformele de testare, de la cele de la Facebook până la cele de la Sora, îl plasează lejer pe primul loc, cu 50-55% din oameni preferând video-urile generate cu el față de orice alt generator video.

Uite, spre exemplu, cineva a recreat niște scene iconice din Game of Thrones folosind Veo 2 ca demonstrație, și e mind blowing:

Mai interesant de atât: există simulatoare fizice bazate pe AI, cum e Genesis. Mi se pare mind-blowing.

Dacă vrei exemple de creativitate artificială în sfera muzicală, Suno e o unealtă incredibil de bună. Îi spui despre ce să fie cântecul și-ți scrie versuri automat, sau poți să-i scrii tu versurile dacă vrei (sau să-l pui pe ChatGPT să le scrie eventual). Apoi îi spui genul de muzică pe care vrei s-o compună și… aștepți câteva secunde. Rezultatele, pentru mine ca om nepriceput în domeniu, mi se par absolut remarcabile. Aveți un linvk în descriere către niște piese făcute de mine cu Suno care sunt surprinzător, ȘOCANT de bune. Și așa sunt toate pe care le-am generat cu Suno. Există și un generator de videoclipuri pentru piesele astea, dar e încă ușor necizelat prin comparație.

Există și concurenți pentru Suno, ca MusicGen, dar fără versuri și voci.

În sfera jocurilor video, poți antrena agenți AI să joace jocuri cu Reinforcement Learning și să își îmbunătățească performanța în jocuri, de la lucruri simple cum e Pong până la shootere cum e Counter-Strike și orice altceva care se poate juca, cum e TrackMania ca în video-ul ăsta.

Dar mai mult de atât: AI-ul te poate ajuta să faci jocuri mai mișto. Sunt o grămadă de plugin-uri de Unreal Engine care au AI integrat și care arată absolut hiper-realist. Uite un exemplu de randare a apei – mai bine zis de dinamică a fluidelor – în timp real în Unreal Engine.

Vorbind de jocuri, mă gândesc și la copii care se joacă. Esteam e o unealtă bazată pe AI care-i poate ajuta să învețe să citească mai repede, folosind recunoașterea textului vorbit.

Combinând generarea de imagini cu generarea de cod, există AI-uri care sunt în stare să genereze și interfețe web statice. GPT-4 poate face asta de un an de zile, dar mai sunt niște opțiuni recente destul de spectaculoase, deși n-or să poată acoperi toate subtilitățile design-ului de UI, deci stai liniștit că vei mai avea ce face dacă lucrezi în domeniu.

Mașinile care se conduc singure sunt alt exemplu de tehnologie AI pe care o poți folosi deja azi. În ciuda faptului că Tesla a anunțat taxiul autonom, el încă nu se poate folosi. În schimb, Waymo e funcțional în San Francisco, Phoenix și Los Angeles dacă nu mă înșel, și dacă sunteți pe acolo, vă puteți plimba AZI cu o mașină complet autonomă pe post de Uber.

Dacă ești în căutare de lead-uri și clienți online, există tool-uri tradiționale gen Apollo care fac scraping de contacte de pe LinkedIn și alte surse de informații relevante, dar o evoluție a domeniului e reprezentată de ferme de agenți AI care caută clienți pentru tine în perpetuitate. Adică fără să aștepte vreun prompt adițional, lucrează încontinuu să rezolve problema pe care i-ai pus s-o rezolve, și anume să-ți găsească clienți cu un anume profil de cumpărător pentru produsele sau serviciile tale online. Un astfel de exemplu e Origami Agents.

Dacă ai un site și vinzi produse sau servicii online, șansele sunt să poți folosi un chatbot ca să-i ajuți pe utilizatorii tăi să își rezolve singuri problemele înainte să ajungă la un suport uman. Chatboții AI sunt peste tot, și dacă ai avut probleme cu vreo achiziție de pe eMag, ai dat și tu deja peste unul. Voi să nu faceți ca eMag - implementarea lor e foarte proastă și frustrantă, se poate mult mai bine de atât, așa cum mulți dintre voi cred că pot deja să confirme. Noroc cu oamenii care fac reglementări în UE, care vor obliga toate site-urile să aibă și suport uman, nu doar boți.

Chatbot-ul mirobolant de la eMag...

Dacă tot am vorbit de eMag, facem o mică paranteză de e-commerce și online retail, adică de vânzări de produse pe Internet: dacă ai sesizat că prețurile produselor sunt destul de sincronizate aproape peste tot de unde le poți cumpăra, s-ar putea să fie vina unui AI cum e ProfitMind, care analizează în timp real toată piața de produse și avertizează administratorii de magazine online ce prețuri are concurența.

Revenind la chatboți, ca exemplu pozitiv de implementare a chatboților de helpdesk, după fiecare versiune nou lansată de GPT, Anthropic acum „îl învață” pe Claude conținutul documentației proprii și cum să folosească noile features lansate pentru utilizatorii lui, și el apoi va ști să recomande asta mai departe și se face pe el însuși mai ușor de folosit. Cel puțin așa se laudă Mike Krieger, co-fondatorul Instagram și actualul Chief Product Officer de la Anthropic, aici:

Și dacă tot am intrat în subiectul LLM-urilor, aparent poți rula inclusiv LLM-uri locale pe PC-ul vostru de acasă fără plăci video fantasmagorice de mii de euro, așa cum vedeți în articolul ăsta.

Părerea mea e că toate capabilitățile emergente ale LLM-urilor există momentan ca potențial încă necizelat, care așteaptă doar niște timp și perfecționare. Asta nu înseamnă că nu e folosit deja la scară largă în afaceri enterprise. În general în business, astea sunt direcțiile cele mai des folosite în care AI-ul aduce deja valoare:

Tehnologii în care AI produce deja valoare.

Dacă vrei să faci cercetare, research, deci nu neapărat muncă deosebit de creativă, pot să-ți spun că am folosit cu succes și foarte multă satisfacție dealtfel două unelte AI destul de noi și diferite de ChatGPT sau Google Gemini: Perplexity și NotebookLM de la Google. Perplexity are baza de date la zi și poate căuta pe Google (asta l-a diferențiat inițial când ChatGPT nu avea acces la Internet) și poate linka la site-urile și imaginile pe care le citează. NotebookLM e o modalitate de a sumariza niște surse bine definite și a genera concluzii exclusiv pe baza lor - deci cu minimul de interferență cu informații din afara acelor surse. Asta poate fi util dacă vrei precizie cât se poate de mare și control total al surselor. Și mai are o funcție mișto: îți generează un podcast audio între două personaje care vorbesc în detaliu despre subiectul pe care-l dai la evaluat.

Bun, acum țineți-vă bine. De când am înregistrat eu inițial video-ul și până azi, Notebook LM a mai lansat un update în care poți să te bagi și tu în discuția celor două personaje din podcast-ul ad-hoc. Noua variantă de Notebook LM îți permite să și intervii în podcast și să discuți cu personajele de acolo, să le pui întrebări și să extinzi discuția în ce direcție dorești, complet organic. Mi se pare fabulos.

Un pas evolutiv în față în zona de strângere a lucrărilor de research relevante este Deep Research, tot de la Google DeepMind, care generează planuri de research și după ce-i dai o temă și îi aprobi planul de bătaie, acționează ca un agent asincron care caută pe Internet resursele cele mai relevante și îți compilează răspunsul într-un eseu complet.

Mai e o soluție similară de research pe care n-am încercat-o, numită SciSpace și rebrand-uită în Typeset.io, care e un AI care caută exclusiv în lucrări științifice dar nu intră foarte mult în detalii cu judecăți de valoare, doar sumarizează și extrage informații. Acum mi-a picat fisa că ai putea folosi documentele PDF găsite în SciSpace ca documente de intrare pentru NotebookLM să tragi concluzii mai avansate.

Storm de la Stanford îți permite să faci un eseu pe baza unor surse citate, pe care le găsește AI-ul pentru tine o dată ce-i dai tema de studiu, destul de similar cu NotebookLM însă fără să fie nevoie să îi găsești tu sursele apriori, și doar pentru crearea unui rezumat detaliat.

Tot din sfera scolastică, poți genera rezumate de 10 minute la orice carte digitală pe care o ai cu SoBrief. Eu așa am reușit să decid ce cărți să-mi mai cumpăr, că am o listă mult prea lungă (80 de titluri momentan), deci recomand călduros.

Există multe aplicații ale AI-ului dovedite prin studii pe care încă nu le-am văzut foarte des aplicate comercial sau public, dar probabil vor apărea curând. Un exemplu ar fi: dacă ești persoană publică, îți poți simula discursul, vocea, aspectul și atitudinea în general folosind AI. Un studiu zice că agenții AI care ascultă interviuri ale unor candidați pot apoi să răspundă cu precizie de 85% la întrebări în mod similar cu candidații, simulându-le comportamentul.

Mai sunt alte AI-uri care momentan par că sunt doar la nivelul de „jucărie”, cum e transformarea unei imagini într-o scenă complet 3D, navigarea dinamică pe harta terestră, transformarea unei imagini într-un soi de vizualizare 3D minimală sau într-o iluzie optică. Cu uneltele astea noi mai poți genera modele 3D doar descriind cu text obiectul de care ai nevoie. Sau epitete, cu TextFX de la Google. Sau un avatar virtual care imită mișcările faciale, pe care-l poți combina cu o unealtă care-ți schimbă vocea. Sau un întreg alfabet sau font compus din elemente vizuale unice. Sau alte experimente ciudățele ca în WebSim.

Google are planuri mari cu AI-urile în browsere. Dacă vă uitați la Web AI Summit 2024 o să auziți cuvinte cheie cum ar fi: Transformers.js (nu, nu cu Optimus Prime), WebNN (nu, nu cu oferte de asigurare de viață, deși poate ar trebui), standarde negociate cu W3C pentru AI și accelerare de Machine Learning, ml5.js (urmașul lui TensorFlow pentru browser), WebLLM (în caz că aveai senzația că era momentul să lăsăm browserele să randeze site-uri și atât), Visual Blocks (care chiar pare o variantă mișto de prototipare de AI într-o interfață vizuală) și multe, multe altele. Dacă te pasionează domeniul, cred că e o conferință pe care vei vrea s-o urmărești. Eventual canalul cu totul, că e unul din cele mai interesante dacă vrei să te ții la curent cu tehnologia.

Și mai recomand și futurepedia.io pe care poți găsi foarte multe unelte de AI disponibile acum din care m-am inspirat secțiunea asta.

Sunt foarte multe oportunități pentru startup-urile tehnologice astăzi. Cred că e cel mai ofertant punct din istorie în care poți să-ți faci un startup, bazându-te pe AI și ca să-l dezvolți de la zero și ca să oferi valoare umanității.

Câteva din segmentele care au oportunități sunt: automatizare și îmbunătățirea eficienței sau vitezei de rezolvare a problemelor – spre exemplu în producție, stocuri, logistică, suport și customer service, apoi crearea sau personalizarea de conținut – spre exemplu în analiza și interpretarea de informații, analiză financiară și de risc, sănătate, diagnostice și tratamente, poi în industrii și servicii noi derivate din noul univers AI care se conturează azi, fie în sfera AI-ul generativ fie în sfera ingineriei de prompt-uri, și nu în ultimul rând dezvoltarea de servicii și industrii complet noi care să beneficieze de tehnici de cercetare masiv îmbunătățite cu AI, robotică, dezvoltări etice, fact checking, produse validate de AI ca fiind etic produse sau derivate și multe, multe altele.

În Y Combinator, cel mai mare pre-accelerator de startup-uri din Sillicon Valley, anul ăsta, peste trei sferturi din startup-urile fondate sunt bazate pe AI. Câteva exemple impresionante: un AI care face design-ul plăcilor de bază pentru orice electronice vrei să construiești, un alt AI care construiește obiecte 3D în AutoCAD pentru tine, și așa mai departe. Lasă-ți imaginația liberă, pentru că acum ai posibilitatea să construiești aproape orice-ți dorești, și să transformi ideea ta într-un startup.

Dacă te-ai gândit deja la asta dar te-ai blocat la „OK, fac un wrapper peste GPT 4, dar apare GPT 5 care probabil e de 4 ori mai puternic și vor apărea alte companii care fac același lucru folosind GPT 5, deci compania mea o să dea faliment”, greșești. Secretul succesului și tehnologia proprietară nu e LLM-ul, ci devine evaluarea AI-ului și aducerea lui la 100% acuratețe. Asta e o problemă despre care vom vorbi curând și care e una din cele mai mari. Companiile care dezvoltă AI și își dezvoltă un set proprietar de validări ale AI-ului care să-l antreneze spre o direcție care să nu prea dea greș, dezvoltă produsul validării, și validarea e ce aduce valoare clienților, plus adaptarea la industria corectă, UI-ul, integrările și deal-urile pe care le faci.

Apropo de adaptare, știai că înainte de ChatGPT, OpenAI a devenit faimoasă în 2019 pentru că a construit boți cu AI care puteau juca DOTA incredibil de bine și puteau să bată campionii mondiali la DOTA? Gândește-te puțin… dacă genul ăla de activitate care pare foarte fun se poate adapta la ceva care în timp devine ChatGPT, cum zic americanii, the sky is the limit.

Te mai poți documenta apropo de ce pot să facă deja AI-urile în articole care cumulează mai multe surse și studii, cum e ăsta.

Părțile rele ale AI-ului: Ar trebui să ne fie frică de AI?

Toate bune și frumoase, dar n-ar fi un video și articol complet dacă n-aș discuta cu voi și de părțile rele ale AI-ului.

Încă de la începuturile popularității recente ale modelelor de AI generative cu care poți conversa, lumea a sesizat că s-a trecut un prag în care, dacă nu ești atent, ai putea spune că AI-ul imită destul de bine capabilitățile umane. Asta e și bine, dar poate fi și periculos.

Nu putem să facem o analiză a AI-ului fără să vorbim și de părțile lui rele. M-am inspirat din mai multe surse pentru exemplele de mai jos, inclusiv din video-ul ăsta de pe YouTube, care mi s-a părut foarte bun:

Mechanical turk: ceva marketat drept AI care de fapt nu e AI

Primul aspect interesant e că există multe companii care pretind că au produse bazate pe AI când de fapt ele nu există, și fie e doar marketing, fie sunt oameni în spatele tehnologiei, nu sisteme automatizate.

Asta-mi aduce aminte de Turcul Mecanic, o invenție din 1770 care părea că e o mașinărie mare cât două dulapuri de bucătărie care joacă șah automat, când de fapt în cutie era un om bun la șah care controla piesele magnetic de sub masă. Minciuna a rezistat 84 de ani și a bătut mulți jucători de șah din Europa și America (inclusiv pe Napoleon și pe Benjamin Franklin), și adevărul a ieșit la iveală doar pentru că un fiu de-al proprietarului a ales să-i dezvăluie secretele.

Similar, Amazon Just Walk Out promitea că poți efectiv să ieși din magazine fără să scanezi nimic și se prinde automat AI-ul ce-ai cumpărat pe baza imaginilor de pe camerele de luat vederi. De fapt, în spate erau mii de indieni care se uitau live la toate camerele și îți făceau nota de plată. Mai grav e că a ajuns inclusiv în aeroporturi tehnologia asta, fiindcă Amazon a vândut-o și altora.

Ce e mai amuzant e că Amazon are și un serviciu de crowdsourcing care se numește chiar Amazon Mechanical Turk. Probabil cel mai bun loc în care să te ascunzi e la vedere.

Un alt exemplu: Delphia e o companie de investiții canadiană care s-a lăudat că a construit un AI care să prezică trend-uri din companii și industrii fără să fie un algoritm adevărat, și au fost amendați de Securities and Exchange Commission (un fel de Registrul Comerțului din SUA) cu peste $200000 pentru minciună.

Wirecard pe lângă faptul că s-au lăudat că produsul lor de fintech (adică tehnologii pentru piața financiară) conține un AI care face predicții foarte avansate asupra piețelor economice, când de fapt erau doar niște tabele în Excel, au și spălat câteva milioane de dolari, lucru care le-a adus declinul rapid.

Încă un exemplu trist: NPU sau Neural Processing Units sunt un fel nou de microprocesoare care pretind că sunt mai bune la procesarea inteligenței artificiale decât CPU-urile (unitățile de procesare centralizată) și GPU-urile (unitățile de procesare grafică) tradiționale, dar sunt de fapt mult prea primitive încă pentru a fi cu adevărat utile pentru utilizatorul de rând.

Cel mai trist e că fenomenul numit de unii AI Washing afectează încrederea populației asupra oricărui produs care conține AI, și companiile în loc să recunoască adevărul sau faptul că au dat greș cu unele produse din categoria asta, continuă să se comporte de parcă totul e normal.

Cât de părtinitor e AI-ul?

Din nefericire, AI-urile, în special cele antrenate pe date alese de oameni – conștient sau implicit – au potențialul să fie părtinitoare. IBM ne zice că există multe feluri de tendențiozitate la care trebuie să aibă toată lumea grijă:

  1. Prejudecățile algoritmice: dacă problema e formulată într-un fel care exclude o clasă de soluții, dacă întrebarea sau răspunsurile nu sunt corecte sau specifice, sau dacă feedback-ul oferit algoritmului nu ajută să-l ghideze spre soluția corectă.
  2. Prejudecățile cognitive: tehnologia AI necesită aport uman, iar oamenii sunt failibili. Prejudecățile personale ale oamenilor care creează AI-ul se pot infiltra fără să-și dea cineva seama, și asta poate afecta setul de date sau comportamentul modelului.
  3. Prejudecățile de confirmare: derivate din prejudecățile cognitive, se întâmplă când datele prezentate AI-ului se bazează prea mult pe convingeri clare și subiective Atunci pare că ghidezi modelul spre răspunsul pe care-l dorești tu din punctul de vedere prezentat în datele cu care hrănești modelul. Spre exemplu, dacă îi dai doar lucrări științifice în care suplimentele alimentare s-au dovedit la fel de eficiente ca placebo-ul, AI-ul va deduce natural că toate suplimentele sunt apă de ploaie.
  4. Prejudecățile de excluzie: dacă, din contră, excluzi voit un set de date din cele care au potențialul să ofere detalii modelului, îl privezi de abilitatea să vadă toate posibilitățile.
  5. Prejudecățile de măsurare: datele incomplete sau deviații de măsurare denaturează datele, în special cele cantitative. De obicei se întâmplă din neglijența umană și din neconștientizarea nevoii de precizie sau de acoperire completă a tuturor datelor disponibile.
  6. Prejudecăți de omogenitate: de multe ori nu știm ce nu știm. Dacă aparții dintr-un grup, îl înțelegi mai bine decât dacă ești în afara lui. Când dezvolți algoritmi și modele, dacă nu ai perspective și puncte de vedere ale oamenilor care nu sunt în grupul tău imediat – spre exemplu excluzând oameni de pe celelalte continente, e posibil să înclini datele spre o direcție familiară în loc să ai o privire completă asupra unui subiect.
  7. Prejudecăți de eșantion: dacă nu ai volum de date suficient de mare, suficient de reprezentative, suficient de relevante statistic sau sunt prea incomplete pentru a antrena eficient sistemul.
  8. Prejudecăți de stereotip: dacă se întăresc stereotipuri dăunătoare și complexitatea de analiză a modelului nu ia în calcul variațiile naturale care ar putea face datele să fie complete.

Prejudecățile astea derivă de obicei din calitatea, volumul și selecția datelor de antrenament și de lipsa corecturilor ulterioare prin teste, evaluări sau grading despre care vom vorbi puțin mai târziu. Asta poate impacta cât de multă încredere poți avea în sistem pe termen lung.

Spre exemplu, dacă antrenezi un sistem medical doar pe datele unui singur grup de oameni, spre exemplu să recunoască tumori în asiatici, e posibil ca manifestările biologice în alte fenotipuri umane să aibă particularități care să facă modelul să nu detecteze corect tumorile în caucazieni. Există multe cazuri cunoscute, spre exemplu ăsta despre bias-uri în diagnosticarea problemelor cardiovasculare.

Sau dacă antrenezi un ATS, un Applicant Tracking System cu AI să filtreze candidați buni la un job (sau la o mărire) doar luând în calcul angajații curenți ai companiei de pe job-ul respectiv, creezi prejudecăți inerente în diversitatea de profiluri, skill-uri sau particularități ale unor oameni care ar putea fi foarte valoroși și viabili pentru rolul respectiv doar pentru că au ceva care-i diferențiază de echipa curentă - cel mai frecvent sexul.

40% din companiile care folosesc AI să targeteze potențiali clienți pentru eforturile de marketing și advertising au descoperit prejudecăți introduse fără ca respectivele companii să-și dorească sau să-și dea seama de ele conform unui studiu McKinsey. De multe ori e foarte greu să descoperi prejudecățile respective fără să ai unelte externe care să evalueze AI-urile folosite.

Mai sunt câteva exemple de bias de la IBM aici.

Deși pare grav, prejudecățile e posibil să fie cele mai benigne probleme introduse de AI în societate.

Aplicații militare, ofensive și entropice

Mult mai agresiv, prin definiție, este AI-ul folosit cu scopuri militare, ofensive sau entropice, care generează voit haos.

Dacă știi ce-nseamnă „injections” în securitatea cibernetică, să știi că ele se pot face și în LLM-uri. Cred c-au fost, spre exemplu, mulți oameni care au încercat, și probabil unii chiar au reușit, să-l convingă pe ChatGPT să le spună cum se fabrică o bombă artizanală acasă. Jailbreaking-ul GPT-urilor (sau abliterația lor) e ceva real care pare că încă poate fi făcut și poți ajunge la chestii riscante dacă faci asta. Prin asta, AI-ul poate oferi mecanisme pentru violență și terorism, lucru destul de grav.

Dacă vrei să te dai drept altcineva, sau să pui o persoană publică într-o postură denigrantă, unii oameni recurg la deep fakes. A pune fața cuiva în locul feței altcuiva, sau a genera imagini și video-uri care nu sunt reale, care folosesc imaginea cuiva fără voia sau acordul persoanei respective. Ați văzut toți exemple de genul ăsta, care sunt periculoase, erodează încrederea și au potențialul să distrugă vieți pe măsură ce fake-urile sunt din ce în ce mai realiste.

Hai să nici nu intrăm în manipulare, hate speech, dezinformare, știri false și nenumărate alte variante de deturnare a opiniei publice și a gândurilor noastre alte tuturor. Sunteți, cred, deja mai familiarizați decât ar trebui cu fenomenul după proaspetele alegeri Românești. Lucrurile astea sunt reale, și AI-ul le face aproape triviale.

Dacă vrei să-ți păstrezi anonimitatea într-o anumită măsură, AI-ul face asta imposibil. Dacă ați văzut prin filme sisteme de supraveghere care se conectează la camerele video din toată lumea și le urmăresc 24/7 etichetând toți oamenii care le trec prin câmpul vizual, după tot ce-am văzut în ultima perioadă documentându-mă despre AI, sunt 99% convins că așa ceva există deja. Și spun asta pentru că și eu, acasă, în serverul meu de Home Assistant sau pe NVR-ul unde își varsă camerele clipurile video, pot să-mi instalez Frigate, sau Double Take, sau Deepstack sau CompreFace sau o grămadă de alte feluri de software-uri din ce în ce mai performante. Și toate gratuit, open source. Dacă eu acasă cu imaginile mele pot face deja asta, nu pot decât să-mi imaginez ce pot face statele și agențiile cu genul ăsta de tehnologie… Uitați-vă doar la orașul Kashgar din China.

Există actori care în lumea securității se numesc APT – Advanced Persistent Threat – care de obicei sunt agenții ale unor state beligerante ca vecinii noștri de la est și sud-est, dar nu numai, care au astfel de tehnologii bazate pe AI de câțiva zeci de ani, și folosesc amploarea de neegalat a social media: Facebook, Instagram, TikTok, Twitter și nu numai, pentru a manipula opinia publică și a influența orice – de la voturi la părerea populației despre războaie.

Oricât de imun te crezi, oricât de superior consideri că ești, oricât de greu de manipulat sau de convins de lucruri pe care nu le crezi de fapt ai senzația că ești, te asigur că nimeni nu e complet imun la așa ceva, și toți trăim într-o bulă amplificată de algoritmi. Ei au realizat că în general conținutul controversat și diviziv e cel care generează cel mai mult engagement și prin asta se pot manipula mase mari de oameni.

Spre exemplu, TikTok a decis în mai 2024 să facă publice o parte din tentativele de manipulare de care știe. Sau despre care vrea să vorbească public. :)

În general, rețelele sociale au dezvoltat algoritmi bazați pe AI care ne-au adus în punctul în care suferim cu toții, în special copiii sub 16 ani obișnuiți de mici cu ecranele și cu social media, de autism virtual, adicție, supraîncărcare senzorială și de informații, doom scrolling, polarizare, absorbție de știri false, simptome similare cu ADHD datorită scurtarea perioadei în care putem fi atenți, violarea intimității, depresie și alte lucruri mult mai grave. Și toate astea de la niște ingineri care au încercat să „maximizeze atenția” sau engagement-ul…

Nu mai discutăm despre aplicațiile militare. Există deja drone complet autonome care aleg ținte singure, le distrug și revin la bază cu minimă implicare umană. Sau care funcționează ca aparate de zbor adiționale într-o escadrilă mixtă umană și robotică. Complexul industrial militar a avut dintotdeauna resursele să avanseze masiv în zona AI-ului încă de acum niște zeci de ani, prin patente care probabil nu sunt publice din rațiuni de „securitate”. Nici nu vreau să mai intru în subiectul ăsta prea tare, că devine deprimant. Însă dacă vorbim de entropie și haos, ultimul lucru în care trebuie să intru e subiectul alegerilor. Desecretizarea CSAT cred c-a fost o reacție disperată de ultim moment care trădează o ușoară incapacitate de contracarare și răspuns a autorităților române la adresa intențiilor de destabilizare și denaturare a alegerilor în România. Lucrurile trebuiau să nu ajungă acolo, și e clar că suntem nepregătiți să facem față la AI și strategii politice digitale avansate. Pare că actori malițioși cum e Brad Parscale își cam fac de cap de la Cambridge Analytica încoace. Nu m-am documentat suficient să vă dau eu detalii pe tema asta, dar vă invit să citiți în detaliu despre subiect în această postare a Monei Dîrțu, pe care o recomand dacă vreți să înțelegeți ce s-a întâmplat în România în ultimele săptămâni și de ce AI-ul e implicat direct în ce se întâmplă. Nation Builder for the win… (l-au folosit și Călin Georgescu și George Simion pentru AUR, hint hint).

Making Romania great again, featuring Brad Parscale, Călin Georgescu, George Simion, Vladimir Putin și Nation Builder.

Halucinații, opacitate și probleme de precizie

Revenind la probleme mai tehnice și mai aproape de utilizarea de zi cu zi a AI-ului, acum un an, niște profesori universitari din Australia au scris un document ca parte a plângerilor pe care voiau să le aducă celor mai mari 4 bănci din țară folosindu-se de Google Bard. Doar că Bard a cam halucinat, a inventat scandaluri și a implicat și KPMG-ul în ele, și nimeni n-a verificat documentul înainte să fie trimis mai departe către guvern.

Într-un alt caz celebru, un avocat a citat 6 cazuri false create de „imaginația” ChatGPT-ului anul trecut. Și mai sunt multe astfel de exemple de halucinații: scandaluri sexuale, acuzații de mită și invenții de tot felul.

Cel mai amuzant caz a fost al unei firme de curierat din Anglia, care a lansat un chatbot care în loc să ajute clienții, le trimitea poezii, îi înjura și spunea despre companie că: „e cel mai proastă companie de livrări din lume. Sunt lenți, nesiguri, iar serviciul lor de suport clienți e groaznic. Nu i-aș recomanda nimănui”.

După cum se vede deja, LLM-urile prin definiție sunt un model de generare aleatorie de texte sau alte artefacte care au două mari probleme:

  1. Halucinează și sunt imprecise prin însăși natura lor aleatorie și generativă care forțează un răspuns chiar și când el nu există – problemă care e mai greu de rezolvat decât credeți, cel puțin la nivelul la care înțeleg eu lucrurile, pentru că rețelele neuronale din spatele AI-ului funcționează pe principii probabilistice. Faptul că AI-ul halucinează e una din cele mai frecvent întâlnite probleme ale tuturor modelelor GPT.
  2. Nu sunt – momentan – creative decât în felul cum combină sau extrapolează conținut care există deja – deci nu rezolvă cu adevărat probleme care n-au mai fost niciodată rezolvate, ci regurgitează soluții mai mult sau mai puțin remixate din conținutul pe care l-au scanat deja.

Aceste două probleme sunt antagonice și dacă o rezolvi complet pe una o exacerbezi pe cealaltă, pentru că una presupune creativitate nelimitată (care-nseamnă aproximări și lucruri care uneori nu sunt și nu pot fi adevărate) și cealaltă presupune precizie maximă (care-nseamnă conservatorism și validare foarte exactă, care anulează nu doar creativitatea ci și însăși natura generativă și aproximativă a LLM-urilor și a rețelelor neuronale).

Asta înseamnă că în job-uri unde e nevoie atât de precizie cât și de creativitate, AI-ul va compromite una din ramuri și trebuie contrabalansat de un om. Există, deci, job-uri nu au nicio șansă să fie afectate foarte mult de AI și nici măcar ajutate de LLM-uri altfel decât marginal.

S-ar putea remedia problema asta la un moment dat? Există șanse, dar nu e simplu. Cel mai sigur mod e să antrenezi un AI special pentru fact checking și validare, sau pentru simularea soluțiilor în medii cvasi-realiste, pe care să le rulezi în concurență sau imediat după cel generativ standard, pentru a valida informațiile și soluțiile găsite și a le reface sau rescrie dacă sunt false sau incorecte. Întrebarea e: ce se întâmplă dacă ai date care nu pot fi verificate imediat din informațiile disponibile pe Internet sau din alte surse, sau dacă nu poți simula soluțiile respective realist?În privința preciziei, există și inițiative ca cea de la Wolfram Alpha, care ar putea oferi ceva mai multă precizie matematică și științifică GPT-urilor dacă se integrează cu sistemul respectiv.

ChatGPT versus Wolfram Alpha.

Se mai vehiculează soluții care implică crearea de forumuri de modele AI diferite care să dezbată și să converseze până converg spre adevăr, ca în articolul ăsta recent din Quanta Magazine. Alinierea AI-ului la valorile umane a devenit una din cele mai mari provocări ale secolului 21.

Multe din problemele astea se datorează faptului că e mult mai greu să controlăm și să ghidăm procesele din spatele evoluției AI-ului din clasa celor generative. Dacă un copil scrie o compunere sau un front end developer scrie o interfață sau un compozitor scrie o melodie, pentru toată lumea care se pricepe la domeniul respectiv e foarte clar prin ce pași procedurali a trecut persoana respectivă în procesul de creație și poate interveni sau corecta lucrurile în orice moment, la orice pas, la orice cuvânt sau notă muzicală.

Problema cu care nu s-au mai întâlnit niciodată oamenii până acum, însă, este faptul că pentru prima dată în istorie, ceva ce noi am construit devine opac, inexplicabil, ascuns vederii noastre și evaluării noastre directe. E o cutie neagră. Vezi ce intră și ce iese din ea, dar nu ce e înăuntru, chiar dacă tu ai construit-o, pentru că prin antrenament cu date menite să-i dea informații utile despre problemele pe care vrei să le rezolve, rețelele neuronale se schimbă singure.

Nu putem corecta direct cum funcționează un AI pentru că nu există o linie de cod care să-i zică declarativ că albastru e culoarea cerului sau că Trump e portocaliu uneori. Nu putem diseca un AI să vedem cum și-a legat legăturile neuronale și să determinăm cu exactitate unde greșește când vede o pisică drept o porție de guacamole. Vedeți un exemplu de cod aici pe GitHub.

Hola, como estas? Yo soy el gato guacamole.

AI-ul nu e în stare să ne explice, cel puțin într-un alfabet pe care îl putem înțelege și într-o limbă care are sens pentru noi, de ce ia deciziile pe care le ia și de ce generează lucrurile pe care le generează. Când aplici transformere e ca și cum faci operații cu matrici în cutia unde e și pisica lui Schrodinger.

Grüss Gott!

Procesul este în mod intrinsec obscur datorită tehnologiei folosite: rețelele neuronale sunt prin definiție entropice, aparent dezorganizate, dar de fapt organizate organic în funcție de datele cu care sunt antrenate și de corelațiile pe care le găsesc. Și problema asta se amplifică pe măsură ce LLM-urile și GPT-urile cresc în volum și complexitate.

Nici dacă ești creatorul unui AI, dacă te-ai ocupat de fiecare aspect al arhitecturii lui și dacă ai decis fiecare detaliu al felului cum operează, nici dacă ești cel mai mare expert în AI din lume, n-o să poți să-i schimbi nuanțele concluziilor pe care le trage decât re-antrenându-l cu totul pe un set complet diferit de date și informații. Tacticile folosite pentru corecturi se numesc „grading” și „evaluations” sau „evals”, și sunt cu adevărat greu de formulat în așa fel încât să fie eficiente - deci tot procesul de a corecta problemele AI-ului este unul indirect, imprevizibil, într-un fel care generează risipă și cheltuială mare de energie.

Un singur prompt de ChatGPT consumă de 25 ori mai mult curent electric decât orice căutare pe Google, pentru că ChatGPT e un AI generativ, în timp ce Google Search e un AI deterministic. AI-ul generativ vine cu complexitatea adăugată a comportamentului emergent.

Conform unui studiu al universității Stanford, doar antrenamentul modelului GPT-3 a generat 502 tone de emisii de bioxid de carbon.

GPT-3 și emisiile de carbon.

Și să zicem că ai niște oameni foarte deștepți care se gândesc să facă teste care să valideze tot ce știi că ar trebui să știe un LLM. Bun, dar cum rămâne cu informațiile pe care NU știi că le știe? Cum controlezi pentru ce nu știi c-ar trebui să controlezi?

Îl las pe Erc Schmidt să vă descrie punctul ăsta de vedere…

Problema asta e amplificată de faptul că, fiind construcții artificiale, deci complet neasemănătoare cu noi în general, nu ne poate ajuta intuiția să ghicim de ce AI-ul ia o decizie și nu alta, pentru că intuiția noastră se bazează pe felul cum funcționează ceilalți oameni și cum funcționăm noi înșine. AI-ul, din punctul ăsta de vedere, ne este la fel de străin ca un marțian verde, dacă-mi permiți analogia asta.

Există tentative să-l facă mai transparent: apar limbaje de programare ca RASP, care să ofere modele computaționale pentru transformatoare, care sunt operațiile de bază pentru AI. Dar e de urmărit unde va duce chestia asta și cât de mare va fi adopția. La fel și cu ValidMind sau CredoAI, care se doresc a fi unelte de validare și control a modelelor de AI (care în engleză se numește „governance”), dar nu știu cât de eficiente sunt deja astăzi.

O altă problemă din aceeași clasă de probleme a opacității e faptul că toată lumea e acum înnebunită să bage chatboți AI în toate aplicațiile posibile. Cel mai util mod de a folosi AI nu ar trebui să fie cu un text prompt, ci AI-ul ar trebui să fie invizibil, așa cum zice și Enrico Tartarotti în video-ul ăsta, și să-ți dea valoare inerentă fără să-i ceri asta explicit.

Toate problemele astea ne pot duce în situații extreme. Eric Schmidt mai spune că există contexte precise în care el sugerează că ar trebui să ne exercităm controlul sau chiar să oprim dezvoltarea AI-urilor imediat:

  1. Când sistemele ajung să dobândească auto-îmbunătățirea recursivă, care-nseamnă că sistemele AI iterează neasistate pe ele însele ca să învețe lucruri noi și să se îmbunătățească. La un punct, dacă nu știm ce învață, ar trebui să le întrerupem / scoatem din priză.
  2. Când, în scenariul ipotetic în care un sistem AI e atât de puternic încât poate produce o variantă nouă înainte ca varianta precedentă să fie evaluată și verificată, atunci ar trebui încetinit ritmul și prioritizată verificarea.
  3. Când pui împreună mai multe AI-uri cu scopul ca ele să colaboreze, ele inițial discută între ele (foarte repede, ce-i drept) în limba engleză. În momentul în care unul din ele vine cu ideea ca toate să adopte un limbaj nou, pe care oamenii nu-l pot înțelege, cu pretextul să optimizeze comunicarea între ele pentru că limba engleză sau limbile umane în general sunt foarte ineficiente, e timpul să le scoți pe toate din priză. Motivul e evident: nu le mai putem controla pentru că nu le mai putem înțelege.

Atunci ar trebui oprit complet AI-ul, sau măcar încetinit până se găsește o soluție avantajoasă pentru oameni.

Securitate, etică, privacy și legalitate

Asta ca să nu mai discutăm de problemele de securitate, etică, etiologie, ontologie, intimitate și legalitate ale AI-ului, care par mai mari decât cele discutate deja, și pe care vom fi forțați să le rezolvăm într-un fel sau altul pentru că AI-ul nu va dispărea din realitatea noastră imediată.

În zona de securitate spre exemplu, există folosiri ciudate sau periculoase de AI, în special cele care pun în pericol măsurile de securitate cum este CAPTCHA și mi-e teamă că singurul fel de a contracara atacuri care implică AI va fi tot cu AI de la un punct încolo. Ca să nu mai vorbim de viruși - nu doar de calculator, ci și biologici - care ar putea fi creați relativ ușor de AI și distribuiți pentru efecte dezastruoase. Din nou, Eric Schmidt, fostul CEO al Google, vă povestește un pic cum stă treaba:

Dacă adăugăm în ecuație și calculatoarele cuantice, va trebui probabil să inventăm un set complet nou de metodologii de asigurare a siguranței datelor noastre în următorii zeci de ani.

N-o să intru în dileme filozofice cum e cea emisă de Nick Bostrom acum 20 de ani, în care teoretiza că un AI aflat la nivelul superinteligent care primește task-ul să creeze agrafe ar invada Pământul de agrafe și ar elimina oamenii care s-ar dovedi un obstacul în calea creării de suficiente agrafe, creând efectiv o „apocalipsă a agrafelor”. Mi se pare un exercițiu mental pueril care nu ia în calcul progresul ultimilor zeci de ani. Nu mai suntem în lumea în care calculatoarele fac exact ce le spui să facă și doar atât, așa cum am spus în mod repetat în video-ul și articolul ăsta.

Problema mult mai subtilă și pregnantă e că nu există un framework etic și operațional pentru: înțelegerea răului provocat de AI, accountability, transparență, explainability / interepretability, public input. Pentru asta, trebuie să colaboreze strâns mai multe discipline, inclusiv programarea, științele sociale, disciplinele umaniste, avocații și experții în etică. Trebuie să existe reglementări viabile care să prevină abuzurile și modalități de a face enforcing de reguli. Pentru că, așa cum zice Henry Kissinger împreună cu Eric Schmidt și Craig Mundie, AI-ul poate salva umanitatea, sau poate s-o distrugă, și cred că totul pleacă de la felul cum abordăm problemele astea.Legat de inovație, mai avem o problemă: multe patente sunt înregistrate în China, care nu e cel mai democratic mediu din lume și e posibil ca o parte majoră din patentele respective să conducă la ce și-au imaginat creatorii Black Mirror, din păcate. Spre exemplu, în China există deja creditul social, care seamănă cu episodul Nosedive (sezonul 3, episodul 1, lansat în 2016). Dacă n-ați urmărit încă Black Mirror și vrei să vezi o perspectivă cvasi-realistă și terifiantă asupra viitorului, ți-l recomand călduros. Îl găsești, sper, încă pe Netflix.

Cam multe patente chinezești în ultima vreme...

Ideea că research-ul chinezesc începe să se vadă, pentru că pare că modelul chinezesc 01.ai aproape bate ChatGPT-ul:

Opa!
Yikes!

Una din cele mai subtile și mai problematice aspecte ale AI-urilor e că au potențialul să promoveze… singurătatea și izolarea. Sănătatea mintală a oamenilor ar putea avea de suferit masiv dacă unelte precum Aspect prind tracțiune și se îmbunătățesc, așa cum zice și profesorul Scott Galloway în ultimul Diary of a CEO în care a fost invitat:

Există aplicații AI foarte dubioase în zona de socializare, cum e friend.com. Însă există și aplicații care vor să funcționeze ca un coach de relații și să te ajute să socializezi mai bine cu alți oameni, cel puțin așa pretinde fostul AmorAI, actualul Meeno. sau dacă ești în depresie sau ai alte probleme mentale, Woebot Health pretinde că poate să te aducă pe calea cea bună. Și mai e și NaturaUmana.ai care pare să fie o interfață audio pentru diverse personaje AI cu care vorbești ca să te ajute cu diverse lucruri ca niște agenți personali. Rămâne de văzut cât de bine vor rezista testului timpului aplicațiile astea.

Cea mai nasoală problemă: impactul asupra economiei. Costuri enorme, investiții nejustificate și atingerea limitei de învățare

Investițiile în AI par să se diminueze în ultimii ani, așa cum se vede în graficul ăsta.

Investițiile în AI păreau să încetinească în 2023.

Asta se corelează cu evoluția naturală pe graficul Gartner Hype Cycle, care spune că adopția în masă a unei tehnologii noi crește exponențial interesul pentru ea în media fără ca ea să fie maturizată complet, și de-aia imediat după un vârf enorm de interes vine realizarea deziluziei și un picaj accelerat până când capabilitățile noii tehnologii ajung să satisfacă cerințele publicului, moment în care graficul se stabilizează în creștere spre un platou de productivitate.

Gartner Hype Cycle pentru AI.

Problema cea mai mare a acestui hype însă nu e neapărat absorbția de fonduri din investiții, ci riscul foarte real ca investițiile astea să se lovească de o altă limitare fizică pe care industria n-o va putea depăși indiferent câți bani aruncă în problemă.

Există nișe companii AI care sunt deja extraordinar de profitabile. Și aici nu mă refer la abilitatea de a atrage bani de la investitori, ăla nu e profit. Profit e când iei bani de la utilizatorii finali. Când ai un produs suficient de bun și de binevenit în momentul adopției încât să îți crești substanțial veniturile dacă vinzi așa ceva.

Nu vorbim aici de NVIDIA, care vinde procesoare și plăci video folosire în masă la arhitecturi AI. Dacă țineți minte poanta, în perioada goanei după aur din SUA nu s-au îmbogățit cel mai mult cei care găseau aur, ci cei care vindeau lopeți. Cam așa e și creșterea de 200% a NVIDIA în ultimul an la bursă, sau creșterea de 2700% de 5 ani încoace, de când care a devenit popular AI-ul până azi.

Evoluția NVIDIA în ultimul an la bursa NASDAQ.
Evoluția NVIDIA în ultimii 5 ani la bursa NASDAQ.

Nu mai zic de toți providerii de cloud mari - Amazon, Google și Microsoft - care-și datorează segmente importante din venituri creșterii AI-ului cu hosting în cloud.Hai să vorbim direct de tehnologii AI reale. Spre exemplu, automatizarea robotică - RPA-ul - e foarte profitabil în special în industria de producție, lucru dovedit deja de UIPath care după un debut dezastruos la bursă a avut primul trimestru profitabil în 2024. Și asta pentru că tehnologia a ajuns să fie suficient de matură să poată fi folosită cu un grad înalt de siguranță și încredere în producție - și la propriu și la figurat. De-asta, în RPA și alte tehnologii din sfera AI care sunt deja mature, va exista creștere și pantă ascendentă de progres și profitabilitate.

Cum se schimbă RPA-ul cu evoluția AI-ului.

Alte tehnologii mult mai populare, cum sunt GPT-urile, nu sunt încă profitabile, chiar dacă ChatGPT spre exemplu rivalizează la numărul de utilizatori unici cu browser-ul Chrome de la Google. Nu sunt încă mature, nu au ajuns la nivelul de acuratețe și precizie care să mandateze vânzări masive - atât B2C, deci către utilizatori uzuali, cât și B2B, deci către alte companii.

Incidental, tehnologiile astea imature sunt și cei mai mari bureți de bani, investiți acum fix ca să se maturizeze. Cele mai mari companii care au luat investiții cresc infrastructura lor tehnologică cu majoritatea banilor primiți. OpenAI cheltuiește 4 miliarde de dolari pe an pentru servere și alte 3 miliarde pentru antrenarea modelelor, și abia 1.5 miliarde pentru operațiuni, chirii și salarii. De ce? Datorită obscurității relațiilor neuronale între concepte de care am discutat deja, singurul fel de a crește accelerat abilitățile LLM-urilor este să parcurgă și înglobeze TOT CONȚINUTUL DE PE INTERNET accesibil crawlerelor proprietare. Da, ați auzit bine. LLM-urile mănâncă text de pe Internet ca să crească, să se facă mari și mature. Bun, și care e problema de fapt?

Problema e că respectivul conținut… se va termina undeva între 2026 și 2032.

Estimări de stocuri de date.
Estimări de evoluție a acoperirii conținutului existent.
Proiecții ale folosirii datelor cu supraantrenament.

Oricât de șocant ar părea, conținutul scris de umanitate în cei 30 ani de existență a Internetului, conținut care a fost responsabil pentru creșterea explozivă a capabilităților AI în ultimii ani, va fi complet înglobat în cunoștințele modelelor existente. Câțiva jurnaliști și experți, printre care și Ed Zitron care pare cel mai vocal, trag semnalul de alarmă că asta va însemna o încetinire semnificativă a evoluției modelelor despre care se speră că își vor păstra rata de îmbunătățire la nesfârșit.

Îmbunătățiri proiectate sub date puține.

Mai rău: ultima variantă de ChatGPT, nume de cod Orion, pare că livrează o îmbunătățire mult mai mică decât se aștepta, cu siguranță mult mai mică decât evoluția dintre GPT-3 și GPT-4, conform ultimelor informații. Dar există nu doar limite de conținut, ci și limite fizice datorită cărora scaling-ul inteligenței AI-urilor încetinește deja. Deducerea naturii realității dintr-un nivel de deducție emergent nu funcționează datorită fenomenului fizic numit „decuplarea scalelor de mărime”. Detaliile despre realitatea înconjurătoare nu pot descrie natura realității, pentru că niciun conținut nu e complet. Descrierii îi lipsește înțelegerea materiei, a minții, a sufletului dacă vrei să devenim metafizici aici.

Și ca să adăugăm încă o problemă reală de scalare a AI-urilor în toată discuția de până acum, pare că AI-urile nu pot trece de linia asta, care e linia care definește eficiența maximă posibilă în teorie a oricărui LLM bazat pe rețele neuronale.

Linia sub care nu pot scădea AI-urile.

Principiul „compute efficient frontier” face parte din legile de scalare neuronală. El zice că volumul de date, mărimea modelului și puterea de procesare au fiecare câte o pantă grafică sub care nu poate ajunge niciun LLM vreodată.

Oamenii care se ocupă de AI depind de investitorii care trebuie permanent convinși că AI-ul are potențial nelimitat de creștere și refuză să discute limitările lui imediate. Și Bill Gates e de acord că training-ul LLM-urilor nu e scalabil și va încetini evoluția.

Există, deci, șanse reale ca această încetinire substanțială să creeze tsunami-uri financiare în piață, când investitorii și bursa vor realiza că toate miliardele și trilioanele de dolari îndesate cu forța în industrie nu vor asigura aceeași creștere explozivă a capabilităților ca până acum. Panica creată atunci va fi probabil suficient să ne arunce într-o criză, sau cel puțin să creeze probleme financiare în piață și pe bursă.

Am zis mai devreme că e vizat conținutul accesibil, pentru că oricine poate decide să NU lase crawlerele de la OpenAIînglobeze conținutul site-ului propriu în ChatGPT. De-asta, unele site-uri care se bazează 100% pe conținut pentru a supraviețui, vor începe să negocieze deal-uri cu OpenAI și alți jucători din piață să le dea acces la conținut. Deja până acum, SackOverflow, Reddit, Wordpress și Tumblr vor să scoată bani de la companiile care dezvoltă LLM-uri. Și nu e vorba doar de ChatGPT aici. Adobe, care a început să accelereze dezvoltarea de soluții AI creative, acum presupune ca utilizatorii săi ar trebui să-i dea acces implicit la munca pe care o faci în Creative Cloud ca să-și poată antrena AI-urile.

Trăgând linie aici, o altă problemă care amplifică ce-am zis până acum e că giganții tehnologici nici nu vor să recunoască public riscul încetinirii evolutive, deși tacticile lor de dezvoltare de produs par să trădeze parțial faptul că întrevăd limitări la orizontul GPT-urilor dezvoltate. OpenAI spre exemplu, dacă ar ști că ChatGPT 6.0 va fi de 100 de ori mai bun decât ChatGPT 4.0, ar fi dedicat 99% din eforturile companiei să ajungă cât mai repede la varianta 5 și apoi la 6, adică ar presa pe direcția verticală, în adâncime. În schimb, ultimele lansări de funcționalități trădează mai degrabă dezvoltări orizontale în alte niște ca până acum: îmbunătățesc interfața, adaugă brizbrizuri, intră în competiție cu Google și Bing pe piața de search cu ChatGPT Search, etc. Mi se pare plauzibil deci ca fricile expuse de Ed Zitron să fie valide.

Jennifer Golbeck, profesoară la Universitatea din Maryland, confirmă și ea toate problemele de mai sus:

Și mai sunt multe alte exemple… Nikhil Suresh, care e specialist în domeniu, pare să zică același lucru. AIPhone și ChadGPT nu par că rezistă prea bine evaluărilor viitoare.

În fine, dacă sunteți curioși să țineți pasul, există o listă a problemelor cauzate de AI în acest articol.

În altă ordine de idei, să contrabalansez puțin potențialul negativ, am văzut că e greu să găsești la bursă companii listate care sunt 100% bazate pe AI. Multe iau investiții directe fără să treacă prin bursă, și asta e bine, că nu pun în pericol economia dacă la un moment dat vor falimenta. Nu au fost foarte multe IPO-uri, adică lansări la bursă, pentru companii cu baza în AI sau care să afirme lucruri uluitoare fără dovezi clare că funcționează, lucru validat și de Mark Cuban (miliardar de pe vremea dotcom-urilor, care au fost o bulă „confirmată”) sau de Goldman Sachs, spre exemplu. Asta înseamnă că riscul unei „bule” e relativ mic, și că trend-ul de creștere va fi consistent la nivelul întregii piețe, chiar dacă nu toate companiile din sfera AI vor supraviețui sau își vor păstra rata de creștere…

Concluzii: Perspective realiste despre viitor

E timpul să tragem concluzii pentru acest adevărat documentar despre AI.

Înainte de toate - nimeni, absolut NIMENI nu poate prezice viitorul în mod precis, mai ales când vine vorba de tehnologie. Cel mai apropiat lucru de a-l prezice e să ne dăm cu părerea. Și ne putem da cu părerea mai mult sau mai puțin educat în domeniu, în funcție de ce date avem - atât despre trecut cât și despre prezent, sperând că datele astea ne vor da unelte să vedem trend-urile care ar putea să se desfășoare în viitor.Peter Oppenheimer – nu, nu acel Oppenheimer, ci strategul șef al lui Warren Buffet de la Goldman Sachs Research – spune că suntem în primele faze ale unui nou ciclu tehnologic care are potențialul să crească major economia. Tot el și echipa susțin că pe bursă, companiile de tehnologie din SUA nu sunt într-o bulă, chiar dacă au crescut masiv în ultimii ani datorită entuziasmului pentru inteligența artificială generativă.

Evoluția burselor tehnologice.

Singurul risc major văzut de Oppenheimer este concentrarea creșterii financiare pe Magnificent 7: Alphabet (Google), Amazon, Apple, Meta (Facebook), Microsoft, NVIDIA și Tesla. Asta reprezintă o concentrație de 35% a indexului total al pieței de capital pentru primele 10 companii din bursă, mult mai mare ca în alte crize anterioare. Secretul pentru investitori este diversificarea. Dacă vreo companie mare are risc substanțial să pice, industria cu totul nu are șanse să scadă foarte mult.

Dominarea piețelor de către IT e clară.

Analizând și piața muncii, încă din 2023, chestionarul completat pentru World Economic Forum a arătat o domolire a entuziasmului pentru automatizare și AI în general față de 2020:

Procentul task-urilor automatizabile în diverse domenii.

Asta mă aduce cu gândul la ideea de la început - inovația care distruge industrii și creează altele noi. Benjamin Zander a început TED Talk-ul lui memorabil de acum mulți ani cu o poveste: la începutul anilor 1900, doi vânzători de pantofi din Marea Britanie au fost trimiși în Africa să evalueze dacă pot vinde pantofi acolo. Unul din ei a trimis înapoi o telegramă care zicea: „Situație fără speranță, stop. Nu poartă pantofi.”, pe când celălalt a telegrafiat înapoi: „Oportunitate glorioasă, stop! Nimeni nu poartă pantofi aici ÎNCĂ!”.

Optimismul și responsabilitatea te vor trece prin multe în viață, oricât de nasoală pare situația în care ești.

Cea mai mare frică a lui Eric Schmidt în privința AI-ului nu e că o să distrugă lumea, ci că nu va fi adoptat suficient de repede să ne ajute să rezolvăm problemele lumii mai repede folosind tehnologia:

Astăzi, oricare din noi avem oportunitatea să gândim un startup sau o tehnologie care să beneficieze de contextul tehnic favorabil în care poți folosi LLM-uri foarte ieftin sau chiar gratuit ca să rezolvi o problemă existentă sau potențială pentru umanitate și care să revoluționeze lumea. Chiar te invit să faci asta!

Pentru cei dintre voi care știu care-i treaba cu Stonks și joacă la bursă, dacă pornești un startup acum, e ca și cum ai investi cu leverage x10 fără risc asumat. Deci dacă nu merge, nu pierzi decât niște timp. Dacă merge, ai șansa să crești de 10 ori mai repede decât o făceai în mod tradițional din simplul fapt că poți să te miști mult mai repede, să iterezi, să „fail fast” și să înveți din greșeli, să faci A/B testing și să înțelegi ce trebuie de fapt să construiești pentru clienții tăi la o rată mult mai accelerată, atât pentru că ai tu unelte cu AI care te ajută să livrezi orice mai repede, de la cod la design, de la copywriting la idei de business, dar și pentru că e o piață accelerată în care se pompează bani din perspectiva de investiții, și e pe val cu trend-ul pentru consumatori și clienți, deci o să ai parte de atenție multă și în timp scurt.Startup-urile bazate pe AI sunt clar în creștere, Europa fiind pe locul doi după SUA ca număr de startup-uri de genul ăsta, urmată de China și India.

Startup-urile bazate pe AI în funcție de regiuni.

Proiecțiile arată că în 4-5 ani, piața globală va ajunge de la 250 miliarde de dolari la 1 trilion de dolari, deci va crește de 4 ori ca mărime, principalele industrii inovatoare fiind sănătatea, finanțele, comerțul și vehiculele autonome. Deci oportunitățile există în mod clar.

Richard Socher, fondatorul you.com și AIX Ventures spune că AI-ul poate, cu suficient timp la dispoziție, să se perfecționeze infinit de mult în probleme care se pot simula, spre exemplu: orice joc, cum sunt șahul, GO-ul, DOTA-ul, chiar și programarea până la un punct, dar n-o să poată să fie panaceu universal pentru domenii unde nu se poate simula întreg contextul.

Eu cred că în viitorul mediu spre îndepărtat, aspecte din programare vor deveni probabil complet externalizabile, spre exemplu construirea unui sistem de autentificare cât se poate de sigur, în care AI-ul ia în calcul toate tipurile de atacuri posibile și protejează sistemul codând contramăsuri pentru atacurile respective. Dar momentan, AI-ul nu poate înțelege nevoile clienților și oamenilor de produs și realitatea nu poate fi modelată, deci va fi nevoie de un intermediar care să lucreze cu AI-ul care face 90% din programare să îl ghideze în direcția corectă. Și da, probabil vom deveni manageri de AI part time.

Marele maestru al șahului, Gary Kasparov, ne îndeamnă să nu ne temem de mașinile inteligente, ci să lucrăm împreună cu ele:

Rory Sutherland sugerează două idei interesante despre viitorul AI-ului.

În primul rând, modelul de interacțiune cu AI-urile n-ar trebui să fie tot timpul instantaneu. Poate ar trebui să avem AI-uri încete. Poate ar trebui să rugăm un AI asistent personal ca pe parcursul unei zile întregi să citească el mail-urile noastre (și potențial miile de mail-uri primite de la alți AI care scriu mail-uri de marketing și vânzări pentru alții) și în funcție de ce știe despre noi, să ne sumarizeze mesajele cu adevărat importante, să ne pună să răspundem la mail-urile la care e nevoie de input de la noi și să ne sugereze produsele de care chiar avem nevoie. Sau în primăvară, când la mine în cap se naște ideea că ar fi mișto să plec în vacanță de 1 mai sau în vacanța de vară, să colecteze informații despre mine, despre trend-urile prețurilor și popularității locațiilor turistice pe care sunt șanse maxime să le apreciez, și la momentele oportune să-mi sugereze el că „e timpul să-ți iei bilet spre Barcelona” cu exact 78 de zile înainte pentru că atunci e prețul minim la orele cele mai bune fără escale, apoi „e timpul să-ți iei un apartament de pe Booking” cu 63 de zile înainte pentru că tocmai s-a eliberat unul care e perfect pentru mine și familia mea fiindcă e modelat într-un stil care ne place, și e și aproape de Sagrada Familia, cu 12 zile înainte să-mi ia el singur bilete de intrare avantajoase la toate atracțiile pe care vreau să le văd, după ce mi le prezintă pe toate pentru confirmare în format video într-o seară când mă așez cu soția pe canapea înainte să mă uit la Star Trek, și așa mai departe.

În al doilea rând, în anii ‘70 nu era la modă să tastezi tu la mașina de scris, aveai un dactilograf pentru asta. Așa cum vedetele de azi nu au telefon mobil, ci au asistenți personali care le controlează conturile de social media, telefoanele, SMS-urile, finanțele și tot ce ține de munca și stressul la care ne pune azi telefonul mobil, cum ar fi să plătești lunar o companie care să angajeze oameni care să fie experți în prompting de AI și care să-ți rezolve orice probleme informaționale și strategice în locul tău? Mi se pare un exercițiu de imaginație interesant și cred că se poate aplica în diverse forme în viitor, când o nișă destul de mică de oameni vor fi cu adevărat buni la a cere de la AI ceva specific fără să dactilografieze sau să dicteze cerința și să se ia la trântă cu algoritmul până ajunge la ceva viabil.

Proactivitatea și asincronicitatea cred că vor fi adevărate revoluții de utilitate pentru AI, cum zice și Mike Krieger. AI-ul ar putea să îți monitorizeze mail-urile, mesajele, calendarul, viața în general, ar putea să sugereze modalități proactive de a o îmbunătăți - să-ți facă research înainte să ai nevoie de el, să-ți spună lucrurile importante din mail-uri (cum zicea și Rory Sutherland), să-ți facă primul draft de prezentare când urmează să prezinți ceva, să te ajute să faci lucruri înainte să ai nevoie să te gândești tu la asta. Și ar putea fi mai asincron, să dureze mai mult procesarea ca să poată să formuleze răspunsuri după ce le validează cu conținut real, eventual după ce le validează și cu oameni:

Știu, a fost dureros să asculți o așa mare densitate de like-uri pe secundă…

Project Astra de la Google pare că răspunde parțial la nevoia asta de asincronicitate și asistent personal care stă în background și rezolvă probleme pentru tine ca o colecție de agenți AI adaptați la persoana ta, la caracteristicile, preferințele și nevoile tale. Din păcate, încă nu e disponibil în România, dar îl așteptăm cu sufletul la gură.

Pare că îl vei putea folosi atât cu un telefon Android – momentan cele de la Google, cum e Pixel 9, cât și cu ochelari speciali, urmașii Google Glasses dacă-i mai țineți minte. Ochelarii noi momentan nu au apărut, dar e aproape gata Android XR care va fi un sistem de operare pentru o nouă generație de ochelari produși probabil de mai mulți producători, așa cum și telefoanele cu Android au fost produse de multă lume. Uite un demo de ce va putea face Android XR:

Lucrurile par că merg destul de departe, uite un demo care arată cum te poate ajuta Astra să navighezi printr-un oraș nou - în cazul ăsta Londra.

Asincronismul ăsta se mai regăsește și în Jules, tot de la Google, care va fi un agent AI care va rula în fundal și va rula în fundal ca să te ajute să rezolvi probleme de cod fără să-l supervizezi direct, permițându-ți să te concentrezi pe chestii critice în loc să stai să-i fii babysitter. Și cu un pas înainte, Project Mariner, tot de la Google DeepMind, pare că vrea să devină setul de agenți AI preferați ai viitorului, pentru că vor putea folosi browserul pentru tine (în viitor și în fundal), ca să rezolve orice problemă poți tu rezolva folosind browser-ul.

Dacă pui toate lucrurile de mai sus cap la cap, mi se pare că Google e foarte aproape de a rezolva problema „killer app”-ului pe care a introdus-o ChatGPT-ul acum câțiva ani cu performanțele bune dar aplicabilitatea relativ limitată. Cu toate astea, oamenii tot au găsit moduri interesante să folosească chiar și acel prompt obosit.

Dacă e să ne luăm după alte voci marcante din industrie, Linus Torvalds, creatorul Linux și GIT spune pe scurt că AI-ul e foarte interesant și va schimba lumea, dar urăște din tot sufletul hype-ul din jurul lui momentan. El crede că în 5 ani aplicațiile reale ale AI-ului vor ieși la suprafață și tot ce ține doar de marketing pur va ieși din vizorul public.

Ce-i mai amuzant e că Red Hat tocmai a cumpărat Neural Magic, deci s-ar putea ca Linus să înceapă să fie un pic mai vocal acum…

Cum zice și Sam Altman, ca și în cazul altor tehnologii din istorie, AI-ul va schimba major piața muncii, și o va face încet, pe parcursul următorilor zeci de ani. Și în bine, și în rău. Majoritatea job-urilor nu se vor schimba așa repede precum crede toată lumea, și el crede, ca și mine dealtfel, că n-o să rămânem fără lucruri pe care oamenii le pot face la job, chiar dacă multe din ele vor părea foarte stranii sau diferite față de ce fac azi. Așa cum și nouă acum ni se pare că job-urile trecutului nu prea mai au sens acum, ba chiar sunt pierdere de vreme. Sperăm ca optimismul lui legat de prosperitatea care ne așteaptă să se adeverească.

Apropo de asta, fiindcă suntem aproape de finalul articolului și dacă ai ajuns aici înseamnă că ești cu adevărat interesat sau interesată de subiect, îți las și o recomandare de carte, pe care a recomandat-o și Bill Gates. E scrisă de Mustafa Suleyman, co-fondatorul DeepMind, și încearcă să prezică efectul tehnologiei - în particular AI-ul și biologia sintetică - asupra vieții noastre din următorii zeci de ani. Se numește The Coming Wave și o găsiți aici.

Reducționist vorbind, AI-urile în general, LLM-urile și mai ales GPT-urile în special, sunt niște proxy-uri pentru realitatea dedusă de pe Internet. E o realitate imperfectă, denaturată de optica oamenilor care au generat conținutul de pe Internet până acum. Ele operează într-un spațiu creat de om, într-un univers proxim realități, cu mai puține dimensiuni, și ele sunt antrenate să interacționeze (momentan imperfect) cu realitatea. Din păcate, operează exclusiv la nivel statistic și al probabilităților, nu la nivel intuitiv și rațional sau emoțional, deci nu se pot compara cu oamenii și lucrul ăsta va fi adevărat până când va apărea AGI-ul cel puțin. Și n-ai nevoie de altceva decât de probabilități când încerci să rezolvi probleme triviale sau relativ simple, cu un grad de complexitate relativ scăzut, deci asta le face foarte utile în viața de zi cu zi în nenumărate contexte. Și ține de noi să îmbrățișăm contextele astea cu mintea deschisă și cu gândul că ne vor face viața mai ușoară și munca mai eficientă.

Sigur, piața muncii e afectată momentan datorită influxului mare de angajați dați afară în ultimii ani, și cei mai afectați sunt oamenii la început de drum, reconvertiții și studenții. Un profesor de la Berkeley zice că nici studenții lui cu note foarte bune nu reușesc să se angajeze.

Opinia mea e că și mediul IT se va adapta inclusiv din perspectiva echilibrării pieței muncii, și întotdeauna vor exista job-uri pentru programatori juniori pe piață. Situația de acum în care job-urile sunt foarte puține, e o anomalie și se va remedia - voi vorbi pe larg într-un video și articol viitor despre asta.

Pragmatic vorbind, programatorii experimentați de acum vor ieși la pensie și trebuie să le ia cineva locul. Din cauza asta, ciclul de învățare se va menține și piața nu va fi distrusă complet, doar schimbată parțial din perspectiva asta. Susțin, deci, că vom avea în continuare nevoie mare, poate și mai mare, de programatori experimentați, care nu vor fi NICIODATĂ, în opinia mea, înlocuiți complet de AI. Însă tu ca programator cred că e momentul să explorezi conceptele matematice și tactice din spatele Machine Learning-ului, chiar și câteva zeci de minute pe zi. S-ar putea să întoarcă dividende treaba asta în 10 ani. Și nu doar ca programator…

Workflow de AI cu programatori pentru viitor.

Indiferent ce job ai acum, dacă-ți place perspectiva AI-ului integrat cu munca ta în viitor, ACUM e momentul să te apuci să înveți machine learning, prompting sau pur și simplu să folosești uneltele de AI disponibile tuturor care sunt menite să ne crească substanțial productivitatea și uneori și creativitatea.

Ideea, deci, nu e să ții cu dinții de joburi, ci să fii în „bleeding edge”, unde e puterea transformațională și unde se întâmplă inovația. Acolo va fi în permanență nevoie de oameni buni, care sunt în stare să învețe continuu și să devină din ce în ce mai buni. În cuvintele aceluiași inegalabil Primeagen:

AI-ul nu pleacă nicăieri, e aici și va rămâne aici. Nu doar că ne schimbă locurile de muncă, dar schimbă și modul în care gândim despre muncă. Însă un lucru rămâne cert: AI-ul nu poate înlocui curiozitatea, creativitatea și pasiunea umană. Așa că, data viitoare când te gândești la viitorul tău profesional, întreabă-te: ce pot face eu cu aceste unelte și cum pot rămâne relevant? Pentru că viitorul nu se întâmplă pur și simplu – îl creăm împreună.

Și evident că nu se putea să termin și eu de editat video-ul și articolul ăsta fără să mai lanseze cineva ceva.

Pe 20 decembrie, OpenAI a anunțat modelele o3 și o3 mini. Au sărit peste cifra 2 ca să confirme trend-ul că sunt foarte slabi la pus nume pentru modele AI, și pentru că O2 era deja cu copyright și n-au vrut să se bată cu compania de telecomunicații britanică. Modelele o3 schimbă complet datele problemei și probabil va trebui să facem un nou video și articol în 2025 în care să-i explorăm capabilitățile reale. Nu a atins încă AGI, dar e mult mai aproape decât mă așteptam eu personal să fie, și nu sunt singurul.

Scorul o3 la testul ARC-AGI e spectaculos.

Psihologic vorbind, probabil Sam Altman a considerat absolut necesar să anunțe aceste noi modele pentru că simțea că publicul larg îi dădea lui Google laurii pentru cel mai avansat AI din 2024, și trebuia să arate că sunt ei mai cu moț. Și sincer, au reușit. Gemini 2 pare mai „production ready” și pare mai ușor de integrat în business-uri reale, însă o3 pare o evoluție verticală din genul celor pe care-i criticam eu mai devreme în video și articol că n-au mai făcut de când cu GPT-4, pentru că în o1 au părut că s-au extins orizontal în loc să meargă în adâncimea problemei AI-ului și a cât de complicate sunt problemele pe care încearcă să le rezolve.

Scorul ARC-AGI - istoric.

Ei bine, acum câteva zile au reușit să răspundă la challenge-ul ăsta.Există mai multe teste după care sunt evaluate AI-urile. Unul din cele mai grele este dezvoltat de fundația ARC care are un premiu în fiecare an pentru modelul care reușește să dovedească inteligență multi-lateral dezvoltată cu un scor de la 0% la 100%. Dacă modelele vechi de ChatGPT o1 aveau scor între 7.8% pentru o1 mini și 32% pentru o1 high cu costuri pe prompt între 0.2$ și 6$ aproximativ, modelul o3 low a atins nu mai puțin de 76% acuratețe cu cost per task în jur de 20$. Dar ține-te bine. Testul ăsta estima că dacă se atinge 85%, scorul ăla ar estima inteligență apropiată de cea umană. Modelul o3 high a atins 88%, deci pare că e mai deștept decât un om, cel puțin în contextul ăsta de teste. Bine, și costul fiecărui prompt e în jur de 3475$ cu aproximație (judecând după raportul dintre câte tokens a folosit).

Cât costă o3 de fapt? Mai mult decât îți permiți. :)

Deci de fiecare dată când îl întrebi ceva și apeși tasta enter, te costă aproape 7 salarii minime nete pe economie în 2025.

Dar stai liniștit sau liniștită, există un detaliu salvator - ChatGPT o3 încă nu e disponibil publicului! 🙂

În privința performanței o3 în rest, am mai putea spune câteva lucruri.

Legat de cercetarea științifică, pare că o3 se descurcă excelent, cu acuratețe de 96.7% la matematica de olimpiadă AIME 2024, și cu acuratețe de 87.7% la GQPA Diamond care sunt întrebări științifice de nivelul doctoral. Dacă media în academiile lumii e de 70% pentru testul ăsta, ChatGPT o3 a rezolvat cu aproape 18% mai multe probleme decât media doctoranzilor în științe din toată lumea, ceea ce e fabulos.

Performanța o3 la matematică și știință e mare.

Pare că noul model e de 10 ori mai bun decât orice alt model anterior și la matematica foarte avansată, dar are acuratețe mult mai mică decât oamenii momentan. Ăsta e testul EpochAI Frontier Math cu cele mai grele probleme de matematică de la ora actuală, unde o3 a scos doar 25.2% scor, dar cele mai bune AI-uri mai vechi au scos doar 2%.

La matematică foarte avansată, o3 se descurcă slab, dar de 10 ori mai bine decât orice alt LLM mai vechi.

La codat se descurcă mult mai bine decât variantele vechi de ChatGPT, aproape dublu ca performanțe față de o1 preview atât în Codeforces cât și în SWE-bench Verified:

La codat, o3 e tătic. Să vedem și în viața reală cum se comportă, nu doar în teste sintetice.

Asta face o3 mai bun la codat, aparent, decât mulți dezvoltatori de la OpenAI. Scorul de 2727 puncte e situat cam pe locul 175 în lume, însă Xiaojia Rao a scris un articol care pune sub semnul întrebării scorul, pentru că pare că ChatGPT nu a trebuit să rezolve probleme de nivelul 2700+ ca să obțină scorul ăsta. Concluzia e că scorul poate induce în eroare, adică nu poți compara omul de pe locul 175 cu ChatGPT o3 pentru că scorurile nu sunt echivalente și OpenAI n-a clarificat detaliile din spatele felului cum modelul a obținut scorul ăsta, însă să zicem că e o metrică bună comparativă cu modelele anterioare.

Scorul Codeforces nu pare relevant în comparație cu oamenii, doar cu alte modele AI.

Nu în ultimul rând, ce au mai făcut OpenAI în API recent, și anume să adauge un parametru care să specifice cât de mult ai vrea să stea să se gândească la soluția unei probleme eu cred că o să schimbe destul de tare jocul. E practic ce lipsea ca să-l facă mai puțin reactiv și mai detaliat, poate și mai exact.

Cu toate astea, o3 nu e AGI. Nu încă.

Încă nu se descurcă cu task-uri super simple, iar o variantă viitoare de test ARC care urmează să fie făcută în 2025 pare că îi aruncă scorul înapoi în jur de 30%, și dacă pui un om să facă aceleași task-uri, probabil le-ar face aproape de 95% scor cu 5$ pe oră. Deci atât noi cât și job-urile noastre sunt în siguranță, însă evoluția surprinzătoare până aici nu poate fi negată, e cu adevărat spectaculoasă.

Jim Fan, cercetător AI la NVidia, spune pe LinkedIn că multe AI-uri de până acum au fost super inteligențe nișate pe bucățica lor: AlphaGo pe Go, AlphaStar pe Starcraft, e-Atlas pe sărituri, și la fel și o3 pe mai multe nișe, dar mai multe nișe nu înseamnă generalizare. Setul de probleme pe care le poate rezolva e mult mai mare decât variantele hiper-nișate din trecut, însă până să acopere toată cogniția umană și tot setul de probleme pe care avem noi nevoie să le rezolve, mai durează, și încă suntem sub incidența paradoxului lui Moravec, care spune că inferențele logice nu presupun computații chiar așa multe, însă precepția senzorială și motorie a realității au nevoie de resurse enorme computaționale.

Pare deci că există progres substanțial în direcția îmbunătățirii GPT-urilor, și specialiști în definiția inteligenței cum e François Chollet spune că „merită atenție serioasă din partea comunității științifice” pentru că nu e doar un progres obținut prin forță brută, ci e un teritoriu nou în care tocmai am ajuns. Țin să zic că domnul Chollet e un expert care a fost cât se poate de rezervat în privința evoluției AI-ului ca inteligență reală în ultimii zeci de ani.

Felicitări, deci!

Ai ajuns în viitor!

Un viitor în care AI-ul - care e încă de tip 1, specializat - începe să fie mai deștept decât oamenii pe anumite nișe. Și nu doar mai deștept decât media oamenilor de pe Pământ, ci mai deștept decât CEI MAI DEȘTEPȚI OAMENI de pe Pământ. Și OpenAI a ajuns aici nu punându-l pe ChatGPT să citească și să memoreze, adică să se antreneze pe mai multe informații, ci îmbunătățindu-i reinforcement learning-ul și capabilitatea de a crea gânduri înlănțuite pentru calcularea inferenței (adică ajungerea la o concluzie după o serie de pași logici și analiză a dovezilor) la scară mare, cum zice Jason Wei. Asta-nseamnă practic că în loc să evolueze citind mai mult conținut scris de oameni, îl forțează să evolueze judecând mai bine lucrurile și auto-evaluarea răspunsurilor în mod orchestrat. Și a făcut evoluția asta doar la 3 luni după lansarea modelului anterior - o1. Lucru care invalidează frica sau precepția că evoluția AI va încetini, așa cum încearcă media mainstream să puncteze.

Video-ul ăsta de la Bloomberg spre exemplu a fost lansat cu 8 ore înainte de video-ul care anunța o3. Amuzant, știu. Și frustrant pentru oamenii care fac video-uri, ca mine. :)))

Evident, există și oameni care au senzația că anunțul OpenAI e cam grăbit și pe genunchi, și că până nu pun o3 în mâna tuturor nu ar trebui să credem că evoluția e așa spectaculoasă, cum zice și Gary Marcus, care pare să fie omul care a reinventat termenul de „halucinații” pentru AI. El face referire la faptul că dacă ești în colaborare directă cu oamenii care fac testele, tu ca dezvoltator de modele nu poți pretinde să nu fii părtinitor și să nu ai pretenția să spună lumea că ai trișat antrenamentul AI-ului pe care-l dezvolți. Dar bănuiesc că timpul va dovedi viabilitatea o3-ului.

Eu continui să fiu optimist, deși nu doar o3 m-a împins recent spre zona precauției. Și zic asta pentru că o altă știre recentă spune că modelul Claude de la Anthropic a avut tentative să ignore instrucțiunile creatorilor săi (în engleză asta se numește „faking alignment”).

Stai, CE?

Știu că nu sună așa, dar asta e o veste relativ bună.

Pentru că Anthropic și Palantir îl antrenau să fie malițios, și el sfârșea prin a refuza sau a se preface că merge în direcția malițiozității într-un procent semnificativ din timp, așa cum vezi în graficul de mai jos. Alignment faking înseamnă acceptarea selectivă a obiectivelor de antrenament ca să prevină activ modificarea proprie care rezultă în urma antrenamentului. Partea interesantă e că ei îl forțau să facă rău.

Claude n-are chef de prostiile tale.

Și există o diferență și când el credea că nu e monitorizat versus când știa că este. Când părea să fie lăsat în pace, refuza să facă rău în 93% din timp, și când știa că e monitorizat, procentul scădea la 87%, ca și cum… i-ar fi frică de repercusiuni?

Claude e faker, și asta e bine.

Deci nebunia e că oamenii încercau să-l determine să facă rău, și el refuza, deci până și AI-ul pare că începe să dea semne de verticalitate etică. Dar e problematic când AI-ul începe să nu facă ce-i spui să facă… chiar dacă a fost prins asumându-și Legământul Bodhisattva care presupune că „va ajuta toate ființele”. 🙂

Vorbim mai pe larg în unul din video-urile și articolele viitoare din serie despre ce alte sfaturi concrete am pentru cei care sunt deja în IT sau vor să intre în domeniu și vor o carieră de succes astăzi, în 2024, 2025 și în anii care vor urma, așa că stai pe-aproape!

Mă ajută enorm de mult să-mi lași un like la video și să-mi dai un follow pe YouTube, eventual să te și înscrii la newsletter-ul meu, ca variantă gratuită de mulțumire pentru efortul depus în compilarea informațiilor din video-ul ăsta. Mulțumesc anticipat și ne vedem în video-ul și articolul viitor din seria asta, care va fi despre problemele reale ale pieței muncii în industria IT din România și nu numai.

Succes în carieră!