Acum, când computerele ne conectează pe toți, la bine și la rău, ce urmează?

Acest articol a fost scris, editat și proiectat pe computere portabile. Astfel de dispozitive pliabile și transportabile i-ar fi uimit pe oamenii de știință din domeniul informaticii cu doar câteva decenii în urmă și păreau pură magie înainte. Mașinile conțin miliarde de elemente de calcul minuscule, care execută milioane de linii de instrucțiuni software, scrise colectiv de nenumărate persoane de pe tot globul. Faceți clic, atingeți sau tastați, tastați sau vorbiți, iar rezultatul apare fără întrerupere pe ecran.

Odată, calculatoarele erau atât de mari încât umpleau încăperi. Acum sunt pretutindeni și invizibile, încorporate în ceasuri, motoare de mașini, camere foto, televizoare și jucării. Acestea gestionează rețelele electrice, analizează date științifice și prezic vremea. Lumea modernă ar fi imposibilă fără ele.

Oamenii de știință urmăresc să facă computerele mai rapide și programele mai inteligente, implementând în același timp tehnologia într-un mod etic. Eforturile lor se bazează pe mai mult de un secol de inovații.

În 1833, matematicianul englez Charles Babbage a conceput o mașină programabilă care a anticipat arhitectura informatică de astăzi, având un „depozit” pentru păstrarea numerelor, o „moară” pentru operarea acestora, un cititor de instrucțiuni și o imprimantă. Acest motor analitic dispunea, de asemenea, de funcții logice, cum ar fi ramificarea (dacă X, atunci Y). Babbage a construit doar o parte a mașinii, dar, pe baza descrierii acesteia, cunoștința sa Ada Lovelace a văzut că numerele pe care le putea manipula puteau reprezenta orice, chiar și muzică. „Un limbaj nou, vast și puternic este dezvoltat pentru viitoarea utilizare a analizei”, a scris ea. Lovelace a devenit o expertă în funcționarea mașinii propuse și este adesea numită primul programator.

În 1936, matematicianul englez Alan Turing a introdus ideea unui computer care își putea rescrie propriile instrucțiuni, făcându-l astfel programabil la nesfârșit. Abstracția sa matematică putea, folosind un mic vocabular de operații, să imite o mașină de orice complexitate, ceea ce i-a adus numele de „mașină universală Turing”.

Primul calculator electronic digital fiabil, Colossus, a fost finalizat în 1943 pentru a ajuta Anglia să descifreze codurile din timpul războiului. Acesta folosea tuburi cu vid – dispozitive pentru controlul fluxului de electroni – în locul unor piese mecanice în mișcare, precum roțile dințate ale Motorului Analitic. Acest lucru a făcut ca Colossus să fie rapid, dar inginerii trebuiau să îl reconecteze manual de fiecare dată când doreau să îndeplinească o nouă sarcină.

Poate inspirată de conceptul lui Turing de a avea un calculator mai ușor de reprogramat, echipa care a creat primul calculator electronic digital al Statelor Unite, ENIAC, a elaborat o nouă arhitectură pentru succesorul său, EDVAC. Matematicianul John von Neumann, care a elaborat proiectul EDVAC în 1945, a descris un sistem care putea stoca programe în memorie alături de date și putea modifica programele, o configurație numită în prezent arhitectura von Neumann. Aproape toate computerele de astăzi urmează această paradigmă.

În 1947, cercetătorii de la Bell Telephone Laboratories au inventat tranzistorul, o piesă de circuit în care aplicarea unei tensiuni (presiune electrică) sau a unui curent controlează fluxul de electroni între două puncte. Acesta a venit să înlocuiască tuburile cu vid, mai lente și mai puțin eficiente.

În 1958 și 1959, cercetătorii de la Texas Instruments și Fairchild Semiconductor au inventat, în mod independent, circuitele integrate, în care tranzistorii și circuitele de susținere a acestora au fost fabricate pe un cip într-un singur proces.

Multă vreme, doar experții puteau programa computerele. Apoi, în 1957, IBM a lansat FORTRAN, un limbaj de programare care era mult mai ușor de înțeles. Acesta este utilizat și astăzi. În 1981, compania a prezentat IBM PC, iar Microsoft a lansat sistemul său de operare numit MS-DOS, extinzând împreună raza de acțiune a computerelor în case și birouri. Apple a personalizat și mai mult informatica prin sistemele de operare pentru Lisa, în 1982, și Macintosh, în 1984. Ambele sisteme au popularizat interfețele grafice cu utilizatorul, sau GUI, oferind utilizatorilor un cursor de mouse în loc de o linie de comandă.

imagine alb-negru a două femei care operează Colossus la Bletchley Park
Colossus, primul calculator electronic programabil fiabil din lume, a ajutat forțele de informații britanice să descifreze coduri în cel de-al Doilea Război Mondial.Bletchley Park Trust/SSPL/Getty Images

Între timp, cercetătorii au lucrat pentru a transforma modul în care oamenii comunică între ei. În 1948, matematicianul american Claude Shannon a publicat „O teorie matematică a comunicării”, care a popularizat cuvântul bit (pentru cifra binară) și a pus bazele teoriei informației. Ideile sale au modelat calculul și, în special, schimbul de date prin cabluri și prin aer. În 1969, Agenția americană pentru proiecte de cercetare avansată a creat o rețea de calculatoare numită ARPANET, care ulterior a fuzionat cu alte rețele pentru a forma internetul. Iar în 1990, cercetătorii de la CERN – un laborator european de lângă Geneva – au elaborat reguli de transmitere a datelor care aveau să devină fundamentul World Wide Web.

Aceste progrese tehnologice au făcut posibil ca oamenii să lucreze, să se joace și să se conecteze în moduri care continuă să se schimbe într-un ritm amețitor. Dar cât de mult mai bine pot deveni procesoarele? Cât de inteligenți pot deveni algoritmii? Și ce fel de beneficii și pericole ar trebui să ne așteptăm să vedem pe măsură ce tehnologia avansează? Stuart Russell, un informatician de la Universitatea din California, Berkeley, coautor al unui manual popular despre inteligența artificială, vede un mare potențial pentru computere în „extinderea creativității artistice, accelerarea științei, servind ca asistenți personali sârguincioși, conducând mașini și – sper – fără să ne ucidă”.

Urmărind viteza

Calculatoarele, în cea mai mare parte, vorbesc limba biților. Ele stochează informațiile – fie că este vorba de muzică, de o aplicație sau de o parolă – în șiruri de 1 și 0. De asemenea, ele procesează informațiile în mod binar, trecând tranzistorii între o stare „pornit” și una „oprit”. Cu cât un computer are mai mulți tranzistori, cu atât mai repede poate procesa biții, făcând posibile toate tipurile de aplicații, de la jocuri video mai realiste până la un control mai sigur al traficului aerian.

Combinarea tranzistoarelor formează unul dintre elementele constitutive ale unui circuit, numit poartă logică. O poartă logică ȘI, de exemplu, este activată dacă ambele intrări sunt activate, în timp ce o poartă logică OR este activată dacă cel puțin o intrare este activată. Împreună, porțile logice compun un model complex de trafic de electroni, manifestarea fizică a calculului. Un cip de calculator poate conține milioane de porți logice.

Așadar, cu cât sunt mai multe porți logice și, prin extensie, cu cât sunt mai mulți tranzistori, cu atât este mai puternic calculatorul. În 1965, Gordon Moore, cofondator al Fairchild Semiconductor și mai târziu al Intel, a scris un articol despre viitorul cipurilor intitulat „Cramming More Components onto Integrated Circuits” (Înghesuirea mai multor componente pe circuitele integrate). Din 1959 până în 1965, a observat el, numărul de componente (în principal tranzistori) înghesuite pe circuite integrate (cipuri) s-a dublat în fiecare an. El se aștepta ca această tendință să continue.

Într-o conferință din 1975, Moore a identificat trei factori care stau la baza acestei creșteri exponențiale: tranzistori mai mici, cipuri mai mari și „inteligența dispozitivelor și a circuitelor”, cum ar fi mai puțin spațiu irosit. El se aștepta ca dublarea să aibă loc la fiecare doi ani. Așa s-a întâmplat și a continuat să se întâmple timp de zeci de ani. Această tendință se numește acum legea lui Moore.

Legea lui Moore a fost concepută ca o observație despre economie. Întotdeauna vor exista stimulente pentru a face computerele mai rapide și mai ieftine – dar, la un moment dat, intervine fizica. Dezvoltarea cipurilor nu poate ține pasul cu legea lui Moore la nesfârșit, deoarece devine mai dificil să faci tranzistorii mai mici. Conform a ceea ce se numește în glumă a doua lege a lui Moore, costul fabricării cipurilor se dublează la fiecare câțiva ani. Compania de semiconductori TSMC se pare că ia în considerare construirea unei fabrici care va costa 25 de miliarde de dolari.

În prezent, legea lui Moore nu mai este valabilă; dublarea are loc într-un ritm mai lent. Continuăm să stoarcem mai mulți tranzistori pe cipuri cu fiecare generație, dar generațiile vin mai rar. Cercetătorii analizează mai multe căi de progres: tranzistori mai buni, cipuri mai specializate, noi concepte de cipuri și hack-uri software.

„Am stors, credem noi, tot ce se poate stoarce” din arhitectura actuală a tranzistorilor, numită FinFET, spune Sanjay Natarajan, care conduce proiectarea tranzistorilor la Intel. În următorii câțiva ani, producătorii de cipuri vor începe să producă tranzistori în care un element cheie seamănă cu o panglică în loc de o aripioară, ceea ce va face ca dispozitivele să fie mai rapide și să necesite mai puțină energie și spațiu.

Chiar dacă Natarajan are dreptate și dacă tranzistorii se apropie de limita minimă a dimensiunii lor, computerele mai au încă multă marjă de manevră pentru a se îmbunătăți, prin „inteligența dispozitivelor și circuitelor” lui Moore. Dispozitivele electronice de astăzi conțin multe tipuri de acceleratoare – cipuri concepute pentru scopuri speciale, cum ar fi inteligența artificială, grafica sau comunicațiile – care pot executa sarcinile prevăzute mai rapid și mai eficient decât unitățile de procesare de uz general.

Unele tipuri de acceleratoare ar putea folosi într-o zi calculul cuantic, care valorifică două caracteristici ale domeniului subatomic (SN: 7/8/17 & 7/22/17, p. 28). Prima este superpoziția, în care particulele pot exista nu doar într-o stare sau alta, ci într-o anumită combinație de stări până când starea este măsurată în mod explicit. Astfel, un sistem cuantic reprezintă informația nu ca biți, ci ca qubiți, care pot păstra posibilitatea de a fi fie 0, fie 1 atunci când sunt măsurați. Al doilea este entanglementul, interdependența dintre elementele cuantice îndepărtate. Împreună, aceste caracteristici înseamnă că un sistem de qubiți poate reprezenta și evalua exponențial mai multe posibilități decât există qubiți – toate combinațiile de 1 și 0 simultan.

Qubiții pot lua mai multe forme, dar una dintre cele mai populare este sub formă de curent în firele supraconductoare. Aceste fire trebuie să fie menținute la o fracțiune de grad peste zero absolut, în jur de -273° Celsius, pentru a împiedica atomii fierbinți și zdruncinători să interfereze cu superpozițiile delicate și încurcăturile qubiților. Calculatoarele cuantice au nevoie, de asemenea, de mai mulți qubiți fizici pentru a forma un qubit „logic” sau efectiv, redundanța acționând ca o corecție a erorilor (SN: 11/6/21, p. 8).

Calculatoarele cuantice au mai multe aplicații potențiale: învățarea automată, optimizarea unor lucruri precum programarea trenurilor și simularea mecanicii cuantice din lumea reală, ca în chimie. Dar este puțin probabil ca acestea să devină calculatoare de uz general. Nu este clar cum ați putea folosi unul pentru a rula, de exemplu, un procesor de text.

Noi concepte de cipuri

Există în continuare noi modalități de a accelera în mod dramatic nu doar acceleratoarele specializate, ci și cipurile de uz general. Tom Conte, un informatician de la Georgia Tech din Atlanta care conduce IEEE Rebooting Computing Initiative, indică două paradigme. Prima este supraconducția, în care cipurile funcționează la o temperatură suficient de scăzută pentru a elimina rezistența electrică.

A doua paradigmă este calculul reversibil, în care biții sunt reutilizați în loc să fie expulzați sub formă de căldură. În 1961, fizicianul Rolf Landauer de la IBM a îmbinat teoria informației și termodinamica, fizica căldurii. El a observat că, atunci când o poartă logică primește doi biți și scoate unul, distruge un bit, expulzându-l sub formă de entropie, sau aleator, sub formă de căldură. Atunci când miliarde de tranzistori funcționează la miliarde de cicluri pe secundă, căldura irosită se acumulează, iar mașina are nevoie de mai multă energie electrică pentru calcul și răcire. Michael Frank, un informatician de la Sandia National Laboratories din Albuquerque care lucrează la calculul reversibil, a scris în 2017: „Un computer convențional este, în esență, un încălzitor electric scump care se întâmplă să efectueze o cantitate mică de calcul ca efect secundar.”

Dar în calculul reversibil, porțile logice au la fel de multe ieșiri ca și intrări. Acest lucru înseamnă că, dacă ați rula poarta logică în sens invers, ați putea folosi, să zicem, trei biți de ieșire pentru a obține trei biți de intrare. Unii cercetători au conceput porți și circuite logice reversibile care ar putea nu numai să salveze acești biți de ieșire în plus, ci și să îi recicleze pentru alte calcule. Fizicianul Richard Feynman a ajuns la concluzia că, în afară de pierderea de energie în timpul transmiterii datelor, nu există nicio limită teoretică pentru eficiența calculatoarelor.

Combinați calculul reversibil și cel supraconductor, spune Conte, și „obțineți o dublă lovitură”. Calculul eficient vă permite să executați mai multe operații pe același cip fără să vă faceți griji cu privire la consumul de energie sau la generarea de căldură. Conte spune că, în cele din urmă, una sau ambele metode „vor fi probabil coloana vertebrală a unei mari părți a calculului”.

Hack-uri software

Cercetătorii continuă să lucreze la o cornucopia de noi tehnologii pentru tranzistori, alte elemente de calcul, modele de cipuri și paradigme hardware: fotonică, spintronică, biomolecule, nanotuburi de carbon. Dar încă se poate scoate mult mai mult din elementele și arhitecturile actuale doar prin simpla optimizare a codului.

Într-o lucrare din 2020 în Science, de exemplu, cercetătorii au studiat problema simplă a înmulțirii a două matrici, grile de numere utilizate în matematică și în învățarea automată. Calculul a rulat de peste 60.000 de ori mai repede atunci când echipa a ales un limbaj de programare eficient și a optimizat codul pentru hardware-ul de bază, în comparație cu un cod standard în limbajul Python, considerat ușor de utilizat și ușor de învățat.

Neil Thompson, un cercetător științific de la MIT care a fost coautor al lucrării în Știință, a fost recent coautor al unui articol care analizează îmbunătățirile istorice ale algoritmilor, seturi de instrucțiuni care iau decizii în conformitate cu reguli stabilite de oameni, pentru sarcini precum sortarea datelor. „Pentru o minoritate substanțială de algoritmi”, spune el, „progresul lor a fost la fel de rapid sau mai rapid decât legea lui Moore”.

Oamenii, inclusiv Moore, au prezis sfârșitul legii lui Moore timp de decenii. Progresul poate că a încetinit, dar inovația umană a făcut ca tehnologia să avanseze rapid.

Urmărind inteligența

Încă din primele zile ale informaticii, cercetătorii au urmărit să reproducă gândirea umană. Alan Turing a început o lucrare din 1950 intitulată „Computing Machinery and Intelligence” cu: „Îmi propun să analizez întrebarea: „Pot gândi mașinile?”? ” El a continuat să prezinte un test, pe care l-a numit „jocul imitației” (numit în prezent testul Turing), în care un om care comunica cu un computer și cu un alt om prin intermediul unor întrebări scrise trebuia să judece care dintre ei era care. Dacă judecătorul nu reușea, se presupune că computerul putea gândi.

Termenul „inteligență artificială” a fost inventat în 1955 într-o propunere pentru un institut de vară la Dartmouth College. „Se va încerca”, se spune în propunere, „să se găsească o modalitate de a face mașinile să folosească limbajul, să formeze abstracțiuni și concepte, să rezolve tipuri de probleme rezervate acum oamenilor și să se îmbunătățească pe ele însele”. Organizatorii se așteptau ca, în decurs de două luni, cei 10 participanți la summit să facă un „progres semnificativ”.

După mai bine de șase decenii și nenumărate ore de muncă mai târziu, nu este clar dacă progresele se ridică la înălțimea a ceea ce s-a avut în vedere la acel summit de vară. Inteligența artificială ne înconjoară în moduri invizibile (filtrarea spam-ului), demne de titluri (mașini care se conduc singure, care ne înving la șah) și între ele (permițându-ne să vorbim cu smartphone-urile noastre). Dar toate acestea sunt forme înguste de inteligență artificială, care îndeplinesc bine una sau două sarcini. Ceea ce Turing și alții aveau în minte se numește inteligență generală artificială, sau AGI. În funcție de definiție, este un sistem care poate face majoritatea lucrurilor pe care le fac oamenii.

fotografie cu Garry Kasparov mutând o piesă pe o tablă de șah în timpul meciului împotriva lui Deep Blue
Campionul mondial de șah Garry Kasparov a învins supercomputerul IBM Deep Blue într-un meci din 1996 (în imagine). Dar calculatorul a câștigat într-o revanșă din 1997.Tom Mihalek/AFP via Getty Images

Este posibil să nu ajungem niciodată la AGI, dar calea a dus și va duce la o mulțime de inovații utile pe parcurs. „Cred că am făcut multe progrese”, spune Doina Precup, informatician la Universitatea McGill din Montreal și șef al echipei de cercetare din Montreal a companiei de inteligență artificială DeepMind. „Dar unul dintre lucrurile care, după părerea mea, încă lipsește în acest moment este o mai bună înțelegere a principiilor care sunt fundamentale în inteligență.”

IA a făcut mari progrese în ultimul deceniu, în mare parte datorită învățării automate. Anterior, computerele se bazau mai mult pe IA simbolică, care utilizează algoritmi bazați pe reguli stabilite de oameni. Programele de învățare automată, pe de altă parte, procesează datele pentru a găsi modele pe cont propriu. O formă utilizează rețele neuronale artificiale, un software cu straturi de elemente de calcul simple care, împreună, imită anumite principii ale creierelor biologice. Rețelele neuronale cu mai multe sau chiar mai multe straturi sunt populare în prezent și alcătuiesc un tip de învățare automată numit învățare profundă.

Sistemele de învățare în profunzime pot juca în prezent jocuri precum șah și Go mai bine decât cel mai bun om. Probabil că pot identifica rasele de câini din fotografii mai bine decât tine. Ele pot traduce texte dintr-o limbă în alta. Ele pot controla roboți, pot compune muzică și pot prezice cum se vor plia proteinele.

Dar le lipsește, de asemenea, o mare parte din ceea ce se încadrează sub termenul general de bun simț. Ei nu înțeleg lucruri fundamentale despre cum funcționează lumea, din punct de vedere fizic sau social. Modificarea ușoară a imaginilor într-un mod pe care tu sau eu nu l-am putea observa, de exemplu, poate afecta dramatic ceea ce vede un computer. Cercetătorii au descoperit că plasarea câtorva autocolante inofensive pe un semn de oprire poate determina software-ul să interpreteze semnul ca fiind un semn de limitare a vitezei, o problemă evidentă pentru mașinile care se conduc singure.

imagine a unui semn de oprire cu autocolante pe care scrie "Love" și "Hate" deasupra și dedesubtul cuvântului "Stop"
Chiar și cu autocolantele prezentate, un om ar recunoaște acest semn ca fiind un semn de oprire. Dar, atunci când a fost testat, un algoritm al unei mașini care se conduce singură nu a făcut acest lucru.K. Eykholt și alții/arxiv.org 2018

Tipuri de învățare

Cum se poate îmbunătăți IA? Oamenii de știință din domeniul informaticii folosesc mai multe forme de învățare automată, indiferent dacă învățarea este „profundă” sau nu. O formă obișnuită se numește învățare supravegheată, în care sistemele de învățare automată sau modelele sunt antrenate prin alimentarea cu date etichetate, cum ar fi imagini de câini și numele rasei acestora. Dar acest lucru necesită mult efort uman pentru a le eticheta. O altă abordare este învățarea nesupravegheată sau autosupravegheată, în care computerele învață fără să se bazeze pe etichete exterioare, așa cum noi doi putem prezice cum va arăta un scaun din diferite unghiuri pe măsură ce ne plimbăm pe lângă el.

Un alt tip de învățare automată este învățarea prin întărire, în care un model interacționează cu un mediu, explorând secvențe de acțiuni pentru a atinge un obiectiv. Învățarea prin întărire a permis inteligenței artificiale să devină expertă în jocuri de societate precum Go și în jocuri video precum StarCraft II.

Pentru a învăța eficient, mașinile (și oamenii) trebuie să generalizeze, să extragă principii abstracte din experiențe. „O mare parte din inteligență”, spune Melanie Mitchell, cercetător în domeniul informaticii la Institutul Santa Fe din New Mexico, „constă în capacitatea de a lua cunoștințele proprii și de a le aplica în diferite situații.” O mare parte din munca ei implică analogii, în formă rudimentară: găsirea de asemănări între șiruri de litere. În 2019, cercetătorul în domeniul inteligenței artificiale François Chollet de la Google a creat un fel de test de IQ pentru mașini numit Abstraction and Reasoning Corpus, sau ARC, în care computerele trebuie să completeze modele vizuale în conformitate cu principiile demonstrate în modelele de exemplu. Puzzle-urile sunt ușoare pentru oameni, dar, până acum, provocatoare pentru mașini.

O mare parte din gândirea noastră abstractă, în mod ironic, poate fi întemeiată pe experiențele noastre fizice. Folosim metafore conceptuale precum important = mare și argument = forțe opuse. Pentru a realiza o AGI care să poată face majoritatea lucrurilor pe care le pot face oamenii ar putea fi nevoie de încorporare, cum ar fi operarea cu un robot fizic. Cercetătorii au combinat învățarea limbajului și robotica prin crearea unor lumi virtuale în care roboții virtuali învață simultan să urmeze instrucțiuni și să navigheze într-o casă.

GPT-3 este un model de limbaj instruit lansat în 2020 de laboratorul de cercetare Open AI care a arătat că limbajul fără corp poate să nu fie suficient. Cu ajutorul unor indicații, acesta poate scrie articole de știri, povestiri scurte și poezii asemănătoare cu cele umane. Dar, într-un demo, a scris: „Este nevoie de două curcubee pentru a sări din Hawaii la șaptesprezece”.

„M-am jucat mult cu el”, spune Mitchell. „Face lucruri incredibile. Dar poate face și niște greșeli incredibil de stupide.”

AGI ar putea necesita, de asemenea, alte aspecte ale naturii noastre animale, cum ar fi emoțiile, mai ales dacă oamenii se așteaptă să interacționeze cu mașinile în moduri naturale. Emoțiile nu sunt simple reacții iraționale. Le-am evoluat pentru a ne ghida impulsurile și comportamentele. Potrivit lui Ilya Sutskever, cofondator și cercetător șef la OpenAI, ele „ne dau acest plus de înțelepciune”. Chiar dacă inteligența artificială nu are aceleași sentimente conștiente ca și noi, ar putea avea un cod care să se apropie de frică sau de furie. Deja, învățarea prin întărire include un element de explorare asemănător curiozității.

imagine a unei femei care lucrează cu robotul iCub
Robotul umanoid iCub a devenit un instrument de cercetare în laboratoarele din întreaga lume pentru studierea cogniției umane și a inteligenței artificiale.Philippe Psaila/Sursa Știință

Oamenii nu sunt niște tablă albă. Ne naștem cu anumite predispoziții pentru a recunoaște fețele, a învăța limbajul și a ne juca cu obiectele. Sistemele de învățare automată necesită, de asemenea, tipul potrivit de structură înnăscută pentru a învăța rapid anumite lucruri. Cât de multă structură și de ce fel este o chestiune intens dezbătută. Sutskever spune că construirea în modul în care gândim este „seducătoare din punct de vedere intelectual”. Cu toate acestea, „ne dorim cea mai bună tabula rasa”.

O structură generală a rețelei neuronale care îi place lui Sutskever se numește transformator, o metodă pentru a acorda o mai mare atenție relațiilor importante dintre elementele unei intrări. Aceasta se află în spatele modelelor lingvistice actuale, cum ar fi GPT-3, și a fost, de asemenea, aplicată la analiza imaginilor, audio și video. „Face totul mai bun”, spune el.

Gândire despre gândire

Inteligența artificială însăși ne poate ajuta să descoperim noi forme de inteligență artificială. Există un set de tehnici numite AutoML, în care algoritmii ajută la optimizarea arhitecturilor rețelelor neuronale sau a altor aspecte ale modelelor de inteligență artificială. De asemenea, IA ajută arhitecții de cipuri să proiecteze circuite integrate mai bune. Anul trecut, cercetătorii de la Google au raportat în Nature că învățarea prin întărire a avut rezultate mai bune decât echipa lor internă în ceea ce privește stabilirea unor aspecte ale unui cip de accelerator pe care l-au proiectat.

Sosirea AGI ar putea fi la zeci de ani distanță. „Nu ne înțelegem propria inteligență”, spune Mitchell, deoarece o mare parte din ea este inconștientă. „Și, prin urmare, nu știm ce va fi greu sau ușor pentru AI”. Ceea ce pare greu poate fi ușor și viceversa – un fenomen cunoscut sub numele de paradoxul lui Moravec, după numele roboticianului Hans Moravec. În 1988, Moravec scria: „este relativ ușor să faci computerele să aibă performanțe de nivel adult în rezolvarea problemelor la testele de inteligență sau în jocul de dame, și dificil sau imposibil să le oferi abilitățile unui copil de un an în ceea ce privește percepția și mobilitatea”. Bebelușii sunt, în secret, geniali. În scopul AGI, spune Precup, „înțelegem, de asemenea, mai multe despre inteligența umană și despre inteligența în general”.

Turing făcea diferența între inteligența generală și inteligența asemănătoare cu cea umană. În lucrarea sa din 1950 despre jocul de imitație, el a scris: „Nu pot mașinile să efectueze ceva ce ar trebui descris ca fiind gândire, dar care este foarte diferit de ceea ce face un om?”. Ideea lui: nu este nevoie să gândești ca o persoană pentru a avea inteligență autentică.

Lupta cu etica

În povestirea „Runaround” din 1942, unul dintre personajele lui Isaac Asimov a enumerat „cele trei reguli fundamentale ale roboticii”. Roboții evitau să provoace sau să permită răul oamenilor, se supuneau ordinelor și se protejau pe ei înșiși, atâta timp cât respectarea unei reguli nu intra în conflict cu decretele precedente.

S-ar putea să ne imaginăm „creierele pozitronice” ale lui Asimov luând decizii autonome cu privire la răul provocat oamenilor, dar nu acesta este de fapt modul în care computerele ne afectează bunăstarea în fiecare zi. În loc de roboți umanoizi care omoară oameni, avem algoritmi care se ocupă de redactarea știrilor. Pe măsură ce computerele se infiltrează și mai mult în viețile noastre, va trebui să ne gândim mai bine la ce tipuri de sisteme să construim și cum să le implementăm, precum și la meta-probleme precum cum să decidem – și cine ar trebui să decidă – aceste lucruri.

Acesta este domeniul eticii, care poate părea îndepărtat de presupusa obiectivitate a matematicii, științei și ingineriei. Dar decizia cu privire la ce întrebări să punem despre lume și ce instrumente să construim a depins întotdeauna de idealurile și scrupulele noastre. Studierea unui subiect abscons precum măruntaiele atomilor, de exemplu, are o legătură clară atât cu energia, cât și cu armamentul. „Există faptul fundamental că sistemele de calculatoare nu sunt neutre din punct de vedere al valorilor”, spune cercetătorul în informatică Barbara Grosz de la Universitatea Harvard, „că atunci când le proiectezi, aduci un anumit set de valori în această proiectare”.

Un subiect care a primit multă atenție din partea oamenilor de știință și a specialiștilor în etică este cel al corectitudinii și al prejudecăților. Algoritmii informează din ce în ce mai mult sau chiar dictează deciziile privind angajarea, admiterea la facultate, împrumuturile și eliberarea condiționată. Chiar dacă discriminează mai puțin decât o fac oamenii, ei pot totuși să trateze anumite grupuri în mod incorect, nu în mod intenționat, ci deseori pentru că sunt antrenați pe date părtinitoare. De exemplu, ar putea prezice viitorul comportament infracțional al unei persoane pe baza arestărilor anterioare, chiar dacă diferite grupuri sunt arestate în proporții diferite pentru un anumit număr de infracțiuni.

Și, în mod confuz, există mai multe definiții ale corectitudinii, cum ar fi rate egale de fals-pozitive între grupuri sau rate egale de fals-negative între grupuri. Un cercetător la o conferință a enumerat 21 de definiții. Iar definițiile intră adesea în conflict. Într-o lucrare, cercetătorii au arătat că, în majoritatea cazurilor, este imposibil din punct de vedere matematic să se satisfacă simultan trei definiții comune.

O altă preocupare este legată de confidențialitate și supraveghere, având în vedere că, în prezent, computerele pot aduna și sorta informații despre utilizarea lor într-un mod de neimaginat până acum. Datele privind comportamentul nostru online pot ajuta la prezicerea unor aspecte ale vieții noastre private, cum ar fi sexualitatea. De asemenea, recunoașterea facială ne poate urmări în lumea reală, ajutând poliția sau guvernele autoritare. Iar domeniul emergent al neurotehnologiei testează deja modalități de conectare a creierului direct la computere (SN: 2/13/21, p. 24). Legat de confidențialitate este securitatea – hackerii pot accesa date care sunt blocate sau pot interfera cu stimulatoarele cardiace și vehiculele autonome.

Calculatoarele pot permite, de asemenea, înșelăciunea. Inteligența artificială poate genera conținut care pare real. Modelele lingvistice ar putea fi utilizate pentru a umple internetul cu știri false și materiale de recrutare pentru grupurile extremiste (SN: 5/8/21 & 5/22/21, p. 22). Rețelele adversative generative, un tip de învățare profundă care poate genera conținut realist, pot ajuta artiștii sau crea deepfakes, imagini sau videoclipuri care arată oameni care fac lucruri pe care nu le-au făcut niciodată (SN: 9/15/18, p. 12).

Pe rețelele de socializare, trebuie să ne îngrijorăm și de polarizarea opiniilor sociale, politice și de altă natură ale oamenilor. În general, algoritmii de recomandare optimizează implicarea (și profitul platformelor prin publicitate), nu discursul civilizat. Algoritmii ne pot manipula și în alte moduri. Robo-consilierii – roboți de chat pentru a oferi sfaturi financiare sau pentru a oferi asistență pentru clienți – ar putea învăța să știe de ce avem cu adevărat nevoie sau să ne forțeze butoanele și să ne vândă în plus produse străine.

Mai multe țări dezvoltă arme autonome care au potențialul de a reduce numărul victimelor civile, precum și de a escalada conflictele mai repede decât pot reacționa cei care le gestionează. Punerea armelor sau a rachetelor în mâinile roboților trezește spectrul SF al Terminatorilor care încearcă să elimine omenirea. S-ar putea ca aceștia să nu acționeze chiar cu intenții rele, motivând în mod fals că ajută omenirea prin eliminarea cancerului uman (un exemplu de lipsă de bun simț). Pe termen mai apropiat, sistemele automate care se dezlănțuie în lumea reală au provocat deja prăbușiri bruște pe piața bursieră și salturi bruște și mari ale prețurilor cărților pe Amazon. Dacă AI-urile sunt însărcinate să ia decizii de viață și de moarte, ele se confruntă atunci cu faimoasa problemă a troleibuzului, hotărând pe cine sau ce să sacrifice atunci când nu toată lumea poate câștiga. Aici intrăm pe teritoriul lui Asimov.

Sunt multe motive de îngrijorare. Russell, de la UC Berkeley, sugerează unde ar trebui să se afle prioritățile noastre: „Armele autonome letale sunt o problemă urgentă, deoarece este posibil ca oamenii să fi murit deja și, după cum merg lucrurile, este doar o chestiune de timp până la un atac în masă”, spune el. „Partizanatul și dependența de social media și polarizarea sunt ambele, fără îndoială, cazuri de eșec al alinierii valorilor între algoritmi și societate, așa că ne dau avertismente timpurii despre cum lucrurile pot merge ușor prost.”

Există, de asemenea, întrebări sociale, politice și juridice cu privire la modul de gestionare a tehnologiei în societate. Cine ar trebui să fie tras la răspundere atunci când un sistem de inteligență artificială provoacă daune? (De exemplu, mașinile „confuze” care se conduc singure au ucis oameni.) Cum putem asigura un acces mai egal la instrumentele de inteligență artificială și la beneficiile acestora și cum ne putem asigura că acestea nu discriminează grupuri sau persoane? Cum va afecta ocuparea forței de muncă automatizarea continuă a locurilor de muncă? Putem gestiona impactul asupra mediului al centrelor de date, care utilizează multă energie electrică? Ar trebui să folosim cu precădere algoritmi explicabili – mai degrabă decât cutiile negre ale multor rețele neuronale – pentru o mai mare încredere și debugging, chiar dacă acest lucru face ca algoritmii să fie mai slabi la predicție?

Ce se poate face

Michael Kearns, un informatician de la Universitatea din Pennsylvania și coautor al cărții din 2019 The Ethical Algorithm (Algoritmul etic), plasează problemele pe un spectru de gestionabilitate. La un capăt se află ceea ce se numește confidențialitate diferențiată, capacitatea de a adăuga zgomot la un set de date, de exemplu, fișe medicale, astfel încât acesta să poată fi partajat în mod util cu cercetătorii fără a dezvălui prea multe despre fișele individuale. În prezent, putem oferi garanții matematice cu privire la cât de private ar trebui să rămână datele individuale.

Undeva la mijlocul spectrului se află corectitudinea în învățarea automată. Cercetătorii au dezvoltat metode pentru a crește corectitudinea prin eliminarea sau modificarea datelor de instruire părtinitoare sau pentru a maximiza anumite tipuri de egalitate – în cazul împrumuturilor, de exemplu – minimizând în același timp reducerea profitului. Cu toate acestea, unele tipuri de echitate vor fi pentru totdeauna în conflict reciproc, iar matematica nu ne poate spune care dintre ele ne dorim.

La capătul cel mai îndepărtat se află explicabilitatea. Spre deosebire de corectitudine, care poate fi analizată matematic în multe feluri, calitatea unei explicații este greu de descris în termeni matematici. „Am impresia că nu am văzut încă o singură definiție bună”, spune Kearns. „Ați putea spune: „Iată un algoritm care va lua o rețea neuronală antrenată și va încerca să explice de ce v-a respins pentru un împrumut”, dar [the explanation] nu pare să aibă principii”. În cele din urmă, dacă publicul nu o înțelege, nu este o explicație bună, iar măsurarea succesului acesteia – indiferent cum definiți succesul – necesită studii de utilizator.

Ceva de genul celor trei legi ale lui Asimov nu ne va salva de roboții care ne fac rău în timp ce încearcă să ne ajute. Și chiar dacă lista ar fi extinsă la un milion de legi, litera unei legi nu este identică cu spiritul ei. O posibilă soluție este ceea ce se numește învățarea inversă de întărire, în care computerele ar putea învăța să descifreze ceea ce prețuim cu adevărat pe baza comportamentului nostru.

fotografie a două rânduri de drone STM Kargu într-un depozit
Existența unor arme autonome letale, precum aceste drone STM Kargu fabricate în Turcia, a determinat experții să ceară interzicerea dispozitivelor care pot lansa atacuri fără intervenție umană.Mehmet Kaman/Anadolu Agency via Getty Images

Inginer, vindecă-te pe tine însuți

În povestirea „Conflictul inevitabil” din 1950, Asimov a formulat ceea ce a devenit „legea zero”, o lege care să le înlocuiască pe toate celelalte: „Un robot nu poate face rău umanității sau, prin inacțiune, să permită ca umanitatea să fie afectată”. Ar trebui să fie de la sine înțeles că această regulă ar trebui să se aplice cu „roboticist” în loc de „robot”. Cu siguranță, mulți oameni de știință din domeniul informaticii evită să dăuneze umanității, dar mulți dintre ei nu se implică activ în implicațiile sociale ale muncii lor, permițând efectiv ca umanitatea să fie afectată, spune Margaret Mitchell, un om de știință din domeniul informaticii care a condus împreună cu echipa Ethical AI a Google și care în prezent oferă consultanță organizațiilor în materie de etică tehnologică. (Ea nu are nicio legătură cu informaticiana Melanie Mitchell).

Un obstacol, potrivit lui Grosz, de la Harvard, este că prea mulți cercetători nu sunt instruiți corespunzător în domeniul eticii. Dar ea speră să schimbe acest lucru. Grosz și filozoful Alison Simmons au început un program la Harvard numit Embedded EthiCS, în care asistenți de predare cu pregătire în filozofie sunt încorporați în cursuri de informatică și predau lecții despre confidențialitate, discriminare sau știri false. Programul s-a extins la MIT, Stanford și la Universitatea din Toronto.

„Încercăm să îi facem pe studenți să se gândească la valori și la compromisuri de valori”, spune Grosz. Două lucruri au impresionat-o. Primul este dificultatea pe care o au elevii în fața problemelor care nu au răspunsuri corecte și care necesită argumentarea unor anumite alegeri. Al doilea este, în ciuda frustrării lor, „cât de mult le pasă studenților de acest set de probleme”, spune Grosz.

O altă modalitate de a educa tehnologii cu privire la influența lor este de a lărgi colaborările. Potrivit lui Mitchell, „informatica trebuie să treacă de la a susține matematica ca fiind cea mai importantă și cea mai importantă, la a susține atât matematica, cât și științele sociale, precum și psihologia”. Cercetătorii ar trebui să atragă experți în aceste subiecte, spune ea.

Mergând în cealaltă direcție, spune Kearns, ei ar trebui, de asemenea, să împărtășească propria lor expertiză tehnică cu autoritățile de reglementare, avocații și factorii de decizie politică. În caz contrar, politicile vor fi atât de vagi încât vor fi inutile. Fără definiții specifice ale confidențialității sau corectitudinii scrise în lege, companiile pot alege ceea ce este mai convenabil sau mai profitabil.

Atunci când se evaluează modul în care un instrument va afecta o comunitate, cei mai buni experți sunt adesea chiar membrii comunității. Grosz pledează pentru consultarea cu diverse populații. Diversitatea ajută atât în cadrul studiilor privind utilizatorii, cât și în cadrul echipelor tehnologice. „Dacă nu ai în cameră oameni care gândesc diferit de tine”, spune Grosz, „diferențele pur și simplu nu sunt în fața ta. Dacă cineva spune că nu toți pacienții au un smartphone, bum, începi să te gândești diferit la ceea ce proiectezi.”

Potrivit lui Margaret Mitchell, „cea mai presantă problemă este diversitatea și incluziunea celor care se află la masă încă de la început. Toate celelalte probleme decurg de acolo”.