Inteligență artificială

inteligența mașinilor
(Redirecționat de la Inteligenta artificiala)

În informatică, inteligența artificială (IA) este inteligența mașinilor, spre deosebire de inteligența naturală de la oameni și animale. Informatica definește cercetarea IA ca studiu al „agenților inteligenți⁠(d)”: orice dispozitiv care își percepe mediul și efectuează acțiuni care maximizează șansa de a-și atinge cu succes obiectivele.[1][2] Mai exact, Kaplan și Haenlein definesc IA ca fiind „capacitatea unui sistem de a interpreta corect datele externe, de a învăța din astfel de date și de a folosi ceea ce a învățat pentru a-și atinge obiective și sarcini specifice printr-o adaptare flexibilă”.[3] Termenul „inteligență artificială” este utilizat colocvial pentru a descrie mașinile care imită funcțiile cognitive pe care le asociază oamenii cu alte minți umane, cum ar fi „învățarea” și „rezolvarea problemelor”.[4][5] Inteligența artificială implică dezvoltarea de algoritmi și modele care permit mașinilor să-și perceapă mediul, să își motiveze mediul și să facă acțiuni adecvate pentru a atinge obiective specifice. Acești algoritmi folosesc volume mari de date și tehnici avansate, cum ar fi învățarea automată, învățarea profundă, procesarea limbajului natural și viziunea computerizată.

Întrucât mașinile devin din ce în ce mai capabile, sarcinile considerate a necesita „inteligență” sunt deseori eliminate din definiția IA, un fenomen cunoscut sub numele de efectul IA⁠(d). O observație în teorema lui Tesler spune că „IA este ceea ce nu a fost încă făcut”.[6] De exemplu, recunoașterea optică a caracterelor este adesea exclusă din domeniul IA, după ce a devenit o tehnologie de rutină.[7] Capacitățile moderne ale mașinilor clasificate în general ca IA includ înțelegerea vorbirii umane,[8] concurarea la cel mai înalt nivel a unor sisteme de jocuri de strategie (cum ar fi șah și go),[9] autovehiculele autonome și rutarea inteligentă în rețelele de distribuție a conținutului, și simulările militare⁠(d).

Împrumutând din literatura de management, Kaplan și Haenlein clasifica inteligență artificială în trei tipuri diferite de sisteme IA: inteligență artificială analitică, inspirată de om, și umanizată.[3] IA analitică are doar unele caracteristici compatibile cu inteligența cognitivă; ea generează o reprezentare cognitivă a lumii și utilizează învățarea bazată pe experiențe anterioare pentru a informa deciziile viitoare. IA inspirată de om are elemente din inteligența cognitivă și emoțională; înțelegerea emoțiilor umane, în plus față de elementele cognitive, și luarea în considerare a acestora în luarea deciziilor. IA umanizată prezintă caracteristicile tuturor tipurilor de competențe (de exemplu, inteligența cognitivă, emoțională și socială⁠(d)), este capabilă să fie conștientă de sine atât ca atare, cât și în interacțiunile cu ceilalți.

Inteligența artificială a fost fondată ca disciplină academică în 1956, și de atunci a trecut mai multe valuri de optimism,[10][11] urmate de dezamăgiri și pierderi de fonduri (cunoscute sub numele de „ierni ale IA”),[12][13] urmate și ele de noi abordări, succes și reînnoirea finanțării.[11][14] Pentru cea mai mare parte a istoriei sale, cercetarea IA a fost împărțită în subdomenii care adesea nu au reușit să comunice între ele.[15] Aceste subdomenii se bazează pe considerații tehnice, cum ar fi obiective specifice (de exemplu, „robotica” sau „învățarea automată”),[16] utilizarea unor anumite instrumente („logica” sau rețele neurale artificiale) sau pe diferențe filosofice profunde.[17][18][19] Subdomeniile se bazau și pe factori sociali (anumite instituții sau activitatea anumitor cercetători). [15]

Printre problemele (sau obiectivele) tradiționale ale cercetării IA se numără raționamentul⁠(d), reprezentarea cunoștințelor⁠(d), planificarea⁠(d), învățarea, prelucrarea limbajului natural, percepția⁠(d) și capacitatea de a muta și manipula obiecte.[16] Inteligența generală se numără printre obiectivele pe termen lung ale domeniului.[20] Abordările includ metode statistice, inteligență computațională și IA simbolică tradițională. În AI se folosesc multe instrumente, între care versiuni de optimizare matematică și de căutare, rețele neurale artificiale și metode bazate pe statistici, probabilități și economie. Domeniul IA se bazează pe informatică, inginerie informațională⁠(d), matematică, psihologie, lingvistică, filozofie și multe alte domenii.

Domeniul a fost întemeiat pe afirmația că inteligența umană⁠(d) „poate fi descrisă atât de precis încât poate fi făcută o mașină pentru a o simula”.[21] Acest lucru ridică argumente filosofice cu privire la natura minții și la etica creării de ființe artificiale dotate cu inteligență umană, care sunt chestiuni care au fost explorate de mit⁠(d), ficțiune și filozofie⁠(d) încă din Antichitate.[22] Unii oameni consideră și că IA ar fi un pericol pentru omenire dacă progresează necontrolat.[23] Alții cred că, spre deosebire de revoluțiile tehnologice anterioare, IA va crea un risc de șomaj în masă⁠(d). [24]

În secolul al XXI-lea, tehnicile de IA au înregistrat o renaștere în urma unor progrese concomitente în puterea de calcul⁠(d), acumulării de cantități mari de date, și înțelegerii teoretice; iar tehnicile IA au devenit o parte esențială a industriei tehnologice⁠(d), ajutând la rezolvarea multor probleme dificile în domeniul informaticii, ingineriei software și cercetării operaționale⁠(d).[25][14]

Ființele artificiale capabile de gândire apăreau în antichitate ca tehnici narative[26] și au fost obișnuite în ficțiune, ca în Frankenstein al lui Mary Shelley sau RUR (Rossum's Universal Robots) al lui Karel Čapek.[27] Aceste personaje și destinul lor au ridicat multe din aceleași probleme discutate acum în etica inteligenței artificiale.[22]

Studiul raționamentului formal a început cu filozofii și matematicienii din Antichitate. Studiul logicii matematice a condus direct la teoria computației a lui Alan Turing, care sugera că o mașină, amestecând simboluri simple ca „0” și „1”, ar putea simula orice acțiune de deducție matematică posibilă. Această observație, că calculatoarele numerice pot simula orice proces de raționament formal, este cunoscută sub numele de teza Church-Turing.[28] Odată cu descoperirile concurente din neurobiologie, teoria informației și cibernetică, cercetătorii au luat în considerare posibilitatea creării unui creier electronic. Turing a sugerat că „dacă un om nu ar putea distinge între răspunsurile unei mașini și cele ale unui om, atunci mașina ar putea fi considerată «inteligentă»”.[29] Prima lucrare care este acum recunoscută în general ca fiind de IA a fost „neuronii artificiali” Turing-compleți⁠(d) ai lui McCullouch⁠(d) și Pitts⁠(d).[30]

Domeniul cercetării IA s-a născut la un workshop⁠(d) la Colegiul Dartmouth⁠(d) în 1956.[31] Participantii Allen Newell (CMU⁠(d)), Herbert Simon (CMU⁠(d)), John McCarthy (MIT), Marvin Minsky (MIT) și Arthur Samuel⁠(d) (IBM) au devenit fondatorii și liderii cercetarii IA.[32] Ei și studenții lor au produs programe pe care presa le-a descris ca fiind „uimitoare“:[33] calculatoarele învățau strategii de dame (c . 1954)[34] (și până în 1959 ajunseseră să joace mai bine decât media jucătorilor umani),[35] să rezolve probleme de algebră, să demonstreze teoreme logice (Logic Theorist⁠(d), prima rulare c. 1956) și să vorbească în engleză.[36] Până la mijlocul anilor 1960, cercetarea în SUA a fost finanțată în mare măsură de Departamentul Apărării,[37] și s-au înființat laboratoare în întreaga lume.[38] Fondatorii IA erau optimiști în privința viitorului: Herbert Simon prezicea: „mașinile vor fi capabile, în decurs de douăzeci de ani, să facă orice lucru poate face un om”. Marvin Minsky era de acord, scriind: „într-o generație... problema creării «inteligenței artificiale» va fi rezolvată substanțial”.[10]

Ei nu puteau însă identifica dificultatea unor sarcini rămase de realizat. Progresul a încetinit, iar în 1974, în urma criticii lui James Lighthill⁠(d)[39] și a presiunii continue a Congresului SUA de a finanța proiecte mai productive, guvernele american și britanic au întrerupt cercetarea exploratorie în IA. Următorii câțiva ani aveau mai târziu să fie numiți „iarna IA⁠(d)”,[12] o perioadă în care obținerea de finanțare pentru proiectele de IA era dificilă.

La începutul anilor 1980, cercetarea IA a fost revitalizată de succesul comercial al unor sisteme expert,[40] o formă de programe IA care simulau cunoștințele și abilitățile analitice ale experților umani. Până în 1985, piața pentru IA ajunsese la peste un miliard de dolari. În același timp, proiectul japonez de calculator de generația a cincea⁠(d) a inspirat guvernele american și britanic să reînceapă finanțarea cercetării academice.[11] Cu toate acestea, începând cu prăbușirea pieței de mașini Lisp⁠(d) în 1987, IA a căzut din nou în dizgrație începând o a doua pauză de durată.[13] IA și-a restaurat treptat reputația spre sfârșitul anilor 1990 și la începutul secolului al XXI-lea exploatând metodele matematice formale și găsind soluții specifice la probleme specifice. Această concentrare „îngustă” și „formală” a atenției a permis cercetătorilor să producă rezultate verificabile și să colaboreze cu alte domenii (cum ar fi statistica, economia și matematica).[41] Până în 2000, soluțiile dezvoltate de cercetătorii din domeniul IA erau folosite pe scară largă, deși în anii 1990 ele fuseseră rareori descrise drept „inteligență artificială”.[42] Mai mulți cercetători academici s-au îngrijorat însă că IA nu își mai urmărește obiectivul său de la origini, de a crea mașini versatile, pe deplin inteligente. Începând de prin 2002, ei au fondat subdomeniul inteligenței artificale generale („IAG”), care beneficia de câteva instituții bine finanțate la începutul anilor 2010.[43]

Deep learning a început să domine reperele din industrie în 2012 și a fost adoptat în tot domeniul.[44] Pentru multe sarcini specifice, alte metode au fost abandonate.[a] Succesul deep learningului s-a bazat atât pe progrese în domeniul hardware-ului (calculatoare mai rapide,[46] unități de prelucrare grafică, cloud computing[47]) și acces la mari cantități de date[48] (inclusiv seturi de date îngrijite,[47] cum ar fi ImageNet⁠(d)). Succesul deep learningului a dus la o enormă creștere a interesului și finanțării IA.[b] Cantitatea de cercetare în domeniul învățării automate (măsurată după publicații totale) a crescut cu 50% în anii 2015–2019.[49]

În 2016, problemele de corectitudine⁠(d) și de rea utilizare a tehnologiei au fost catapultate pe scena centrală a conferințelor de învățare automată, numărul de publicații a crescut mult, au apărut surse de finanțare și mulți cercetători și-au reorientat carierele către aceste subiecte. Problema alinierii⁠(d) a devenit un domeniu serios de studiu academic.[50]

Spre sfârșitul anilor 2010 și la începutul anilor 2020, companiile de IAG au început să livreze programe care au generat un interes enorm. În 2015, AlphaGo⁠(d), dezvoltat de DeepMind, l-a învins pe campionul mondial de Go⁠(d). Programul a fost învățat doar regulile jocului și și-a dezvoltat singur o strategie. GPT-3⁠(d) este un model de limbaj mare lansat în 2020 de OpenAI și capabil de a genera texte de bună calitate similare celor scrise de oameni.[51] Aceste programe, ca și altele, au inspirat un agresiv boom IA⁠(d), în care multe mari companii au început să investească miliarde în cercetarea IA. Conform AI Impacts, circa 50 de miliarde de dolari se investeau anual în „IA” la nivelul anului 2022 doar în SUA și circa 20% din noii absolvenți americani de informatică s-au specializat în „IA”.[52] În SUA, în 2022 existau circa 800.000 de locuri de muncă vacante având legătură cu IA.[53]

Elementele de bază

modificare

O IA tipică își analizează mediul și efectuează acțiuni care îi maximizează șansele de succes.[1] Funcția utilitate (sau obiectiv) dorită pentru o OA poate fi simplă („1 dacă IA câștigă jocul de go, 0 în caz contrar”) sau complexă („efectuează acțiuni matematic asemănătoare celor care au reușit în trecut”). Obiectivele pot fi definite explicit sau induse. Dacă IA este programată pentru „învățarea prin întărire⁠(d)”, obiectivele pot fi induse implicit prin recompensarea unor tipuri de comportament sau prin pedepsirea altora.[c] Alternativ, un sistem evolutiv poate induce scopuri prin folosirea unei funcții de fitness⁠(d) pentru a muta și replica în mod preferențial sistemele AI cu scoruri mari, similar cu modul în care animalele au evoluat pentru a-și dori în mod inerent anumite obiective, cum ar fi găsirea de alimente. [54] Unele sisteme AI, cum ar fi cel mai apropiat vecin, în loc de rațiune prin analogie, aceste sisteme nu au scopuri generale, cu excepția cazului în care scopurile sunt implicite în datele lor de instruire. [55] Astfel de sisteme pot fi încă evaluate, dacă sistemul non-goal este încadrat ca un sistem al cărui "scop" este de a-și îndeplini cu succes sarcina îngustă de clasificare. [56]

IA gravitează adesea în jurul utilizării algoritmilor. Un algoritm este un set de instrucțiuni neechivoce pe care un calculator mecanic le poate executa.[d] Un algoritm complex este adesea construit pe baza altor algoritmi mai simpli. Un exemplu simplu al unui algoritm este următoarea rețetă (optimă pentru primul jucător) la jocul de X și 0:[57]

  1. Dacă cineva „amenință” (adică are două pe rând), ocupă pătratul rămas. In caz contrar,
  2. dacă o mișcare „ramifică” pentru a crea două amenințări simultan, joacă această mișcare. În caz contrar,
  3. ocupă pătratul central dacă acesta este liber. În caz contrar,
  4. dacă adversarul a jucat într-un colț, ocupă colțul opus. În caz contrar,
  5. ocupă un colț gol dacă există unul. În caz contrar,
  6. ocupă orice pătrat gol.

Mulți algoritmi IA sunt capabili să învețe din date; se pot îmbunătăți prin învățarea unor noi euristici (strategii sau „reguli generale”, care au funcționat bine în trecut) sau pot scrie alți algoritmi. Unii dintre „învățăceii” descriși mai jos, între care rețelele bayesiene, arborii de decizie și cel mai apropiat vecin, ar putea teoretic (dacă dispun de date, timp și memorie infinite) să învețe să aproximeze orice funcție, inclusiv combinația de funcții matematice care ar descrie cel mai bine lumea. Prin urmare, acești cursanți ar putea să obțină toate cunoștințele posibile, luând în considerare toate ipotezele posibile și potrivindu-le cu datele. În practică, aproape niciodată nu se poate lua în considerare orice posibilitate, din cauza fenomenului de „explozie combinatorică⁠(d)”, în care timpul necesar pentru a rezolva o problemă crește exponențial. O mare parte din cercetarea de IA implică determinarea modului de identificare și de evitare a unei game largi de posibilități care sunt puțin probabil să fie benefice.[58][59] De exemplu, atunci când se vizualizează o hartă și se caută pentru cel mai scurt drum care duce de la Denver la New York, în cele mai multe cazuri, se poate sări peste orice drum prin San Francisco sau alte zone aflate mult la vest; astfel, o IA care utilizează un algoritm de trasare a traiectoriei ca A*⁠(d) poate evita explozia combinatorie care ar rezulta dacă ar trebui calculat fiecare traseu posibil în parte.[60]

Cea mai veche abordare de IA a fost simbolismul (cum ar fi logica formală): „Dacă un adult altfel sănătos are febră, atunci poate să aibă gripă”. O a doua abordare, mai generală, este inferența bayesiană: „Dacă pacientul curent are febră, ajustează probabilitatea ca acesta să aibă gripă așa sau așa”. Cea de-a treia abordare majoră, extrem de populară în aplicațiile de IA de afaceri de rutină, sunt analogizatori precum SVM⁠(d) și cel mai apropiat vecin⁠(d): „După examinarea înregistrărilor despre pacienți cunoscuți din trecut, a căror temperatură, simptome, vârstă și alți factori se potrivesc cel mai mult cu pacientul actual, acei pacienți s-au dovedit a avea gripă”. O a patra abordare este mai greu de înțeles intuitiv, dar este inspirată de felul în care funcționează mecanismul creierului: abordarea cu rețele neurale artificiale folosește „neuroni” artificiali care pot învăța prin compararea cu rezultatul dorit și modificând punctele tari ale conexiunilor dintre neuronii săi interni pentru a „întări” conexiunile care par astfel utile. Aceste patru abordări principale se pot suprapune între ele și cu sisteme evolutive; de exemplu, rețelele neurale pot învăța să facă inferențe, să generalizeze și să facă analogii. Unele sisteme utilizează, implicit sau explicit, mai multe dintre aceste abordări, alături de mulți alți algoritmi de IA și non-IA; [61] adesea, cea mai bună abordare diferă în funcție de problemă.[62][63]

 
Linia albastră ar putea fi un exemplu de overfitting⁠(d) a unei funcții liniare din cauza zgomotului aleatoriu.

Algoritmii de învățare funcționează pe baza faptului că strategiile, algoritmii și inferențele care au funcționat bine în trecut vor continua să funcționeze bine și în viitor. Aceste concluzii pot fi evidente, cum ar fi „întrucât soarele a răsărit în fiecare dimineață pentru ultimele 10.000 de zile, probabil că va răsări și mâine dimineață”. Ele pot fi nuanțate, cum ar fi „X% din familii au specii separate din punct de vedere geografic cu variante de culoare, deci există o șansă de Y% să existe lebede negre încă nedescoperite”. Mașinile de învățare lucrează și pe baza „briciului lui Occam”: cea mai simplă teorie care explică datele este cea mai probabilă. Prin urmare, pentru a avea succes, o mașină care învață trebuie concepută astfel încât să prefere teoriile mai simple celor mai complexe, cu excepția cazurilor în care teoria complexă se dovedește a fi substanțial mai bună. Blocarea pe o teorie foarte complexă, dar proastă, care se potrivește cu toate datele de învățare din trecut, se numește overfitting. Multe sisteme încearcă să reducă overfittingul recompensând o teorie în funcție de cât de bine se potrivește cu datele, dar și penalizând-o în funcție de cât de complexă este.[64] Pe lângă suprapunerea clasică, mașinile pot dezamăgi și „învățând lecția greșită”. Un exemplu este un clasificator de imagini antrenat numai pe imagini de cai maro și pisici negre ar putea concluziona că toate petecele de culoare brună ar putea fi cai.[65] Un exemplu din lumea reală este că, spre deosebire de oameni, clasificatoarele de imagine actualee nu determină relația spațială dintre componentele imaginii; în schimb, ele învață modele abstracte de pixeli pe care oamenii le ignoră, dar care se corelează liniar cu imaginile anumitor tipuri de obiecte reale. Suprapunând superficial un astfel de model pe o imagine legitimă are drept rezultat o imagine „contradictorie” pe care sistemul nu o poate clasifica.[e][66][67][68]

 
Un sistem de conducere automată poate folosi o rețea neurală pentru a determina care părți ale imaginii par să se potrivească cu imaginile anterioare de pietoni din procesul de antrenare și apoi să modeleze acele zone ca niște prisme dreptunghiulare care se mișcă încet, dar întrucâtva imprevizibile, și care trebuie evitate.[69][70]

În comparație cu oamenii, IA existente nu dispun de mai multe trăsături ale „raționamentului de bun simț⁠(d)”; cel mai notabil, oamenii au mecanisme puternice pentru a raționa despre „fizica naivă⁠(d)”, cum ar fi spațiul, timpul și interacțiunile fizice. Aceasta permite chiar copiilor mici să tragă ușor concluzii cum ar fi „dacă rostogolesc pixul acest de pe masă, va cădea pe podea”. Oamenii au, de asemenea, un mecanism puternic de „psihologie populară⁠(d)”, care îi ajută să interpreteze propozițiile în limbaj natural precum „consilierii locali au refuzat autorizarea unei demonstrații pentru că aceasta militează pentru violență”. (O IA generică are dificultăți în a deduce dacă consilierii sau demonstranții sunt cei care pretind că susțin violența.)[71][72][73] Această lipsă de „cultură generală” înseamnă că IA face deseori alte greșeli decât cele ale oamenilor, în moduri care pot părea de neînțeles. De exemplu, autovehiculele autonome existente nu pot raționa cu privire la locația și intențiile pietonilor exact așa cum fac oamenii, iar în schimb trebuie să utilizeze moduri de gândire neumane pentru a evita accidentele.[74][75][76]

Probleme

modificare

Scopul general al cercetării inteligenței artificiale este de a crea o tehnologie care să permită calculatoarelor și mașinilor să funcționeze într-o manieră inteligentă. Problema generală a simulării (sau a creării) inteligenței a fost împărțită în subprobleme. Acestea constau în particularități sau capacități pe care cercetătorii se așteaptă să le prezinte unui sistem inteligent. Caracteristicile descrise mai jos au primit cea mai mare atenție.[16]

Raționamentul, rezolvarea problemelor

modificare

Primii cercetători au dezvoltat algoritmi care imită pas cu pas raționamentul pe care oamenii îl folosesc atunci când rezolvă puzzle-uri sau fac deducții logice.[77] Până la sfârșitul anilor 1980 și 1990, cercetarea IA a elaborat metode de abordare a informațiilor incerte sau incomplete, folosind concepte din probabilitate și economie.[78]

Acești algoritmi s-au dovedit a fi insuficienți pentru rezolvarea problemelor mari de raționament, deoarece ajungeau într-o „explozie combinatorică”: deveneau exponențial mai lenți, pe măsură ce problemele creșteau.[58] De fapt, chiar și oamenii folosesc rareori deducția pas-cu-pas pe care a reușit să o modeleze cercetarea timpurie în IA. Ei rezolvă majoritatea problemelor lor folosind judecăți rapide și intuitive.[79]

Reprezentarea cunoștințelor

modificare
 
O ontologie reprezintă cunoștințele ca un set de concepte în cadrul unui domeniu și relațiile dintre aceste concepte.

Reprezentarea cunoștințelor⁠(d)[80] și ingineria cunoștințelor⁠(d)[81] sunt esențiale pentru cercetarea clasică din IA. Unele „sisteme expert” încearcă să reunească cunoștințe explicite posedate de experți într-un domeniu îngust. În plus, unele proiecte încearcă să strângă cunoștințele „de bun simț”, cunoscute oamenilor obișnuiți, într-o bază de date care conține cunoștințe extinse despre lume. Printre lucrurile pe care o bază cuprinzătoare de cunoștințe comune ar conține sunt: obiectele, proprietățile, categoriile și relațiile dintre obiecte;[82] situații, evenimente, stări și timp; [83] cauze și efecte;[84] cunoștințe despre cunoștințe (ce știm despre ceea ce știu ceilalți);[85] și multe alte domenii mai puțin bine cercetate. O reprezentare a „ceea ce există” este o ontologie⁠(d): setul de obiecte, relațiile, conceptele și proprietățile descrise formal astfel încât agenții software să le poată interpreta. Semantica acestor elemente este capturată sub formă de concepte, roluri și indivizi din logica descriptivă⁠(d) și sunt, de obicei, implementate drept clase, proprietăți și indivizi în OWL.[86] Cele mai generale ontologii sunt numite ontologii superioare⁠(d), care încearcă să ofere o bază pentru toate celelalte cunoștințe[87] acționând ca mediatori între ontologiile de domeniu⁠(d) care acoperă cunoștințe specifice despre un anumit domeniu de cunoștințe (domeniu sau arie de interes). Astfel de reprezentări formale ale cunoștințelor pot fi utilizate în indexarea și regăsirea pe bază de conținut,[88] interpretarea scenei,[89] sprijinirea deciziilor clinice,[90] descoperirea de cunoștințe (extragerea de inferențe „interesante“ și deducții acționabile din baze mari de date),[91] și alte domenii.[92]

Printre cele mai dificile probleme ale reprezentării cunoștințelor se numără:

Raționamentul implicit⁠(d) și problema calificării⁠(d)
Multe dintre lucrurile pe care oamenii le cunosc iau forma unor „ipoteze de lucru”. De exemplu, dacă în conversație vine vorba despre o pasăre, oamenii își imaginează de obicei un animal care are dimensiunea pumnului, care cântă și zboară. Niciunul dintre aceste lucruri nu este adevărat despre toate păsările. John McCarthy a identificat această problemă în 1969[93] drept problem calificării: pentru orice regulă de bun simț pe care cercetătorii de IA doresc să o reprezinte, există un număr mare de excepții. Aproape nimic nu este pur și simplu adevărat sau fals în felul în care o impune logica abstractă. Cercetarea IA a explorat o serie de soluții la această problemă.[94]
Lărgimea cunoașterii generale
Numărul de fapte atomice pe care le știe un om oarecare este foarte mare. Proiectele de cercetare care încearcă să construiască o bază de cunoștințe completă a cunoștințelor comune⁠(d) (de exemplu, Cyc⁠(d)) necesită o cantitate enormă de inginerie ontologică⁠(d) laborioasă - acestea trebuie să fie construite manual, fiecare concept complicat pe rând.[95]
Forma subsimbolică a unor cunoștințe comune
O mare parte din ceea ce știu oamenii nu este reprezentat ca „fapte” sau „afirmații” pe care le-ar putea exprima verbal. De exemplu, un maestru de șah va evita o anumită poziție de șah pentru că „se simte prea expus”[96] sau un critic de artă poate să arunce o singură privire pe o statuie și să-și dea seama că este un fals.[97] Acestea sunt intuiții și tendințe inconștiente și subsimbolice din creierul uman.[98] Cunoașterea de acest gen informează, sprijină și oferă un context pentru cunoașterea simbolică și conștientă. Ca și în cazul problemelor legate de raționamentul subsimbolic, se speră că IA situată⁠(d), inteligența computațională⁠(d) sau IA statistică va oferi modalități de reprezentare a acestui tip de cunoaștere.[98]

Planificarea

modificare
 
Un sistem de control ierarhic⁠(d) este o formă de sistem de control⁠(d) în care un ansamblu de dispozitive și software de conducere este aranjat într-o ierarhie.

Agenții inteligenți trebuie să poată să-și stabilească și să îndeplinească obiective.[99] Ei au nevoie de o modalitate de a vizualiza viitorul — o reprezentare a stării lumii și să poată face previziuni cu privire la modul în care acțiunile lor o vor schimba — și să poată face alegeri care maximizează utilitatea (sau „valoarea”) alegerilor disponibile.[100]

În problemele de planificare clasică, agentul poate presupune că este singurul sistem care acționează în lume, permițând agentului să se asigure de consecințele acțiunilor sale.[101] Cu toate acestea, dacă agentul nu este singurul actor, atunci este necesar ca agentul să poată raționa sub incertitudine. Aceasta necesită un agent care să nu poată evalua doar mediul său și să facă previziuni, ci și să își evalueze previziunile și să se adapteze pe baza evaluării sale.[102]

Planificarea multi-agent⁠(d) utilizează cooperarea și concurența multor agenți pentru a atinge un obiectiv dat. Astfel de comportament emergent⁠(d) este folosit de algoritmi evolutivi⁠(d) și de inteligența de roi.[103]

Învățare

modificare

Învățarea automată este studiul programelor care își pot îmbunătăți automat performanța la o anumită sarcină.[104] A făcut obiectul cercetării IA de la începutul domeniului.[105]

Învățarea nesupravegheată⁠(d) este abilitatea de a găsi șabloane într-un flux de intrare, fără a cere unui om să eticheteze mai întâi intrările.[106] Învățarea supravegheată⁠(d) include atât clasificarea⁠(d), cât și regresia numerică, care necesită etichetarea în prealabil de către om a datelor de intrare. Clasificarea este folosită pentru a determina în ce categorie aparține ceva, după ce a văzut câteva exemple de lucruri din mai multe categorii. Regresia este încercarea de a produce o funcție care descrie relația dintre intrări și ieșiri și prezice modul în care ieșirile ar trebui să se schimbe odată cu schimbarea intrărilor.[107] Atât clasificatorii, cât și mașinile de învățare prin regresie pot fi văzuți ca „aproximatori de funcții”, încercând să învețe o funcție necunoscută (eventual implicită); de exemplu, un clasificator de spam poate fi privit ca învățând o funcție care mapează textul unui e-mail într-una din cele două categorii, „spam” sau „non spam”. Teoria învățării computaționale⁠(d) poate evalua cursanții prin complexitate computațională⁠(d), prin complexitatea eșantionului⁠(d) (de câte date este nevoie) sau prin alte noțiuni de optimizare.[108] În învățarea prin întărire⁠(d),[109] agentul este răsplătit pentru răspunsuri bune și pedepsit pentru cele greșite. Agentul folosește această succesiune de recompense și pedepse pentru a forma o strategie de operare în spațiul problemei.

Prelucrarea limbajului natural

modificare
 
Un arbore de parsare⁠(d) reprezintă structura sintactică a unei propoziții conform unei anumite gramatici formale⁠(d).

Prelucrarea limbajului natural[110] (PLN) oferă mașinilor posibilitatea de a citi și de a înțelege limbajul uman. Un sistem suficient de puternic de procesare a limbajului natural ar permite interfețele utilizator în limbaj natural⁠(d) și dobândirea de cunoștințe direct din surse scrise de om, cum ar fi textele știrilor. Unele aplicații simple ale procesării limbajului natural includ recuperarea informațiilor⁠(d), extragerea cunoștințelor din texte⁠(d), răspunsul la întrebări[111] și traducerea automată. [112] Multe abordări actuale utilizează frecvențe de co-apariție a cuvintelor pentru a construi reprezentări sintactice ale textului. Strategiile de căutare a cuvintelor-cheie sunt populare și scalabile, dar simpliste; o interogare de căutare după „câine” ar putea să se potrivească doar documentelor cu cuvântul literal „câine” și să rateze un document cu cuvântul „pudel”. Strategiile de „afinitate lexicală” utilizează apariția unor cuvinte precum „accident” pentru a evalua sentimentul⁠(d) unui document. Abordările statistice moderne ale PLN pot combina toate aceste strategii, precum și altele, și ating adesea o acuratețe acceptabilă la nivel de pagină sau de paragraf, dar continuă să lipsească înțelegerea semantică necesară pentru a clasifica bine propoziții izolate. Pe lângă dificultățile obișnuite cu codificarea cunoașterii semantice, PLN semantică existentă scalează, uneori, prea slab pentru a fi viabilă în aplicațiile curente. Dincolo de PLN semantică, scopul final al PLN „narative” este de a încorpora o înțelegere deplină a raționamentului de bun-simț.[113]

Percepție

modificare
 
Detectarea elementelor⁠(d) (ilustrată: detectarea muchiilor⁠(d)) ajută IA să compună structuri abstracte informative din datele brute.

Percepția automată⁠(d)[114] este abilitatea de a folosi date de intrare de la senzori (cum ar fi camerele (de spectru vizibil sau infraroșu), microfoane, semnale wireless și lidare⁠(d), sonare, radare si senzori tactili⁠(d)) pentru a deduce aspecte ale lumii. Aplicațiile includ recunoașterea vorbirii,[115] recunoașterea facială⁠(d) și recunoașterea obiectelor⁠(d).[116] Vederea mașinilor⁠(d) este abilitatea de a analiza intrările vizuale. O astfel de intrare este de obicei ambiguă; un pieton uriaș, de cincizeci de metri, aflat la distanță, poate produce exact aceiași pixeli ca un pieton de dimensiuni normale aflat în apropiere, ceea ce necesită ca IA să judece probabilitatea relativă și rezonabilitatea diferitelor interpretări, de exemplu prin utilizarea modelului său de obiecte pentru a evalua că nu există pietoni de cincizeci de metri înălțime.[117]

Mișcare și manipulare

modificare

IA este mult folosită în robotică.[118] Brațele robotice⁠(d) avansate și alți roboți industriali, utilizați pe scară largă în fabricile moderne, pot învăța din experiență cum să se deplaseze eficient în ciuda prezenței frecării și alunecării angrenajelor.[119] Un robot mobil modern, atunci când i se dă un mediu mic, static și vizibil, își poate determina cu ușurință locația și își poate reprezenta⁠(d) mediul; totuși, mediile dinamice, cum ar fi (în endoscopie) interiorul corpului unui pacient viu, reprezintă o provocare mai mare. Planificarea mișcării⁠(d) este procesul de descompunere a unei sarcini de mișcare în „primitive”, cum ar fi mișcările individuale comune. O astfel de mișcare implică adesea mișcare conformă, un proces în care mișcarea necesită menținerea unui contact fizic cu un obiect.[120][121][122] Paradoxul lui Moravec⁠(d) generalizează că abilitățile senzorimotorii de nivel scăzut, pe care oamenii le iau ca atare sunt, în mod contraintuitiv, greu de programat într-un robot; paradoxul este numit după Hans Moravec⁠(d), care a afirmat în 1988 că „este destul de ușor să se facă computerele să prezinte performanțe la nivelul adulților pe testele de inteligență sau la jocul de dame, dar este dificil spre imposibil să capete abilitățile unui copil de un an când vine vorba de percepție și mobilitate”.[123][124] Acest lucru se datorează faptului că, spre deosebire de jocul de dame, dexteritatea fizică a fost o țintă directă a selecției naturale timp de milioane de ani.[125]

Inteligența socială

modificare
 
Kismet⁠(d), un robot cu abilități sociale rudimentare[126]

Paradoxul lui Moravec poate fi extins la multe forme de inteligență socială.[127][128] Distribuirea coordonării multi-agent a vehiculelor autonome rămâne o problemă dificilă.[129] Calculul afectiv⁠(d) este o umbrelă interdisciplinară care cuprinde sisteme care recunosc, interpretează, procesează sau simulează afecțiunile⁠(d) umane.[130][131][132] Printre succesele moderate legate de calculul se numără analiza textuală a sentimentelor⁠(d) și, mai recent, analiza afectivă multimodală, în care IA clasifică afectele prezentate de un subiect înregistrat pe un film.[133]

Pe termen lung, aptitudinile sociale și înțelegerea emoției umane și a teoriei jocurilor ar fi valoroase pentru un agent social. Capacitatea de a prezice acțiunile altora prin înțelegerea motivelor și a stărilor emoționale ar permite unui agent să ia decizii mai bune. Unele sisteme informatice imită emoțiile și expresiile umane pentru a deveni mai sensibile la dinamica emoțională a interacțiunii umane sau pentru a facilita altfel interacțiunea om-calculator.[134] În mod similar, unii asistenți virtuali⁠(d) sunt programați să poarte conversații sau chiar să se pălăvrăgească în glumă; acest lucru tinde să ofere utilizatorilor naivi o concepție nerealistă despre cât de inteligenți sunt de fapt agenții automați existenți.[135]

Inteligența generală

modificare

Din punct de vedere istoric, proiectele ca baza de cunoștințe Cyc (1984-) și inițiativa japoneză masivă a sistemelor informatice din generația a cincea⁠(d) (1982-1992), au încercat să acopere amploarea cunoașterii umane. Aceste proiecte timpurii nu au reușit să scape de limitările modelelor logice simbolice necantitative și, în retrospectivă, au subestimat foarte mult dificultatea inteligenței artificiale inter-domeniu. În zilele noastre, marea majoritate a cercetătorilor actuali din IA lucrează în schimb pe aplicații de „IA îngust” mai tractabile (cum ar fi diagnosticul medical sau navigația automobilelor).[136] Mulți cercetători prognozează că astfel de „IA înguste" vor lucra în diferite domenii individuale, și în cele din urmă vor fi integrate într-o mașină cu inteligență generală artificială (AGI) combinând majoritatea competențelor înguste menționate în acest articol și într-un anumit punct chiar depășind capacitatea umană în majoritatea sau toate aceste domenii.[20][137] Multe progrese au o semnificație generală, pe mai multe domenii. Un exemplu de mare anvergură este faptul că DeepMind a dezvoltat în 2010 o „inteligență artificială generalizată” care ar putea învăța multe jocuri Atari diferite de una singură și mai târziu a dezvoltat o variantă a sistemului care reușește la învățarea secvențială⁠(d).[138][139][140] Pe lângă învățarea prin transfer,[141] descoperirile ipotetice ale IGA ar putea cuprinde dezvoltarea unor arhitecturi reflexive care să se poată implica în metaraționamentul decizional-teoretic și găsirea unui mod de a „absorbi” o bază de cunoștințe cuprinzătoare din întregul web nestructurat.[8] Unii susțin că un fel de „algoritm master” (încă nedescoperit) conceptual simplu, dar matematic dificil, ar putea conduce la AGI.[142] În cele din urmă, câteva abordări „emergente“, privesc la simularea inteligenței umane extrem de îndeaproape, și cred că unele caracteristici antropomorfe, cum ar fi creierul artificial⁠(d) sau simularea dezvoltării copiilor⁠(d) pot ajunge într-o zi într-un punct critic în care apare inteligența generală.[143][144]

Multe dintre problemele din acest articol pot necesita, de asemenea, inteligență generală, dacă mașinile trebuie să rezolve problemele așa cum o fac oamenii. De exemplu, chiar și sarcini simple, cum ar fi traducerea automată, necesită ca o mașină să citească și să scrie în ambele limbi (PLN), să urmeze logica (raționamentul) autorului, să știe despre ce se vorbește (cunoștințe) și să reproducă cu fidelitate intenția originară a autorului (inteligență socială). O problemă precum traducerea automată este considerată „IA-completă⁠(d)”, pentru că toate aceste probleme trebuie rezolvate simultan pentru a considera că mașina a atins performanța unui om.

Abordări

modificare

Nu există o teorie sau paradigmă unificatoare care să ghideze cercetarea de IA. Cercetătorii nu au căzut de acord asupra multor aspecte.[145] Câteva dintre cele mai îndelungate întrebări care au rămas fără răspuns sunt următoarele: ar trebui inteligența artificială să simuleze inteligența naturală prin studiul psihologiei sau neurobiologiei? Sau biologia umană⁠(d) este irelevantă pentru cercetarea IA, așa cum este biologia păsărilor pentru ingineria aeronautică?[17] Poate fi descris un comportament inteligent folosind principii simple și elegante (cum ar fi logica sau optimizarea)? Sau este neapărat nevoie de rezolvarea unui număr mare de probleme complet independente?[18]

Cibernetica și simularea creierului

modificare

În anii 1940 și 1950, mai mulți cercetători au explorat legătura dintre neurobiologie, teoria informațiilor și cibernetică. Unii dintre aceștia au construit mașini care utilizează rețele electronice pentru a expune informații rudimentare, cum ar fi țestoasele⁠(d) lui W. Gray Walter⁠(d) și fiara de la Johns Hopkins. Mulți dintre acești cercetători s-au adunat pentru întâlnirile Societății Teleologice de la Universitatea Princeton și în Clubul Ratio⁠(d) din Anglia.[146] Până în 1960, această abordare a fost în mare parte abandonată, deși elemente ale acesteia aveau să fie reînviate în anii 1980.

Simbolice

modificare

Când accesul la calculatoarele digitale a devenit posibil la mijlocul anilor 1950, cercetarea IA a început să exploreze posibilitatea ca inteligența umană să poată fi redusă la manipularea simbolurilor. Cercetarea a fost centrată în trei instituții: Universitatea Carnegie Mellon⁠(d), Stanford și MIT, iar după cum este descris mai jos, fiecare și-a dezvoltat propriul stil de cercetare. John Haugeland⁠(d) a numit aceste abordări simbolice ale IA „good old-fashioned AI” („Inteligență artificială simbolică”; în traducere liberă „IA bună ca pe vremuri”).[147] În anii 1960, abordările simbolice au avut un mare succes în simularea gândirii la nivel înalt în programele demonstrative mici. Abordările bazate pe cibernetică sau pe rețele neurale artificiale au fost abandonate sau împinse în fundal.[148] Cercetătorii din anii 1960 și 1970 au fost convinși că abordările simbolice ar reuși în cele din urmă să creeze o mașină cu inteligență generală artificială și să considere acest lucru scopul țelului lor.

Simularea cognitivă

modificare

Economistul Herbert Simon și Allen Newell au studiat abilitățile de rezolvare a problemelor umane și au încercat să le formalizeze, iar activitatea lor a pus bazele domeniului inteligenței artificiale, precum și ale științei cognitive, cercetării operaționale⁠(d) și științei managementului. Echipa lor de cercetare a folosit rezultatele experimentelor psihologice pentru a dezvolta programe care au simulat tehnicile pe care oamenii le foloseau pentru rezolvarea problemelor. Această tradiție, centrată pe Universitatea Carnegie Mellon⁠(d), avea să culmineze în cele din urmă în dezvoltarea arhitecturii Soar⁠(d) în mijlocul anilor 1980.[149][150]

Pe bază de logică

modificare

Spre deosebire de Simon și Newell, John McCarthy a simțit că mașinile nu au nevoie să simuleze gândirea umană, ci ar trebui să încerce să găsească esența raționamentului abstract și a rezolvării problemelor, indiferent dacă oamenii folosesc aceleași algoritmi.[17] Laboratorul său de la Stanford (SAIL⁠(d)) s-a concentrat pe utilizarea logicii formale pentru a rezolva o mare varietate de probleme, inclusiv reprezentarea cunoștințelor⁠(d), planificarea⁠(d) și învățarea.[151] Logica a fost, de asemenea, subiectul unor lucrări de la Universitatea din Edinburgh și din alte părți ale Europei, care au condus la dezvoltarea limbajului de programare Prolog și a științei programării logice⁠(d).[152]

Anti-logice sau scruffy

modificare

Cercetătorii de la MIT (precum Marvin Minsky și Seymour Papert⁠(d))[153] au constatat că rezolvarea unor probleme dificile de vedere⁠(d) și prelucrarea limbajului natural necesită soluții ad-hoc — ei au susținut că nu există un principiu simplu și general (cum ar fi logica) care să captureze toate aspectele comportamentului inteligent. Roger Schank⁠(d) descrie abordările lor „anti-logice” ca fiind „scruffy⁠(d)” (spre deosebire de paradigmele „neat⁠(d)” de la CMU⁠(d) și Stanford).[18] Bazele de cunoștințe de bun simț⁠(d) (cum ar fi Cyc⁠(d) a lui Doug Lenat) sunt un exemplu de IA „scruffy”, deoarece trebuie construită manual, concept cu concept.[154]

Pe bază de cunoștințe

modificare

Când au devenit disponibile computerele cu memorii mari pe la 1970, cercetătorii din toate cele trei tradiții au început să introducă cunoștințe⁠(d) în aplicațiile IA.[155] Această „revoluție a cunoștințelor” a dus la dezvoltarea și desfășurarea sistemelor expert (introduse de Edward Feigenbaum), prima formă cu adevărat de succes a software-ului cu IA.[40] O componentă cheie a arhitecturii de sistem pentru toate sistemele expert este baza de cunoștințe care stochează fapte și reguli care ilustrează IA.[156] Revoluția cunoștințelor a fost determinată și de realizarea faptului că o mulțime de cunoștințe ar fi necesare multor aplicații cu IA simple.

Subsimbolice

modificare

Până în anii 1980, progresul în domeniul IA simbolic părea să se blocheze și mulți credeau că sistemele simbolice nu ar putea niciodată să imite toate procesele cunoașterii umane, în special percepția⁠(d), robotica, învățarea și recunoașterea șabloanelor⁠(d). Mai mulți cercetători au început să privească spre abordările „subsimbolice” asupra problemelor specifice IA.[19] Metodele sub-simbolice reușesc să abordeze inteligența fără reprezentări specifice ale cunoașterii.

Inteligență întruchipată

modificare

Aceasta include IA întruchipată⁠(d), situată, bazată pe comportament⁠(d) și nouvelle⁠(d). Cercetătorii din domeniul asociat al roboticii, cum ar fi Rodney Brooks⁠(d), respingeau IA simbolică și s-au concentrat asupra problemelor fundamentale de inginerie care ar permite roboților să se miște și să supraviețuiască.[157] Munca lor a reînviat punctul de vedere nesimbolic al cercetătorilor timpurii ai ciberneticii din anii 1950 și a reintrodus utilizarea teoriei controlului⁠(d) în IA. Acest lucru a coincis cu dezvoltarea tezei gândirii încorporate⁠(d) în domeniul conex al științei cognitive: ideea că aspecte ale corpului (cum ar fi mișcarea, percepția și vizualizarea) sunt necesare unei inteligențe superioare.

În cadrul roboticii de dezvoltare, se elaborează abordări de învățare pentru dezvoltare pentru a permite roboților să acumuleze repertorii de abilități noi prin auto-explorare autonomă, interacțiune socială cu profesori umani și utilizarea mecanismelor de orientare (învățare activă, maturizare, sinergii motorii etc.).[158][159][160][161]

Inteligență computațională și soft computing

modificare

Interesul pentru rețelele neurale și „conexionism⁠(d)” a fost relansat de David Rumelhart⁠(d) și alții la mijlocul anilor 1980.[162] Rețelele neurale artificiale sunt un exemplu de soft computing⁠(d) — acestea sunt soluții la probleme care nu pot fi rezolvate cu o certitudine logică completă și unde o soluție aproximativă este adesea suficientă. Alte abordări de soft computing⁠(d) în IA sunt sistemele fuzzy⁠(d), calculul evolutiv⁠(d) și multe instrumente statistice. Aplicarea soft computingului în IA este studiată colectiv de disciplina emergentă a inteligenței computaționale⁠(d). [163]

Învățarea statistică

modificare

O mare parte din GOFAI tradiționale s-au împotmolit în mici modificări ad-hoc aduse calculului simbolic care a lucrat pe propriile modele, dar nu s-a generalizat la rezultatele din lumea reală. Cu toate acestea, în jurul anilor 1990, cercetătorii din IA au adoptat instrumente matematice sofisticate, cum ar fi modelele Markov ascunse⁠(d) (HMM), teoria informațiilor și teoria bayesiană a deciziei⁠(d) pentru a compara sau unifica arhitecturile concurente. Limbajul matematic comun a permis un nivel ridicat de colaborare cu mai multe domenii (cum ar fi matematica, economia sau cercetarea operațională⁠(d)).[f] În comparație cu GOFAI, noi tehnici de "învățare statistică", cum ar fi rețelele neurale și HMM, au obținut niveluri mai înalte de precizie în multe domenii practice, cum ar fi data mining, fără a se obține neapărat înțelegerea semantică a seturilor de date. Succesele sporite cu datele din lumea reală au condus la accentul sporit pe compararea diferitelor abordări ale datelor de testare partajate, pentru a vedea care dintre metodele au cea mai bună performanță într-un context mai larg decât cel oferit de modelele idiosincratice; cercetarea AI a devenit tot mai științifică. În prezent, rezultatele experimentelor sunt adesea măsurabile riguros și uneori (cu dificultate) pot fi reproduse.[164][165] Diferitele tehnici de învățare statistică au limite diferite; de exemplu, HMM de bază nu poate modela combinațiile posibile infinite ale limbajului natural.[166] Criticii remarcă faptul că trecerea de la GOFAI la învățarea statistică implică adesea, de asemenea, abandonarea IA explicabile⁠(d). În cercetarea IGA, unii cercetători avertizează împotriva dependenței excesive de învățarea statistică și susțin că cercetarea continuă a GOFAI va fi totuși necesară pentru a obține informații generale.[167][168]

Integrarea abordărilor

modificare
Paradigma agentului inteligent
Un agent inteligent⁠(d) este un sistem care își percepe mediul și efectuează acțiuni care îi maximizează șansele de succes. Cei mai simpli agenți inteligenți sunt programe care rezolvă probleme specifice. Printre agenții mai complicați se numără ființele umane și organizațiile de ființe umane (cum ar fi firmele). Paradigma permite cercetătorilor să compare direct sau chiar să combine diferite abordări pentru problemele izolate, întrebând care agent este cel mai bun la maximizarea unei „funcții de țintă” date. Un agent care rezolvă o problemă specifică poate folosi orice abordare care funcționează — unii agenți sunt simbolici și logici, unii sunt rețele neurale artificiale subsimbolice și alții pot folosi noi abordări. Paradigma oferă, de asemenea, cercetătorilor un limbaj comun pentru a comunica cu alte domenii — cum ar fi teoria deciziei și economia — care utilizează și ele conceptul agenților abstracți. Construirea unui agent complet necesită ca cercetătorii să abordeze probleme realiste de integrare; de exemplu, deoarece sistemele senzoriale oferă informații nesigure despre mediu, sistemele de planificare trebuie să poată funcționa în prezența incertitudinii. Paradigma agentului inteligent a devenit pe scară largă acceptată în anii 1990.[169]
Arhitecturi de agent⁠(d) și arhitecturi cognitive⁠(d)
Cercetătorii au creat sisteme pentru a construi sisteme inteligente din interacțiunea agenților inteligenți⁠(d) într-un sistem multi-agent.[170] Un sistem ierarhic de control⁠(d) oferă o punte între IA subsimbolică la nivelurile sale reactive, cele mai scăzute, și IA simbolică tradițională de la cele mai înalte niveluri, unde constrângerile de timp relaxate permit planificarea și modelarea lumii.[171] Unele arhitecturi cognitive sunt personalizate pentru a rezolva o problemă îngustă; altele, cum ar fi Soar, sunt concepute pentru a imita cogniția umană și pentru a oferi o perspectivă asupra inteligenței generale. Extensiile moderne ale Soar sunt sisteme inteligente hibride⁠(d) care includ atât componente simbolice, cât și sub-simbolice.[172][173]

Instrumente

modificare

IA a dezvoltat un număr mare de instrumente pentru a rezolva cele mai dificile probleme din domeniul informaticii. Câteva dintre cele mai generale dintre aceste metode sunt discutate mai jos.

Căutarea și optimizarea

modificare

Multe probleme din IA pot fi rezolvate teoretic prin căutarea inteligentă între multe soluții posibile: [174] Raționamentul poate fi redus la efectuarea unei căutări. De exemplu, demonstrația logică poate fi privită drept căutarea unei căi care conduce de la ipoteză la concluzie⁠(d), în care fiecare pas este aplicarea unei reguli de inferență⁠(d).[175] Algoritmii de planificare⁠(d) caută prin arbori de obiective și subobiective, încercând să găsească o cale către un obiectiv țintă, un proces numit analiză mijloc-scop⁠(d).[176] Algoritmii de robotică pentru mișcarea membrelor și pentru apucarea obiectelor utilizează căutări locale⁠(d) în spațiul de configurații⁠(d).[119] Mulți algoritmi de învățare utilizează algoritmi de căutare bazați pe optimizare.

Căutările exhaustive simple[177] sunt rareori suficiente pentru majoritatea problemelor din lumea reală: dimensiunea spațiului de căutare⁠(d) (numărul de locuri de căutare) crește rapid la cifre astronomice⁠(d). Rezultatul este o căutare care este prea lentă sau nu se termină niciodată. Soluția, pentru multe probleme, este de a folosi „euristica⁠(d)” sau „regula aproximativă” care prioritizează opțiunile în favoarea celor care au mai multe șanse de a atinge un obiectiv și de a face acest lucru într-un număr mai mic de pași. În unele metodologii de căutare, euristica poate servi, de asemenea, la eliminarea în totalitate a unor alegeri care sunt puțin probabil să conducă la un scop (numită „tăierea ramurilor⁠(d) arborelui de căutare⁠(d)”). Euristica⁠(d) furnizează programului o „estimare a căii celei mai bune” spre care ar putea exista soluția.[178] Euristica limitează căutarea soluțiilor într-un eșantion de dimensiune mai mică.[120]

Un tip foarte diferit de căutare a ieșit în evidență în anii 1990, bazat pe teoria matematică a optimizării. Pentru multe probleme, este posibil să se înceapă căutarea cu o anumită formă de aproximare și apoi să se rafineze această aproximare incremental până când nu mai pot fi făcute îmbunătățiri. Acești algoritmi pot fi vizualizați ca escaladă⁠(d) orbească: se începe căutarea într-un punct aleatoriu din peisaj și apoi, prin salturi sau pași, se continuă mișcarea în sus, până se ajunge în vârf. Alți algoritmi de optimizare sunt simulated annealing⁠(d), beam search⁠(d) și optimizarea aleatorie⁠(d).[179]

 
Un roi de particule⁠(d) care caută minimul global

Calculul evolutiv⁠(d) utilizează o formă de căutare cu optimizare. De exemplu, el poate începe cu o populație de organisme (presupunerile) și apoi le permite să sufere mutații și să se recombine, selectând⁠(d) doar cei mai potriviți indivizi pentru a supraviețui fiecărei generații (rafinarea presupunerilor). Printre algoritmii evolutivi⁠(d) clasici se numără algoritmii genetici, programarea genetică de expresie⁠(d) și programarea genetică⁠(d).[180] Alternativ, procesele de căutare distribuite pot fi coordonate prin algoritmi de inteligență a roiului. Doi algoritmi populari de rotire folosiți în căutare sunt optimizarea roiurilor de particule⁠(d) (inspirată de roirea⁠(d) păsărilor) și optimizarea coloniilor de furnici⁠(d) (inspirată de urmele furnicilor).[181][182]

Logica[183] este folosită pentru reprezentarea cunoștințelor și rezolvarea problemelor, dar poate fi aplicată și altor probleme. De exemplu, algoritmul Satplan⁠(d) utilizează logica pentru planificare⁠(d)[184] și programarea logică inductivă⁠(d) este o metodă de învățare.[185]

În cercetarea IA se folosesc mai multe forme diferite de logică. Logica propozițională⁠(d)[186] implică funcții de adevăr⁠(d), cum ar fi „sau” și „non”. Logica de ordinul întâi⁠(d)[187] adaugă cuantificatori⁠(d) și predicate⁠(d) și poate exprima fapte despre obiecte, proprietățile lor și relațiile dintre ele. Teoria mulțimilor vagi atribuie un „grad de adevăr” (între 0 și 1) unor afirmații vagi precum „Alice este bătrână” (sau „bogată”, „înaltă” sau „înfometată”) care sunt prea imprecise din punct de vedere lingvistic pentru a fi complet adevărate sau complet false. Logica fuzzy este folosită cu succes în sistemele de control⁠(d) pentru a permite experților să contribuie cu reguli vagi precum „dacă ești aproape de stația de destinație și te miști rapid, crește presiunea de frânare a trenului”; aceste reguli vagi pot fi rafinate numeric în cadrul sistemului. Logica fuzzy nu reușește să scaleze bine în bazele de cunoștințe; mulți cercetători de IA sunt reticenți față de validitatea inferențelor de logică fuzzy.[g][189][190]

Logicile implicite⁠(d), cele nemonotone⁠(d) și circumscrierea⁠(d)[94] sunt forme de logică concepute pentru a ajuta la raționamentul implicit și la problema calificării⁠(d). Mai multe extensii de logică au fost concepute pentru a gestiona domenii specifice ale cunoașterii⁠(d), cum ar fi: logica descriptivă⁠(d);[82] calculul de situație⁠(d), calculul de evenimente⁠(d) și calculul fluent⁠(d) (pentru reprezentarea evenimentelor și a timpului);[83] calculul cauzal;[84] calculul de credință;[191] și logicile modale⁠(d).[85]

În ansamblu, logica simbolică calitativă este fragilă și scalează rău în prezența zgomotului sau a altei incertitudini. Excepțiile de la reguli sunt numeroase și este dificil pentru sistemele logice să funcționeze în prezența unor reguli contradictorii.[192][193]

Metode probabilistice pentru raționament incert

modificare
 
Clustering prin algoritmul expectation–maximization⁠(d) al datelor de erupție a lui Old Faithful pornește de la o presupunere aleatorie, dar apoi converge cu succes într-o clusterizare precisă a celor două moduri fizice distincte de erupție.

Multe probleme din IA (de raționament, planificare, învățare, percepție și robotică) necesită ca agentul să funcționeze cu informații incomplete sau nesigure. Cercetătorii de IA au conceput o serie de instrumente puternice pentru a rezolva aceste probleme utilizând metode din teoria probabilităților și din economie. [194]

Rețelele bayesiene[195] sunt un instrument foarte general, care poate fi folosit pentru un număr mare de probleme: de raționament (folosind algoritmul inferențelor bayesiane),[196] de învățare (folosind algoritmul EM⁠(d)),[h][198] planificare⁠(d) (prin utilizarea rețelelor decizionale⁠(d)) [199] și percepție⁠(d) (utilizând rețele bayesiene dinamice⁠(d)).[200] Se pot utiliza și algoritmi probabilistici pentru filtrarea, predicția, rafinarea și găsirea de explicații pentru fluxurile de date, ajutând sistemele de percepție⁠(d) să analizeze procesele care apar în timp (de exemplu, modelele Markov ascunse⁠(d) sau filtrele Kalman⁠(d)).[200] În comparație cu logica simbolică, inferența bayesiană formală este costisitoare din punct de vedere computațional. Pentru ca inferența să fie tractabilă, majoritatea observațiilor trebuie să fie dependente condiționat⁠(d) una de cealaltă. Graficele complexe cu „bucle” (cicluri neorientate) pot necesita o metodă sofisticată, cum ar fi metoda Monte Carlo cu lanțuri Markov⁠(d) , care răspândește un ansamblu de drumuri aleatoare⁠(d) prin întreaga rețea bayesiană și încearcă să conveargă la o evaluare a probabilităților condiționate. Rețelele bayesiene sunt utilizate pe Xbox Live pentru a evalua și a potrivi jucătorii între ei; victoriile și înfrângerile sunt „dovezi” despre cât de bun este un jucător. AdSense utilizează o rețea bayesiană cu peste 300 de milioane de muchii pentru a afla ce reclame să afișeze.[192]

Un concept-cheie, provenit din știința economiei, este cel de „utilitate”: o măsură a cât de valoros este ceva pentru un agent inteligent. S-au dezvoltat instrumente matematice precise care analizează modul în care un agent poate să facă alegeri și să planifice, utilizând teoria deciziei⁠(d), analiza deciziei⁠(d),[201] și teoria valorii informației⁠(d).[100] Aceste instrumente includ modele, cum ar fi procesele de decizie Markov⁠(d),[202] rețele dinamice de decizie⁠(d),[200] teoria jocurilor și designul mecanismelor economice⁠(d).[203]

Clasificatori și metode statistice de învățare

modificare

Cele mai simple aplicații de IA pot fi împărțite în două tipuri: clasificatori („dacă sclipește, atunci diamant”) și controlori („dacă lucios, atunci ridică”). Controlorii mai și clasifică însă condițiile înainte de a infera acțiuni și, prin urmare, clasificarea formează o parte centrală a multor sisteme cu IA. Clasificatorii⁠(d) sunt funcții care utilizează aplicarea șabloanelor⁠(d) pentru a determina potrivirea cea mai apropiată. Ele pot fi reglate conform exemplelor, făcându-le foarte atractive pentru utilizarea în IA. Aceste exemple sunt cunoscute ca observații sau șabloane. În învățarea supravegheată, fiecare model aparține unei anumite clase predefinite. O clasă poate fi văzută ca o decizie care trebuie luată. Toate observațiile combinate cu etichetele lor de clasă sunt cunoscute ca un set de date. Atunci când se primește o nouă observație, această observație este clasificată pe baza experienței anterioare.[204]

Un clasificator poate fi instruit în diferite moduri; există multe abordări statistice și de învățare automată. Arborele de decizie⁠(d)[205] este probabil cel mai utilizat algoritm de învățare automată.[206] Alți clasificatori utilizați pe scară largă sunt rețelele neurale,[207] algoritmul k-NN⁠(d),[i][209] metodele kernel⁠(d), cum ar fi support-vector machine⁠(d) (SVM),[j][211] modelul gaussian de amestec⁠(d)[212] și clasificatorul Bayes naiv.[k][214] Performanța clasificatorului depinde în mare măsură de caracteristicile datelor care urmează a fi clasificate, cum ar fi dimensiunea setului de date, distribuția eșantioanelor pe clase, dimensionalitatea și nivelul zgomotului. Clasificatorii bazați pe modele funcționează bine dacă modelul asumat se potrivește extrem de bine pe datele reale. În caz contrar, dacă nu există un model compatibil și dacă singura preocupare este acuratețea (și nu viteza sau scalabilitatea), se știe că clasificatorii discriminatori (în special SVM) tind să fie mai exacți decât clasificatorii bazați pe model, cum ar fi „Bayes naiv” pe cele mai multe seturi de date din practică.[215][216]

Rețele neurale artificiale

modificare
 
O rețea neurală este un grup de noduri interconectate, asemănătoare cu vasta rețea de neuroni din creierul uman.

Rețelele neurale s-au inspirat din arhitectura neuronilor din creierul uman. Un „neuron” simplu N acceptă intrări de la mai mulți neuroni, fiecare dintre ei, atunci când este activat, aruncă un „vot” ponderat pentru sau împotriva activării neuronului N. Învățarea necesită un algoritm de ajustare a acestor ponderi pe baza datelor de antrenament; un algoritm simplu (pe principiul „conectează ce se declanșează împreună⁠(d)”) este de a crește ponderea conexiunii între doi neuroni conectați atunci când activarea unuia declanșează activarea cu succes a altuia. Rețeaua formează „concepte” care sunt distribuite într-o subrețea de neuroni partajați[l] care tind să se activeze împreună; de exemplu, un concept care înseamnă „picior” ar putea fi cuplat cu o subrețea care înseamnă „picior”, care include sunetul pentru „picior”. Neuronii au un spectru continuu de activare; mai mult, ei pot procesa intrările neliniar, în loc să cântărească voturi simple. Rețelele neurale moderne pot învăța atât funcții continue, cât și, surprinzător, operații logice digitale. Rețelele neuronale au avut succese la prezicerea evoluției pieței bursiere și (în 1995) un autovehicul care se conducea în mare parte automat.[m][217] În anii 2010, progresele înregistrate în rețelele neurale ce utilizează învățarea în profunzime au propulsat domeniul IA în conștiința publică, și au contribuit la o creștere enormă a investițiilor corporative în IA; de exemplu, fuziunile și achizițiile⁠(d) de companii în domeniul IA în 2017 erau de peste 25 de ori mai substanțiale decât în 2015.[218][219]

Studiul rețelelor neurale fără învățare[207] a început în deceniul anterior creării domeniului cercetării IA, în lucrarea lui Walter Pitts⁠(d) și a lui Warren Sturgis McCulloch⁠(d). Frank Rosenblatt⁠(d) a inventat perceptronul⁠(d), o rețea de învățare cu un singur strat, similar cu vechiul concept de regresie liniară. Printre pionierii timpurii ale domeniului se numără și Alexei Grigorevici Ivahnenko⁠(d), Teuvo Kohonen⁠(d), Stephen Grossberg⁠(d), Kunihiko Fukushima⁠(d), Christoph von der Malsburg, David Willshaw, Shun'ichi Amari⁠(d), Bernard Widrow⁠(d), John Hopfield, Eduardo R. Caianiello⁠(d) și alții.

Principalele categorii de rețele sunt rețelele neurale feedforward⁠(d) sau aciclice (unde semnalul trece într-o singură direcție) și rețele neurale recurente⁠(d) (care permit feedback și memorii pe termen scurt ale evenimentelor de intrare anterioare). Printre cele mai populare rețele feedforward sunt perceptronii⁠(d), perceptronii multi-strat⁠(d) și rețelele cu bază radială⁠(d).[220] Rețelele neurale pot fi aplicate problemei controlului inteligent⁠(d) (pentru robotică) sau învățării, folosind tehnici precum învățarea Hebbian⁠(d) („conectează ce se declanșează împreună”), Group method of data handling⁠(d) sau învățare competitivă⁠(d).[221]

Astăzi, rețelele neurale sunt adesea antrenate prin algoritmul Backpropagation, care există de pe la 1970 ca invers al diferențierii automate⁠(d) publicate de Seppo Linnainmaa⁠(d)[222][223] și a fost introdus în rețelele neurale de Paul Werbos⁠(d).[224][225][226]

Memoria temporală ierarhică⁠(d) este o abordare care modelează unele dintre proprietățile structurale și algoritmice ale neocortexului⁠(d).[227]

Pe scurt, majoritatea rețelelor neurale utilizează o anumită formă de coborâre de gradient⁠(d) pe o topologie neurală creată manual. Cu toate acestea, unele grupuri de cercetare, cum ar fi Uber, susțin că o neuroevoluție⁠(d) simplă, în care prin mutație se generează noi topologii și ponderi de rețele neurale, poate fi competitivă chiar și în fața unor abordări sofisticate cu coborâre de gradient. Un avantaj al neuroevoluției este acela că ar putea fi mai puțin predispusă la a fi blocată într-o „fundătură”.[228]

Rețele neurale cu feedforward

modificare

Învățarea profundă este orice rețea neurală artificială care poate învăța un lanț lung de legături de cauzalitate. De exemplu, o rețea cu feedforward cu șase straturi ascunse poate învăța un lanț de cauzalitate cu șapte legături (șase straturi ascunse + stratul de ieșire) și are o profunzime de „alocare a creditului” (CAP) de șapte. Multe sisteme cu învățare profundă trebuie să poată învăța lanțuri cu zece sau mai multe legături de cauzalitate.[229] Învățarea profundă a transformat multe subdomenii importante ale inteligenței artificiale, inclusiv vederea mașinilor⁠(d), recunoașterea vorbirii, prelucrarea limbajului natural și altele.[230][231][229]

Conform unei vederi de ansamblu,[232] expresia Deep Learning a fost introdusă în comunitatea de învățare automată de către Rina Dechter⁠(d) în 1986[233] și a căpătat anvergură după ce Igor Aizenberg si colegii săi au introdus-o în rețelele neurale artificiale în 2000.[234] Primele rețele rețele funcționale de învățare profundă au fost publicate de Alexei Grigorevici Ivahnenko⁠(d) și VG Lapa în 1965.[235] Aceste rețele sunt antrenate strat cu strat. Articolul lui Ivahnenko din 1971 [236] descrie învățarea unui perceptron multistrat feedforward profund cu opt straturi, deja mult mai profund decât multe rețele ulterioare. În 2006, o publicație a lui Geoffrey Hinton și a lui Ruslan Salahutdinov a introdus un alt mod de pre-antrenare a unor rețele neurale feedforward multistrat, tratând fiecare strat pe rând ca pe o mașină Boltzmann restrânsă⁠(d) nesupravegheată⁠(d), apoi folosind Backpropagation supravegheat⁠(d) pentru reglajul fin.[237] Asemenea rețelelor neurale artificiale superficiale, rețelele neurale profunde pot modela relații neliniare complexe. În ultimii ani, progresele atât în domeniul algoritmilor de învățare automată, cât și în domeniul hardware-ului calculatoarelor au condus la metode mai eficiente de formare a rețelelor neurale profunde care conțin mai multe straturi de unități neliniare ascunse și un strat de ieșire foarte mare.[238]

Învățarea profundă utilizează adesea rețele neurale convoluționale⁠(d) (RNC), ale căror origini par a fi în Neocognitronul⁠(d) introdus de Kunihiko Fukushima⁠(d) în 1980.[239] În 1989, Yann LeCun⁠(d) și colegii săi au aplicat Backpropagation pe o astfel de arhitectură. La începutul anilor 2000, într-o aplicație industrială, RNC prelucrau deja aproximativ 10% până la 20% din toate cecurile scrise în SUA.[240] Începând cu 2011, implementările rapide de RNC pe unitățile de procesare grafică au câștigat numeroase concursuri de recunoaștere vizuală a formelor.[229]

RNC cu 12 straturi convoluționale au fost utilizate împreună cu învățarea prin întărire⁠(d) de către „AlphaGo⁠(d) Lee” al lui Deepmind, programul care l-a învins pe campionul la go în 2016.[241]

Rețele neuronale profunde recurente

modificare

Încă de la început, învățarea profundă a fost aplicată și la învățarea de succesiuni cu rețele neurale recurente⁠(d)[242] care sunt, teoretic, Turing-complete[243] și pot executa programe arbitrare pentru a procesa secvențe arbitrare de intrări. Adâncimea unei RN recurent este nelimitată și depinde de lungimea secvenței sale de intrare; astfel, o RN recurentă este un exemplu de învățare profundă.[229] Rețelele neurale recurente pot fi antrenate prin coborâre de gradient⁠(d) [244] [245] [246] dar suferă de problema dispariției gradientului⁠(d).[230][247] În 1992, s-a demonstrat că pre-antrenarea nesupravegheată a unui set de rețele neurale recurente poate accelera învățarea ulterioară supravegheată a problemelor secvențiale profunde.[248]

Numeroși cercetători folosesc acum variante ale unei RN recurente pentru învățare profundă numită Long-Short Term Memory⁠(d) (LSTM), publicată de Hochreiter & Schmidhuber în 1997.[249] LSTM este adesea antrenată prin Connectionist Temporal Classification (CTC).[250] La Google, Microsoft și Baidu, această abordare a revoluționat recunoașterea vorbirii.[251][252][253] De exemplu, în 2015, recunoașterea vocală de la Google a înregistrat un salt spectaculos de performanță de 49% cu ajutorul lui LSTM instruit de CTC, disponibil acum prin Google Voice⁠(d) către utilizatorii a miliarde de smartphone-uri.[254] Google a folosit de asemenea LSTM pentru a îmbunătăți traducerea automată,[255] modelarea limbajului[256] și prelucrarea lingvistică multilingvă.[257] LSTM combinat cu RNC a îmbunătățit și descrierea automată a imaginilor[258] și o multitudine de alte aplicații.

Evaluarea progresului

modificare

Ca și electricitatea sau motorul cu abur, IA este o tehnologie cu scop general. Nu există un consens despre cum să se caracterizeze sarcinile la care IA tinde să exceleze.[259] Deși proiecte precum AlphaZero⁠(d) au reușit să-și genereze propriile cunoștințe de la zero, multe alte proiecte de învățare automată necesită seturi de date de antrenament mari.[260][261] Cercetătorul Andrew Y. Ng⁠(d) a sugerat, ca o „regulă aproximativă extrem de imperfectă”, că „aproape orice poate fi făcut de un om cu mai puțin de o secundă de gândire mentală, poate să fie, acum sau în viitorul apropiat, automatizat prin utilizarea IA”.[262] Paradoxul lui Moravec⁠(d) sugerează că IA rămâne în urma omului la multe sarcini pentru a căror bună îndeplinire creierul uman a evoluat anume.[125]

Jocurile oferă un punct de referință foarte mediatizat pentru evaluarea ratei progresului. AlphaGo⁠(d) a adus, în preajma lui 2016, sfârșitul epocii testelor cu jocuri de masă. Jocurile de cunoștințe imperfecte oferă noi provocări pentru IA în domeniul teoriei jocurilor.[263][264] E-sporturile, cum ar fi StarCraft, continuă să furnizeze repere publice suplimentare.[265][266] Există numeroase concursuri și premii, cum ar fi Imagenet Challenge⁠(d), pentru promovarea cercetării în domeniul inteligenței artificiale. Cele mai comune domenii de concurs sunt inteligența automată generală, comportamentul conversațional, data mining, mașini robotizate și fotbal jucat de roboți, pe lângă jocuri convenționale.[267]

„Jocul imitației” (o interpretare a testului Turing din 1950 care evaluează dacă un calculator poate imita un om) este în prezent considerat prea exploatabil pentru a fi un test semnificativ.[268] Un derivat al testului Turing este Testul Turing Public Complet Automatizat pentru Deosebirea Omului de Calculator (Completely Automated Public Turing test to tell Computers and Humans Apart, CAPTCHA). După cum sugerează și numele, acest lucru ajută la determinarea dacă utilizator este o persoană reală sau un computer care simulează un om. Spre deosebire de testul Turing standard, care este administrat de către un om unei mașini, CAPTCHA este administrat de o mașină unui om. Un computer cere unui utilizator să completeze un test simplu, apoi generează o notă pentru acel test. Computerele nu reușesc să rezolve problemele, deci soluțiile corecte sunt considerate a fi rezultatul faptului că testul a fost efectuat de un om. Un tip comun de CAPTCHA este un test care necesită identificarea unor litere, numere sau simboluri distorsionate care apar într-o imagine care ar fi indescifrabilă pentru un calculator.[269]

Testele de „inteligență universale” propuse au scopul de a compara cât de bine se comportă mașinile, oamenii și chiar animalele la seturi de probleme care sunt cât mai generice cu putință. La extrem, suita de test poate conține orice problemă posibilă, ponderată de complexitatea Kolmogorov⁠(d); din păcate, aceste seturi de probleme tind să fie dominate de exerciții slabe de aplicare a șabloanelor, la care o IA acordată corespunzător poate depăși cu ușurință performanța umană.[270] [271]

Metrici universale de tip cutie neagră de măsurare a inteligenței sistemelor

modificare

Pe baza diversității mari de sisteme inteligente (agenți inteligenți și sisteme multi-agent cooperative inteligente), trebuie utilizate metrici universale capabile să măsoare inteligența sistemelor și, totodată, să compare sistemele pe baza inteligenței lor. Una dintre proprietățile cele mai importante ale unei metrici de măsurare a inteligenței este tratarea aspectului de variabilitate în inteligență. Metricile de inteligență de tip cutie neagră, cum ar fi MetrIntPair [272], MetrIntPairII [273], MetrIntMeas [274] și metoda ExtrIntDetect [275] sunt universale, deoarece nu depind de arhitectura sistemelor a căror inteligență o măsoară. MetrIntPair este o metrică precisă care poate măsura și compara simultan inteligența a două sisteme. MetrIntPairII este o metrică precisă și robustă care poate măsura și compara simultan inteligența unui număr oarecare de sisteme inteligente. Metricile MetrIntPair și MetrIntPairII folosesc măsurători specifice de inteligență bazate pe o metodă de măsurare pe perechi și pot clasifica sistemele studiate în clase de inteligență. MetrIntMeas poate măsura și compara inteligența unui sistem studiat cu o inteligență de referință. Metoda ExtrIntDetect poate să detecteze sistemele cu inteligență extremă dintr-un set de sisteme inteligente studiate.

Aplicații

modificare
 
Un asistent online automat oferind servicii clienților pe o pagină web — una dintre multele aplicații foarte primitive ale inteligenței artificiale

IA este relevantă pentru orice sarcină intelectuală.[276] Tehnicile moderne de inteligență artificială sunt omniprezente și sunt prea numeroase pentru a fi prezentate exhaustiv aici. Frecvent, atunci când o tehnică ajunge în uz general, ea nu mai este considerată a fi inteligență artificială; acest fenomen este denimit efectul IA⁠(d).[277]

Printre exemplele de IA foarte vizibile se numără vehiculele autonome (cum ar fi dronele și autoturismele conduse automat), diagnosticul medical, unele creații artistice (cum ar fi poezia), demonstrarea unor teoreme matematice, jocurile (cum ar fi șahul sau go), motoarele de căutare (cum ar fi Google Search), asistenți online (cum ar fi Siri), recunoașterea imaginilor în fotografii, filtrarea spamului, prezicerea întârzierilor zborurilor,[278] prezicerea deciziilor judiciare[279] și direcționarea reclamelor online.[276][280][281]

După ce site-urile de social media au depășit televiziunea ca sursă de știri pentru tineri, organizațiile de știri se bazează tot mai mult pe platformele de social media pentru generarea de distribuție,[282] editorii majori folosesc acum tehnologia inteligenței artificiale pentru a publica mai eficient articole și de a genera volume mai mari de trafic.[283]

Sănătate

modificare
 
Un braț chirurgical al Sistemului Chirurghical Da Vinci

IA se aplică în problema de cost ridicat a dozajului — unde unele rezultate sugerau că IA ar putea economisi 16 miliarde de dolari. În 2016, un studiu de pionierat efectuat în California a constatat că o formulă matematică dezvoltată cu ajutorul IA a determinat în mod corect doza exactă de medicamente imunosupresoare care să fie administrată pacienților implicați în transplante de organe. [284]

 
Radiografie⁠(d) a unei mâini, cu calcul automat al vârstei oaselor⁠(d) efectuat de un software de calculator

Inteligența artificială pătrunde în industria sănătății ca asistent al medicilor. Potrivit Bloomberg Technology, Microsoft a dezvoltat IA pentru a ajuta medicii să găsească tratamentele corecte pentru cancer.[285] Există o cantitate substanțială de cercetare și un număr mare de medicamente dezvoltate pentru cancer. În detaliu, există peste 800 de medicamente și vaccinuri pentru tratarea cancerului. Acest lucru afectează negativ medicii, deoarece există prea multe opțiuni din care să aleagă, făcând mai dificilă alegerea medicamentelor potrivite pentru pacienți. Microsoft lucrează la un proiect pentru a dezvolta o mașină numită „Hanover”. Obiectivul său este de a memora toate lucrările necesare din domeniul oncologiei și de a ajuta să se prevadă care combinații de medicamente vor fi cele mai eficiente pentru fiecare pacient. Un proiect la care se lucrează în prezent este combaterea leucemiei mieloide, un cancer mortal al cărui tratament nu s-a îmbunătățit de decenii. Un alt studiu a arătat că inteligența artificială este la fel de bună ca medicii instruiți în identificarea cancerelor de piele.[286] Un alt proiect utilizează inteligența artificială pentru a încerca monitorizarea mai multor pacienți cu risc crescut și acest lucru se face prin punerea de numeroase întrebări fiecărui pacient, pe baza datelor obținute din interacțiunile medicului uman cu pacientul.[287] S-a realizat un studiu cu învățare prin transfer, mașina a efectuat un diagnostic similar unui oftalmolog bine pregătit și ar putea genera o decizie în 30 de secunde dacă pacientul trebuie sau nu să fie trimis la tratament, cu o precizie de peste 95%.[288]

Potrivit CNN, un studiu efectuat de chirurgi de la Centrul Medical National pentru Copii din Washington a demonstrat cu succes o interventie chirurgicală efectuată de un robot autonom. Echipa a supravegheat robotul în timp ce el efectua o intervenție chirurgicală pe țesuturi moi, reparând intestinul rupt al unui porc într-o intervenție chirurgicală deschisă cu o reușită mai bună decât a unui chirurg uman, după afirmațiile echipei.[289] IBM și-a creat propriul calculator de inteligență artificială, IBM Watson, care a depășit inteligența umană (la anumite nivele). Watson nu numai că a câștigat la show-ul de joc Jeopardy! împotriva foștilor campioni[290] dar a fost declarat erou după ce a diagnosticat cu succes o femeie care suferea de leucemie.[291]

Industria auto

modificare

Progresele din IA au contribuit la creșterea industriei de automobile prin crearea și evoluția autovehiculelor cu autovehicule. În 2016, existau peste 30 de companii care utilizau IA la crearea mașinilor fără șofer. Câteva companii implicate în IA sunt Tesla, Google și Apple.[292]

Multe componente contribuie la funcționarea autoturismelor. Aceste vehicule incorporează sisteme cum ar fi frânarea, schimbarea benzii de rulare, prevenirea coliziunilor, navigarea și cartografierea. Împreună, aceste sisteme, precum și computerele de înaltă performanță, sunt integrate într-un singur vehicul complex.[293]

Evoluțiile recente în domeniul autovehiculelor autonome au făcut posibilă inovația autoturismelor conduse automat, deși acestea se află încă în faza de testare. Guvernul britanic a adoptat legislație pentru începerea testării unor mici flote de autoturisme fără șofer în 2018.[294] Plutoanele de camioane automate sunt o flotă de autocamioane care conduc în urma unui camion condus de un om, deci plutonul de camioane nu este în întregime autonom. Între timp, Daimler, o companie germană de automobile, testează Freightliner Inspiration, o mașină semi-autonomă de fi folosit numai pe șosele interurbane.[295]

Un factor principal care influențează abilitatea unui automobil de a funcționa fără conducător auto este cartografierea. În general, vehiculul ar putea fi pre-programat cu o hartă a zonei prin care conduce. Această hartă ar include date privind aproximarea luminii stradale și a înălțimii bordurilor pentru ca vehiculul să fie conștient de împrejurimile sale. Cu toate acestea, Google a lucrat la un algoritm al cărui scop este de a elimina nevoia de hărți preprogramate și a creat, în schimb, un dispozitiv care să se poată adapta la o varietate de împrejurimi noi.[296] Unele autovehicule automate nu sunt echipate cu volane sau pedale de frână, așa că s-au concentrat pe cercetări asupra creării unui algoritm capabil să mențină un mediu sigur pentru pasagerii vehiculului prin conștientizarea condițiilor de condus și de viteză.[297]

Un alt factor care influențează capacitatea unui automobil fără șofer este siguranța pasagerului. Pentru a face un automobil fără șofer, inginerii trebuie să-l programeze pentru a gestiona situațiile cu risc ridicat. Aceste situații ar putea include o ciocnire frontală cu pietoni. Scopul principal al mașinii trebuie să fie acela de a lua o decizie care să evite lovirea pietonilor și salvarea pasagerilor în mașină. Dar există o posibilitate ca mașina să aibă nevoie de o decizie care ar pune pe cineva în pericol. Cu alte cuvinte, mașina ar trebui să decidă să salveze pietonii sau pasagerii.[298] Programarea mașinii în aceste situații este esențială pentru un automobil fără conducător auto.

Finanțe și economie

modificare

Instituțiile financiare folosesc de mult timp sistemele de rețele neurale artificiale pentru a detecta debite sau cereri de debitare extraordinare, marcându-le pentru a fi cercetate de oameni. Utilizarea IA în sectorul bancar datează din 1987, când Security Pacific Bank⁠(d) din SUA a înființat un Task force pentru Prevenirea Fraudelor cu scopul de a contracara utilizarea neautorizată a cardurilor de debit. Programe precum Kasisto și Moneystream utilizează IA în serviciile financiare.

Băncile utilizează astăzi sisteme cu inteligență artificială pentru a organiza operațiuni, a menține evidența contabilă, a investi în acțiuni și a gestiona proprietățile. IA poate reacționa la schimbări bruște și în timpul nopții sau în zilele nelucrătoare.[299] În august 2001, roboții au învins oamenii într-o competiție simulată de tranzacționare financiară⁠(d).[300] IA a redus și frauda și criminalitatea financiară prin monitorizarea modelelor comportamentale⁠(d) ale utilizatorilor pentru orice schimbări anormale sau anomalii.[301]

Utilizarea mașinilor cu IA pe piață în aplicații precum comerțul online și luarea deciziilor a schimbat teoriile economice majore.[302] De exemplu, platformele de cumpărare și vânzare bazate pe IA au schimbat legea cererii și ofertei prin faptul că acum este posibilă estimarea cu ușurință a unor curbe individualizate de cerere și ofertă și, prin urmare, stabilirea prețurilor individualizate. În plus, mașinile cu IA reduc asimetria informației⁠(d) pe piață, făcând astfel piețele mai eficiente, și reducând volumul tranzacțiilor. Printre alte teorii în care IA a avut impact se numără alegerea rațională, așteptările raționale, teoria jocurilor, punctul de cotitură Lewis⁠(d), optimizarea portofoliului⁠(d) și gândirea contrafactuală⁠(d).

Jocuri video

modificare

În jocurile video, inteligența artificială este utilizată în mod obișnuit pentru a genera un comportament dinamic la personajele nejucător (NPC). În plus, tehnici IA bine cunoscute sunt utilizate în mod curent pentru găsirea de drumuri⁠(d). Unii cercetători consideră că NPC cu IA în jocuri sunt o „problemă rezolvată” pentru majoritatea cazurilor din producție. Printre jocurile cu IA mai atipice se numără directorul IA din Left 4 Dead⁠(d) (2008) și antrenamentul neuroevoluționar al plutoanelor în Supreme Commander 2⁠(d) (2010).[303][304]

Cheltuielile militare mondiale anuale pe robotică au crescut de la 5,1 miliarde de dolari în 2010 la 7,5 miliarde de dolari în 2015.[305][306] Dronele militare capabile de acțiune autonomă sunt considerate pe scară largă o dotare utilă. Mulți cercetători în domeniul inteligenței artificiale încearcă să se distanțeze de aplicațiile militare ale AI. [307]

Inteligența artificială generativă

modificare

Inteligența artificială generativă este inteligența artificială capabilă să genereze texte, imagini, video, sau alte date folosind modele generative.

Pentru auditul contabilității financiare, IA face posibil auditul continuu. Instrumentele cu IA pot analiza pe loc multe seturi de informații diferite. Beneficiul potențial este reducerea riscului general de audit, creșterea nivelului de asigurare și reducerea duratei auditului.[308]

Publicitate

modificare

Se poate utiliza IA pentru a anticipa sau generaliza comportamentul clienților din amprenta lor digitală⁠(d), pentru a-i viza cu ajutorul unor promoții personalizate sau pentru a construi în mod automat profiluri de client.[309] Un caz documentat arată că companiile de jocuri de noroc online folosesc IA pentru a îmbunătăți direcționarea reclamelor către clienți.[310]

Mai mult, aplicarea modelelor de IA de calcul al personalității⁠(d) poate contribui la reducerea costurilor campaniilor publicitare prin adăugarea de direcționare psihologică la direcționarea , sociodemografică sau comportamentală.[311]

Inteligența artificială a inspirat numeroase aplicații creative, inclusiv utilizarea sa pentru a produce arte vizuale. Expoziția „Mașini gânditoare: artă și design în era calculatoarelor, 1959-1989” de la MoMA[312] oferă o imagine de ansamblu asupra aplicațiilor istorice ale IA în artă, arhitectură și design. Printre expozițiile recente care prezintă utilizarea de IA pentru a produce artă se numără acțiunile și licitațiile de binefacere sponsorizate de Google de la Fundația Grey Area din San Francisco, unde artiștii au experimentat cu algoritmul deepdream, [313] și expoziția „Unhuman: Art in Age of AI”, care a avut loc în Los Angeles și Frankfurt, în toamna anului 2017.[314][315] În primăvara anului 2018, Association for Computing Machinery a dedicat un număr special al revistei sale subiectului computerelor și artei, evidențiind rolul învățării automate în artă.[316]

Explorarea spațiului

modificare

Filosofie și etică

modificare

Există trei întrebări filosofice legate de IA:

  1. Este posibilă inteligența artificială generală? Poate o mașină să rezolve orice problemă pe care o ființă umană o poate rezolva folosind inteligența? Sau există limite dure pentru ceea ce poate realiza o mașină?
  2. Sunt mașinile inteligente periculoase? Cum putem să ne asigurăm că mașinile se comportă etic și că sunt utilizate în mod etic?
  3. Poate o mașină să aibă minte, conștiință și stări mentale la fel cum au oamenii? Poate o mașină să fie conștientă de sine⁠(d) și, prin urmare, să merite anumite drepturi? Poate o mașină să provoace rău intenționat⁠(d)?

Limitele inteligenței generale artificiale

modificare

Poate o mașină să fie inteligentă? Poate „gândi”?

Convenția „politicoasă” a lui Alan Turing,⁠(d)
Nu trebuie să decidem dacă o mașină poate „gândi”; trebuie doar să decidem dacă o mașină poate funcționa inteligent ca o ființă umană. Această abordare a problemelor filosofice asociate cu inteligența artificială formează baza testului Turing.[317]
Propunerea de la Dartmouth⁠(d)
„Fiecare aspect al învățării sau orice altă caracteristică a inteligenței poate fi atât de precis descris încât poate fi făcută o mașină pentru a-l simula”. Această presupunere a fost tipărită în propunerea pentru Conferința de la Dartmouth din 1956 și reprezintă poziția celor mai mulți cercetători din IA.[318]
Ipoteza sistemului de simboluri fizice a lui Newell și Simon⁠(d)
„Un sistem de simboluri fizice are mijloacele necesare și suficiente pentru acțiune inteligentă generală”. Newell și Simon susțin că inteligența constă în operațiuni formale pe simboluri. [319] Hubert Dreyfus argumenta că, dimpotrivă, expertiza umană depinde mai degrabă de instinctul inconștient decât de manipularea simbolică a conștientului și pe un „simț” al situației, mai degrabă decât o cunoaștere simbolică explicită.[320] [321]
Argumentele Gödeliene
Gödel însuși,[322] John Lucas (în 1961) și Roger Penrose (într-un argument mai detaliat începând cu 1989) au susținut cu argumente extrem de tehnice că matematicienii umani pot vedea constant adevărul propriilor lor „afirmații Gödel” și, prin urmare, că au abilități de calcul dincolo de mașinile Turing mecanice.[323] Cu toate acestea, consensul modern în comunitatea științifică și matematică este că aceste „argumente Gödeliene” nu sunt valide.[324][325][326]
Argumentul creierului artificial⁠(d)
Creierul poate fi simulat de mașini și, deoarece creierul este inteligent, creierul simulat trebuie să fie și el inteligent; astfel mașinile pot fi inteligente. Hans Moravec⁠(d), Ray Kurzweil și alții au susținut că este posibil din punct de vedere tehnologic să se copieze creierul direct în hardware și software, și ca o astfel de simulare să fie în esență identică cu originalul.[143]
Efectul IA⁠(d)
Mașinile sunt deja inteligente, dar observatorii nu își dau seama. Când Deep Blue l-a învins pe Garry Kasparov la șah, mașina se purta inteligent. Cu toate acestea, privitorii neagă de obicei comportamentul unui program cu inteligență artificială, argumentând că nu este în definitiv inteligență „reală”; astfel, inteligența „reală” este orice comportament inteligent pe care oamenii îl pot avea, dar mașinile încă nu. Acesta este cunoscut sub numele de efectul IA: „IA este ceea ce nu s-a făcut încă”.

Probleme potențiale

modificare

Utilizarea pe scară largă a inteligenței artificiale ar putea avea consecințe neintenționate⁠(d) care pot fi periculoase sau nedorite. Oamenii de știință de la Institutul pentru Viitorul Vieții⁠(d) au descris, printre altele, câteva obiective de cercetare pe termen scurt pentru a vedea cum IA influențează economia, legile și etica implicate în IA și cum să minimizeze riscurile de securitate aduse de IA. Pe termen lung, oamenii de știință au propus să se continue să se optimizeze funcțiilor, reducând în același timp riscurile posibile de securitate care vin împreună cu noile tehnologii.[327]

Risc existențial

modificare

Fizicianul Stephen Hawking, fondatorul Microsoft Bill Gates, și fondatorul SpaceX Elon Musk și-au exprimat îngrijorarea cu privire la posibilitatea ca IA să poată evolua până la punctul în care oamenii nu ar putea să o mai controleze, iar Hawking a teoretizat că acest lucru ar putea „însemna sfârșitul rasei umane⁠(d)”.[328][329][330]

În cartea sa Superintelligence: Paths, Dangers, Strategies, Nick Bostrom oferă un argument că inteligența artificială va constitui o amenințare pentru omenire. El susține că, dacă alege acțiuni bazate pe atingerea unui anumit scop, o IA suficient de inteligentă va prezenta un comportament convergent⁠(d), respectiv va acumula resurse și se va proteja de la oprire. Dacă scopurile IA nu le reflectă pe cele ale umanității — de exemplu, o IA căreia i se cere să calculeze cât mai multe cifre din pi posibil — ar putea face rău umanității pentru a obține mai multe resurse sau pentru a preveni închiderea sa, totul pentru a-și atinge mai bine scopul.

Preocuparea față de riscul produs de inteligența artificială a dus la unele donații și investiții foarte cunoscute. Un grup de titani tehnologici proeminenți, printre care Peter Thiel⁠(d), Amazon Web Services și Musk, au angajat 1 miliard de dolari pentru OpenAI, o companie nonprofit care vizează promovarea dezvoltării responsabile a IA.[331] Opinia experților din domeniul inteligenței artificiale este diversă, existând fracțiuni considerabile care nu sunt îngrijorate, dar și altele care sunt, de riscul unei IA capabile de supra-umanitate.[332] În ianuarie 2015, Elon Musk a donat zece milioane de dolari Institutului „Viitorul Vieții”⁠(d) pentru a finanța cercetarea privind înțelegerea procesului de decizie în IA. Scopul institutului este „să crească înțelepciunea cu care gestionăm" puterea tot mai mare a tehnologiei. Musk finanțează și companiile care dezvoltă inteligență artificială, cum ar fi DeepMind și Vicarious⁠(d), doar pentru „a urmări ce se întâmplă cu inteligența artificială”.[333] El crede că „există un rezultat potențial periculos.”[334][335] In anul 2015 a avut loc o conferință științifică majoră în domeniul siguranței Inteligenței Artificiale, printre organizatorii căreia a fost cercetătorul Max Tegmark[336], dar și foarte mulți specialiști în domeniu de la Harvard, Boston și alte cele mai importante universități americane, care s- a ținut în Puerto- Rico, și la care a participat și Elon Musk. Tocmai aici miliardarul american și- a anunțat susținerea financiară pentru cercetările în domeniul siguranței inteligenței Artificiale. Evenimentul avea loc chiar în ajunul lansării a două rachete de către Space X, și faptul susținerii acestui domeniu de către una dintre cele mai importante figuri din domeniul spațial din lume a însemnat un progres substanțial al cercetării în domeniul inteligenței artificiale in SUA.

Pentru ca acest pericol să fie realizat, un IA ipotetic ar trebui să capete putere și inteligență superioară întregii umanități, posibilitate suficient de îndepărtată în viitor ca să nu merite cercetată.[337][338] Alte contraargumente se învârt în jurul ideii că oamenii sunt, fie intrinsec, fie convergent, valoroși din perspectiva unei inteligențe artificiale.[339]

Devalorizarea umanității

modificare

Joseph Weizenbaum⁠(d) scria că aplicațiile IA nu pot, prin definiție, să simuleze cu adevărat empatia umană reală și că utilizarea tehnologiei IA în domenii precum serviciul pentru clienți⁠(d) sau psihoterapia[340] este profund greșită. Weizenbaum a fost deranjat și de faptul că cercetătorii IA (și unii filozofi) erau dispuși să vadă mintea umană ca pe un program de calculator (o poziție cunoscută acum sub numele de computaționalism⁠(d)). Pentru Weizenbaum aceste idei sugerează că cercetarea IA ar devaloriza viața umană.[341]

Dreptate socială

modificare

O preocupare este că programele IA pot fi programate pentru a fi părtinitoare împotriva anumitor grupuri, cum ar fi femeile și minoritățile, deoarece majoritatea dezvoltatorilor sunt bărbați albi bogați.[342] Sprijinul pentru inteligența artificială este mai mare în rândul bărbaților (cu aprobarea de 47%) decât femeile (35%).

Scăderea cererii pentru munca umană

modificare

Relația dintre automatizare și ocuparea forței de muncă este complicată. În timp ce automatizarea elimină locurile de muncă vechi, ea și creează noi locuri de muncă prin efectele microeconomice și macroeconomice.[343] Spre deosebire de valurile anterioare de automatizare, multe locuri de muncă ale clasei mijlocii pot fi eliminate prin inteligența artificială; The Economist afirmă că „îngrijorarea pe care IA ar putea să o facă în cazul muncii calificate ceea ce a făcut mașina cu aburi celei manuale în timpul Revoluției Industriale” merită luat în serios.[344] Estimările subiective ale riscului variază foarte mult; de exemplu, Michael Osborne și Carl Benedikt Frey⁠(d) estimează că 47% din locurile de muncă din SUA sunt „cu risc ridicat” de automatizare potențială, în timp ce raportul OCDE clasifică doar 9% din locurile de muncă din SUA cu „risc ridicat”.[345][346][347] Locurile de muncă cu intervalul de risc extrem sunt cele de tipul paralegal sau bucătar de fast-food, în timp ce cererea de locuri de muncă este probabil să crească pentru profesiile legate de servicii directe, de la asistența medicală personală la cler. [348] Autorul Martin Ford⁠(d) și alții merg mai departe și susțin că un număr mare de locuri de muncă sunt de rutină, repetitive și (pentru o IA) previzibile; Ford avertizează că aceste locuri de muncă ar putea fi automatizate în următoarele decenii și că multe dintre noile locuri de muncă ar putea să nu fie „accesibile persoanelor cu capacități medii”, chiar și prin recalificare. Economiștii subliniază faptul că tehnologia din trecut avea tendința de a crește, și nu de a reduce ocuparea totală a forței de muncă, dar a recunoscut că „suntem pe un teritoriu neexplorat” cu IA.[24]

Arme autonome

modificare

Actualmente, peste 50 de țări cercetează roboți de luptă, inclusiv Statele Unite, China, Rusia și Regatul Unit. Mulți oameni preocupați de riscul de IA superinteligent doresc, de asemenea, să limiteze utilizarea soldaților și a dronelor artificiale.[349]

Mașini etice

modificare

Mașinile cu inteligență au potențialul de a-și folosi inteligența pentru a preveni daunele și pentru a minimiza riscurile; ele pot avea capacitatea de a folosi raționamentul etic pentru a-și alege mai bine acțiunile în lume. Cercetarea în acest domeniu cuprinde etica mașinii⁠(d), agenții artificiali morali⁠(d) și IA prietenoasă⁠(d).

Agenți artificiali morali

modificare

Wendell Wallach a introdus conceptul de agent artificial moral⁠(d) (AMA) în cartea sa Morale Machines.[350] Pentru Wallach, AMA au devenit o parte a peisajului de cercetare al inteligenței artificiale, fiind ghidat de cele două întrebări centrale pe care le identifică drept: „Vrea omenirea ca mașinile să ia decizii morale?”[351] și „pot (ro)boții să fie cu adevărat morali?”.[352] Pentru Wallach, întrebarea nu este centrată pe problema dacă mașinile pot demonstra echivalența comportamentului moral, ci pe constrângerile pe care societatea le poate impune asupra dezvoltării AMA.[353]

Etica mașinilor

modificare

Domeniul eticii mașinilor se referă la imprimarea de principii etice mașinilor sau la o procedură de descoperire a unei modalități de rezolvare a dilemelor etice pe care le-ar putea întâmpina, permițându-le să funcționeze într-o manieră etică responsabilă prin propriile decizii etice.[354] Domeniul a fost descris în Simpozionul AAAI Fall 2005 privind etica mașinilor: „Cercetările anterioare privind relația dintre tehnologie și etică s-au axat în mare parte pe utilizarea responsabilă și iresponsabilă a tehnologiei de către ființele umane, câțiva oameni fiind interesați de modul în care ființele umane tratează mașinile. În toate cazurile, numai ființele umane s-au angajat în raționamentul etic. A sosit timpul să adăugăm o dimensiune etică cel puțin unora din mașini. Recunoașterea ramificațiilor etice ale comportamentului care implică mașini, precum și evoluțiile recente și potențiale ale autonomiei mașinilor necesită acest lucru. Spre deosebire de hackingul calculatoarelor, problemele legate de proprietatea software-ului, problemele de confidențialitate și alte subiecte care sunt în mod normal atribuite eticii calculatoarelor, etica mașinilor se referă la comportamentul mașinilor față de utilizatorii umani și față de alte mașini. Cercetarea în etica mașinilor este esențială pentru atenuarea preocupărilor cu sistemele autonome — s-ar putea argumenta că noțiunea de mașini autonome fără o asemenea dimensiune este la baza tuturor temerilor legate de inteligența mașinilor. În plus, investigarea eticii mașinilor ar putea permite descoperirea unor probleme cu teoriile etice actuale, îmbunătățindu-ne gândirea despre etică.”[355] Etica mecanică este uneori denumită „moralitatea mașinii”, „etică computațională” sau „moralitate computațională”. O varietate de perspective ale acestui domeniu incipient pot fi găsite în ediția colectivă „Machine Ethics”[354] care provine din simpozionul AAAI Fall 2005 privind etica mașinilor.[355]

IA rău-voitoare și IA prietenoasă

modificare

Politologul Charles T. Rubin⁠(d) consideră că IA nu poate fi nici proiectată, nici garantată a fi binevoitoare.[356] El susține că „orice bunăvoință suficient de avansată poate fi indisolubilă de rea-voință”. Oamenii nu ar trebui să presupună că mașinile sau roboții ne vor trata favorabil, deoarece nu există niciun motiv a priori de a crede că ar simpatiza cu sistemul nostru de moralitate, care a evoluat odată cu biologia noastră particulară (pe care IA nu ar împărtăși-o). Software-ul inteligent poate să nu decidă neapărat să susțină existența umanității și ar fi extrem de dificil să se oprească. Acest subiect a început de curând să fie discutat în publicațiile academice ca o adevărată sursă de risc pentru civilizație, oameni și planeta Pământ.

O propunere de abordare a acestei situații este aceea de a se asigura că prima IA inteligentă în general este „IA prietenoasă⁠(d)” și că va fi capabilă să controleze IA dezvoltate ulterior. Unii se întreabă dacă acest tip de control ar putea rămâne funcțional.

Cercetătorul de IA Rodney Brooks⁠(d) scria: „cred că este o greșeală să ne îngrijorăm că am putea dezvolta IA rău-voitoare oricând în următoarele câteva sute de ani. Cred că îngrijorarea provine dintr-o eroare fundamentală de a nu distinge diferența dintre progresele recente foarte reale într-un anumit aspect al IA pe de o parte, și enormitatea și complexitatea construirii unei inteligențe voluntare conștiente de sine.”[357]

Conștiința, sentimentul și mintea pentru o mașină

modificare

Dacă un sistem cu IA replică toate aspectele cheie ale inteligenței umane, va fi și acest sistem conștient de sine⁠(d) — va avea o minte care are experiențe conștiente? Această întrebare este strâns legată de problema filosofică cu privire la natura conștiinței umane, numită în general problema grea a conștiinței⁠(d).

Conștiința

modificare

David Chalmers⁠(d) a identificat două probleme în înțelegerea minții, pe care le-a numit problemele „grea” și „ușoară” ale conștiinței.[358] Problema ușoară este înțelegerea modului în care creierul procesează semnale, face planuri și controlează comportamentul. Problema grea explică cum se simte sau de ce ar trebui să se simtă. Prelucrarea informației⁠(d) umane este ușor de explicat, însă experiența subiectivă⁠(d) umană este dificil de explicat.

De exemplu, să considerăm ceea ce se întâmplă atunci când unei persoane i se arată un specimen de culoare și ea o identifică, spunând că este „roșu”. Problema ușoară necesită doar înțelegerea mecanismelor din creier care fac posibil ca o persoană să știe că specimenul de culoare este roșu. Problema dificilă este că oamenii mai știu și altceva — ei știu și cum arată roșu. (o persoană născută fără vedere poate să știe că ceva este roșu fără să știe ce arată roșu.) [n] Toată lumea știe că experiența subiectivă există, deoarece o au în fiecare zi (de exemplu, toți oamenii care pot vedea știu ce este roșu). Problema dificilă explică modul în care creierul îl creează, de ce există, și cum este diferit de cunoștințe și de alte aspecte ale creierului.

Computaționalism și funcționalism

modificare

Computaționalismul este poziția din domeniul filosofiei mințiimintea umană, creierul uman sau ambele sunt sisteme de procesare a informațiilor și că gândirea este o formă de calcul.[359] Computaționalismul susține că relația dintre minte și corp este similară sau identică cu relația dintre software și hardware și, astfel, poate fi o soluție la problema minții și corpului⁠(d). Această poziție filosofică a fost inspirată de activitatea cercetătorilor din IA și a specialiștilor în științele cognitive din anii 1960 și a fost inițial propusă de filozofii Jerry Fodor⁠(d) și Hilary Putnam.

Ipoteza IA puternice

modificare

Poziția filosofică pe care John Searle a numit-o Inteligență artificială puternică afirmă: „calculatorul programat corespunzător, cu intrările și ieșirile corecte ar avea astfel o minte în același sens cu care oamenii au minți”.[360] Searle contrazice această afirmație cu argumentul camerei chinezești⁠(d), care ne cere să privim în interiorul calculatorului și să încercăm să găsim unde ar putea fi „mintea”.[361]

Drepturile roboților

modificare

Dacă o mașină poate fi creată cu inteligență, ar putea simți⁠(d)? Dacă poate simți, are aceleași drepturi ca și omul? Această problemă, cunoscută acum ca „drepturile roboților”, este în prezent analizată de către Institutul pentru Viitor⁠(d) din California, deși mulți critici consideră că discuția este prematură.[362] Unii critici ai transumanismului susțin că orice drepturi ipotetice ale robotului ar rezida pe un spectru, cu drepturile animalelor și drepturile omului.[363] Subiectul este discutat în profunzime în filmul documentar Plug & Pray⁠(d) din 2010.[364]

Superinteligența

modificare

Există limite pentru cât de inteligente pot fi mașinile sau hibrizii om-mașină? O superinteligență, hiperintelligență sau inteligență supraomenească este un agent ipotetic care ar avea o inteligență care depășește cu mult pe cea a celei mai strălucite și mai talentate minți umane. Superinteligența se poate referi și la forma sau gradul de inteligență posedat de un astfel de agent.[137]

Singularitatea tehnologică

modificare

Dacă cercetarea despre IA puternică ar produce software suficient de inteligent, s-ar putea reprograma și îmbunătăți singură. Software-ul îmbunătățit ar fi chiar mai bun la a se îmbunătăți singur, ceea ce ar duce la o auto-îmbunătățire recursivă.[365] Noua inteligență ar putea astfel să crească exponențial și să depășească în mod dramatic oamenii. Scriitorul de science fiction Vernor Vinge a numit acest scenariu „singularitatea”.[366] Singularitatea tehnologică este atunci când accelerarea progresului în tehnologii va provoca un efect în cascadă, în care inteligența artificială va depăși controlul și capacitatea intelectuală a omului, schimbând astfel radical sau chiar punând capăt civilizației. Deoarece capacitățile unei astfel de inteligențe pot fi imposibil de înțeles, singularitatea tehnologică este un eveniment dincolo de care evenimentele sunt imprevizibile sau chiar imposibil de imaginat.[366][137]

Ray Kurzweil a folosit legea lui Moore (care descrie îmbunătățirea exponențială neîncetată a tehnologiei digitale) pentru a calcula că calculatoarele desktop⁠(d) vor avea aceeași putere de procesare ca și creierul uman până în anul 2029 și prezice că singularitatea va avea loc în 2045.[366]

Transumanismul

modificare

Proiectantul de roboți Hans Moravec⁠(d), ciberneticianul Kevin Warwick⁠(d) și inventatorul Ray Kurzweil au prezis că oamenii și mașinile se vor îmbina în viitor în cyborgi care vor fi mai capabili și mai puternici decât oricare dintre ei.[367] Această idee, numită transumanism, are rădăcini în Aldous Huxley și Robert Ettinger .

Edward Fredkin⁠(d) susține că „inteligența artificială este următoarea etapă a evoluției”, o idee propusă inițial de „Darwin între mașini⁠(d)” a lui Samuel Butler (1863) și extinsă de George Dyson⁠(d) în cartea cu același nume în 1998.[368]

În ficțiune

modificare
 
Însuși cuvântul „robot” a fost inventat de Karel Čapek în piesa de teatru RUR din 1921, titlul ei însemnând „Roboți Universali Rossum

Ființele artificiale capabile de gândire au apărut ca instrumente narative încă din antichitate[26] și au fost o temă persistentă în science fiction.

Un motiv⁠(d) comun în aceste lucrări a început cu Frankenstein al lui Mary Shelley, unde o creație umană devine o amenințare pentru stăpânii săi. Motivul apare și în opere ca în cartea 2001: O Odisee Spațială de Arthur C. Clarke și filmul cu același titlu al lui Stanley Kubrick (ambele din 1968), cu HAL 9000, computerul ucigaș care controlează nava spațială Discovery One⁠(d); precum și The Terminator (1984) și The Matrix. În schimb, roboți credincioși sunt rari, cum ar fi Gort din Ziua în care Pământul s-a oprit (1951) și Bishop din Aliens (1986), sunt mai puțin proeminenți în cultura populară.[369]

Isaac Asimov a introdus cele trei legi ale roboticii în multe cărți și povestiri, mai ales seria „Multivac” despre un computer super-inteligent cu același nume. Legile lui Asimov sunt adesea aduse în discuțiile nespecialiștilor în etica mașinilor;[370] aproape toți cercetătorii de inteligență artificială sunt familiarizați cu legile lui Asimov prin cultura populară, dar ei le consideră în general inutile din mai multe motive, dintre care unul este ambiguitatea lor.[371]

Transumanismul (îmbinarea oamenilor și mașinilor) este explorat în manga Ghost in the Shell și în seria science-fiction Dune. În anii 1980, seria Sexy Robots a artistului Hajime Sorayama⁠(d) a fost pictată și publicată în Japonia, reprezentând forma umană organică reală cu piei metalice pline de viață, și ulterior cartea „Gynoids", care a fost folosită de sau chiar i-a influențat pe producători de film, între care George Lucas. Sorayama nu a considerat niciodată că acești roboți organici sunt o parte reală a naturii, ci mereu un produs nenatural al minții umane, o fantezie existentă doar în minte chiar și atunci când este realizată în formă reală.

Mai multe lucrări utilizează IA pentru a ne forța să ne confruntăm cu întrebarea fundamentală despre ce ne face să fim umani, arătându-ne ființe artificiale care au capacitatea de a simți⁠(d) și, astfel, de a suferi. Acest lucru apare în „RUR” a lui Karel Čapek, în filmele „Inteligența artificială” și „Ex Machina”, precum și în romanul „Visează androizii oi electrice?” de Philip K. Dick. Dick consideră ideea că înțelegerea subiectivității umane este modificată de tehnologia creată cu inteligența artificială.[372]

Note de completare

modificare
  1. ^ Matteo Wong scria în The Atlantic: „După ce, timp de decenii, domeniile informatice ca prelucrarea limbajului natural, vederea calculatoarelor, și robotica au utilizat metode extrem de diferite, astăzi ele folosesc toate o metodă de programare denumită „deep learning”. Ca urmare, codul și abordările lor au devenit mai similare, iar modelele lor sunt mai ușor de integrat unul în celălalt.”[45]
  2. ^ Jack Clark scria în Bloomberg⁠(d): „După o jumătate de deceniu de realizări nemediatizate în domeniul inteligenței artificiale, anul 2015 a fost unul de cotitură. Calculatoarele sunt mai deștepte și învață mai repede ca oricând”, și a observat că numărul proiectelor software care utilizează învățarea automată la Google a crescut de la „utilizare sporadică” în 2012 la peste 2700 de proiecte în 2015.[47]
  3. ^ Acțiunea de a acorda recompensele poate fi chiar ea formalizată sau automatizată într-o „funcție de recompensă⁠(d)”.
  4. ^ Terminologia variază; vezi caracterizările algoritmilor⁠(d).
  5. ^ Adversarial vulnerabilities can also result in nonlinear systems, or from non-pattern perturbations. Some systems are so brittle that changing a single adversarial pixel predictably induces misclassification.
  6. ^ O asemenea „victorie a taberei neat” poate fi o consecință a faptului că domeniul a devenit mai matur; cu toate acestea, AIMA⁠(d) afirmă că în practică atât abordările neat cât și cele scruffy⁠(d) continuă să fie necesare în cercetarea IA.
  7. ^ „Există multe tipuri diferite de incertitudine, neclaritate și ignoranță... [Noi] confirmăm independent inadecvarea sistemelor de raționare pe incertitudine, care propagă factori numerici numai după ce conectori apar în aserțiuni.”[188]
  8. ^ Expectation-Maximization, unul din cei mai populari algoritmi de învățare automată, permite clusterizarea în prezența unor variabile latente⁠(d) necunoscute[197]
  9. ^ Cea mai frecvent folosită metodă de IA analogic până pe la jumătatea anilor 1990[208]
  10. ^ SVM a luat locul lui k-NN în anii 1990.[210]
  11. ^ Bayes naiv ar fi „cea mai utilizată metodă de învățare” la Google, în parte datorită scalabilității sale.[213]
  12. ^ Each individual neuron is likely to participate in more than one concept.
  13. ^ Conducerea vehicului din proiectul „No Hands Across America”⁠(d) 1995 a necesitat „doar câteva intervenții umane”.
  14. ^ Aceasta se bazează pe Camera lui Mary⁠(d), un experiment imaginar propus pentru prima oară de Frank Jackson⁠(d) în 1982

Bibliografie

modificare
  1. ^ a b Definiția IA ca studiu al agenților inteligenți⁠(d):
  2. ^ „Andreas Kaplan (2022) Artificial Intelligence, Business and Civilization - Our Fate Made in Machines, Routledge”. Arhivat din originalul de la . Accesat în . 
  3. ^ a b „Kaplan Andreas; Michael Haenlein (2018) Siri, Siri in my Hand, who's the Fairest in the Land? On the Interpretations, Illustrations and Implications of Artificial Intelligence, Business Horizons, 62(1)”. Arhivat din originalul de la . Accesat în . 
  4. ^ Russell & Norvig 2009, p. 2.
  5. ^ Ce este inteligenta artificiala (AI)? Arhivat în , la Wayback Machine. business-grow.ro
  6. ^ Maloof, Mark. „Artificial Intelligence: An Introduction, p. 37” (PDF). georgetown.edu. Arhivat din original (PDF) la . 
  7. ^ Schank, Roger C. (). „Where's the AI”. AI magazine. Vol. 12 nr. 4. p. 38. 
  8. ^ a b Russell & Norvig 2009.
  9. ^ „AlphaGo – Google DeepMind”. Arhivat din original la . 
  10. ^ a b Optimismul IA timpurii:
  11. ^ a b c Explozia din anii 1980: apariția sistemelor expert, proiectul Generația a Cincea⁠(d), Alvey⁠(d), MCC⁠(d), SCI⁠(d):
  12. ^ a b Prima iarnă a IA⁠(d), Amendamentul Mansfield⁠(d), raportul Lighthill⁠(d)
  13. ^ a b A doua iarnă a IA⁠(d):
  14. ^ a b IA începe să aibă foarte mult succes la începutul secolului al XXI-lea
  15. ^ a b Pamela McCorduck (2004, pp. 424) scrie despre „divizarea IA în subdomenii—vedere, limbaj natural, teoria deciziei, algoritmi genetici, robotică ... și fiecare cu subsubdomeniile lui—care n-ar avea ce să-și spună unul altuia."
  16. ^ a b c Lista trăsăturilor inteligente se bazează pe subiecte acoperite de principalele manuale de IA, între care:
  17. ^ a b c Inteligență biologică vs. inteligență în general:
    • Russell & Norvig 2003, pp. 2–3. , care fac analogia cu ingineria aeronautică.
    • McCorduck 2004, pp. 100–101. , care scrie că există „două ramuri majore ale inteligenței artificiale: una care are ca scop să producă comportament inteligent indiferent de cum se realizează aceasta, cealaltă spre a modela procesele inteligente găsite în natură, mai ales cele umane”.
    • Kolata 1982. , un articol din Science, care descrie indiferența lui McCarthy față de modelele biologice. Kolata îl citează pe McCarthy scriind: „aceasta este IA, deci nu ne interesează dacă este reală din punct de vedere psihologic”„Science”. august 1982. . McCarthy și-a reiterat recent poziția la conferința AI@50⁠(d) în care a spus că „inteligența artificială, prin definiție, nu este simularea inteligenței umane”.(Maker 2006)
  18. ^ a b c Neats vs. scruffies⁠(d):
  19. ^ a b IA simbolic vs. subsimbolic:
  20. ^ a b Inteligența generală (IA puternică) este discutată în introducerile populare în IA:
  21. ^ Vezi propunerea⁠(d) de la Dartmouth⁠(d), la Filosofie, mai jos.
  22. ^ a b Aceasta este o idee centrală a cărții Pamelei McCorduck⁠(d) Machines Who Think. Ea scria: „îmi place să mă gândesc la inteligența artificială ca apoteoza științifică a unei tradiții culturale venerabile”. (McCorduck 2004, p. 34) „Inteligența artificială într-o formă sau alta este o idee care a pătruns istoria intelectuală occidentală, un vis în urgentă nevoie de a fi îndeplinit”. (McCorduck 2004, p. xviii) „Istoria noastră este plină de tentative—nebunești, sinistre, comice, muncite, legendare și adevărate—de a crea inteligențe artificiale, de a reproduce ceea ce suntem esențialmente noi—depășind mijloacele obișnuite. Pendulând între mit și realitate, imaginația dându-ne ce nu ne puteau da workshopurile, ne-am angajat multă vreme în această formă ciudată de autoreproducere.” (McCorduck 2004, p. 3) Ea datează rădăcinile acestei dorințe în vremurile elenistice și o denumește dorința de a „făuri zeii”. (McCorduck 2004, pp. 340–400)
  23. ^ „Stephen Hawking believes AI could be mankind's last accomplishment”. BetaNews. . Arhivat din original la . 
  24. ^ a b Ford, Martin; Colvin, Geoff (). „Will robots create more jobs than they destroy?”. The Guardian. Arhivat din originalul de la . Accesat în . 
  25. ^ Aplicațiile IA folosite pe scară largă în culise:
  26. ^ a b IA în mituri:
  27. ^ IA în science-fictionul timpuriu.
  28. ^ Raționament formal:
  29. ^ "Inteligență artificială." Encyclopedia of Emerging Industries, editat de Lynn M. Pearce, ediția a 6-a, Gale, 2011, pp. 73-80. Gale Virtual Reference Library, http://go.galegroup.com/ps/anonymous?id=GALECX1930200017[nefuncțională] . Accesat la 31 martie 2018.
  30. ^ Russell & Norvig 2009, p. 16.
  31. ^ Conferința de la Dartmouth⁠(d):
    • McCorduck 2004, pp. 111–136.
    • Crevier 1993, pp. 47–49. , care scria „conferința este în general recunoscută ca dată de naștere a noii științe.”
    • Russell & Norvig 2003, p. 17. , care numesc conferința „nașterea inteligenței artificiale.”
    • NRC 1999, pp. 200–201.
  32. ^ Hegemonia participanților la conferința de la Dartmouth:
    • Russell & Norvig 2003, p. 17. , care scria „pentru următorii 20 de ani, domeniul va fi dominat de acești oameni și de studenții lor”.
    • McCorduck 2004, pp. 129–130.
  33. ^ Russell & Norvig 2003, p. 18.
  34. ^ Schaeffer J. (2009) Nu a reușit Samuel să rezolve acel joc? În: Un salt înainte. Springer, Boston, MA
  35. ^ Samuel, A. L. (iulie 1959). „Some Studies in Machine Learning Using the Game of Checkers”. IBM Journal of Research and Development. 3 (3): 210–229. doi:10.1147/rd.33.0210. ISSN 0018-8646. 
  36. ^ "Anii de aur⁠(d)" ai IA (programele reușite de raționament simbolic 1956–1973): Programele descrise sunt programul de dame al lui Arthur Samuel⁠(d) pentru IBM 701⁠(d), STUDENT⁠(d) al lui Daniel G. Bobrow⁠(d), Logic Theorist⁠(d) al lui Newell și Simon; și SHRDLU⁠(d) al lui Terry Winograd⁠(d).
  37. ^ DARPA finanțează generos cercetare pură nedirecționată în domeniul IA la începutul anilor 1960:
  38. ^ IA în Anglia:
  39. ^ Lighthill 1973.
  40. ^ a b Sisteme expert:
  41. ^ Metode formale și înguste adoptate în anii 1990:
  42. ^ Sisteme IA utilizate pe scară largă în anii 1990:
  43. ^ Eroare la citare: Etichetă <ref> invalidă; niciun text nu a fost furnizat pentru referințele numite AGI
  44. ^ Revoluția Deep learning, AlexNet⁠(d):
  45. ^ Wong (2023).
  46. ^ Legea lui Moore și IA:
  47. ^ a b c Clark (2015b).
  48. ^ Big data:
  49. ^ UNESCO (2021).
  50. ^ Christian (2020), pp. 67, 73.
  51. ^ Sagar, Ram (). „OpenAI Releases GPT-3, The Largest Model So Far”. Analytics India Magazine (în engleză). Arhivat din original la . Accesat în . 
  52. ^ DiFeliciantonio (2023).
  53. ^ Goswami (2023).
  54. ^ Domingos 2015, Chapter 5.
  55. ^ Domingos 2015, Chapter 7.
  56. ^ Lindenbaum, M., Markovitch, S. și Rusakov, D. (2004). Eșantionare selectivă pentru clasificatorii cei mai apropiați. Învățarea în mașină, 54 (2), 125-152.
  57. ^ Domingos 2015, Chapter 1.
  58. ^ a b Intractabilitatea și eficiența în explozia combinatorică⁠(d):
  59. ^ Domingos 2015, Chapter 2, Chapter 3.
  60. ^ Hart, P. E.; Nilsson, N. J.; Raphael, B. (). „Correction to "A Formal Basis for the Heuristic Determination of Minimum Cost Paths"”. SIGART Newsletter (37): 28–29. doi:10.1145/1056777.1056779. 
  61. ^ „Algorithm in Artificial Intelligence”. [nefuncțională]
  62. ^ Domingos 2015, Chapter 2, Chapter 4, Chapter 6.
  63. ^ „Can neural network computers learn from experience, and if so, could they ever become what we would call 'smart'?”. Scientific American (în engleză). . Arhivat din originalul de la . Accesat în . 
  64. ^ Domingos 2015, Chapter 6, Chapter 7.
  65. ^ Domingos 2015, p. 286.
  66. ^ „Single pixel change fools AI programs”. BBC News. . Arhivat din originalul de la . Accesat în . 
  67. ^ „AI Has a Hallucination Problem That's Proving Tough to Fix”. WIRED. . Arhivat din originalul de la . Accesat în . 
  68. ^ Goodfellow, Ian J., Jonathon Shlens și Christian Szegedy. "Explicarea și valorificarea exemplelor contradictorii". arXiv preprint arXiv: 1412.6572 (2014).
  69. ^ Matti, D.; Ekenel, H. K.; Thiran, J. P. (). Combining LiDAR space clustering and convolutional neural networks for pedestrian detection. 2017 14th IEEE International Conference on Advanced Video and Signal Based Surveillance (AVSS). pp. 1–6. doi:10.1109/AVSS.2017.8078512. ISBN 978-1-5386-2939-0. 
  70. ^ Ferguson, Sarah; Luders, Brandon; Grande, Robert C.; How, Jonathan P. (). Real-Time Predictive Modeling and Robust Avoidance of Pedestrians with Uncertain, Changing Intentions. Algorithmic Foundations of Robotics XI. Springer Tracts in Advanced Robotics (în engleză). 107. Springer, Cham. pp. 161–177. doi:10.1007/978-3-319-16595-0_10. ISBN 978-3-319-16594-3. 
  71. ^ „Cultivating Common Sense | DiscoverMagazine.com”. Discover Magazine. . Arhivat din originalul de la . Accesat în . 
  72. ^ Davis, Ernest; Marcus, Gary (). „Commonsense reasoning and commonsense knowledge in artificial intelligence”. Communications of the ACM. 58 (9): 92–103. doi:10.1145/2701413. [nefuncțională]
  73. ^ Winograd, Terry (ianuarie 1972). „Understanding natural language”. Cognitive Psychology. 3 (1): 1–191. doi:10.1016/0010-0285(72)90002-3. 
  74. ^ „Don't worry: Autonomous cars aren't coming tomorrow (or next year)”. Autoweek. . Arhivat din originalul de la . Accesat în . 
  75. ^ Knight, Will (). „Boston may be famous for bad drivers, but it's the testing ground for a smarter self-driving car”. MIT Technology Review (în engleză). Arhivat din originalul de la . Accesat în . 
  76. ^ Prakken, Henry (). „On the problem of making autonomous vehicles conform to traffic law”. Artificial Intelligence and Law. 25 (3): 341–363. doi:10.1007/s10506-017-9210-0. 
  77. ^ Rezolvarea de probleme, rezolvarea de puzzle-uri, jocuri și deducție:
  78. ^ Raționament incert:
  79. ^ Dovezi psihologice ale raționamentului subsimbolic:
    • Wason & Shapiro (1966) a arătat că oamenii se descurcă rău la probleme complet abstracte, dar dacă problema este reformulată pentru a permite utilizarea inteligenței sociale⁠(d) intuitive, performanțele se îmbunătățesc dramatic.
    • Kahneman, Slovic & Tversky (1982) au demonstrat că oamenii sunt foarte slabi la a rezolva probleme elementare care implică raționament incert. (Vezi Lista tendințelor cognitive eronate⁠(d) pentru mai multe exemple).
    • Lakoff & Núñez (2000) au susținut, controversat, că chiar aptitudinile noastre la matematică depind de cunoștințe și aptitudini care provin din „trup”, adică din aptitudinile sensorimotorii și perceptuale.
  80. ^ Reprezentarea cunoștințelor⁠(d):
  81. ^ ingineria cunoștințelor⁠(d):
  82. ^ a b Reprezentarea categoriilor și relațiilor: rețele semantice, logici descriptive⁠(d), moștenire⁠(d) (inclusiv cadre⁠(d) și scrípturi⁠(d)):
  83. ^ a b Reprezentarea evenimentelor și timpului: calculul pe situații⁠(d), calculul pe evenimente⁠(d), calculul fluent⁠(d) (inclusiv rezolvarea problemei cadru⁠(d)):
  84. ^ a b Calcul cauzal:
  85. ^ a b Reprezentarea cunoștințelor despre cunoștințe: calculul pe credințe, logica modală⁠(d):
  86. ^ Sikos, Leslie F. (iunie 2017). Description Logics in Multimedia Reasoning. Cham: Springer. doi:10.1007/978-3-319-54066-5. ISBN 978-3-319-54066-5. Arhivat din originalul de la . Accesat în . 
  87. ^ Ontologie⁠(d):
  88. ^ Smoliar, Stephen W.; Zhang, HongJiang (). „Content based video indexing and retrieval”. IEEE Multimedia. 1.2: 62–72. 
  89. ^ Neumann, Bernd; Möller, Ralf (ianuarie 2008). „On scene interpretation with description logics”. Image and Vision Computing. 26 (1): 82–101. doi:10.1016/j.imavis.2007.08.013. 
  90. ^ Kuperman, G. J.; Reichley, R. M.; Bailey, T. C. (). „Using Commercial Knowledge Bases for Clinical Decision Support: Opportunities, Hurdles, and Recommendations”. Journal of the American Medical Informatics Association. 13 (4): 369–371. doi:10.1197/jamia.M2055. PMC 1513681 . PMID 16622160. 
  91. ^ MCGARRY, KEN (). „A survey of interestingness measures for knowledge discovery”. The Knowledge Engineering Review. 20 (1): 39. doi:10.1017/S0269888905000408. 
  92. ^ Bertini, M; Del Bimbo, A; Torniai, C (). „Automatic annotation and semantic retrieval of video sequences using multimedia ontologies”. MM '06 Proceedings of the 14th ACM international conference on Multimedia. 14th ACM international conference on Multimedia. Santa Barbara: ACM. pp. 679–682. 
  93. ^ Problema calificării⁠(d): Deși McCarthy s-a preocupat în principal cu chestiuni de reprezentare logică a acțiunilor, Russell & Norvig 2003. aplică termenul la chestiunea mai generală a raționamentului implicit în vasta rețea de presupuneri de la baza cunoștințelor de bun simț.
  94. ^ a b Raționamentul implicit și logica implicită⁠(d), logicile nemonotone⁠(d), circumscrierea⁠(d), presupunerea lumii închise⁠(d), abducția⁠(d) (Poole et al. pune abducția în cadrul „raționamentului implicit”. Luger et al. o pune în categoria „raționament incert”):
  95. ^ Lărgimea cunoștințelor de bun simț:
  96. ^ Dreyfus & Dreyfus 1986.
  97. ^ Gladwell 2005.
  98. ^ a b Cunoștințe expert ca intuiție întrupată⁠(d):
    • Dreyfus & Dreyfus 1986. (Hubert Dreyfus este un filosof și critic al IA care a fost printre primii care au afirmat că cele mai utile cunoștințe umane sunt codificate nesimbolic)
    • Gladwell 2005. (Blink⁠(d) a lui Gladwell este o introducere populară în raționamentul și cunoștințele subsimbolice.)
    • Hawkins & Blakeslee 2005. (Hawkins susține că cunoștințele subsimbolice ar trebui să fie obiectul primar de interes al cercetării de IA.)
  99. ^ Planificare⁠(d):
  100. ^ a b Teoria valorii informației⁠(d):
  101. ^ Planificare clasică:
  102. ^ Planificarea și acționarea în domenii nedeterministe: planificare condițională, monitorizarea execuției, replanificare și planificare continuă:
  103. ^ Planificarea multi-agent și comportamente emergente:
  104. ^ Învățare:
  105. ^ Alan Turing a discutat centralitatea învățării încă din 1950, în lucrarea lui clasică „Computing Machinery and Intelligence⁠(d)”.(Turing 1950) În 1956, la prima conferință de vară despre IA de la Dartmouth, Ray Solomonoff⁠(d) a scris un referat despre învățarea automată probabilistică nesupravegheată: „An Inductive Inference Machine”.(Solomonoff 1956)
  106. ^ „What is Unsupervised Learning?”. deepai.org. Arhivat din originalul de la . 
  107. ^ Învățare:
  108. ^ Jordan, M. I.; Mitchell, T. M. (). „Machine learning: Trends, perspectives, and prospects”. Science. 349 (6245): 255–260. Bibcode:2015Sci...349..255J. doi:10.1126/science.aaa8415. PMID 26185243. 
  109. ^ Învățarea prin întărire⁠(d):
  110. ^ Prelucrarea limbajului natural:
  111. ^ "Versatile question answering systems: seeing in synthesis" Arhivat în , la Wayback Machine., Mittal et al., IJIIDS, 5(2), 119–142, 2011
  112. ^ Aplicații ale prelucrării limbajului natural, inclusiv obținerea de informații⁠(d) (text mining⁠(d)) și traducerea automată:
  113. ^ Cambria, Erik; White, Bebo (mai 2014). „Jumping NLP Curves: A Review of Natural Language Processing Research [Review Article]”. IEEE Computational Intelligence Magazine. 9 (2): 48–57. doi:10.1109/MCI.2014.2307227. 
  114. ^ Percepția mașinilor⁠(d):
  115. ^ Recunoașterea vorbirii:
  116. ^ Recunoașterea obiectelor⁠(d):
  117. ^ Vederea calculatoarelor⁠(d):
  118. ^ Robotică:
  119. ^ a b Mișcare și spațiul configurațiilor⁠(d):
  120. ^ a b Tecuci 2012.
  121. ^ Cartografiere robotică⁠(d) (localizare etc):
  122. ^ Cadena, Cesar; Carlone, Luca; Carrillo, Henry; Latif, Yasir; Scaramuzza, Davide; Neira, Jose; Reid, Ian; Leonard, John J. (decembrie 2016). „Past, Present, and Future of Simultaneous Localization and Mapping: Toward the Robust-Perception Age”. IEEE Transactions on Robotics. 32 (6): 1309–1332. doi:10.1109/TRO.2016.2624754. 
  123. ^ Moravec, Hans (). Mind Children. Harvard University Press. p. 15. 
  124. ^ Chan, Szu Ping (). „This is what will happen when robots take over the world”. Arhivat din originalul de la . Accesat în . 
  125. ^ a b „IKEA furniture and the limits of AI”. The Economist (în engleză). . Arhivat din originalul de la . Accesat în . 
  126. ^ Kismet.
  127. ^ Thompson, Derek (). „What Jobs Will the Robots Take?”. The Atlantic. Arhivat din originalul de la . Accesat în . 
  128. ^ Scassellati, Brian (). „Theory of mind for a humanoid robot”. Autonomous Robots. 12 (1): 13–24. doi:10.1023/A:1013298507114. 
  129. ^ Cao, Yongcan; Yu, Wenwu; Ren, Wei; Chen, Guanrong (februarie 2013). „An Overview of Recent Progress in the Study of Distributed Multi-Agent Coordination”. IEEE Transactions on Industrial Informatics. 9 (1): 427–438. doi:10.1109/TII.2012.2219061. 
  130. ^ Thro 1993.
  131. ^ Edelson 1991.
  132. ^ Tao & Tan 2005.
  133. ^ Poria, Soujanya; Cambria, Erik; Bajpai, Rajiv; Hussain, Amir (septembrie 2017). „A review of affective computing: From unimodal analysis to multimodal fusion”. Information Fusion. 37: 98–125. doi:10.1016/j.inffus.2017.02.003. 
  134. ^ Emoții și calcul afectiv⁠(d):
  135. ^ Waddell, Kaveh (). „Chatbots Have Entered the Uncanny Valley”. The Atlantic. Arhivat din originalul de la . Accesat în . 
  136. ^ Pennachin, C.; Goertzel, B. (). Contemporary Approaches to Artificial General Intelligence. Artificial General Intelligence. Cognitive Technologies. Cognitive Technologies. Berlin, Heidelberg: Springer. doi:10.1007/978-3-540-68677-4_1. ISBN 978-3-540-23733-4. 
  137. ^ a b c Roberts, Jacob (). „Thinking Machines: The Search for Artificial Intelligence”. Distillations. Vol. 2 nr. 2. pp. 14–23. Arhivat din originalul de la . Accesat în . 
  138. ^ „The superhero of artificial intelligence: can this genius keep it in check?”. the Guardian (în engleză). . Arhivat din originalul de la . Accesat în . 
  139. ^ Mnih, Volodymyr; Kavukcuoglu, Koray; Silver, David; Rusu, Andrei A.; Veness, Joel; Bellemare, Marc G.; Graves, Alex; Riedmiller, Martin; Fidjeland, Andreas K. (). „Human-level control through deep reinforcement learning”. Nature. 518 (7540): 529–533. Bibcode:2015Natur.518..529M. doi:10.1038/nature14236. PMID 25719670. 
  140. ^ Sample, Ian (). „Google's DeepMind makes AI program that can learn like a human”. the Guardian (în engleză). Arhivat din originalul de la . Accesat în . 
  141. ^ „From not working to neural networking”. The Economist (în engleză). . Arhivat din originalul de la . Accesat în . 
  142. ^ Domingos 2015.
  143. ^ a b Argumente pe rema creier artificial⁠(d): IA necesită o simulare a operațiunilor creierului uman Câțiva din cei care articulează în câte un fel argumentul: Cea mai extremă formă a acestui argument (scenariul cu înlocuirea creierului) a fost avansată de Clark Glymour⁠(d) pe la jumătatea anilor 1970 și a fost atinsă de Zenon Pîlîșîn⁠(d) și John R. Searle în 1980.
  144. ^ Goertzel, Ben; Lian, Ruiting; Arel, Itamar; de Garis, Hugo; Chen, Shuo (decembrie 2010). „A world survey of artificial brain projects, Part II: Biologically inspired cognitive architectures”. Neurocomputing. 74 (1–3): 30–49. doi:10.1016/j.neucom.2010.08.012. 
  145. ^ Nils Nilsson⁠(d) scrie: „În termeni simpli, există dezacorduri ample în domeniu pe tema a ce reprezintă de fapt IA” (Nilsson 1983, p. 10).
  146. ^ Precursorii imediați ai IA:
  147. ^ Haugeland 1985, pp. 112–117.
  148. ^ Cel mai dramatic caz al AI sub-simbolic care a fost împins în fundal a fost critica devastatoare a perceptronilor de⁠(d) către Marvin Minsky și Seymour Papert⁠(d) în 1969. A se vedea Istoria AI⁠(d) , AI iarnă⁠(d) , sau Frank Rosenblatt⁠(d) .
  149. ^ Simulare cognitivă, Newell și Simon, IA la CMU⁠(d) (pe atunci, Universitatea Carnegie-Mellon⁠(d)):
  150. ^ Soar⁠(d) (istorie):
  151. ^ McCarthy și cercetarea IA de la SAIL⁠(d) și SRI International:
  152. ^ Cercetarea IA la Edinburgh și în Franța, nașterea lui Prolog:
  153. ^ IA la MIT sub conducerea lui Marvin Minsky în anii 1960:
  154. ^ Cyc⁠(d):
  155. ^ Revoluția cunoașterii:
  156. ^ Frederick, Hayes-Roth; William, Murray; Leonard, Adelman. „Expert systems” (în engleză). doi:10.1036/1097-8542.248550. 
  157. ^ Abordări întrupate ale IA:
  158. ^ Weng et al. 2001.
  159. ^ Lungarella et al. 2003.
  160. ^ Asada et al. 2009.
  161. ^ Oudeyer 2010.
  162. ^ Revitalizarea conecționismului⁠(d):
  163. ^ Inteligență computațională⁠(d)
  164. ^ Metodele formale sunt preferate acum („victoria taberei neat⁠(d)”):
  165. ^ Hutson, Matthew (). „Artificial intelligence faces reproducibility crisis”. Science (în engleză). pp. 725–726. Bibcode:2018Sci...359..725H. doi:10.1126/science.359.6377.725. Arhivat din originalul de la . Accesat în . 
  166. ^ Norvig 2012.
  167. ^ Langley 2011.
  168. ^ Katz 2012.
  169. ^ Paradigma agentului inteligent⁠(d): The definition used in this article, in terms of goals, actions, perception and environment, is due to Russell & Norvig (2003). Other definitions also include knowledge and learning as additional criteria.
  170. ^ Arhitectura agenților⁠(d), sisteme inteligente hibride⁠(d):
  171. ^ Sisteme de control ierarhic⁠(d):
  172. ^ Laird, John (). „Extending the Soar cognitive architecture”. Frontiers in Artificial Intelligence and Applications. 171: 224. 
  173. ^ Lieto, Antonio; Bhatt, Mehul; Oltramari, Alessandro; Vernon, David (mai 2018). „The role of cognitive architectures in general artificial intelligence”. Cognitive Systems Research. 48: 1–3. doi:10.1016/j.cogsys.2017.08.003. 
  174. ^ Algoritmi de căutare⁠(d):
  175. ^ forward chaining⁠(d), backward chaining⁠(d), Horn clause⁠(d), și deducția logică în rol de căutare:
  176. ^ Căutare în spațiul stărilor⁠(d) și planificare⁠(d):
  177. ^ Căutare neinformată (căutare în adâncime, căutare în lățime și căutare generală în spațiul stărilor⁠(d)):
  178. ^ Euristici⁠(d) sau căutări informate (de ex., greedy best first⁠(d) și A*⁠(d)):
  179. ^ Căutări cu optimizare:
  180. ^ Programare genetică⁠(d) și algoritmi genetici:
  181. ^ Viață artificială și învățare pe bază de societate:
  182. ^ Daniel Merkle; Martin Middendorf (). „Swarm Intelligence”. În Burke, Edmund K.; Kendall, Graham. Search Methodologies: Introductory Tutorials in Optimization and Decision Support Techniques (în engleză). Springer Science & Business Media. ISBN 978-1-4614-6940-7. 
  183. ^ Logică:
  184. ^ Satplan⁠(d):
  185. ^ Învățare pe bază de explicații⁠(d), învățare pe bază de relevanță, programare logică inductivă⁠(d), raționament pe bază de cazuri⁠(d):
  186. ^ Logica propozițională⁠(d):
  187. ^ Logica de ordinul întâi⁠(d) și trăsături cum ar fi egalitatea:
  188. ^ Elkin, Charles (). „The paradoxical success of fuzzy logic”. IEEE Expert. 9 (4): 3–49. CiteSeerX 10.1.1.100.8402 . doi:10.1109/64.336150. 
  189. ^ Logică fuzzy:
  190. ^ „What is 'fuzzy logic'? Are there computers that are inherently fuzzy and do not apply the usual binary logic?”. Scientific American (în engleză). Arhivat din originalul de la . Accesat în . 
  191. ^ "Calculul credinței și rațiunea incertă", Yen-Teh Hsia
  192. ^ a b Domingos 2015, chapter 6.
  193. ^ Demey, Lorenz; Kooi, Barteld; Sack, Joshua (). „Logic and Probability”. Accesat în . 
  194. ^ Metode stochastic pentru raționament incert:
  195. ^ Rețele bayesiene:
  196. ^ Algoritmul inferențelor bayesiene:
  197. ^ Domingos 2015, p. 210.
  198. ^ Învățare bayesiană și algoritmul expectation-maximization⁠(d):
  199. ^ Teoria decizională Bayes⁠(d) și rețele de decizie bayesiene:
  200. ^ a b c Modele temporale stochastice: Rețele bayesiene dinamice⁠(d): Modelul Markov ascuns⁠(d): Filtre Kalman⁠(d):
  201. ^ teoria deciziei⁠(d) și analiza deciziei⁠(d):
  202. ^ Procesele decizionale Markov⁠(d) și rețelele de decizie⁠(d) dinamice:
  203. ^ Teoria jocurilor și proiectarea mașinilor⁠(d):
  204. ^ Metode statistice de învățare și clasificatori⁠(d):
  205. ^ Arbore de decizie⁠(d):
  206. ^ Domingos 2015, p. 88.
  207. ^ a b Rețele neurale și conecționism:
  208. ^ Domingos 2015, p. 187.
  209. ^ Algoritmul k-NN⁠(d):
  210. ^ Domingos 2015, p. 188.
  211. ^ Metode kernel⁠(d) cum ar fi support vector machine⁠(d):
  212. ^ Model gaussian de amestec⁠(d):
  213. ^ Domingos 2015, p. 152.
  214. ^ Clasificator Bayes naiv:
  215. ^ Performanța clasificatorilor:
  216. ^ Russell & Norvig 2009, 18.12: Learning from Examples: Summary.
  217. ^ Domingos 2015, Chapter 4.
  218. ^ „Why Deep Learning Is Suddenly Changing Your Life”. Fortune. . Arhivat din original la . Accesat în . 
  219. ^ „Google leads in the race to dominate artificial intelligence”. The Economist (în engleză). . Arhivat din originalul de la . Accesat în . 
  220. ^ Rețele neurale cu feedforward⁠(d), perceptron⁠(d)i și rețele cu bază radială⁠(d):
  221. ^ Învățare competitiviă⁠(d), învățarea prin coincidență hebbiană⁠(d), rețele Hopfield și rețele de atractori:
  222. ^ Seppo Linnainmaa⁠(d) (1970). Reprezentarea erorii cumulative de rotunjire a unui algoritm ca expansiune Taylor a erorilor locale de rotunjire. Teza de masterat (în limba finlandeză), Univ. Helsinki, 6-7.
  223. ^ Griewank, Andreas (2012). Cine a inventat modul invers de diferențiere? Povești de optimizare, Documenta Matematica, Extra Volume ISMP (2012), 389-400.
  224. ^ Paul Werbos⁠(d), "Dincolo de regresie: noi instrumente de predicție și analiză în științele comportamentale", teză de doctorat, Universitatea Harvard , 1974.
  225. ^ Paul Werbos⁠(d) (1982). Applications of advances in nonlinear sensitivity analysis. In System modeling and optimization (pp. 762–770). Springer Berlin Heidelberg. Online Arhivat în , la Wayback Machine.
  226. ^ Backpropagation:
  227. ^ Memorie temporală ierarhică⁠(d):
  228. ^ „Artificial intelligence can 'evolve' to solve problems”. Science | AAAS (în engleză). . Accesat în . 
  229. ^ a b c d Schmidhuber, J. (). „Deep Learning in Neural Networks: An Overview”. Neural Networks. 61: 85–117. doi:10.1016/j.neunet.2014.09.003. PMID 25462637. 
  230. ^ a b Ian Goodfellow, Yoshua Bengio, and Aaron Courville (2016). Deep Learning. MIT Press. Online Arhivat în , la Wayback Machine.
  231. ^ Hinton, G.; Deng, L.; Yu, D.; Dahl, G.; Mohamed, A.; Jaitly, N.; Senior, A.; Vanhoucke, V.; Nguyen, P. (). „Deep Neural Networks for Acoustic Modeling in Speech Recognition – The shared views of four research groups”. IEEE Signal Processing Magazine. 29 (6): 82–97. doi:10.1109/msp.2012.2205597. 
  232. ^ Schmidhuber, Jürgen (). „Deep Learning”. Scholarpedia. 10 (11): 32832. Bibcode:2015SchpJ..1032832S. doi:10.4249/scholarpedia.32832. 
  233. ^ Rina Dechter⁠(d) (1986). Learning while searching in constraint-satisfaction problems. University of California, Computer Science Department, Cognitive Systems Laboratory.Online Arhivat în , la Wayback Machine.
  234. ^ Igor Aizenberg, Naum N. Aizenberg, Joos PL Vandewalle (2000). Neuronii binari multi-valori și universali: teorie, învățare și aplicații. Springer Știință și Business Media.
  235. ^ Ivakhnenko, Alexey (). Cybernetic Predicting Devices. Kiev: Naukova Dumka. 
  236. ^ Ivakhnenko, Alexey (). „Polynomial theory of complex systems”. IEEE Transactions on Systems, Man and Cybernetics (4): 364–378. 
  237. ^ Hinton 2007.
  238. ^ Research, AI (). „Deep Neural Networks for Acoustic Modeling in Speech Recognition”. airesearch.com. Arhivat din originalul de la . Accesat în . 
  239. ^ Fukushima, K. (). „Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position”. Biological Cybernetics. 36 (4): 193–202. doi:10.1007/bf00344251. PMID 7370364. 
  240. ^ Yann LeCun⁠(d) (2016). Slides on Deep Learning Online Arhivat în , la Wayback Machine.
  241. ^ Silver, David; Schrittwieser, Julian; Simonyan, Karen; Antonoglou, Ioannis; Huang, Aja; Guez, Arthur; Hubert, Thomas; Baker, Lucas; Lai, Matthew (). „Mastering the game of Go without human knowledge”. Nature. 550 (7676): 354–359. Bibcode:2017Natur.550..354S. doi:10.1038/nature24270. ISSN 0028-0836. PMID 29052630. AlphaGo Lee... 12 convolutional layers Format:Closed access
  242. ^ Rețele neurale recurente⁠(d), rețele Hopfield:
  243. ^ Hyötyniemi, Heikki (). „Turing machines are recurrent neural networks”. Proceedings of STeP '96/Publications of the Finnish Artificial Intelligence Society: 13–24. 
  244. ^ PJ Werbos. Generalizarea backpropagation-ului cu aplicarea pe un model recurent de piață a gazelor " Neural Networks 1, 1988.
  245. ^ AJ Robinson și F. Fallside. Rețeaua de propagare a erorilor dinamice cauzate de utilitate. Raport Tehnic CUED / F-INFENG / TR.1, Departamentul de Inginerie al Universității din Cambridge, 1987.
  246. ^ RJ Williams și D. Zipser. Gradienți bazate pe algoritmi de învățare pentru rețele recurente și complexitatea lor computațională. În propagarea înapoi: teorie, arhitecturi și aplicații. Hillsdale, NJ: Erlbaum, 1994.
  247. ^ Sepp Hochreiter⁠(d) (1991), Untersuchungen zu dynamischen neuronalen Netzen Arhivat în , la Wayback Machine., lucrare de diplomă. Institut f. Informatik, Technische Univ. Munich. Advisor: J. Schmidhuber.
  248. ^ Schmidhuber, J. (). „Learning complex, extended sequences using the principle of history compression”. Neural Computation. 4 (2): 234–242. doi:10.1162/neco.1992.4.2.234. 
  249. ^ Hochreiter, Sepp⁠(d); și Schmidhuber, Jürgen⁠(d); Long Short-Term Memory, Neural Computation, 9(8):1735–1780, 1997
  250. ^ Alex Graves, Santiago Fernandez, Faustino Gomez, și Jürgen Schmidhuber⁠(d) (2006). Connectionist temporal classification: Labelling unsegmented sequence data with recurrent neural nets. Proceedings of ICML'06, pp. 369–376.
  251. ^ Hannun, Awni; Case, Carl; Casper, Jared; Catanzaro, Bryan; Diamos, Greg; Elsen, Erich; Prenger, Ryan; Satheesh, Sanjeev; Sengupta, Shubho; Coates, Adam; Ng, Andrew Y. (). „Deep Speech: Scaling up end-to-end speech recognition” (în engleză). arXiv:1412.5567  [cs.CL]. 
  252. ^ Hasim Sak and Andrew Senior and Francoise Beaufays (2014). Long Short-Term Memory recurrent neural network architectures for large scale acoustic modeling. Proceedings of Interspeech 2014.
  253. ^ Li, Xiangang; Wu, Xihong (). „Constructing Long Short-Term Memory based Deep Recurrent Neural Networks for Large Vocabulary Speech Recognition” (în engleză). arXiv:1410.4281  [cs.CL]. 
  254. ^ Hașim Sak, Andrew Senior, Kanishka Rao, Françoise Beaufays and Johan Schalkwyk (September 2015): Google voice search: faster and more accurate. Arhivat în , la Wayback Machine.
  255. ^ Sutskever. „Sequence to Sequence Learning with Neural Networks”. arXiv:1409.3215 . 
  256. ^ Jozefowicz. „Exploring the Limits of Language Modeling”. arXiv:1602.02410 . 
  257. ^ Gillick. „Multilingual Language Processing From Bytes”. arXiv:1512.00103 . 
  258. ^ Vinyals. „Show and Tell: A Neural Image Caption Generator”. arXiv:1411.4555 . 
  259. ^ Brynjolfsson, Erik; Mitchell, Tom (). „What can machine learning do? Workforce implications”. Science (în engleză). pp. 1530–1534. Bibcode:2017Sci...358.1530B. doi:10.1126/science.aap8062. Arhivat din originalul de la . Accesat în . 
  260. ^ Sample, Ian (). 'It's able to create knowledge itself': Google unveils AI that learns on its own”. the Guardian (în engleză). Arhivat din originalul de la . Accesat în . 
  261. ^ „The AI revolution in science”. Science | AAAS (în engleză). . Arhivat din originalul de la . Accesat în . 
  262. ^ „Will your job still exist in 10 years when the robots arrive?”. South China Morning Post⁠(d) (în engleză). . Arhivat din originalul de la . Accesat în . 
  263. ^ Borowiec, Tracey Lien, Steven (). „AlphaGo beats human Go champ in milestone for artificial intelligence”. latimes.com. Arhivat din originalul de la . Accesat în . 
  264. ^ Brown, Noam; Sandholm, Tuomas (). „Superhuman AI for heads-up no-limit poker: Libratus beats top professionals”. Science (în engleză). pp. 418–424. doi:10.1126/science.aao1733. Arhivat din originalul de la . Accesat în . 
  265. ^ Ontanon, Santiago; Synnaeve, Gabriel; Uriarte, Alberto; Richoux, Florian; Churchill, David; Preuss, Mike (decembrie 2013). „A Survey of Real-Time Strategy Game AI Research and Competition in StarCraft”. IEEE Transactions on Computational Intelligence and AI in Games. 5 (4): 293–311. doi:10.1109/TCIAIG.2013.2286295. 
  266. ^ „Facebook Quietly Enters StarCraft War for AI Bots, and Loses”. WIRED. . Arhivat din originalul de la . Accesat în . 
  267. ^ „ILSVRC2017”. image-net.org (în engleză). Arhivat din originalul de la . Accesat în . 
  268. ^ Schoenick, Carissa; Clark, Peter; Tafjord, Oyvind; Turney, Peter; Etzioni, Oren (). „Moving beyond the Turing Test with the Allen AI Science Challenge”. Communications of the ACM. 60 (9): 60–64. doi:10.1145/3122814. 
  269. ^ O'Brien & Marakas 2011.
  270. ^ Definițiile matematice ale inteligenței:
  271. ^ Hernández-Orallo, José; Dowe, David L.; Hernández-Lloreda, M.Victoria (martie 2014). „Universal psychometrics: Measuring cognitive abilities in the machine kingdom”. Cognitive Systems Research. 27: 50–74. doi:10.1016/j.cogsys.2013.06.001. 
  272. ^ Iantovics, Laszlo Barna; Rotar, Corina; Niazi, Muaz A. (), „MetrIntPair -A Novel Accurate Metric for the Comparison of Two Cooperative Multiagent Systems Intelligence Based on Paired Intelligence Measurements”, International Journal of Intelligent Systems (în engleză), 33 (3), pp. 463–486, doi:10.1002/int.21903, accesat în  
  273. ^ Iantovics, László Barna (), „Black-Box-Based Mathematical Modelling of Machine Intelligence Measuring”, Mathematics (în engleză), 9 (6), p. 681, doi:10.3390/math9060681, ISSN 2227-7390, accesat în  
  274. ^ Iantovics, Laszlo Barna; Emmert-Streib, Frank; Arik, Sabri (), „MetrIntMeas a novel metric for measuring the intelligence of a swarm of cooperating agents”, Cognitive Systems Research (în engleză), 45, pp. 17–29, doi:10.1016/j.cogsys.2017.04.006, arhivat din originalul de la , accesat în  
  275. ^ Iantovics, Laszlo Barna; Kountchev Roumen; Crișan Gloria Cerasela (), „ExtrIntDetect—A New Universal Method for the Identification of Intelligent Cooperative Multiagent Systems with Extreme Intelligence”, Symmetry (în engleză), 11 (9), p. 1123, doi:10.3390/sym11091123, ISSN 2073-8994, accesat în  
  276. ^ a b Russell & Norvig 2009, p. 1.
  277. ^ CNN 2006.
  278. ^ Utilizarea AI pentru a anticipa întârzierile de zbor Arhivat în , la Wayback Machine. , Ishti.org.
  279. ^ N. Aletras; D. Tsarapatsanis; D. Preotiuc-Pietro; V. Lampos (). „Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective”. PeerJ Computer Science. 2: e93. doi:10.7717/peerj-cs.93. 
  280. ^ „The Economist Explains: Why firms are piling into artificial intelligence”. The Economist. . Arhivat din original la . Accesat în . 
  281. ^ Lohr, Steve (). „The Promise of Artificial Intelligence Unfolds in Small Steps”. The New York Times. Arhivat din original la . Accesat în . 
  282. ^ Wakefield, Jane (). „Social media 'outstrips TV' as news source for young people”. BBC News. Arhivat din original la . 
  283. ^ Smith, Mark (). „So you think you chose to read this article?”. BBC News. Arhivat din original la . 
  284. ^ „10 Promising AI Applications in Health Care”. Harvard Business Review. . Arhivat din originalul de la . Accesat în . 
  285. ^ Dina Bass (). „Microsoft Develops AI to Help Cancer Doctors Find the Right Treatments”. Bloomberg. Arhivat din original la . 
  286. ^ Gallagher, James (). „Artificial intelligence 'as good as cancer doctors'. BBC News (în engleză). Arhivat din original la . Accesat în . 
  287. ^ Langen, Pauline A.; Katz, Jeffrey S.; Dempsey, Gayle, ed. (), Remote monitoring of high-risk patients using artificial intelligence (US5357427 A), arhivat din originalul de la , accesat în  
  288. ^ Kermany, D; Goldbaum, M; Zhang, Kang. „Identifying Medical Diagnoses and Treatable Diseases by Image-Based Deep Learning” (PDF). www.cell.com. Arhivat (PDF) din originalul de la . Accesat în . 
  289. ^ Senthilingam, Meera (). „Are Autonomous Robots Your next Surgeons?”. CNN. Cable News Network. Arhivat din original la . Accesat în . 
  290. ^ Markoff, John (). „On 'Jeopardy!' Watson Win Is All but Trivial”. The New York Times. Arhivat din original la . 
  291. ^ Ng, Alfred (). „IBM's Watson gives proper diagnosis after doctors were stumped”. NY Daily News (în engleză). Arhivat din original la . 
  292. ^ "33 Corporații care lucrează pe autovehicule autonome". Statistici CB. Np, 11 august 2016. 12 noiembrie 2016.
  293. ^ West, Darrell M. "Mergând înainte: autovehicule cu autovehicule în China, Europa, Japonia, Coreea și Statele Unite". Centrul de Inovare în Tehnologie de la Brookings. Np, septembrie 2016. 12 noiembrie 2016.
  294. ^ Burgess, Matt (). „The UK is about to Start Testing Self-Driving Truck Platoons”. Wired UK. Arhivat din original la . Accesat în . 
  295. ^ Davies, Alex (). „World's First Self-Driving Semi-Truck Hits the Road”. WIRED. Arhivat din original la . Accesat în . 
  296. ^ McFarland, Matt. "Descoperirea inteligenței artificiale a Google poate avea un impact imens asupra autovehiculelor și mult mai mult". Washington Post, 25 februarie 2015. Chioșc Infotrac. 24 octombrie 2016
  297. ^ "Programarea siguranței în autoturisme". Fundația Națională de Științe. Np, 2 februarie 2015. 24 octombrie 2016.
  298. ^ ArXiv, E. T. (26 October 2015). Why Self-Driving Cars Must Be Programmed to Kill. Accesat la 17 noiembrie 2017, de la https://www.technologyreview.com/s/542626/why-self-driving-cars-must-be-programmed-to-kill/ Arhivat în , la Wayback Machine.
  299. ^ O'Neill, Eleanor (). „Accounting, automation and AI”. www.icas.com (în English). Arhivat din original la . Accesat în . 
  300. ^ Robots Beat Humans in Trading Battle. Arhivat în , la Wayback Machine. BBC.com (8 august 2001)
  301. ^ „CTO Corner: Artificial Intelligence Use in Financial Services – Financial Services Roundtable”. Financial Services Roundtable (în engleză). . Arhivat din original la . Accesat în . 
  302. ^ Marwala, Tshilidzi; Hurwitz, Evan (). Artificial Intelligence and Economic Theory: Skynet in the Market. London: Springer. ISBN 978-3-319-66104-9. 
  303. ^ „Why AI researchers like video games”. Arhivat din original la . 
  304. ^ Yannakakis, GN (2012, mai). Jocul AI revizuit. În Proceedings of the 9th Conference on Computing Frontiers (pp. 285-292). ACM.
  305. ^ „Getting to grips with military robotics”. The Economist (în engleză). . Arhivat din originalul de la . Accesat în . 
  306. ^ „Autonomous Systems: Infographic”. www.siemens.com (în engleză). Arhivat din original la . Accesat în . 
  307. ^ Metz, Cade (). „Pentagon Wants Silicon Valley's Help on A.I”. The New York Times. Arhivat din originalul de la . Accesat în . 
  308. ^ Chang, Hsihui; Kao, Yi-Ching; Mashruwala, Raj; Sorensen, Susan M. (). „Technical Inefficiency, Allocative Inefficiency, and Audit Pricing”. Journal of Accounting, Auditing & Finance. 33 (4): 580–600. doi:10.1177/0148558X17696760. 
  309. ^ Matz, SC și colab. "Direcționarea psihologică ca o abordare eficientă a persuasiunii digitale în masă". Lucrări ale Academiei Naționale de Științe (2017): 201710966.
  310. ^ Busby, Mattha (). „Revealed: how bookies use AI to keep gamblers hooked”. the Guardian (în engleză). Arhivat din originalul de la . Accesat în . 
  311. ^ Celli, Fabio, Pietro Zani Massani și Bruno Lepri. Profilio: Profilul psihometric pentru a stimula publicitatea în mass-media socială. " Procesele din 2017 ACM pe Conferința Multimedia. ACM, 2017 [1] Arhivat în , la Wayback Machine.
  312. ^ https://www.moma.org/calendar/exhibitions/3863 Arhivat în , la Wayback Machine. Adus la 29 iulie 2018
  313. ^ https://www.washingtonpost.com/news/innovations/wp/2016/03/10/googles-psychedelic-paint-brush-raises-the-oldest-question-in-art/ Arhivat în , la Wayback Machine. Recuperat 29 iulie
  314. ^ „Unhuman: Art in the Age of AI – State Festival”. Statefestival.org. Arhivat din originalul de la . Accesat în . 
  315. ^ https://www.artsy.net/article/artsy-editorial-hard-painting-made-computer-human Arhivat în , la Wayback Machine. . Adus pe 29 iulie
  316. ^ https://dl.acm.org/citation.cfm?id=3204480.3186697 Arhivat în , la Wayback Machine. Adus la 29 iulie
  317. ^ Testul Turing:
    Publicația originală a lui Turing: Influență istorică și implicații filosofice:
  318. ^ Propunerea de la Dartmouth:
  319. ^ Ipoteza sistemului de simboluri fizice⁠(d):
  320. ^ Dreyfus criticized the necessary⁠(d) condition of the sistem de simboluri fizice⁠(d) hypothesis, which he called the "psychological assumption": "The mind can be viewed as a device operating on bits of information according to formal rules." (Dreyfus 1992, p. 156)
  321. ^ Critica inteligenței artificiale de Dreyfus⁠(d):
  322. ^ Gödel 1951. : în această prelegere, Kurt Gödel utilizează teorema de incompletitudine pentru a ajunge la următoarea disjuncție: (a) mintea umană nu este o mașină finită consistentă, sau (b) există ecuații diofantice⁠(d) pentru care nu se poate decide dacă există soluții. Gödel consideră că (b) este implauzibilă, și părea astfel a crede că mintea umană nu este echivalentă cu o mașină finită, deci puterea sa o depășește pe cea a oricărei mașini finite. El a recunoscut că afirmația lui nu este demonstrată, întrucât nimeni nu poate demonstra falsitatea afirmației (b). El considera însă că concluzia sa disjunctivă este un „fapt cert”.
  323. ^ Obiecția matematică Formularea obiecției matematice: Contrazicerea obiecției matematice: Context:
    • Gödel 1931. , Church 1936. , Kleene 1935. , Turing 1937.
  324. ^ Graham Oppy⁠(d) (). „Gödel's Incompleteness Theorems”. Stanford Encyclopedia of Philosophy. Arhivat din originalul de la . Accesat în . These Gödelian anti-mechanist arguments are, however, problematic, and there is wide consensus that they fail. 
  325. ^ Stuart Russell⁠(d); Peter Norvig⁠(d) (). „26.1.2: Philosophical Foundations/Weak AI: Can Machines Act Intelligently?/The mathematical objection”. Artificial Intelligence: A Modern Approach (ed. 3rd). Upper Saddle River, NJ: Prentice Hall⁠(d). ISBN 978-0-13-604259-4. even if we grant that computers have limitations on what they can prove, there is no evidence that humans are immune from those limitations. 
  326. ^ Mark Colyvan. O introducere în filosofia matematicii. Cambridge University Press , 2012. Din 2.2.2, "semnificația filosofică a rezultatelor incompletenței lui Gödel": "Înțelepciunea acceptată (cu care concur) este că argumentele Lucas-Penrose nu reușesc".
  327. ^ Russel, Stuart, Daniel Dewey și Max Tegmark. Priorități de cercetare pentru o inteligență artificială robustă și benefică. AI Magazine 36: 4 (2015). 8 decembrie 2016.
  328. ^ Rawlinson, Kevin (). „Microsoft's Bill Gates insists AI is a threat”. BBC News. Arhivat din original la . Accesat în . 
  329. ^ Holley, Peter (). „Bill Gates on dangers of artificial intelligence: 'I don't understand why some people are not concerned'. The Washington Post. ISSN 0190-8286. Arhivat din original la . Accesat în . 
  330. ^ Gibbs, Samuel (). „Elon Musk: artificial intelligence is our biggest existential threat”. The Guardian. Arhivat din original la . Accesat în . 
  331. ^ Post, Washington. „Tech titans like Elon Musk are spending $1 billion to save you from terminators”. Arhivat din original la . 
  332. ^ Müller, Vincent C.; Bostrom, Nick (). „Future Progress in Artificial Intelligence: A Poll Among Experts” (PDF). AI Matters. 1 (1): 9–11. doi:10.1145/2639475.2639478. Arhivat din original (PDF) la . 
  333. ^ „The mysterious artificial intelligence company Elon Musk invested in is developing game-changing smart computers”. Tech Insider. Arhivat din original la . Accesat în . 
  334. ^ Clark, Jack. „Musk-Backed Group Probes Risks Behind Artificial Intelligence”. Bloomberg.com. Arhivat din original la . Accesat în . 
  335. ^ „Elon Musk Is Donating $10M Of His Own Money To Artificial Intelligence Research”. Fast Company. . Arhivat din original la . Accesat în . 
  336. ^ Max Tegmark, Omul in epoca inteligenței artificiale, București,Editura Humanitas, 2019, Epilog, pp. 353- 375
  337. ^ „Is artificial intelligence really an existential threat to humanity?”. Bulletin of the Atomic Scientists. . Arhivat din original la . Accesat în . 
  338. ^ „The case against killer robots, from a guy actually working on artificial intelligence”. Fusion.net. Arhivat din original la . Accesat în . 
  339. ^ „Will artificial intelligence destroy humanity? Here are 5 reasons not to worry”. Vox. . Arhivat din original la . Accesat în . 
  340. ^ In the early 1970s, Kenneth Colby⁠(d) presented a version of Weizenbaum's eliza⁠(d) known as DOCTOR which he promoted as a serious therapeutic tool. (Crevier 1993, pp. 132–144)
  341. ^ Critica IA din partea lui Joseph Weizenbaum⁠(d): Weizenbaum (the AI researcher who developed the first Chatbot program, eliza⁠(d)) argued in 1976 that the misuse of artificial intelligence has the potential to devalue human life.
  342. ^ Commentary: Bad news. Artificial intelligence is biased (în engleză), CNA, arhivat din original la , accesat în  
  343. ^ E McGaughey, "Robotii vă vor automatiza locul de muncă? Ocuparea integrală, venitul de bază și democrația economică "(2018) SSRN, partea 2 (3) Arhivat în , la Wayback Machine.
  344. ^ „Automation and anxiety”. The Economist. . Arhivat din originalul de la . Accesat în . 
  345. ^ Lohr, Steve (). „Robots Will Take Jobs, but Not as Fast as Some Fear, New Report Says”. The New York Times. Arhivat din originalul de la . Accesat în . 
  346. ^ Frey, Carl Benedikt; Osborne, Michael A (). „The future of employment: How susceptible are jobs to computerisation?”. Technological Forecasting and Social Change. 114: 254–280. doi:10.1016/j.techfore.2016.08.019. ISSN 0040-1625. 
  347. ^ Arntz, Melanie, Terry Gregory și Ulrich Zierahn. "Riscul de automatizare a locurilor de muncă în țările OCDE: o analiză comparativă". Documentele de lucru socială, ocuparea forței de muncă și migrația din OCDE 189 (2016). p. 33.
  348. ^ Mahdawi, Arwa (). „What jobs will still be around in 20 years? Read this to prepare your future”. The Guardian. Arhivat din originalul de la . Accesat în . 
  349. ^ „Stephen Hawking, Elon Musk, and Bill Gates Warn About Artificial Intelligence”. Observer. . Arhivat din original la . Accesat în . 
  350. ^ Wendell Wallach (2010). Moral Machines , Oxford University Press.
  351. ^ Wallach, pp. 37-54.
  352. ^ Wallach, pp. 55-73.
  353. ^ Wallach, capitol introductiv.
  354. ^ a b Michael Anderson și Susan Leigh Anderson (2011), Etica mașinilor, Cambridge University Press.
  355. ^ a b „Machine Ethics”. aaai.org. Arhivat din original la . 
  356. ^ Rubin, Charles (). „Artificial Intelligence and Human Nature |'The New Atlantis”. 1: 88–100. Arhivat din original la . 
  357. ^ Brooks, Rodney (). „artificial intelligence is a tool, not a threat”. Arhivat din original la . 
  358. ^ Chalmers, David (). „Facing up to the problem of consciousness”. Journal of Consciousness Studies⁠(d). 2 (3): 200–219. Arhivat din original la . Accesat în .  See also this link Arhivat în , la Wayback Machine.
  359. ^ Horst, Steven , (2005) "Teoria computațională a minții" Arhivat în , la Wayback Machine. în Enciclopedia de filosofie Stanford
  360. ^ Această versiune provine din Searle (1999), și este citată și în Dennett 1991, p. 435. . Formularea originală a lui Searle era „Calculatorul programat adecvat este de fapt o minte, în sensul în care despre acel calculator, dacă primește programele potrivite, se poate spune literalmente că înțelege și că are și alte stări cognitive.” (Searle 1980, p. 1). IA puternică este definită similar de Russell & Norvig (2003, p. 947): „Aserțiunea că mașinile ar putea să se comporte inteligent (sau, poate chiar mai bine, să acționeze ca și cum ar fi inteligente) este numită de filosofi ipoteza «Inteligență artificială slabă», iar aserțiunea că mașinile care o fac chiar gândesc (și nu doar simulează gândirea) este numită ipoteza «IA puternică»”.
  361. ^ Argumentul lui Searle cu camera chinezească⁠(d): Discuții:
  362. ^ Drepturile roboților: Prematuritate: În ficțiune:
  363. ^ Evans, Woody (). „Posthuman Rights: Dimensions of Transhuman Worlds”. Teknokultura. 12 (2). doi:10.5209/rev_TK.2015.v12.n2.49072. 
  364. ^ maschafilm. „Content: Plug & Pray Film – Artificial Intelligence – Robots -”. plugandpray-film.de. Arhivat din original la . 
  365. ^ Omohundro, Steve (). The Nature of Self-Improving Artificial Intelligence. presented and distributed at the 2007 Singularity Summit, San Francisco, CA. 
  366. ^ a b c Singularitate tehnologică:
  367. ^ Transumanism:
  368. ^ AI as evolution:
  369. ^ Buttazzo, G. (iulie 2001). „Artificial consciousness: Utopia or real possibility?”. Computer (IEEE)⁠(d). 34 (7): 24–30. doi:10.1109/2.933500. 
  370. ^ Anderson, Susan Leigh. "Cele trei legi ale lui Asimov despre robotică" și metaetica mașinilor. " AI și societatea 22.4 (2008): 477-493.
  371. ^ McCauley, Lee (). „AI armageddon and the three laws of robotics”. Ethics and Information Technology. 9 (2): 153–164. doi:10.1007/s10676-007-9138-2. 
  372. ^ Galvan, Jill (). „Entering the Posthuman Collective in Philip K. Dick's "Do Androids Dream of Electric Sheep?"”. Science Fiction Studies. 24 (3): 413–429. JSTOR 4240644. 

Manuale de IA

modificare

Istoria IA

modificare

Alte surse

modificare

Lectură suplimentară

modificare

Vezi și

modificare