De ce inteligența artificială nu este o amenințare pentru umanitate,
ci o oportunitate uriașă
Gheorghe Tecuci
Profesor de informatică și director al Centrului pentru agenți instruibili, Universitatea George Mason, SUA;
fost președinte de inteligență artificială, Centrul pentru conducere strategică, Colegiul de război al armatei SUA;
Membru al Academiei Române. http://lac.gmu.edu/; Gheorghe.Tecuci@gmail.com
Rezumat: A existat o mare agitație în legătură cu inteligența artificială, cu afirmații conform cărora
agenții inteligenti vor deveni mai inteligenți decât oamenii și chiar vor inlocui umanitatea. Vom arăta că
această teamă este nejustificată, că inteligența artificială diferă în mod fundamental de inteligența umană
și că acestea sunt complementare, inteligența artificială fiind mai bună la rezolvarea unor probleme, dar
incapabilă să rezolve altele care pot fi rezolvate de inteligența umană. Vom prezenta un model de gândire
critică care facilitează integrarea sinergică a raționamentului imaginativ al omului cu raționamentul critic
al mașinii, subliniind rolul de neînlocuit al omului în rezolvarea problemelor, limitat doar de imaginația
sa. Ca orice tehnologie nouă și puternică, inteligența artificială vine cu riscuri și oportunități. Multe locuri
de muncă vor fi îndeplinite de mașini, dar toate acestea sunt locuri de muncă de rutină, lăsându-le pe cele
cu adevărat creative oamenilor. Inteligența artificială ne ajută să devenim gânditori critici mai buni pentu
a păstra democrația si libertatea.
Inteligența artificială
Inteligența artificială (IA) este domeniul științei și ingineriei care se ocupă cu teoria și practica
dezvoltării de sisteme care prezintă caracteristicile pe care le asociem cu inteligența în
comportamentul uman, cum ar fi percepția, procesarea limbajului natural, rezolvarea
problemelor și planificarea, învățarea și adaptarea.
Principalul obiectiv științific al IA este înțelegerea principiilor care permit un comportament
inteligent la oameni, animale și agenți artificiali. Acest obiectiv științific sprijină în mod direct
mai multe obiective inginerești, cum ar fi dezvoltarea de agenți inteligenți, formalizarea
cunoștințelor și mecanizarea raționamentului în toate domeniile de activitate umană, făcând ca
lucrul cu computerele să fie la fel de ușor ca lucrul cu oamenii și dezvoltând sisteme om-mașină
care să exploateze complementaritatea raționamentului uman și automat.
S-a făcut multă vâlvă în legătură cu inteligența artificială, cu afirmații potrivit cărora agenții de
inteligenți vor deveni mai inteligenți decât oamenii și chiar vor inlocui umanitatea. Recent,
peste 27.000 de persoane, inclusiv mai mulți directori din domeniul tehnologiei și cercetători
foarte reputați, precum Elon Musk, Steve Wozniak și Stuart Russell, au semnat o scrisoare
deschisă prin care solicită o pauză în antrenarea celor mai puternice sisteme de inteligență
artificială pentru cel puțin șase luni, din cauza „riscurilor profunde pentru societate și
umanitate”. Mai mulți lideri ai Asociației pentru Progresul Inteligenței Artificiale au semnat o
scrisoare în care solicită o colaborare pentru a aborda promisiunile și riscurile IA ( Durden,
2023 ).
Sunt unul dintre cei mai mari susținători ai inteligenței artificiale. Am avut ocazia să
interacționez cu unii dintre părinții fondatori ai IA, inclusiv Herbert Simon (care a prezis
viitorul mașinilor și importanța datelor și a câștigat Premiul Nobel pentru economie pentru
contribuțiile sale la teoria raționalității limitate) și John McCarthy (care a inventat termenul
„inteligență artificială”, a creat limbajul LISP și a inventat programarea interactivă cu
partajarea timpului). Am fost unul dintre coeditorii volumelor clasice de Machine Learning,
alături de unii dintre cei mai renumiti oameni de știință din domeniul inteligenței artificiale,
Tom Mitchell, Ryszard Michalski, Jaime Carbonell și Yves Kodratoff. Mi-am dedicat viața
profesională dezvoltării unei teorii generale a agenților insruibili, numiti agenți Discipol, pentru
că învață să reproducă comportamentul de rezolvare a problemelor al profesorilor lor (a se
vedea figura 1).
2
Figura 1: Cu Herbert Simon și Ryszard Michalski în sala de conferințe a Centrului de Inteligență Artificială,
Universitatea George Mason, 1991 (stânga sus). Prezentarea abordării Disciple lui John McCarthy în cadrul
Conferinței Asociației Americane pentru Inteligență Artificială, 2002 (sus, dreapta). Cărțile clasice de Machine
Learning publicate în 1983, 1986, 1989 și, respectiv, 1994 (mijloc). Teza de doctorat și cărțile despre agenții
instructibli, publicate în 1988, 1998, 2016 și, respectiv, 2024 (jos).
Există realizări foarte impresionante ale inteligenței artificiale, cum ar fi Deep Blue (programul
de șah al IBM care l-a învins pe campionul mondial Gary Kasparov), AlphaGo, care joacă Go
mai bine decât oricine, și Watson de la IBM, care a învins cei mai buni jucători de Jeopardy.
Cel mai recent succes este ChatGPT (Radford et al., 2019), care reprezintă și integrează ceea
ce a fost postat pe internet și poate răspunde la orice întrebare la care poate răspunde Google.
Face acest lucru „citind” o cantitate mare de text existent și învățând cum apar cuvintele în
context cu alte cuvinte. Apoi, prezice următorul cuvânt cel mai probabil care ar putea apărea
ca răspuns la întrebarea pusă și fiecare cuvânt ulterior (la fel ca autocompletarea motoarelor de
3
căutare, a smartphone-urilor și a programelor de e-mail). Capacitățile sale superbe de generare
a limbajului natural îi permit să compună răspunsuri și să creeze povești și scrisori pentru
diferite grupe de vârstă și cu diferite niveluri de detaliu. De asemenea, poate compune muzică,
eseuri și poezii, poate scrie și depana programe de calculator, poate juca jocuri și poate redacta
CV-uri și scrisori de intenție personalizate.
Geoffrey Hinton, unul dintre inventatorii învățării profunde (deep learning),
subliniază că rețelele neuronale (calculatoarele) învață mult mai eficient decât
oamenii și pot foarte ușor să împărtășească ceea ce au învățat cu alte
calculatoare. El susține că computerele pot „înțelege” și, odată cu creșterea
preconizată a număului de neuroni artificiali intr-un calculator și a vitezei de
învățare, vor ajunge sa depășească inteligența umană (Hinton, 2024). Nu sunt
de acord cu viziunea sa asupra viitorului. Cred că „adevărata” înțelegere necesită o procesare
„semantică” pe care numai oamenii o pot face și că există pobleme pe care numai oamenii le
pot rezolva. Vom începe prin a compara neuronul uman cu cel artificial (a se vedea figura 2).
Neuronul uman și cel artificial
Neuronul uman are o structură arborescentă, cu o coroană formată din corpul celular și nucleu,
ramuri (dendrite), un trunchi (axon) și rădăcini (dendrite). Dendritele se conectează cu
dendritele altor neuroni pentru a forma o rețea foarte complexă de neuroni.
Creierul funcționează pe bază de electricitate. Axonul este ca un fir cu izolație in care neuronul
trimite impulsuri electrice care se deplasează de-a lungul axonului până la dendrite. Dendrita
de la un neuron se termină și începe dendrita de la un alt neuron. Această conexiune se numește
sinapsă. Dar exista un spatiu inte dendride. Transmisia nu este electrică, ci chimică. Sinapsa
determină eliberarea de substanțe chimice către celălalt neuron, care primește un semnal.
Fiecare neuron primește semnale de la
alți neuroni. Dacă suma electricitate
depășește un prag, atunci neuronii se
declanșează. Sinapsa poate fi puternică,
medie sau slabă. Dacă sinapsa este slabă,
atunci când intră un semnal, acesta
creează un semnal slab în următorul
neuron. Dar dacă sinapsa este puternică,
aceasta creează un semnal puternică.
Ceea ce face ca conexiunea să fie
puternică sau slabă este experiența
individului. Dacă acest neuron aprinde un
alt neuron, atunci conexiunea lor devine
mai puternică. Aceasta este ceea ce
determină învățarea. Din punct de vedere
statistic, dacă neuronii se aprind
împreună, aceștia sunt corelați. Atunci
când unul dintre ei se aprinde, ne
asteptăm ca și celălalt să se aprindă.
Creierul ste o rețea foarte complexă de
neuroni interconectați.
Neuronul artificial este o aproximare simplistă a unui neuron uman. Acesta calculează suma
ponderată a intrărilor sale și emite 1 (adevărat) dacă această sumă este pozitivă și -1 (fals) în
caz contrar. Tabelul 1 compară caracteristicile sale cu cele ale unui neuron uman. Neuronul
artificial este implementat cu tranzistori. Prin urmare, caracteristicile neuronului artificial sunt
Figura 2: Neuronul uman (sus) și cel artificial (jos).
smooth version of the step
function
Geoffrey Hinton
4
o funcție a caracteristicilor
tranzistorului. Putem spune
că neuronii artificiali sunt
mult mai rapizi decât neuronii
umani, dar numărul de
conexiuni este mult mai mic.
În prezent, cele mai mari
rețele artificiale au un număr
de neuroni similar cel al
creierul uman, dar ne
așteptăm ca dimensiunea lor să crească substanțial. Cu toate acestea, pentru a recunoaște o
scenă un neuron artificial are nevoie de mult mai multă putere și de mult mai mult timp decât
creierul uman.
Inteligența umană
Un computer efectuează doar manipularea simbolurilor sintactice, așa cum a demonstrat
filosoful John Searle cu argumentul camerei chinezești (1980):
John se află într-o cameră în care se află o carte care conține o colecție uriașă de reguli
„dacă-atunci”:
„DACĂ primești simbolul X, ATUNCI returnezi simbolul Y.”
Prin deschiderea unei uși, John primește din exteriorul camerei simbolul X, care
reprezintă o întrebare în chineză și, urmând una dintre reguli, returnează simbolul Y, care
reprezintă răspunsul în chineză. Pentru observatorul din exterior, John pare să înțeleagă
chineza. Dar John nu știe deloc chineza.
Adevărata „înțelegere” necesită o procesare „semantică” pe care numai
oamenii o pot face.
Mihai Drăgănescu (1979, 1985) a avansat ideea că creierul are atât moduri
de procesare a informației care utilizează calculul, cât și moduri care nu
utilizează calculul. Acest lucru a fost demonstrat ulterior de Roger Penrose
(1994). Drăgănescu face distincție între două tipuri de informații: structurale, care pot fi reduse
la biți, și fenomenologice, care au o manifestare în sentimente, semnificații și qualia. În filosofia
minții, qualia sunt definite ca fiind instanțe ale experienței subiective, conștiente. Printre
exemplele de qualia se numără senzația de durere percepută în urma unei dureri de cap, gustul
vinului și roșeața unui cer de seară. Ambele tipuri de informații pot acționa, de asemenea,
împreună, constituind un tip mixt de informații.
Creierul are minte și conștiință. Potrivit lui Drăgănescu (2000), în creier există mai multe
niveluri de procesare a informației:
• Cel mai înalt nivel este nivelul psihologic, care poate fi considerat un
nivel macroscopic specific, care cuprinde comportamentul,
activitățile intelectuale, gândirea, sentimentele, voința și altele.
• Nivelul neuronal cuprinde rețelele de neuroni, modulele de neuroni
și organizarea structurală a creierului.
• Nivelul molecular cuprinde activitățile moleculare din interiorul
neuronilor și de la nivelul sinapselor dintre neuroni.
• Nivelul cuantic, care a fost propus de o serie de fizicieni.
• Nivelul experiențial (nivelul fenomenologic) s-a dovedit a fi o realitate a creierului și a
minții.
Oamenii sunt lenți, neglijenți, uituci, impliciți și subiectivi, dar au conștiință, intuiție și
Roger Penrose
Mihai Drăgănescu
1929-2010
Tabelul 1: Neuronul uman față de cel artificial.
Neuron uman Neuron artificial
Timp de comutare10-3 secundă Timp de comutare ≈ 10-9 secundă
Numărul de neuroni≈1011 Numărul de tranzistori/cip > 1011
Conexiuni/neuron≈104 – 5 Conexiuni / tranzistor ≈ 10
Consumul de energie creier:
20 wați
Consumul de energie al unui
computer echivalent ≈106 wați
Timp de recunoaștere a scenei ≈
0,1 secundă
Timp de recunoaștere a scenei:
mult mai mae
5
imaginație și pot găsi soluții creative în situații noi. Vorbind despre imaginație, Einstein a spus,
Când mă examinez pe mine însumi și metodele mele de gândire, ajung
concluzia că darul fanteziei [imaginației] a însemnat mai mult pentru
mine decât talentul meu de a absorbi cunoașterea absolută.
Adevăratul semn al inteligenței nu este cunoașterea, ci imaginația.
Logica te va duce de la A la B. Imaginația te va duce peste tot.
Complementaritatea dintre inteligența umană și inteligența artificială
Agenții inteligenți sunt rapizi, riguroși, preciși și obiectivi, dar le lipsesc intuiția, imaginația și
capacitatea de a face față unor situații noi. Dacă doriți să știți ce nu poate face un agent AI,
gândiți-vă la o problema care necesită un raționament „cu adevărat” imaginativ, cum ar fi
abducția creativă, în care nu avem cunoștințe anterioare relevante, dar avem o „bănuială” că o
anumită ipoteză ar putea fi adevărată (Eco et al. 1983, 198-220), sau abducția de formare a
regulilor, în care emitem ipoteza unei reguli care explică de ce o anumită entitate are o
caracteristică sau un comportament interesant (Thagard 1983, 52-65).
Inteligenta artificială și inteligența umană sunt extrem de complementare. Prin urmare, are sens
să ne gândim la sisteme om-mașină. De exemplu, ce om sau ce mașină ar fi în stare să-l învingă
singură pe Kasparov atunci când este asistat de Deep Blue?
Modelul om-mașină al gândirii critice
Gândirea critică este abilitatea de a
analiza în mod obiectiv informațiile și
de a emite judecăți argumentate. Figura
3 oferă o imagine de ansamblu a unui
model uman-mașină de gândire critică
care facilitează integrarea sinergică a
imaginației umane și a raționamentului
critic al computerului. Acest model se
bazează pe știința evidentei și pe
metoda științifică de generare și testare
a ipotezelor (Tecuci și Schum, 2024).
Acesta constă în trei faze descrise mai
jos.
Generarea de ipoteze
Gândirea critică va începe cu o întrebare: Cine a pus bomba?
Răspunsul necesită un raționament abductiv (imaginativ) care arată că ceva este posibil să fie
adevărat: Hakka a plantat bomba1.
Descoperirea evdentelor
Pentru a determina dacă ipoteza este adevărată, este nevoie de evidente. O abordare pentru
descoperirea evidentelor este de a pune la lucru ipoteza, punând următoarea întrebare: Ce
evidenta ar favoriza sau defavoriza această ipoteză? Omul și asistentul AI descompun ipoteza
generată H în ipoteze mai simple, luând în considerare atât argumentele favorabile (care susțin
veridicitatea ipotezei H) sub pătratul din stânga (verde), cât și argumentele defavorabile (care
susțin falsitatea lui H)sub pătratul din dreapta (roz). Fiecare argument este o strategie
independentă de a demonstra că H este adevărată sau falsă și este caracterizat de o relevanță
sau o forță specifică. Argumentul constă fie într-o singură ipoteză (de exemplu,
Albert Einstein
[1879-1955]
Figure 3: Human-machine model of critical thinking.
6
„Caracteristicile unice ale
bombei1 se potrivesc cu cele
ale bombei2 plantate anterior
de Hakka”), fie într-o
conjuncție de ipoteze. Aceste
subiapoteze sunt descompuse
ulterior prin intermediul altor
argumente, ceea ce duce la
ipoteze din ce în ce mai
simple, care pot fi evaluate
mai precis pe baza dovezilor
(de exemplu, „Detonatorul
din bomba1 a folosit tetriol”).
Această sub-sub-ipoteză face
foarteclar ce evidente trebuie
colectate, unde evidenta este
orice semn observabil, dat
sau element de informație
relevant pentru a decide dacă
o ipoteză este adevărată sau
falsă (Schum, 2001). Prin
urmare, fiecare sub-ipoteză
este redusă la o cerere
specifică de colectare de
evidentă, cum ar fi „Colectați
evidentă pentru a determina dacă detonatorul din bomba1 a folosit tetriol”. Acest lucru a dus
la descoperirea unei evidente favorable (E1
∗
: Analiza fragmentelor bombei1 de către laboratorul
NCTC a indicat faptul că detonatorul din bombă a folosit tetriil). Evidenta descoperită este
utilizată pentru a testa ipoteza din partea de sus a figurii 4, după cum se discută în secțiunea
următoare.
Testarea ipotezei
Testarea ipotezelor este în mod necesar de natură probabilistică din cauza a cinci caracteristici
ale evidentelor. Evidente noastre sunt întotdeauna incomplete, indiferent de cât de multe avem
și, de obicei, sunt neconcludente, în sensul că sunt compatibile cu adevărul mai multor ipoteze.
Mai mult, evidentele sunt frecvent ambigue; nu putem determina întotdeauna ce anume ne
spun. În majoritatea situațiilor, o masă de evidente este disonantă într-o anumită măsură; unele
favorizează o ipoteză, dar altele favorizează alte ipoteze. În cele din urmă, toate evidentele
noastre provin din surse care pot avea orice gradație posibilă de credibilitate.
Fiecare evidenta are trei caracteristici care trebuie evaluate: credibilitatea, relevanța și forța
inferențială. Credibilitatea răspunde la întrebarea: Care este probabilitatea ca evidenta să fie
adevărata? Credibilitatea evidentei E1
∗ este certă, deoarece NCTC este un laborator foarte
respectabil.
Relevanța evidentelor la o ipoteză răspunde la întrebarea: „Care ar fi probabilitatea ipotezei
dacă evidenta ar fi adevărata? Relevanța lui E1
∗
este certă, deoarece dacă E1
∗
este adevărată,
ipoteza este cu siguranță adevărată.
Aceste două caracteristici sunt utilizate pentru a calcula forța inferențială a evidentelor asupra
ipotezei, care răspunde la întrebarea: Care este probabilitatea ipotezei doar pe baza a acestei
evidente? Forța inferențială este calculată ca fiind minimul dintre credibilitate și relevanță.
Figure 4. Wigmorean probabilistic infrence network (argumentation)
almost certain
&
Detonator
in bomb1
used tetryl
Attack was
against civilians
not targeted by
Hakka before
Attack occurred in
Taiwan, a country that
is not the primary
enemy of Hakka
Sub-reason for
reason above
Detonator in bomb2
planted previously
by Hakka used tetryl
Collect evidence
to determine
whether
Detonator in
bomb1 used tetryl
Collect evidence to
determine whether
Detonator in bomb2
planted previously by
Hakka used tetryl
Unique features of
bomb1 match those
of bomb2 p
likely barely likely barely likely
“&” indicates both sub-reasons below are
necessary to support reason above
Reason against
hypothesis above
Reason against
hypothesis above
Alternative reasons
Hypothesis
R5
R6, R7
R2, R3, R4
Probability Scale
100% certain (C)
95-99% almost certain (AC)
80-95% very likely (VL)
70-80% more than likely (ML)
55-70% likely (L)
50-55% barely likely (BL)
0-50% lacking support (LS)
R1
7
Probabilitățile ipotezelor inferioare sunt evaluate pe baza credibilității dovezilor colectate, iar
probabilitățile ipotezelor de nivel superior sunt evaluate pe baza probabilităților
subiaptitudinilor lor, utilizând reguli de combinare a probabilităților min-max comune pentru
probabilitatile Fuzzy și Beaconiane:
P(H1 and H2) = min{P(H1), P(H2)}; and P(H1 or H2) = max {P(H1), P(H2)}.
Învățare
Din argumentele din figura 4, agentul învață reguli generale pentru a genera ipoteze, a
descoperi evidente și a teata ipoteze. Acesta utilizează învățarea multistrategie prin ucenicie
(Tecuci et al. 2016, 252-328), care este o dezvoltare a metodei clasice a spațiului de versiuni
(Mitchell, 1977), și integrează învățarea din exemple din explicații și prin
analogie. De exemplu, din pasul abductiv din partea de sus a figurii 4, va
învăța o regulă care îi va permite să genereze abducții similare (de exemplu,
Hamas a plantat bomba), dar acestea nu sunt „cu adevărat” noi. No
consideram că abductiile „cu adevărat” imaginative pot fi generate doar de
inteligența umană.
Capabilitati uimitoare ale sistemelor om-agent
Problemele care pot fi rezolvate de un sistem om-agent sunt limitate doar de imaginația umană.
De exemplu, Steven Rieber (2023, video) și-a imaginat o aplicație de informații în care sistemul
ar produce automat comentarii (feedback și recomandări) asupra unui raport analitic
preliminar, evidențiind evidente relevante suplimentare și identificând punctele forte și
punctele slabe ale raționamentului din raport. Analiștii pot utiliza comentariile pentru a-și
îmbunătăți rapoartele. Spre deosebire de aplicațiile actuale ale tehnicilor analitice structurate,
sistemul va produce automat comentarii fără niciun efort suplimentar din
partea analiștilor, care pot utiliza orice comentariu pe care îl consideră util.
Aceste comentarii se vor baza pe aplicarea automată a unor tehnici analitice
structurate eficiente. Comentariile vor fi analoage cu cele făcute de
verificările ortografice și gramaticale automate, cu excepția faptului că se vor
concentra pe îmbunătățirea argumentării. O soluție propusă pentru această
problemă este prezentată în (Tecuci, 2023, 5 min video).
Concluzii
La fel ca orice tehnologie nouă și puternică, cum ar fi locomotiva cu aburi, energia nucleară și
internetul, inteligența artificială vine cu riscuri și oportunități (Bejan, 2020). Depinde de noi să
gestionăm riscurile și să profităm de oportunitățile enorme oferite. Inteligența Artificială va
contribui la tranziția către o societate a cunoașterii (Drăgănescu, 2002), în care multe locuri de
muncă vor fi îndeplinite de mașini, dar toate acestea sunt locuri de muncă de rutina, lăsând
oamenilor locurile de muncă cu adevărat creative. Pe lângă progresele tehnologice făcute
posibile (de exemplu, doar IA poate determina videoclipurile sau imaginile false), ne va ajuta
să devenim gânditori critici mai buni, aceasta fiind cea mai bună modalitate de a păstra
libertatea și democrația, care, cu toate imperfecțiunile sale, este încă cel mai bun sistem de
guvernare (Tecuci, 2024).
Multumiri
Continui cercetările lui David Schum (1932-2018) privind raționamentul bazat pe evidente.
Steven Rieber m-a provocat cu programele sale de cercetare inovatoare, CRATE și REASON,
și mai ales cu cerința de a elabora materiale de instruire foarte scurte. Interacțiunile mele cu
Adrian Bejan, Geoffrey Hinton, Harry Wechsler, Constantin Bulucea, Stuart Russell și Paul
Thagard m-au stimulat să îmbunătățesc în continuare aceasta lucrare.
Tom Mitchell
Steven Rieber
8
Referințe
Durden T. (2023). Musk, Wozniak Call for Pause in Developing ‘More Powerful’ AI than
GPT-4, Zero Hedge, 29 martie 2023.
Dawkins, R. (2008). The Oxford Book of Modern Writing, Oxford University Press.
Drăgănescu, M. (1979). Profunzimile lumii materiale, București 1979; ediția în limba engleză
1997, http://www.racai.ro/books/doe.
Drăgănescu , M. (1985). Ortofizică, Editura Sttintifica și Enciclopedică, București,
Drăgănescu, M. ( 2000). Creierul ca procesor de informații, NOESIS, XXV, 2000, p.9-20.
Drăgănescu, M. (2002). Broadband and the Knowledge Society, Conferința Internațională
Information Society Technologies for Broadband Europe, 9-11 octombrie, București,
România.
Mitchell, T.M. (1977). Version Spaces: A Candidate Elimination Approach to Rule Learning,
Proc. of the 5th IJCAI, Cambridge, MA. https://www.ijcai.org/Proceedings/77-
1/Papers/048.pdf https://www.ijcai.org/Proceedings/77-1/Papers/048.pdf
Radford et al., (2019. Modelele lingvistice sunt învățători multitask nesupravegheați. OpenAI
blog, 1(8):9.
Rieber, S. (2023). REASON Overview, IARPA, 11 ianuarie,
https://www.youtube.com/watch?v=FiHKoBi1No0.
Penrose. R (1994). Shadows of the Mind (Umbrele minții), Oxford, Oxford University Press.
Searle J.R. (1980), Minds, brains, and programs. Științe comportamentale și ale creierului, 3
(3): 417-457.
Tecuci, G., (2023). Cognitive Agent for Rapid Explanation, Analysis, and Sourcing Online
(Cogent REASON), IARPA, 11
ianuarie,https://www.youtube.com/watch?v=jYAFnKKVdpU, 2:05:43 până la 2:10:42,
Tecuci, G., Marcu, D., Boicu, M., Schum, D.A. (2016). Ingineria cunoașterii: Building
Cognitive Assistants for Evidence-based Reasoning, Cambridge University Press.
Tecuci, G., (2024). Gentle Introduction to Critical Thinking, Critical Thinking Press.
Tecuci G., Schum D.A. (2024). Știința dovezilor, Critical Thinking Press
Domnule Gheorghe Tecuci dumneata esti omul de care vorbeste Geoge Pruteanu, umul cu motorul… din Tecuci?
Cum poti domnule veni cu asemenea mazgalituri mecanice copiate din reviste scolaresti pentru ametit pe ignoranti. Nu ai pic de respect pentru cititorii acestui blog, vii cu randuri frante si propozitii fara cap si coada sa ne obosesti ochii si nervii, ar trebui sa-ti ceri scuze pentru un asemenea afront; drept cine ne iei?
Ne subestimezi la maximum cand ne arunci asemenea baliverne si anagrame, scuzele sunt obligatorii.
Orice tehnologie benignă poate deveni o armă letală in maini criminale. Problema este cine detine tehnologia si ce vrea sa faca cu ea, si nu teoretic cat bine ar putea aduce tehnologia umanitatii.
In conditiile de fata nu are nici un rost sa ne imbatam cu apa rece si sa debordam planuri teoretice de dezvoltare si exploatare civilizata a tehnologiei atata timp cat IA[AI] este in maini criminale.
FOȘTI ANGAJATĂȚI AI “OPEN AI” DECLARĂ „DREPTUL LA ATENȚIONARE”
-avertisment de documentare despre riscurile avansate ale IA
https://www.stationgossip.com/2024/06/former-openai-employees-release-right.html
Foștii angajați “OpenAI” lansează documentul „A Right to Warn” – “ Dreptul la Atentionare”, care avertizează despre riscurile avansate ale IA.
O cohortă de experți și dezvoltatori în inteligență artificială (IA) care au lucrat pentru “OpenAI” și “Google” avertizează că tehnologia pe care au ajutat-o să fie vârf de lance este o amenințare serioasă pentru umanitate.
Deși ei încă spun că „cred în potențialul tehnologiei AI de a oferi beneficii fără precedent umanității”, autorii unui articol numit „A Right to Warn about Advanced Artificial Intelligence” spun că există și „riscuri serioase”.
„Aceste riscuri variază de la consolidarea în continuare a inegalităților existente, la manipulare și dezinformare, până la pierderea controlului sistemelor AI autonome care ar putea duce la dispariția umană”, scriu ei.
„Companiile IA înseși au recunoscut aceste riscuri, la fel ca guvernele din întreaga lume și alți experți în IA”, continuă ei, citând toată munca lor cu hyperlinkuri de-a lungul piesei.
Cu „îndrumare suficientă din partea comunității științifice, a factorilor de decizie politică și a publicului, acești experți speră că IA poate fi reținută în beneficiul umanității. În același timp, este puțin probabil ca o astfel de îndrumare să vină vreodată pe baza modului în care funcționează sistemul.
„Companiile IA au stimulente financiare puternice pentru a evita o supraveghere eficientă”, notează autorii, „și nu credem că structurile personalizate de guvernanță corporativă sunt suficiente pentru a schimba acest lucru”.
Companiile IA știu mult mai multe decât publicul larg despre riscuri.
Deși nu o vor spune niciodată public, companiile de inteligență artificială precum “OpenAI” și “Google”, care derulează un program înfiorător de inteligență artificială numit „DeepMind”, cunosc foarte bine riscurile grave implicate de tehnologie. Totuși, este mult prea profitabil pentru ei ca să se oprească vreodată.
Așa cum este în prezent, există foarte puține cerințe legale pentru companiile de inteligență artificială să dezvăluie guvernului ceea ce știu despre tehnologiile pe care le dezvoltă. Și mai rău sunt cerințele de dezvăluire publică, care aproape nu există.
„Nu credem că se poate baza pe toți pentru a le împărtăși în mod voluntar”, avertizează autorii.
„Atâta timp cât nu există o supraveghere guvernamentală eficientă a acestor corporații, actualii și foștii angajați sunt printre puținii oameni care îi pot trage la răspundere în fața publicului. Cu toate acestea, acordurile largi de confidențialitate ne împiedică să ne exprimăm preocupările, cu excepția companiilor care ar putea nu reușesc să abordeze aceste probleme”.
În ceea ce privește protecțiile existente ale avertizorilor, și acestea sunt insuficiente, deoarece se concentrează în jurul activității ilegale – și nu există nimic ilegal, la bine sau la rău, în ceea ce privește dezvoltarea sistemelor AI avansate capabile să controleze lumea.
Multe dintre riscurile cunoscute ale tehnologiei IA nu sunt încă reglementate – și, posibil, nu vor fi niciodată într-un mod eficient. Aceasta înseamnă că există un stimulent puternic pentru companiile IA să riposteze împotriva oricui se prezintă pentru a încerca să spună adevărul urât despre IA.
Chiar și așa, autorii și semnatarii articolului „Dreptul de avertizare” fac apel la toate companiile de IA de pretutindeni să accepte în mod voluntar o serie de angajamente și principii, inclusiv promisiunea de a nu încheia sau pune niciodată în aplicare vreun acord care interzice „disprețuirea” sau critică la adresa muncii lor de IA.
Autorii doresc, de asemenea, ca companiile AI să:
– Permita angajaților, atât actuali, cât și foști, să își manifeste în mod anonim preocupările cu privire la AI șefilor companiei
– Sa sprijine o cultură a criticii deschise la adresa inteligenței artificiale
– Sa nu se răzbune împotriva actualilor și foștilor angajați care împărtășesc public ceea ce știu despre AI
Semnatarii articolului includ:
Jacob Hilton, fost OpenAI
Daniel Kokotajlo, fost OpenAI
Ramana Kumar, fost Google DeepMind
Neel Nanda, în prezent Google DeepMind, anterior Anthropic
William Saunders, fost OpenAI
Carroll Wainwright, fost OpenAI
Daniel Ziegler, fost OpenAI
Anonim, în prezent OpenAI
Au fost și șase semnatari anonimi, toți care lucrau pentru OpenAI.
Yoshua Bengio, Geoffrey Hinton și Stuart Russell au susținut, de asemenea, apelul la acțiunea „Dreptul la avertizare”.
S-au ieftinit ierburile si ciupercile?
Ar trebui sa fie interzis a se conduce un autovehicul si a se posta pe internet de cei aflati sub influenta recreativelor.