Etica roboţilor ucigaşi sub lupa comunităţii americane de interese în domeniul inteligenţei artificiale
Niculae IancuConsiliul de inovare în domeniul apărării al Statelor Unite a publicat la începutul lunii un set de principii de etică care ar trebui urmate de agenţiile apărării interesate în dezvoltarea de capabilităţi militare bazate pe inteligenţa artificială şi de structurile de forţă responsabile pentru utilizarea acestora în luptă. Consiliul de inovare în domeniul apărării este un comitet consultativ federal independent, constituit din personalităţi din domeniul inteligenţei artificiale şi din domeniile complementare, care lucrează în industrie, mediul academic şi organizaţii non-guvernamentale, cu misiunea de a susţine deciziile liderilor militari, cu studii şi analize în domeniile amintite. Principiile publicate nu au caracter obligatoriu pentru Pentagon, însă oferă un numitor comun tuturor agenţiilor apărării Statelor Unite în abordarea unui subiect atât de sensibil cum este cel al producerii şi utilizării în luptă a „roboţilor ucigaşi”. Recomandările tratează doar aspectele inedite de etică în utilizarea inteligenţei artificiale în afacerile apărării, neacoperite de cadrul legal şi instituţional existent pentru gestionarea problematicii de referinţă.
Cinci principii de etică pentru utilizarea inteligenţei artificiale în afacerile apărării
Demersul pentru elaborarea setului de principii de etică care ar trebui urmate de Departamentul Apărării în dezvoltarea şi operarea armelor super-inteligente bazate pe inteligenţa artificială a fost iniţiat la mijlocul anului trecut, în contextul preocupărilor Pentagonului cu privire la menţinerea ascendentului global al SUA în domeniul tehnologiilor avansate cu utilizare duală şi, în mod special, al inteligenţei artificiale, care se conturează drept noul teren al „competiţiei globale dintre marile puteri”. Totodată, la începutul acestui an, preşedintele Donald Trump adopta Ordinul executiv pentru menţinerea supremaţiei americane în domeniul inteligenţei artificiale. Cu acel prilej, ofiţerul de presă al apărării declara în cadrul evenimentului de prezentare publică a noii strategii, susţinut alături de gl.lt. Jack Shanahan, primul director al Centrului Întrunit pentru Inteligenţa Artificială al Departamentului Apărării, că „Ordinul executiv este fundamental nu numai pentru creşterea prosperităţii naţiunii americane, dar şi pentru întărirea securităţii naţionale”, după cum aminteam în analiza mea publicată la acea dată.
Pe parcursul ultimului an şi jumătate, Consiliul de inovare în domeniul apărării a derulat un amplu proces de analiză cu privire la etica aplicaţiilor militare ale inteligenţei artificiale, cu participarea industriei, mediului academic şi sectorului privat. Conform Departamentului Apărării, „consiliul a organizat o multitudine de consultări publice, a intervievat mai mult de 100 de reprezentanţi ai părţilor direct interesate şi a găzduit întâlniri lunare cu un grup informal de lucru al Departamentului din care au făcut parte şi reprezentanţi ai statelor partenere. De asemenea, consiliul a derulat două exerciţii practice cu lideri şi experţi din cadrul DOD, ai comunităţii de intelligence şi mediului academic”. Întreg acest proces a fost derulat sub egida Strategiei Naţionale de Apărare adoptată de preşedintele Trump în 2018, în care inteligenţa artificială este inclusă printre tehnologiile cu potenţialul de „a schimba caracterul războiului” şi asumată ca prioritate a investiţiilor în cercetarea şi dezvoltarea de noi capabilităţi.
La finalul demersului au rezultat următoarele cinci principii:
1. Responsabilitatea. Factorul uman ar trebui să exercite nivelurile potrivite de judecată şi să rămână responsabil pentru dezvoltarea, dislocarea, utilizarea şi valorificarea sistemelor de inteligenţă artificială ale Departamentului Apărării.
Tema menţinerii controlului uman asupra comportamentului armelor super-inteligente este probabil cel mai fierbinte punct al dezbaterilor actuale cu privire la viitorul războiului. Evoluţiile tehnologice accelerate şi competiţia acerbă pentru dominarea spaţiului hiper-tehnologizat al apărării au potenţialul de a împinge factorii responsabili spre acceptarea de compromisuri din ce în ce mai mari cu privire la gradul de autonomie al inteligenţei artificiale în luarea deciziilor critice pe câmpul de luptă. De aceea, „responsabilitatea” nu trebuie să rămână doar la nivel de recomandare, ci ar trebui transpusă în norme de drept internaţional promovate prin tratate internaţionale destinate non-proliferării tehnologiilor care pot ieşi total de sub controlul uman.
2. Justeţea. Departamentul apărării ar trebui să întreprindă măsuri concrete pentru evitarea modelelor ce pot conduce la discriminare în dezvoltarea şi dislocarea de sisteme de inteligenţă artificială de tip combat şi non-combat, cu potenţialul de a cauza prejudicii oamenilor din neatenţie.
Discriminarea în deciziile luate de inteligenţa artificială ar putea să provină din modul în care armele inteligente sunt programate pentru a recunoaşte „amicii” şi „inamicii” pe câmpul de luptă. De altfel, tema nu este nouă, iar istoria conflictului este încărcată de exemple de erori de interpretare a statutului combatanţilor, care au condus la producerea unor tragedii înscrise astăzi în manualele de lecţii învăţate ale armatelor marilor puteri militare. Prin urmare, logica codurilor de programare a echipamentelor super-tehnologizate va trebui să preîntâmpine interpretările eronate sau apariţia de disfuncţionalităţi care ar putea produce vătămări militarilor şi civililor sau distrugeri de echipamente în mod accidental.
3. Trasabilitatea. Disciplina inginerească a inteligenţei artificiale din Departamentul Apărării ar trebui să fie suficient de avansată pentru ca experţii tehnici să înţeleagă în mod adecvat tehnologia, procesele de dezvoltare şi metodele de operare ale sistemelor de inteligenţă artificială. Trasabilitatea include transparenţa şi controlul diseminării metodologiilor, surselor de date, procedurilor de proiectare şi documentaţiilor tehnice.
În esenţă, sistemele avansate de asigurare a calităţii acoperă cerinţele majore de transparenţă şi control al proceselor înglobate în ingineria sistemelor complexe. Cu toate acestea, consiliul de inovare a considerat important să transpună regulile generale de disciplină inginerească la nivel de principiu de etică, probabil pentru a preîntâmpina o libertate prea mare de improvizaţie în momentele critice ale dezvoltării şi operării sistemelor de arme super-inteligente. Mai mult, principiul urmăreşte impunerea unei rigori aparte în utilizarea informaţiilor sensibile din interiorul eco-sistemului de inteligenţă artificială pentru apărare, cu toate că instinctul de autoprotecţie informativă ar trebui să fie impregnat în gena lucrătorilor din domeniile securităţii şi apărării naţionale.
4. Încrederea. Sistemele de inteligenţă artificială ale Departamentului Apărării ar trebui să beneficieze de un domeniu de utilizare explicit, bine definit. Siguranţa, securitatea şi robusteţea unor asemenea sisteme ar trebui testate şi certificate pe întreg ciclul de viaţă al acestora, în cadrul strict al domeniului lor de utilizare.
Principiul „încrederii” guvernează întreaga arhitectură instituţională americană responsabilă pentru cercetarea, dezvoltarea, producţia, achiziţia şi operarea sistemelor de armament. De altfel, Departamentul Apărării a dezvoltat cel mai avansat cadru organizatoric pentru gestionarea eficientă a chestiunii sensibile a asigurării supremaţiei tehnologice globale americane, fundamentală pentru prezervarea poziţiei de unică super-putere militară globală a Statelor Unite. Prin urmare, un astfel de principiu de etică decurge firesc din tradiţia americană a procesului de management al achiziţiilor pentru apărare, care a inspirat majoritatea sistemelor similare adoptate de statele membre NATO.
5. Controlul. Sistemele de inteligenţă artificială ale Departamentului Apărării ar trebui să fie proiectate şi fabricate pentru a îndeplini cu precizie scopul stabilit, având în acelaşi timp capacitatea de a detecta şi evita apariţia erorilor cu potenţial de a pune în pericol viaţa, precum şi de a fi dezactivate prin intervenţie umană sau în mod automat atunci când sunt evidente escaladarea nedorită în utilizarea disproporţionată a forţei sau un alt comportament neintenţionat, în faza de operare.
Principiul „controlului” întregeşte tabloul principiilor etice în utilizarea inteligenţei artificiale, cu accent pe importanţa menţinerii posibilităţii intervenţiei umane în diferite faze de operare în luptă, în scopul evitării escaladării neintenţionate sau nepotrivite a forţei distructive împotriva adversarului. Totodată, controlul va fi necesar pentru evitarea retorsiunii efectelor distructive la ţintă şi afectării neintenţionate a vieţii propriilor operatori.
Recomandări pentru implementarea principiilor de etică
Consiliul de inovare în domeniul apărării a formulat şi un set de recomandări în sprijinul implementării în cadrul Departamentului Apărării a principiilor formulate, chiar dacă responsabilitatea revine în exclusivitate oficialilor militari. De altfel, gl.lt. Jack Shanahan şi-a exprimat „speranţa” că „recomandările vor conduce la stabilirea unui standard pentru utilizarea responsabilă şi etică a unor asemenea instrumente [bazate pe inteligenţa artificială]”.
Aceste recomandări se referă şi se reflectă în toate dimensiunile organizatorice ale instituţiei militare, pornind de la palierul de decizie şi lanţul de comandă şi mergând până la cercetare, dezvoltare, producţie, educaţie şi instruire. Accentul este pus pe importanţa racordării tuturor fazelor inginereşti din cadrul ciclului de viaţă al sistemelor militare la principiile de etică, prin impunerea de standarde de performanţă care să confere garanţii ferme că dezvoltările viitoare vor putea fi ţinute sub control de factorul uman. De altfel, întreaga arhitectură de acţiune şi responsabilitate propusă de comitetul de inovare ar trebui să fie coordonată de un comitet director de nivel strategic, aflat în subordinea directă a locţiitorului şefului Departamentului Apărării. Acest comitet ar trebui să fie responsabil pentru supravegherea adecvării dezvoltărilor stimulate de obiectivele strategiei Pentagonului cu privire la inteligenţa artificială la cele cinci principii de etică enunţate. Totodată, în viziunea Consiliului de inovare pentru apărare, transparenţa procesului va putea fi asigurată prin dezbaterea anuală a principalelor provocări etice apărute în domeniul inteligenţei artificiale, în cadrul unei conferinţe cu participare internaţională.
Concluzii
Inteligenţa artificială are potenţialul de a deveni cea mai importantă tehnologie din istoria omenirii. Algoritmii de inteligenţă artificială reprezintă aplicaţii informatice care au capacitatea de colectare, organizare, analiză şi valorificare a datelor existente în scopul luării de decizii fără intervenţie umană. Asemenea aplicaţii sunt utilizate pe sacră largă în lumea afacerilor, însă şi-au dovedit utilitatea şi în domeniul gestionării volumelor mari de informaţii de securitate şi apărare naţională. Totuşi, perspectiva extinderii aplicaţiilor de inteligenţă artificială pentru comanda şi controlul sistemelor de armament a creat numeroase dezbateri în ultimii ani, cel puţin în interiorul societăţilor democratice, şi ridică unele semne de întrebare cu privire la morala lăsării deciziilor de viaţă şi moarte specifice războiului la latitudinea maşinilor de calcul. Ca urmare, Consiliul de inovare în domeniul apărării recomandă ca viitoarele sisteme complexe de armament bazate pe inteligenţă artificială să fie „responsabile”, „juste” şi „controlabile” pentru a conferi „încredere” că nu vor produce tragedii din greşeală sau în mod necontrolat.
În pofida numeroaselor ambiguităţi legate de impactul aplicaţiilor militare ale inteligenţei artificiale, există un acord cvasi-general cu privire la potenţialul acestora de a schimba logica războiului viitorului. Mai mult, există numeroase studii care menţionează că inteligenţa artificială va fi prezentă pe câmpul de luptă chiar mai devreme decât ne-am putea aştepta, în mod special în conflictele asimetrice. Ceea ce astăzi îngrijorează, cel puţin în aceeaşi măsură cu utilizarea neconformă a sistemelor inteligente de armă intrate în dotarea forţelor armate, provine din posibilitatea de utilizare a unor asemenea sisteme de actori non-statali violenţi. De aceea, acţiunile unilaterale nu sunt suficiente. Alături de impunerea unor standarde etice foarte clare în domeniul super-tehnologiilor militare, guvernele vor trebui să creeze un spaţiu de dezbatere şi cooperare pentru adoptarea de măsuri comune concrete, care să asigure stoparea şi controlul proliferării roboţilor ucigaşi.
Pe acelaşi subiect:
Noua strategie privind inteligenţa artificială a Pentagonului şi etica roboţilor ucigaşi