Coordonat de Sorin Bocancea, Sabin Drăgulin și Angelo Chielli
Volum XII, Nr. 2 (44), Serie noua, martie-mai 2024
Raportul dintre inteligența artificială și drepturile fundamentale
(The relationship between Artificial Intelligence and fundamental rights)
Carlo BOSNA
Abstract: Artificial Intelligence and its widespread pervasion which is recorded in all areas, from the economic-productive one to the juridical-social one, has also raised important questions of an ethical nature, which inevitably reverberate on the constitutional values of individual national and supranational systems, inducing the Institutions to reinterpret them and to underline the need to introduce new principles and criteria that regulate the relationship between Artificial Intelligence and the sphere of human rights. This is an impact that takes on a „double face” nature as, if on the one hand the development of enabling technologies can lead to the birth of new values and rights worthy of constitutional protection, on the other the phenomenon of AI can constitute a threat to previously existing constitutional rights and values such as, for example, the principle of equality, the right to work and fair pay, the right to vote, as well as the right to the full development of the human personality. An important impact also concerns the management and processing of data which are managed by increasingly innovative intelligent systems capable of clearly or covertly penetrating people’s lives, violating certain freedoms such as privacy and the protection of one’s identity. Intelligent systems find themselves dealing with and managing an ever-increasing amount of information and data more commonly known as big data, therefore their proliferation has given rise, from a legal perspective, to issues relating to the regulation of privacy and the implementation of its rules. European and supranational in order to regulate important issues concerning personal identity and privacy.
Key words: privacy, artificial intelligence, diritti, Europa
Utilizarea sistemelor de Inteligență Artificială (AI) în diverse domenii a dat naștere la nivel internațional și național nevoii de a defini și echilibra relația dintre aceste sisteme, răspândite acum în toate domeniile vieții umane, și drepturile fundamentale. Demne de reținut din punct de vedere juridic și economic sunt lucrările lui John McCarthy care, în 1956, a inventat termenul de „mașini inteligente” cu ocazia unei conferințe pe această temă organizată la Dartmonth College din Hanovra[1]. În acel context, a fost formulat un prim concept, conform căruia AI „indică sisteme care manifestă un comportament inteligent analizându-și mediul și desfășurând acțiuni cu un anumit grad de autonomie pentru atingerea unor obiective specifice”[2].
O altă definiție importantă este cea formulată de „High-Level Expert Group on Artificial Intelligence”, înființat la inițiativa Comisiei Europene, în Report Study din 8 aprilie 2019: „Sistemele de Inteligență Artificială sunt software concepute de oameni care, având în vedere un scop complex, acționează în dimensiunea fizică sau digitală prin perceperea mediului lor prin achiziția de date, interpretarea datelor structurate sau nestructurate, raționarea despre cunoașterea și prelucrarea informațiilor care derivă din datele menționate anterior, pentru a decide cele mai bune acțiuni ce trebuie să fie luate pentru a atinge obiectivul stabilit”[3].
În legislația SUA, o definiție relevantă este dată de Actul de autorizare a apărării naționale John S. McCain, National Defense Authorization Act for Fiscal Year 2019 (NDAA 2019), care în secțiunile 2384[4], lit. g) și 10515[5], lit. f), descrie „Definiția inteligenței artificiale”[6], ca pe o noțiune care se bazează în esență pe cinci elemente, dintre care primele patru se referă la caracteristicile mașinilor inteligente, în timp ce al cincilea se referă la tehnica utilizată pentru desfășurarea activităților relevante legate de sistemele inteligente (F1-IT-MAIN-PART-1.PD).
O altă definiție dată de IA este cea a Comisiei Europene în Draft of Ethic Guidelines for trustworthy AI, din 8 aprilie 2019: „Inteligența artificială (AI) se referă la sistemele concepute de oameni care, având în vedere un obiectiv complex, acţionează în lumea fizică sau digitală prin perceperea mediului înconjurător, interpretarea datelor structurate sau nestructurate colectate, raţionând pe baza cunoştinţelor derivate din aceste date şi hotărând cea mai bună cale (sau căi) pe care să o parcurgă (pe baza unor parametri predefiniti) pentru a atinge cele mai indicate obiective. Sistemele AI pot fi, de asemenea, proiectate pentru a învăța să-și adapteze comportamentul analizând modul în care mediul este afectat de acțiunile lor anterioare. Ca disciplină științifică, AI include diferite abordări și tehnici, cum ar fi învățarea automată (din care învățarea profundă și învățarea prin consolidare sunt exemple specifice), raționamentul automat (care include planificarea, programarea, reprezentarea și raționamentul cunoștințelor, căutarea și optimizarea) și robotica (care include controlul, percepția, senzorii și actanții, precum și integrarea tuturor celorlalte tehnici în sistemele ciberfizice)”[7]. Încă din titlul de Draf, se poate observa cum a fost împrumutată paradigma „obiect-știință” care caracterizează această noțiune din NDAA 2019.
Definiția guide lines europene a fost, printre altele, extinsă în anexa relevantă care le însoțește, care, pe lângă examinarea în profunzime a principalelor profiluri, a oferit un cadru sectoarelor care constituie AI. Concomitentă cu formularea conceptuală propusă în Draft of Ethic Guidelines for trustworthy AI este cea a Cartei etice europene privind utilizarea inteligenței artificiale în sistemele judiciare, cuprinsă în Anexa III la paragraful Glosar: „Inteligența Artificială: un set de metode, teorii și tehnici științifice al căror scop este reproducerea, printr-o mașină, a abilităților cognitive ale ființelor umane. Evoluțiile actuale vizează mașini care îndeplinesc sarcini complexe efectuate anterior de oameni”[8]. Conceptul cuprins în aceasta este diferit de noțiunile adoptate de legislatorii americani și europeni, întrucât se eliberează de schema „obiect-știință”, punând un accent mai mare pe natura unei discipline științifice atribuite AI.
În contextul italian, legiuitorul nu a formulat încă o definiție univocă, în ciuda atenției semnificative pe care instituțiile italiene au acordat-o disciplinei și sectorului. Acest lucru este confirmat în Cartea albă despre inteligența artificială în serviciul cetățenilor, publicată de Agenția Digitală Italiană, care citează noțiunea de inteligență artificială formulată de Universitatea Stanford ca un simplu exemplu[9].
Explorarea modelelor conceptuale duce la confirmarea multidimensionalității disciplinei Inteligenței Artificiale, care se intersectează cu diferite domenii științifice unde abordează studiul unor probleme complexe caracterizate de profiluri diferite precum etic, filozofic și juridic. Un exemplu al acestei complexități este multiplicitatea problemelor referitoare la posibilitatea omului de a crea un subiect artificial, hardware sau software, dotat cu propria sa autonomie și capacitate intelectuală[10].
Explorarea diferitelor noțiuni de IA formulate de diverși legiuitori, organisme supranaționale și doctrine oferă o idee despre dimensiunea complexă a fenomenului și a unei discipline în care se intersectează diferite subiecte și abilități. Această eterogenitate conceptuală nu exclude însă încercarea de a clasifica noțiunile după diferite criterii, precum sursele din care provin, în funcție de arhetipurile și elementele pe care se bazează.
Importanța acestor noi tehnologii a atras, mai presus de toate, interesul legiuitorului comunitar care, pe de o parte, a evidențiat oportunitatea reală a utilizării lor, iar pe de altă parte a observat că utilizarea lor greșită poate constitui o potențială amenințare pentru societatea modernă. Acest interes a dat naștere la diverse inițiative, promovate la diferite niveluri, care au fost inițial dezvoltate după o perspectivă sectorială, și au fost orientate substanțial spre susținerea activității de cercetare științifică[11]. Acesta este însă un subiect foarte complex, având în vedere imprevizibilitatea care caracterizează evoluția bruscă a sistemelor inteligente și care nu-i permite legiuitorului să prevadă toate posibilele interferențe dăunătoare ale AI în sfera drepturilor omului[12]. În același timp, problema este de o importanță enormă și nu poate fi amânată, deoarece pandemia a accelerat procesul de răspândire a acesteia în domeniile vieții umane odată cu accelerarea proceselor de digitalizare, răspândirea bruscă a muncii inteligente și dezvoltarea tuturor elementelor dinamice care facilitează implementarea AI în diferite zone ale societății[13].
Concret, dacă luăm în considerare contextul european, este necesar să se evalueze dacă principalele surse care protejează drepturile fundamentale, care sunt Carta de la Nisa[14] și CEDO[15], constituie un sistem de protecție a acestor drepturi adecvat pentru a face față riscului de prejudiciu care decurge dintr-o dezvoltare sau o utilizare necorespunzătoare a tehnologiilor abilitate menționate mai sus. Având în vedere ansamblul de valori protejate și prevăzute de sursele menționate mai sus, se poate observa cum dezvoltarea AI cu aplicarea asociată a algoritmilor săi trebuie să aibă loc cu respectarea demnității umane, care capătă natura unei valori cheie alături de celelalte principii avute în vedere în Carta de la Nisa[16] și de către CEDO[17], care constituie o specificație a acesteia. De exemplu, un asemenea principiul este cel al nediscriminării, care are ca scop prevenirea actelor discriminatorii împotriva individului sau ale grupurilor de indivizi săvârșite ca urmare a utilizării IA. Dezvoltarea inteligenței artificiale ar putea submina, de asemenea, sfera drepturilor colective, în care unele tehnologii precum recunoașterea biometrică și facială sunt utilizate pentru a comprima principiile democratice și unele libertăți, cum ar fi libertatea presei, de întrunire sau de asociere[18].
Prin urmare, este clar că ponderea dintre IA și drepturile fundamentale depinde nu numai de reglementarea de tip normativ, ci și de modul în care aceste tehnologii de sprijin sunt concepute și dezvoltate din punct de vedere tehnic. Deci, regulile ar trebui să vizeze reglementarea metodelor de programare, proiectare și dezvoltare.
Dezvoltarea enormă și rapidă a AI și riscul unor potențiale prejudicii aduse drepturilor omului, care fac obiectul Convenției Europene a Drepturilor Omului, au împins Consiliul Europei să intervină cu diverse inițiative, dintre care relativ mai recent și cel mai important este studiul Algorithms and Human Righs[19], din 2017, realizat de Comitetul de experți în inteligența artificială. Importanța acestui act se datorează faptului că el evidențiază o serie de probleme critice legate de dezvoltarea sistemelor inteligente care pot periclita și submina protecția drepturilor omului, abordând în același timp problematica responsabilității și a diferenței substanțiale între decizia umană şi cea algoritmică. Această abordare a subiectului examinat a condus la observația că, dacă pe de o parte indivizii au acum experiența procesului care caracterizează deciziile umane, ei sunt aproape complet lipsiți de o asemenea experiență în cazul limitelor care caracterizează decizia automatizată, cu efectele sale consecvente și reale.
În lumina celor de mai sus, Consiliul Europei, spre deosebire de instituțiile comunitare, are îndoieli cu privire la posibilitatea de a configura un cadru unitar de reglementare care să vizeze utilizarea sistemelor algoritmice care caracterizează AI, asta pentru că multe dintre aceste tehnologii sunt într-un starea primordială de dezvoltare. Deci, stadiul tehnic în care se regăsesc nu permite legiuitorului să prevadă problemele critice care pot apărea în urma dezvoltării ulterioare a acestor tehnologii din perspectiva protecției drepturilor omului.
Un alt și important document elaborat în cadrul Consiliului Europei este cel creat de Comisia Europeană pentru Eficiența Justiției (CEPEJ), anume Carta etică europeană privind utilizarea inteligenței artificiale în sistemele judiciare și în domeniile conexe[20]. Această sursă capătă și natura soft low și oferă o serie de principii substanțiale și criterii metodologice care trebuie implementate în configurarea și aplicarea sistemelor AI în domeniul judiciar[21]. Acesta este un act destinat unui grup mare de subiecți, care nu include doar organele legislative ale statelor individuale implicate în crearea unui cadru disciplinar privind AI, ci și alți subiecți implicați în dezvoltarea unor modele algoritmice din ce în ce mai avansate[22]. De asemenea, trebuie precizat că acest document nu are scopul de a interzice sau împiedica dezvoltarea sistemelor inteligente în cadrul sistemelor judiciare, ci de a promova acele modele care permit îmbunătățirea justiției din punct de vedere al calității și eficienței în conformitate cu normele și drepturile prevăzute și protejate de CEDO și de Convenția nr. 108 a Consiliului Europei.
În esență, CEPEJ, referindu-se la unele valori care caracterizează de ceva timp dreptul UE, promovează dezvoltarea AI în domeniul judiciar care, pornind de la faza de concepere și programare a algoritmului, se bazează pe un așa-numit ethical-by-design sau human-rights-by-design[23]. Carta elaborată de CEPEJ este însoțită de două studii care evidențiază problemele critice inerente diferitelor aplicații ale AI și care pot pune în pericol protecția drepturilor omului. Concret, organismul evidențiază necesitatea de a identifica standardele minime pe care sistemele inteligente trebuie să le respecte în mod obligatoriu pentru a asigura realizarea unor obiective fundamentale, constând în calitatea datelor prelucrate, în protecția autonomiei persoanelor în luarea deciziilor și în pregătirea mijloacelor specifice de plângere împotriva deciziilor considerate nedrepte sau incorecte. Cu alte cuvinte, potrivit acestui Comitet, este necesară promovarea difuzării acelor sisteme inteligente care întăresc și consolidează protecția drepturilor omului, democrației și statul de drept.
Pe lângă Parlament, Comisia Europeană s-a ocupat de AI prin promovarea, în 2018, a Strategiei privind inteligența artificială[24] și prin numirea unui comitet de experți pentru a facilita implementarea acesteia. Strategia constă în configurarea unui program de măsuri care să cuprindă politici și investiții care vizează dezvoltarea echilibrată a economiei digitale în perioada de cinci ani care urma anunțării strategiei. Abordarea acestei inițiative se bazează pe conceptul european de AI și, prin urmare, în conformitate cu valorile etice, de securitate și inovare, se bazează pe următorii piloni:
– promovarea și difuzarea AI de către sectorul public și privat;
– managementul schimbărilor socio-economice generate de AI;
– garantarea unui cadru juridic și etic definit, care să respecte valorile care inspiră UE.
Strategia privind inteligența artificială a necesitat, de asemenea, implicarea directă a unui grup mare de subiecți, incluzând atât simpli cetățeni, cât și profesioniști și părți interesate în diferite capacități, prin consultări pe această temă și dezbateri online în cadrul Alianței Europene AI[25].
De-a lungul timpului, Comisia Europeană și-a asumat și rolul de coordonare a intervențiilor europene și naționale în sectorul AI, ceea ce i-a permis să emită așa-numitul Plan coordonat privind inteligența artificială[26]. Acesta conține obiective ambițioase, constând în transformarea UE într-o entitate de vârf, precum cea a Chinei și a Statelor Unite, în sectorul în cauză. Acest scop este conectat la direcția importantă de îmbunătățire și utilizare a tehnologiei AI într-un mod etic, sigur și consecvent cu drepturile omului[27]. Această perspectivă cuprinsă în plan a impulsionat Grupul de experți la nivel înalt al inteligenței artificiale pentru a crea un document intitulat Artificial Intelligence High-Level Expert Group, pe care Comisia l-a implementat prin comunicarea Crearea încrederii în inteligența artificială antropocentrică[28]. În acest document, accentul este pus pe importanța generării unui context în care utilizarea AI să se desfășoare în condiții echitabile menite să garanteze companiilor un avantaj competitiv și cetățenilor un climat etic, de încredere, în conformitate cu drepturile omului.
În februarie 2020, a avut loc o nouă intervenție a Comisiei cu privire la AI, prin emiterea unui set de acte care reprezintă sinteza perspectivei programatice a UE privind reglementarea acestui domeniu. Setul este format dintr-un document principal, Cartea albă despre inteligența artificială[29], însoțit de un raport explicativ și două comunicări. Cartea albă proiectează o strategie născută din combinarea a două obiective importante, constând în „ecosistemul excelenței” și „ecosistemul încrederii”, care îmbrățișează o perspectivă de dezvoltare a AI ce trebuie să se desfășoare cu respect absolut pentru drepturile omului[30].
În 2022, Comisia Europeană a intervenit din nou pe această temă, printr-o propunere adresată Parlamentului și Consiliului, intitulată Declarația europeană privind drepturile și principiile digitale pentru deceniul digital[31]. Acesta este un act mai larg care nu se ocupă doar de problemele legate de AI, ci are ca scop definirea politicilor comune pentru a aborda problema inovației tehnologice și guvernarea schimbării, care se aliniază perfect cu actele anterioare, cum ar fi Declarația de la Tallinn privind e-Guvernul, Declarația de la Berlin privind societatea digitală și guvernarea digitală bazată pe valori, Busola digitală: Planul european pentru deceniul digital și Declarația de la Lisabona – Democrație digitală cu un scop[32]. În același timp, Declarația își propune să fie și un ghid pentru a orienta factorii de decizie politică spre dezvoltarea unei politici de tranziție digitală orientată spre om, adică bazată pe valori certe și esențiale precum sustenabilitatea, solidaritatea, libertatea și autonomia în alegeri, participarea și incluziunea, protecția și responsabilitatea. În ceea ce privește tema specifică AI, Declarația ia în considerare problemele libertății de alegere și relația dintre om și sistemele algoritmice, pentru care solicită în mod continuu respectarea drepturilor omului.
În aprilie 2021, Comisia Europeană a prezentat proiectul final de regulament care reiterează necesitatea ca generarea și implementarea tehnologiilor să aibă loc cu respectarea absolută a drepturilor fundamentale. Pentru Comisie, această ipoteză constituie o condiție sine qua non pentru configurarea unui sistem european de reglementare pentru AI fiabilă, care să devină un punct de referință pentru alți legiuitori din întreaga lume[33].
Proiectul de regulament propune o abordare transversală a reglementării AI, care este echilibrată și proporțională și care prevede trei clase de sisteme inteligente:
– incompatibil cu dreptul european și, prin urmare, interzis;
– „risc ridicat”, a cărui utilizare este supusă unor constrângeri și condiții stricte;
– forme de AI care interacționează cu oamenii[34].
Acest proiect confirmă abordarea bazată pe risc, care demonstrează poziția puternică a Comisiei Europene ce intenționează să îmbunătățească și să confirme sistemul de protecție personală și garanțiile fundamentale asociate, chiar și în detrimentul posibil al competitivității și al investițiilor.
În lumina acestor considerații, remarcăm continuitatea activității Comisiei Europene, care vizează consolidarea „dimensiunii centrate pe om” printr-o reglementare care să conducă la utilizarea corectă a AI pentru a proteja drepturile fundamentale și libertățile aferente[35]. Din perspectiva relației dintre AI și drepturile fundamentale, proiectul de regulament pune un accent deosebit pe necesitatea menținerii și păstrării echilibrului între dezvoltarea sistemelor inteligente și protecția valorilor inerente drepturilor omului. Totuși, această echilibrare trebuie să fie asigurată prin monitorizarea continuă a utilizării acestor sisteme inteligente pentru a sancționa conduita care aduce atingere drepturilor menționate anterior[36]. În plus, el evidențiază faptul că AI – având caracteristici specifice precum opacitatea, complexitatea, dependența de date, precum și autonomia comportamentală – ar putea submina diferite drepturi fundamentale prevăzute atât în Carta de la Nisa, cât și în CEDO. De aceea, proiectul își propune să dezvolte, să mențină și să păstreze un nivel ridicat de protecție a acestor drepturi care poate fi asigurat, potrivit Comisiei, doar prin stabilirea și dezvoltarea legislației inspirată de o abordare bazată pe riscuri[37]. Acestea trebuie identificate în mod explicit prin elaborarea unui catalog de cerințe pe care trebuie să le posede o AI de încredere, precum și o serie de obligații pe care dezvoltatorii de tehnologie inteligentă trebuie să le respecte pentru a concepe modele algoritmice ale căror utilizarea merge chiar la îmbunătățirea sistemului predefinit de protecție a drepturilor omului, realizându-se astfel trecerea de la o protecție statică a acestor valori la o protecție proactivă.
Regulamentul propus prevede, de asemenea, o serie de obligații referitoare la managementul și monitorizarea riscurilor de către oameni pentru a reduce probabilitatea deciziilor luate cu ajutorul mașinilor inteligente care ar putea fi incorecte sau modificate de o reprezentare falsă a realității și, prin urmare, ar putea pune în pericol unele activități importante care privesc sectoare delicate precum educația, piața muncii, lupta împotriva criminalității și sistemul judiciar[38]. În cazul în care apar încălcări ale drepturilor fundamentale, propunerea este ca celor afectați să li se garanteze o despăgubire efectivă, posibilă prin asigurarea transparenței și trasabilității sistemelor AI, împreună cu controale stricte ex post.
În raportul care însoțește proiectul de regulament, Comisia precizează că obligațiile de transparență care revin operatorilor nu aduc atingere dreptului de proprietate intelectuală întrucât se limitează la obligația de a comunica informații minime care permit, pe de o parte, persoanelor fizice să facă apel la foruri adecvate în ipoteza în care un drept este încălcat sau permit autorităților responsabile să efectueze verificările necesare. Propunerea de regulament a fost aprobată de Parlament în iunie 2023, cu modificări care nu numai că extind domeniul de aplicare al intervenției de reglementare pentru protecția drepturilor fundamentale ale Uniunii Europene, dar oferă garanții mai mari pentru acestea[39].
Traducere din italiană de Sabin Drăgulin
Bibliografia
Lucrări cu caracter general și special:
BRADFORD A., Effetto Bruxelles. Come l’Unione europea regola il mondo, Milano, 2021.
CARLONI E., „I principi della legalità algoritmica. Le decisioni automatizzate di fronte al giudice amministrativo”, în Diritto amministrativo, nr. 2/ 2020.
CASONATO C., „Intelligenza Artificiale e diritto costituzionale: prime considerazioni”, în Diritto pubblico comparato ed europeo, Rivista trimestrale” Numero Speciale/2019.
FLORIDI L., Etica dell’Intelligenza Artificiale. Sviluppi, opportunità, sfide, Varese, 2022.
GROSSI P.F., I diritti di libertà ad uso di lezioni, Giappichelli, Torino, 1991.
LEPAGE A., Libertés et droits fondamentaux à l’épreuve de l’internet, Litec, Paris, 2002.
Studii și articole:
ADINOLFI A., L’unione europea dinanzi allo sviluppo dell’Intelligenza Artificiale: la costruzione di uno schema di regolamentazione europeo tra mercato unico digitale e tutela dei diritti fondamentali, in DORIGO S. (ediție îngrijită de) Il ragionamento giuridico nell’era dell’Intelligenza Artificiale, Pisa 2020.
ALAINO A., Il regolamento sull’Intelligenza Artificiale: dalla proposta della Commissione al testo approvato dal Parlamento. Ma ha ancora senso il pensiero pessimistico? in federalismi.it, 18 ottobre 2023.
ALPA G., RESTA G., Le persone fisiche e i diritti della personalità, Torino, 2006.
BARAK A., Human dignity as a framework right (motherright), în BARAK A., Human Dignity: The Constitutional Value and the Constitutional Right, Cambridge, 2015.
BARBARO C., „Cepej, adottata la prima carta etica europea sull’uso dell’Intelligenza Artificiale (AI) nei sistemi giudiziari”, în Questione Giustizia, 7 dicembre 2018.
BARRA CARACCIOLO F., „La tutela della personalità in Internet”, in Il diritto dell’Informazione e dell’Informatica, n.2/2018, nr. 2.
CAINES S., The many faces of facial recognition, în R. VOGL (coord), Research Handbook on Big Data Law, Edward Elgar Publishing, Cheltenham, 2021.
CASONATO C., MARCHETTI B., Prime osservazioni sulla proposta di regolamento dell’Unione Europea in materia di Intelligenza Artificiale, in BioLaw Journal, n. 3/2021.
CHEN V.L. CHEN, P., Z. LIN Z., Artificial Intelligence in Education: A Review, in IEEE Access, n. 8/2020.
CIRONE E., Big Data e tutela dei diritti fondamentali, in DORIGO S. (ediție îngrijită de) Il ragionamento giuridico nell’era dell’Intelligenza Artificiale, Pisa, 2020.
CORNELI V., Sovranità tecnologica: Intelligenza Artificiale e valori costituzionali, in Forum di Quaderni Costituzionali, nr.2/2023.
COWGER A., The Threats of Algorithms and AI to Civil Rights, Legal Remedies, and American Jurisprudence: One Nation Under Algorithms, Lanham, 2020.
D’ALOIA A. <<Il diritto verso “il mondo nuovo”. Le sfide dell’Intelligenza Artificiale”>> în BioLaw Journal –Rivista di BioDiritto, n. 1/2019.
D’AVANZO W., „Lotta alla pandemia e tutela della privacy” în Tigor: rivista di scienze della comunicazione e di argomentazione giuridica – XIV n.2/2022.
DAELMAN C., AI through a human rights lens. The role of human rights in fulfilling AI’s potential, in DE BRUYNE J., VANLEENHOVE C., (a cura di), Artificial Intelligence and the Law, Cambridge, 2022.
FASAN M., Intelligenza Artificiale e pluralismo: uso delle tecniche di profilazione nello spazio pubblico democratico, in D’ALOIA A., (a cura di), Intelligenza Artificiale e diritto. Come regolare un mondo nuovo, FrancoAngeli, Milano, 2020.
FROSINI V., „L’orizzonte giuridico dell’Internet”, in Il dritto dell’Informazione e dell’informatica, n. 2/2000.
GLESS S., „AI in the Courtroom: A Comparative Analysis of Machine Evidence in Criminal Trials”, in Georgetown Journal of International Law, vol. 51 n. 2/2020.
GORLA L., „L’atto di disposizione dei diritti”, Annali della R. Università di Perugia, Perugia, 1936.
MESSINA D., „Le prospettive del diritto all’oblio nella società dell’informazione e della comunicazione”, în Informatica e diritto, XXXV annata, Vol. XVIII, 2009, nr. 1/2009.
MEYER V.A., WESSELS M., Predictive policing review of benefits and drawbacks, în International Journal of Public Administration, nr.12/2019.
MEYSTRE S. M., FRIEDLIN F. J., SHOUTH B. M., SHEN S., – SAMORE M. H.,
Automatic dei dentification of textual documents in the electronic health record: a review of recent research, 2010.
PAGALLO U. DURANTE M. -. MONTELEONE S., „What is new with the Internet of things in Privacy and Data Protection? Four Legal Challenges on Sharing and Control in IoT”, în LEENES R., VAN BRAKEL G., GUTWIRTH S., DE HERT P. (ediție îngrijită de), Data Protection and Privacy; (In)visibilities and Infrastructures, Springer, 2017.
PERRY W. et al., Predictive policing. The role of crime forecasting in law enforcement operations, RAND Corporation, Washington, 2013.
PIZZETTI F., Privacy e il diritto europeo alla protezione dei dati personali. Il Regolamento europeo 2016/679, II, Torino, 2016.
RESTA G., „Cosa c’è di ‘europeo’ nella Proposta di Regolamento UE sull’Intelligenza Artificiale?”, in Diritto dell’Informazione e dell’Informatica, nr. 2/2022.
RINALDI L., Intelligenza Artificiale, diritti e doveri nella Costituzione italiana, in DPCE online, nr.1/ 2022.
ROSPI M., Gli strumenti ICTs, la Bubble democracy e le consultazioni referendarie. Rileggendo Alessandro Pizzorusso, in DPCE online, numero speciale, 2021.
SAMUELSON P., Privacy as Intellectual Prosperty, in Stanford L Rev., nr. 52, 2000.
SCHEPISI C., „Le “dimensioni” della regolazione dell’Intelligenza Artificiale nella proposta di regolamento della Commissione”, în Quaderni AISDUE, Sezione “Atti convegni AISDUE”, nr. 16, 2022.
Resurse online:
BOLDRINI N., Intelligenza Artificiale: Europa “terza incomoda” tra Cina e Usa?, in AI4Business, 26 febbraio 2019, in https://www.ai4business.it.
BONANSINGA G., Privacy e rispetto dei dati sensibili ai tempi dei big data, in http://www.labcd.unipi.it ;
CAIANELLO M., Potenzialità e rischi derivanti dall’interazione tra I.A. e giustizia penale preventiva, in RUFFOLO U. (ediție îngrijită de), XXVI Lezioni di Diritto dell’Intelligenza Artificiale, Torino, 2021.
CERRINA FERONI G., Libertà di espressione, Garante privacy: „Troppo potere alle big Tech, ecco come intervenire, 11 maggio 2021, in https://www.garanteprivacy.it.
FAINI F., Intelligenza Artificiale e regolazione giuridica: il ruolo del diritto nel rapporto tra uomo e macchina, in federalismi.it.
TANZARELLA P., L’acceso a Internet è fondamentale, ma è davvero un diritto (fondamentale)? in https://www.medialaws.eu
VAN SEVEREN S., VANDER MAELEN C., „Killer Robots: Lethal Autonomous Weapons and International Law”, în Artificial Intelligence and the Law, – Impact on Fundamental Rights, luglio 2020, in: https://www.europarl.europa.eu
ZANICHELLI A., Ecosistemi, opacità, autonomia: le sfide dell’Intelligenza Artificiale in alcune proposte recenti della Commissione europea, in D’ALOIA A. (ediție îngrijită de) Intelligenza Artificiale e diritto. Come regolare un mondo nuovo, Milano, 2021.
[1] Conferința în care a fost prezentat Dartmouth Summer Research Project on Artificial Intelligence este considerate în mod oficial evenimentul care a dat naștere AI ca un nou sector de cercetare.
[2] Comunicazione della Commissione al Parlamento Europeo, al Consiglio, al Comitato Economico e Sociale Europeo e al Comitato delle Regioni, “L’Intelligenza Artificiale per l’Europa”, Bruxelles, doc
- COM (2018) 237 del 25 aprilie 2018 in https://ec.europa.eu/transparency/regdoc/rep/1/2018/IT/COM- 2018-237-F1-IT-MAIN-PART-1.PDF.
[3] Comisia Europeană, Una definizione di IA: principali capacità e disciplina. Definizione elaborata ai fini dei documenti del gruppo, 8 aprile 2019, in https://ec.europa.eu/digital-single- market/en/news/ethics-guidelines-trustworthy-ai.
[4] Secțiunea 238 al NDAA 2019 se referă la un complex de activități care țin de competența Departamentului Apărării care va finaliza și implementa sistemele IA în https://www.congress.gov/committee-print/115th-congress/house-committee-print/30025.
[5] La Sezione 1051 del NDDA 2019 ha istituito una commissione indipendente che ha la funzione di monitorare “gli avanzamenti dell’Intelligenza Artificiale, sviluppi relativi ai processi di machine learning, e tecnologie associate” con lo scopo di assicurare agli USA adeguati livelli di competitività inerenti l’ IA., in https://www.congress.gov/committee-print/115th-congress/house-committee- print/30025.
[6] https://www.congress.gov/committee-print/115th-congress/house-committee-print/30025
[7] Commissione Europea, Draft of Ethic Guidelines for trustworthy AI, a cura del High-Level Expert Group on Artificial Intelligence, Glossario, 8 aprile 2019, in https://ec.europa.eu/digital-single- market/en/news/ethics-guidelines-trustworthy-ai
[8] Commissione europea per l’ efficienza della giustizia, Carta etica europea sull’ uso dell’ Intelligenza Artificiale nei sistemi giudiziari, adottata dalla CEPEJ nel corso della sua 31 ͣ Riunione plenaria (Strasburgo, 3-4 dicembre 2018), in https://rm.coe.int/carta-etica-europea-sull-utilizzo-dell- intelligenza-artificiale-nei-si/1680993348.
[9] Libro Bianco sull’Intelligenza Artificiale al servizio del cittadino, 10 Marzo 2018, realizat cu sprijinul task force AGID, pp. 24 și următoarele, in www.agid.gov.it.
[10] M. Costanza, „L’Intelligenza Artificiale e gli stilemi della responsabilità civile”, În Enrico Gabrielli e Ugo Ruffolo (ediție îngrijită de), „Intelligenza Artificiale e diritto”, Giurisprudenza italiana, luglio 2019 p.1686.
[11] A. Adinolfi, „L’unione europea dinanzi allo sviluppo dell’Intelligenza Artificiale: la costruzione di uno schema di regolamentazione europeo tra mercato unico digitale e tutela dei diritti fondamentali”, în S. Dorigo (ediție îngrijită de), Il ragionamento giuridico nell’era dell’Intelligenza Artificiale, op. cit., pp. 14 și următoarele.
[12] L. Floridi, Etica dell’Intelligenza Artificiale. Sviluppi, opportunità, sfide, Varese, 2022, p. 48.
[13] A. Zilli, „Il lavoro agile per Covid-19 come “accomodamento ragionevole” tra tutela della salute, diritto al lavoro e libertà di organizzazione dell’impresa”, în Labor, n. 4/020 pp. 533-542.
[14] Concret, art. 1 din Carta de la Nisa prevede că demnitatea umană este o valoare inviolabilă și merită să fie respectată și, prin urmare, demnă de protecție. Pentru studiul acestei valori și implicațiile ei în drept, vă rugăm să consultați A. Barak, Human dignity as a framework right (motherright), in BARAK A., Human Dignity: The Constitutional Value and the Constitutional Right, Cambridge, 2015, pp. 156-169.
[15] Chiar și în convenția drepturilor omului protecția demnității este prevăzută la art.1.
[16] C. Schepisi, „Le “dimensioni” della regolazione dell’Intelligenza Artificiale nella proposta di regolamento della Commissione”, în Quaderni AISDUE, Sezione “Atti convegni AISDUE”, nr. 16, 2022, pp. 330-356.
[17] C. Schepisi, „Le “dimensioni” della regolazione dell’Intelligenza Artificiale nella proposta di regolamento della Commissione”, în Quaderni AISDUE, Sezione “Atti convegni AISDUE”, nr. 16, 2022, pp. 330-356.
[18] C. Schepisi, „Le “dimensioni” della regolazione dell’Intelligenza Artificiale nella proposta di regolamento della Commissione”, în Quaderni AISDUE, Sezione “Atti convegni AISDUE”, nr. 16, 2022, pp. 330-356.
[19] Committee of expert of Internet Intermediaries, Algorithms and Human Rights. Study on the Human Rights dimensions of automated data processing techniques (in particular algorithms) and possible regulatory implications, Council of Europe, 2017 in https://ec.europa.eu › futurium.
[20] C. Barbaro, „Cepej, adottata la prima carta etica europea sull’uso dell’Intelligenza Artificiale (AI) nei sistemi giudiziari”, în Questione Giustizia, 7 dicembre 2018, https://www.questionegiustizia.it/articolo/cepej-adottata-la-prima-carta-etica-europea-sull-uso-dell- intelligenza-artificiale-ai-nei-sistemi-giudiziari_07-12-2018.php.
[21] S. Quattrocolo, „Intelligenza Artificiale e giustizia: nella cornice della carta etica europea, gli spunti per un urgente discussione tra scienze penali ed informatiche”, in Legislazione penale, 18 dicembre 2018, in https://www.lalegislazionepenale.eu/intelligenza-artificiale-e-giustizia-nella- cornice-della-carta-etica-europea-gli-spunti-per-unurgente-discussione-tra-scienze-penali-e- informatiche-serena-quattrocolo/.
[22] M. Gialuz, „Quando la giustizia penale incontra l’Intelligenza Artificiale: luci ombre dei risk assessment tools tra Stati Uniti ed Europa”, în Diritto Penale Contemporaneo, 2019, in https://archiviodpc.dirittopenaleuomo.org/d/6702-quando-la-giustizia-penale-incontra-l-intelligenza- artificiale-luci-e-ombre-dei-risk-assessment-too pp. 3 e ss.
[23] C. Grieco, Intelligenza Artificiale e diritti umani. Alla ricerca di un delicato equilibrio, in Ordine internazionale e diritti umani 2022, p. 794.
[24] Comunicazione della Commissione al Parlamento europeo, al Consiglio europeo, al Consiglio, al Comitato economico e sociale e al Comitato delle regioni – L’Intelligenza Artificiale per l’Europa, 25 aprile 2018, COM(2018) 237 final.
[25] C. Grieco, Intelligenza Artificiale e diritti umani. Alla ricerca di un delicato equilibrio, op. cit. p. 798.
[26] Comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni, Creare fiducia nell’Intelligenza Artificiale antropocentrica, Bruxelles, 8.4.2019 COM(2019).
[27] E. Triggiani, Spunti e Riflessioni sull’Europa, in Collana di Studi sull’Integrazione europea, Bari, 2021, p. 16 și urm.
[28] Comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni, Creare fiducia nell’Intelligenza Artificiale antropocentrica, Bruxelles, 8.4.2019 COM(2019).
[29] Libro Bianco sull’Intelligenza Artificiale, Un approccio europeo all’eccellenza e alla fiducia, 19 febbraio 2020, COM(2020) 65 final, https://ec.europa.eu/info/publications/white-paper-artificial-intelligence-europeanapproach-excellence-and-trust_en.
[30] A., Zanichelli Ecosistemi, opacità, autonomia: le sfide dell’Intelligenza Artificiale in alcune proposte recenti della Commissione europea, in D’ALOIA A. (a cura di) Intelligenza Artificiale e diritto. Come regolare un mondo nuovo, Milano 2021, pp. 56 ss.
[31] Dichiarazione europea sui diritti e i principi digitali per il decennio digitale del 26 gennaio 2022, COM(2022) 28 final.
[32] C. Grieco, Intelligenza Artificiale e diritti umani. Alla ricerca di un delicato equilibrio, op. cit., p. 802.
[33] M. Ebers, Regulating AI and Robotics: Ethical and Legal Challenges, în M. Ebers, S.Navas Navarro (ediția îngrijită de), Algorithms and Law, op. cit. p. 61.
[34] Propunrea de reguament, op. cit., p. 3.
[35] C. Daelman, „AI through a human rights lens. The role of human rights in fulfilling AI’s potential”, în J. de Bruyne, C. Vanleenhove, (ediție îngrijită de), Artificial Intelligence and the Law, op. cit. p. 149.
[36] C. Casonato, B. Marchetti, „Prime osservazioni sulla proposta di regolamento dell’Unione Europea in materia di Intelligenza Artificiale”, în BioLaw Journal, nr. 3/2021, p. 416.
[37] G. Resta, „Cosa c’è di ‘europeo’ nella Proposta di Regolamento UE sull’intelligenza artificiale?”, in Diritto dell’Informazione e dell’Informatica, nr. 2/2022, p. 324.
[38] A., Alaino, Il regolamento sull’Intelligenza Artificiale: dalla proposta della Commissione al testo approvato dal Parlamento. Ma ha ancora senso il pensiero pessimistico? in federalismi.it, 18 ottobre 2023 p. 133.
[39] Ibidem.