top of page

Retragerea proiectului Directivei privind răspunderea în materie de AI. Scurte considerații

  • Poza scriitorului: Av. Irina BUSTAN
    Av. Irina BUSTAN
  • 22 feb. 2025
  • 4 min de citit

Actualizată în: acum 13 ore

22 februarie 2025


2021 a început promițător pe scena europeană. Pe plan local, avocații noștri munceau de zor să înregistreze un dosar judiciar pentru angajarea răspunderii în contextul unui atac cibernetic. Patru ani și o expertiză informatică mai târziu, peisajul legislativ european adresat dezvoltatorilor de software - și nu numai - arată diferit.


Cursa neobosită pentru relevanță pe piața inteligenței artificiale a atras atenția entităților supranaționale cu competențe legislative. În aceste împrejurări, la nivelul Uniunii Europene a fost pus la cale un plan pentru reglementarea armonizată a inteligenței artificiale.


Mai simplu, UE a considerat că trebuie să intervină legislativ, prin adoptarea unor măsuri de descurajare a folosirii inteligenței artificiale în scopuri oculte; adică pentru a proteja drepturile fundamentale ale persoanelor care interacționează direct sau sunt expuse inteligenței artificiale, respectiv ale celor pasibili să devină persoane afectate de IA.


Așa a luat naștere Regulamentul (UE) 2024/1689 privind inteligența artificială, în vigoare din 1 august 2024. Dacă ar fi să îl descriem, am spune că este o lectură greoaie dacă nu este abordată interdisciplinar. Așa fiind, am pus laolaltă resursele noastre juridice și resursele tehnice asigurate de colaboratorii noștri specializați în data science, o componentă indispensabilă funcționării inteligenței artificiale. Prezentăm în continuare concluziile noastre preliminare.


Pe alocuri, Regulamentul își atinge scopul declarat:

de a îmbunătăți funcționarea pieței interne, de a promova adoptarea inteligenței artificiale (IA) centrate pe factorul uman și fiabile, asigurând în același timp un nivel ridicat de protecție a sănătății, a siguranței și a drepturilor fundamentale consacrate în cartă, inclusiv a democrației, a statului de drept și a mediului împotriva efectelor dăunătoare ale sistemelor de IA din Uniune, și sprijinind inovarea.

Dar ar fi greșit să susținem că este suficient de clar.


Dimpotrivă, o analiză amănunțită dă naștere multor interpretări (inclusiv din simpla comparare a versiunilor lingvistice). Era oarecum de așteptat - așa se întâmplă atunci când aduci o știință exactă în sfera umanistă. Nu este o surpriză, deci, că deja avem înregistrată, pe rolul Curții de Justiție a Uniunii Europene, încă din noiembrie, afacerea Yettel (C-806/24), care pune în discuție interpretarea unor articole din Regulament și căreia îi vom dedica un articol propriu.


Pentru context, menționăm că, deși Regulamentul a intrat în vigoare în august anul trecut, primul set de prevederi, consacrat interdicțiilor și alfabetizării în materia IA, se aplică din 2 februarie 2025; iar vara acestui an vine cu noi provocări, odată cu aplicarea primelor norme în materia răspunderii.


Oare cine va fi tras la răspundere într-o astfel de situație? este întrebarea care a circulat aproape obsesiv în biroul nostru de lucru, de fiecare dată când imaginam un exemplu care să explice norme din regulament. Iar chestiunea răspunderii în materia IA - credem noi - va fi cea mai aprig dezbătută.


O tentativă de clarificare a subiectului răspunderii - pentru că „tranșare” ar fi prea mult spus - a existat, dar a fost abandonată. Este vorba despre Propunerea de Directivă a Parlamentului European și a Consiliului privind adaptarea normelor în materie de răspundere civilă extracontractuală la inteligența artificială, din septembrie 2022 - textul propunerii aici.


Scopul ei a fost, în esență, acordarea unei protecții sporite persoanelor afectate de sistemele de IA, prin adoptarea unor reguli ce vizau în special sarcina și standardul probelor în cadrul unui proces de atragere a răspunderii civile pentru prejudiciul cauzat.


Un discurs al reprezentantului administrației americane la AI Action Summit din februarie 2025, organizat la Paris, a fost unul dintre motivele pentru care UE a dat un pas în spate - discursul integral aici; sperăm că nu și singurul motiv, având în vedere pericolul, palpabil în lumina evenimentelor recente, ca intimidarea politică să stea la baza deciziilor unui pretins apărător al statului de drept.


Un lucru este cert: Comisia retrage propunerea de directivă privind răspunderea în materie de IA. Motivul declarat:


No foreseeable agreement - the Commission will assess whether another proposal should be tabled or another type of approach should be chosen.

Axel Voss, coordonator al Comisiei pentru afaceri juridice din cadrul Parlamentului European, a considerat decizia Comisiei, de retragere a proiectului de directivă, o „greșeală strategică”. Timpul ne va spune, din moment ce motivarea Comisiei, citată mai sus, este cu final deschis. De altfel, Comisia pentru piața internă și protecția consumatorilor din cadrul Parlamentului European a insistat, în ultimele zile, cu privire la reluarea demersurilor de reglementare a chestiunii răspunderii în materia inteligenței artificiale.


Ce se întâmplă, însă, între timp?


Un răspuns sincer este că nu se întâmplă nimic; persoanele responsabile de crearea unui prejudiciu prin dezvoltarea, punerea pe piață sau utilizarea unui sistem de AI vor fi trase la răspundere tot ca până acum.


Iar Regulamentul, act distinct de directivă, oricum continuă să producă efecte și să seteze cadrul general obligațional și sancționator.


Dar acest răspuns nu are în vedere chiar specificul inteligenței artificiale, domeniu care se dezvoltă cu o viteză mai mare decât poate evolua dreptul unui Stat Membru. Pentru un reality check, menționăm că în practică întâmpinăm dificultăți în a expertiza aspecte tehnice mult mai banale decât provocările pe care le poate aduce inteligența artificială; sau în a dezlega tipuri de răspundere care nu implică (și) un factor non-uman.


Așa fiind, putem avea în mod legitim așteptarea ca Statele Membre să se descurce fără o reglementare europeană în materia răspunderii civile pentru prejudicii cauzate de sisteme de AI?


Nu putem afirma că nu există resurse. Ne referim la reglementările naționale în materia răspunderii civile delictuale, contractuale, de dreptul muncii, de dreptul concurenței, precum și a răspunderii civile specifice protecției consumatorului (cu mențiunea că proiectul de directivă proaspăt retras ar fi vizat oricum doar reguli în materia răspunderii civile delictuale). Acestora li se adaugă norme europene conexe domeniului, dintre care cea mai recentă este Directiva(UE) 2024/2853 privind răspunderea pentru produsele cu defecte.


Dar nu știm în ce măsură acestea vor face față situației în care în lanțul de cauzalitate intervine un factor non-uman.


Nu intenționăm să epuizăm subiectul; ar fi oricum imposibil. Însă invităm la discuții. În ceea ce ne privește, ipotezele care au generat întrebările de mai sus și soluțiile prefigurate vor fi abordate în cadrul webinarului din 12 martie 2025 - înscrieri aici.

 
 
 

Comentarii


Nu se mai pot adăuga comentarii la această postare. Contactează proprietarul site-ului pentru mai multe informații.
bottom of page