Inteligenţa artificială folosită de ChatGPT, Midjourney sau Eleven Labs a dobândit milioane de utilizatori în timp record, dând naștere unor discuții intense sub aspectul necesității de a crea o infrastructură legală care să protejeze drepturile persoanelor care intră în contact cu rezultatul produs de sistemele A.I., fie acestea veritabile creaţii ori servicii automatizate.
În septembrie 2022, Comisia Europeană a publicat o propunere de directivă privind adaptarea regulilor de răspundere civilă extra-contractuală conform evoluțiilor inteligenței artificiale („Directiva privind răspunderea civilă în materie de inteligență artificială”). Comisia propune completarea și modernizarea cadrului legal al Uniunii Europene pentru a introduce noi norme specifice care să trateze problema răspunderii pentru daunele cauzate de sistemele de inteligență artificială, urmărind să garanteze că persoanele prejudiciate de A.I. să beneficieze de același nivel de protecție ca și persoanele prejudiciate de alte tehnologii în Uniune.
Din moment ce persoanele prejudiciate vor suporta sarcina probei prejudiciilor cauzate de inteligența artificială, a fost necesară instituirea unor prevederi care să faciliteze accesul la informațiile care pot facilita proba faptelor ilicite. În cele ce urmează vom analiza principalele repere din Directiva A.I., care ne permit să anticipăm, cu succes sperăm noi, cadrul juridic care va guverna răspunderea pentru faptele inteligenței artificiale.
La ora actuală, Directiva 85/374/EEC privind răspunderea pentru produsele cu defect reprezintă infrastructura legală generală din materia răspunderii pentru daunele cauzate de produse lato-sensu, incluzând programe care funcționează prin inteligență artificială. Potrivit acestei directive, producătorul (iar în unele cazuri furnizorul/vânzătorul) este considerat responsabil pentru daunele cauzate de un defect al produsului său, cu condiția ca partea vătămată să dovedească daunele, defectul și legătura de cauzalitate dintre cele două.
Totuși, Comisia a identificat un număr de ineficiențe considerabile în ceea ce privește aplicabilitatea Directivei 85/374/EEC în cazul programelor de calculator, cu precădere a celor guvernate de tehnologia A.I.:
- Deși conținutul digital, software-ul și datele digitale servesc un rol esențial în funcționarea multor produse noi, este neclar în ce măsură aceste elemente necorporale pot fi clasificate ca produse în cadrul Directivei PLD (Product Liability Directive).
- Noile tehnologii introduc în mod firesc și noi riscuri, cu precădere de securitate cibernetică, în timp ce Directiva 85/374/EEC prevede despăgubiri doar pentru daunele fizice sau materiale.
- Caracteristicile specifice ale inteligenței artificiale, de exemplu lipsa de transparență, comportamentul autonom, adaptarea continuă și predictibilitatea limitată, fac deosebit de dificilă sarcina probei pentru o eventuală cerere de despăgubire.
Cu titlu de principiu, răspunderea pentru comportamentul inteligenței artificiale ar urma să aibă un caracter delictual, excluzând aplicabilitatea acesteia în cazul pretențiilor de ordin contractual, în acord cu principiul de drept specialia generalibus derogant. Desigur, de la orice regulă vor putea exista excepții.
Următorul pas în ochii Comisiei este de a crea o prezumție de cauzalitate care va ușura sarcina probei în persoana reclamanților care urmăresc despăgubiri pentru daunele cauzate de sistemele de inteligență artificială.
Articolul 4 din forma actuală a actului stabilește o atare prezumție de cauzalitate între încălcarea unei obligații de diligență în temeiul dreptului Uniunii sau al dreptului intern și rezultatul produs, ori incapacitatea sistemului de a produce rezultatul promis, care a rezultat în producerea prejudiciului reclamat. Această prezumție de cauzalitate ar deveni aplicabilă sub rezerva îndeplinirii în mod cumulativ a următoarelor condiții:
- Reclamantul a dovedit, sau instanța a prezumat în conformitate cu prevederile art. 3 alin. 5 din Directivă, culpa pârâtului sau a persoanei de a cărei conduită răspunde pârâtul, care constă din nerespectarea unei obligații de diligență prevăzute de legea Uniunii sau a Statului membru, legiferată întocmai pentru protejarea persoanelor față de prejudiciul care s-a produs;
- Se poate considera în mod rezonabil că, prin raportare la circumstanțele cauzei, culpa a influențat rezultatul produs de sistemul A.I., sau eşecul de a produce rezultatul dorit;
- Reclamantul dovedeşte că rezultatul produs, sau eşecul sistemului de inteligență artificială de a produce un anumit rezultat, a dat naştere pagubei.
Soluția este justificată din prisma complexității operațiunilor efectuate de inteligența artificială, fiind deosebit de dificilă identificarea momentului sau a procedeului logico-tehnic care a cauzat rezultatul producător de prejudicii, ori eşecul în generarea rezultatului dorit, Directiva prevăzând chiar o dublă prezumție pentru a uşura proba faptei, la art. 3 alin. 5 din normă.
În cazul în care pârâtul nu se conformează unei ordonanțe emise de o instanță națională de a divulga sau de a păstra elementele de probă aflate la dispoziția sa, nerespectarea de către pârât a unei obligații de diligență relevante va fi prezumată. Acest text redă consecința nerespectării alin. (1), care abilitează instanța națională să ordone divulgarea elementelor de probă relevante aflate la dispoziția furnizorului sau chiar a unui utilizator cu privire la un anumit sistem de inteligență artificială, în unele condiții.
Deși putem observa scopul urmărit prin cele două prezumții, se pune problema aplicării practice a acestora, în condițiile în care complexitatea sistemelor de inteligență artificială este într-o continuă evoluție, în ritm alert. Putem doar specula dacă proba faptelor imputate ar urma să fie realizată prin intermediul unor noi tipuri de expertiză.
Având în vedere că a trecut mai bine de un an de la publicarea primei forme a proiectului de directivă, timp în care A.I.-ul a atins noi limite, imprevizibile la nivelul anului 2022, este foarte plauzibil ca forma finală a actului să difere în mod considerabil.
Vom urmări în continuare evoluțiile legislative din materia inteligenței artificiale, pentru a fi la curent cu problemele care pot îngreuna aplicarea normelor juridice anterioare, la tehnologiile greu înțelese care au pătruns deja în viața de zi cu zi.