Cine răspunde când AI-ul greșește? Lipsa politicilor interne poate costa scump. Checklist pentru companii
9 decembrie 2025 / Irina Bustan
Suntem perfect de acord – folosirea AI în plan profesional rezolvă una dintre cele mai mari probleme cu care se confruntă antreprenorii: lipsa de timp. Cu tool-uri de AI, timpul alocat pregătirii unei oferte de preț, scrierii unui e-mail sau chiar recrutării personalului se reduce la jumătate. În alte situații, AI devine un second opinion medical sau rezolvă în timp record un incident de log level critical. Nimeni nu neagă avantajele palpabile.
Dar deși AI crește eficiența, productivitatea sau chiar expertiza, AI poate crește și riscul juridic. Iar dacă echipa ta folosește tool-uri de AI fără reguli clare, deja ești expus. Nu, nu este suficient nici să o atenționezi să nu introducă date personale ale colaboratorilor sau specificațiile produsului dezvoltat de firmă în ChatGPT, nici să o înveți diverse modalități de prompting astfel încât să primească răspunsuri cât mai exacte. Deși extrem de utile, nici cursurile sau workshop-urile de AI literacy nu sunt suficiente.
Discuția se poartă într-un plan mai avansat, acela al răspunderii juridice. Dacă angajații folosesc AI fără limite clare, dacă introduc în tool-uri date sensibile, dacă iau răspunsurile date de AI drept adevăruri absolute sau nu documentează cum au folosit AI pentru un anumit task, intrăm în zona de risc juridic.
În practică ne confruntăm deja cu primele cazuri în care implicarea unui factor non-uman (tool-ul de AI) generează un prejudiciu – în cele mai multe cazuri, angajatorului, partenerului comercial sau clientului/pacientului. Călcâiul lui Ahile: nu există remedii interne pentru gestionarea acestei situații.
Câteodată ne frapează mentalitatea tip „ce se poate întâmpla?” sau „există legislație care ne protejează”. În schimb, clienții noștri înțeleg că în afaceri nu există loc de naivitate, iar remediile interne sunt singurele care protejează cu adevărat. Explicăm în continuare.
La momentul de față, reglementarea-cadru în materia utilizării AI pe teritoriul Uniunii Europene este AI Act (Regulamentul 2024/1689 privind inteligența artificială). Acesta impune anumite obligații în sarcina furnizorilor, implementatorilor (utilizatorilor), importatorilor, distribuitorilor și producătorilor de sisteme de AI, inclusiv de natură documentară.
Pentru că întrebarea „cine răspunde când AI-ul greșește?” era firească, iar AI Act nu acoperă acest subiect în concret, Comisia Europeană a avut o tentativă de a reglementa astfel de ipoteze. Dar, urmare a evenimentului AI Action Summit din februarie 2025, mai precis a discursului controversat al delegației americane, a fost retras proiectul de directivă al Comisiei (AI Liability Directive). Așadar, subiectul a rămas nereglementat.
Ce înseamnă acest lucru pentru dezvoltatorii și utilizatorii de AI? Într-un limbaj colocvial, înseamnă că se vor descurca cu ceea ce avem disponibil, adică: norme în materia răspunderii contractuale sau delictuale, norme din dreptul muncii, dreptul concurenței și protecției consumatorului.
Naivitatea despre care discutam mai sus este să credem că acestea sunt suficiente. Și aici intervenim noi, cu un mesaj simplu: AI cere control, iar dacă nu îl ai, ești vulnerabil. Cum se traduce vulnerabilitatea în practică? Răspundere pentru erori generate de AI, diverse sancțiuni, pierderi financiare și, finalmente, risc reputațional.
Și atunci, o abordare pragmatică și diligentă este bifarea unui checklist pentru orice companie care utilizează AI:
(1) Clasificarea internă a modului în care este utilizată AI – care utilizări reprezintă siguranță și care reprezintă risc;
(2) Stabilirea modului de verificare și aprobare a rezultatelor date de utilizarea AI;
(3) Documentarea utilizării AI – prin rapoarte și proceduri de evaluare;
(4) O politică internă pentru conformitate cu AI Act, în funcție de clasificarea riscurilor – pentru a stabili limitele utilizării și mecanismele de control;
(5) O actualizare a regulamentului intern (ROI) și, eventual, a contractului colectiv de muncă (CCM) – pentru a stabili faptele care constituie abateri disciplinare în contextul utilizării AI, sancțiunile aplicabile și mecanismele de tragere la răspundere;
(6) Training-uri interne pentru utilizarea legală și etică a AI – pentru o pregătire personalizată a companiei;
(7) Clauze în contractele de colaborare și de prestări servicii, pentru stabilirea limitelor de răspundere.
Desigur, în cazul celorlalte categorii (furnizori, importatori, distribuitori și producători de sisteme de AI), se impun măsuri documentare suplimentare.
În colaborare cu consultanții AI ai clienților dezvoltatori sau cu proprii colaboratori/colaboratori externi (pentru clienții utilizatori), echipa noastră asigură conformitatea cu AI Act și oferă companiilor pârghiile necesare pentru gestionarea riscurilor juridice înainte de a apărea problemele – nu modele generice, ci adaptate și personalizate pentru fiecare afacere în parte.


