BET
16650.41
2.97%
BET-TR
36717.49
2.97%
BET-FI
58839.26
2.51%
BETPlus
2465.5
3.05%
BET-NG
1193.8
2.63%
BET-XT
1429.95
2.89%
BET-XT-TR
3099.83
2.89%
BET-BK
3047.25
2.99%
ROTX
37049.29
2.86%

Act AI pune ordine în dezvoltarea și utilizarea soluțiilor AI în recrutare pentru a proteja candidații

Autor: Financial Market
5 min

Regulamentul privind Inteligența Artificială (AI Act), prin care sunt detaliate toate aspectele de care să țină cont atât furnizorii de soluții AI în HR cât și utilizatorii finali în construcția unei soluții de recrutare bazate pe AI și în actul de recrutare ca atare, a intrat în vigoare în vara acestui an.

Cele aproape 200 de articole stabilesc criteriile pe care angajatorii trebuie le abia în vedere atunci când apelează la soluții de recrutare construite pe baze GenAI și regulile foarte clare de urmat de către furnizorii acestor soluții în procesul de concepere a acestora.

Scopul este acela de a pune „la adăpost” drepturile fundamentale ale candidaților și de a preveni pe cât posibil încălcarea acestora prin soluții de recrutare bazate pe AI care nu se conformează a priori unor reguli bine stabilite. Cu alte cuvinte, regulamentul special creat pentru reglementarea domeniului de recrutare bazat pe AI vine în ideea de a asigura un echilibru între stimularea inovării și protecția drepturilor cetățenilor, pe fondul utilizării responsabile a acestor soluții.

AI Act, în vigoare la 1 august 2024, clasifica aceste soluții în funcție de gradul de risc, fiind esențial pentru beneficiari să aibă la îndemâna criterii de alegere. Prevederile regulamentului merg până la a interzice utilizarea soluțiilor AI care analizează sau monitorizează caracteristici sau trăsături emoționale ale candidaților la angajare și acordă o foarte mare atenție respectării drepturilor fundamentale ale omului.
Regulamentul definește nu mai puțin de patru categorii de risc, astfel:

1. Sisteme de IA cu risc inacceptabil (interzise)

Aceasta este cea mai strictă categorie și include sistemele de IA care sunt considerate o amenințare gravă la adresa siguranței și drepturilor fundamentale ale omului. Acestea sunt interzise complet în UE. Aș menționa aici manipularea comportamentală subliminală care poate influența persoanele într-un mod care le poate afecta liberul arbitru (cum sunt minorii sau alt tip de persoane vulnerabile).

2. Sisteme IA cu risc ridicat

Sunt definite aici sisteme care prezintă riscuri semnificative pentru siguranță și drepturile fundamentale, fiind supuse unor reguli stricte de conformitate. Sistemele de IA cu risc ridicat sunt permise doar dacă respectă anumite cerințe riguroase legate de siguranță, transparență, responsabilitate și monitorizare.

Regulamentul impune aici o serie de pasi, începând cu Evaluarea riguroasă, înainte de utilizare (audituri de conformitate, evaluarea riscurilor etc.) a soluției respective. Apoi, Transparență în privința construcției soluției respective de recrutare, iar utilizatorii trebuie să fie informați că interacționează cu un sistem de IA. Este obligatorie, de asemenea, supravegherea umană constantă pentru a reduce riscul de decizii eronate sau neetice.

3. Sisteme de IA cu risc limitat

Aceste sisteme sunt considerate mai puțin periculoase, totuși trebuie să respecte anumite norme de transparență. De obicei, acestea implică interacțiuni cu utilizatori, iar aceștia trebuie informați că interacționează cu un sistem de inteligență artificială. Exemple: Chatbots sau asistenți virtuali și Sistemele de recomandare pe platforme de streaming sau comerț electronic sunt cele mai des create și utilizate, despre care beneficiarii trebuie să înțeleagă că interacționează cu un agent automatizat.

4. Sisteme de IA cu risc minim

Acestea sunt considerate a fi cu cel mai scăzut nivel de risc și sunt permise fără reguli speciale, fiind în esență lăsate să opereze liber. Acest tip de sisteme include, de exemplu, IA utilizată pentru aplicații de divertisment sau majoritatea aplicațiilor de gaming.

Act AI detaliază modul de abordare și prevenire a riscurilor cu cea mai mare probabilitate de apariție, astfel: Discriminare și părtinire, unde se acordă o atenție deosebită evitării discriminării pe baza IA, mai ales în contextul evaluărilor automate în domenii precum angajarea sau accesul la servicii publice.

Apoi, Supravegherea și pierderea confidențialitățîi, prin care se urmărește prevenirea abuzurilor de supraveghere în masă prin recunoașterea facială sau alte tehnologii de identificare biometrică. Și nu în ultimul rând, Răspunderea și responsabilitatea. Regulamentul cere ca entitățile care dezvoltă și implementează IA să fie trasabile și să poată fi trase la răspundere în caz de incidente sau erori.

Ca expert pe zona drepturilor fundamentale ale omului și, prin extensia necesara din ultimii peste 10 ani în cybersecurity și GDPR, aș spune că avem cel puțin două aspecte esențiale de care trebuie să țină cont angajatorii atunci când se decid să implementeze o soluție de tip AI în procesul intern de recrutare:

CITESTE SI:  Atacurile cibernetice : o amenințare de 8,44 trilioane de dolari

1. Analiza în acord cu prevederile noului regulament CE a oricărei soluții AI propusă de către provideri, tocmai pentru a evita pe cât posibil cele două riscuri majore: neconformare cu regulamentul și eventuale procese cu angajații sau potențiali angajați, pe baza unui Audit și

2. Alegerea celei mai puțin expuse soluții la una dintre cele trei categorii de riscuri identificate de către analiștii comisiei – ridicat, moderat și scăzut – în funcție de specificul companiei și al domeniului de activitate.

Utilizarea inteligenței artificiale în recrutare poate duce, de asemenea, la dislocarea locurilor de muncă în cadrul funcției de resurse umane, deoarece unele sarcini îndeplinite în mod tradițional de oameni sunt automatizate. Aici îi revine angajatorului rolul de a stabili un cadru echilibrat al departamentului HR. Țineți cont, de asemenea, și de problemele tehnice care pot apărea, un design neprietenos sau date de formare inadecvate pot duce la evaluări incorecte ale candidaților, pentru că și soluțiile de tip AI pot evalua greșit.

Recomand companiilor să urmeze serie de pași, obligatorii în contextul apariției Act AI, bazați pe adaptabilitate, conformitate și independența de soluțiile AI.

Adaptabilitate: Sistemele AI trebuie să fie actualizate continuu pentru a se adapta la evoluția piețelor muncii și a nevoilor organizaționale. Acest lucru necesită, de asemenea, un proces de învățare continuu pentru profesioniștii în resurse umane, tocmai pentru a gestiona corect instrumentele AI.

Conformitate juridică și etică: Sistemele AI trebuie să respecte legile și reglementările locale, care pot varia foarte mult între diferite jurisdicțîi, de aceea instrumentele de recrutare AI trebuie adaptate exact la realitatea juridică locală.

De asemenea, recomandăm crearea unor proceduri interne foarte clare, care să le protejeze de toate riscurile expuse mai sus (cel puțin), urmând câțiva pași absolut obligatorii atunci când apelați la o soluție AI pentru filtrarea CV-urilor și analiza abilităților candidaților pe baza unor interviuri automate.

Pentru a respecta AI Act, ar trebui identificat și clasificat sistemul AI pe care urmează să-l adoptați, să stabiliți un cadru de guvernanță a datelor, care să vă asigure transparența în relația cu utilizatorii. Implementarea politicilor de adopție a unei soluții AI înseamnă documentare în privință sistemelor AI, record keeping, training echipe implicate și, mai ales, numirea unui responsabil cu etica AI, pentru a vă asigura că procesul de recrutare respectă principiile etice și pentru a monitoriza conformitatea permanentă cu AI Act. Acesta colaborează cu echipa HR pentru a identifica și elimina orice părtinire posibilă. La fel de importantă este implementarea unui sistem eficient de management al incidentelor și asigurarea resurselor necesare.

Este bine ca solutia AI pe care ați adoptat-o să fie auditata la fiecare șase luni pentru a va asigura că performanța rămâne conformă cu reglementările. Auditul include analiza deciziilor luate de AI și verificarea conformității cu politicile de etică și confidențialitate.
Atenție însă la Dependența de soluțiile AI și renunțarea la intervenția umană în analiza finală în recrutare poate duce la o încălcare directă a prevederilor din GDPR privind supravegherea umană în prelucrarile cu risc ridicat pentru candidați.

Concluzii

Se poate considera că adoptarea Act AI constituie unul dintre pașii importanți în definirea cadrului în care soluțiile bazate pe inteligența artificială pot fi create și adoptate de către utilizatori (companii) în procesele, din ce în ce mai complexe, de recrutare, într-o piață a forței de muncă total modificată, așa cum apare aceasta ca fiind în ultimii cinci ani, post-pandemie.

Datorită expertizei sale în zona de conformitate în protecția datelor, cât și în conformitatea în AI, Decalex Digital a fost selectată să facă parte din grupul de experți care contribuie la dezvoltarea primului Cod de Practică pentru Generative AI din Europa.

Această inițiativă revoluționară, condusă de Comisia Europeană, este prima de acest fel la nivel global și vă stabili standarde esențiale pentru transparența, siguranța și etica în domeniul AI. Împreună, nu doar că contribuim la viitorul AI în UE, dar ajutăm și la stabilirea unor ghiduri care ar putea deveni un etalon global.

Ti-a placut acest articol?

Ti-a placut acest articol?

Susține activitatea Financial Market.

Contribuția lunară poate fi anulată în orice moment folosind link-ul din email.