BET
28232.33
-0.25%
BET-TR
66113.22
-0.25%
BET-FI
102050.83
-0.41%
BETPlus
4087.77
-0.25%
BET-NG
2091.09
-0.36%
BET-XT
2435.42
-0.3%
BET-XT-TR
5575.2
-0.3%
BET-BK
5478.24
-0.38%
ROTX
63643.15
-0.23%

AI în piața de capital: oportunitate revoluționară sau risc sistemic?

Autor: Financial Market
3 min

Într-un peisaj financiar dominat de viteză, volum mare de date și presiune constantă asupra performanței, companiile de brokeraj și cele listate la bursă se află, asemenea companiilor din alte domenii economice, într-un moment-cheie de transformare.

Integrarea agenților AI autonomi – capabili să analizeze date în timp real, să emită recomandări și chiar să inițieze decizii – pare un pas logic pentru optimizarea operațiunilor. Totuși, această nouă eră a „agentificării” nu vine fără riscuri majore. În contextul reglementat și sensibil al pieței de capital, aceste riscuri pot avea implicații financiare, juridice și reputaționale grave.

Riscurile mari rămân aceleași ca pentru companiile din alte domenii economice, totuși, la o analiză mai atentă, observăm câteva nuanțe demne de luat în considerare. Ce măsuri ar trebui să ia actorii din piață pentru a evita efecte nedorite care vin la pachet cu oportunitățile de adopție a agenților AI în firme de brokeraj pe burse ori în companii listate?

Un prim risc odată cu adopția agenților AI vine clar pe linia de erori strategice și operaționale. Ce înseamnă? În mediul de brokeraj sau în companiile listate, agenții AI pot fi utilizați pentru analiză de piață, recomandări de investiții (nu sfaturi de urmat, ci doar recomandări de analizat, atenție!), automatizarea tranzacțiilor sau emiterea de rapoarte financiare. Dacă algoritmii nu sunt calibrați corect sau dacă sunt folosiți în afara unui cadru de supraveghere umană, rezultatele pot fi dezastruoase: decizii de tranzacționare greșite, raportări incorecte către investitori sau interpretări eronate ale pieței.

În piața de capital, AI este putere, dar puterea trebuie guvernată. Companiile din piața de capital ar trebui să folosească cu prudență rularea autonomă a agenților AI fără validare umană. Deci, e obligatoriu să introducă protocoale de testare avansată și simulare pe date istorice înainte de utilizarea live și să monitorizeze continuu performanța agenților prin indicatori de încredere (confidence scores) și loguri auditate.

În al doilea rând, atenție la securitatea datelor, și aici vorbim despre risc de breșe cu impact reputațional și legal. Agenții AI dintr-o firmă de brokeraj pot accesa date extrem de sensibile: tranzacții nelistate, profiluri de clienți HNWI (high-net-worth individuals), documente de due diligence sau rapoarte către autorități. Dacă nu sunt protejați riguros, acești agenți pot deveni breșe de securitate care atrag sancțiuni de reglementare sau pierderi de încredere din partea investitorilor.

CITESTE SI:  Ai acțiuni de la privatizare? Iată ce trebuie să faci acum ca să nu le pierzi

Pentru diminuarea acestui risc este nevoie de implementarea unor politici stricte de acces diferențiat pe roluri (zero trust architecture), audituri de securitate dedicate AI și criptarea tuturor canalelor de comunicare AI-sistem. Avem reglementări clare la nivel UE  – ESMA, MiFID II, GDPR și, acolo unde este cazul, SEC, de urmărit și respectat regulile.

Riscul de litigii și amenzi ar fi un al treilea risc major, pentru ca agenții AI nu au răspundere legală pentru ceea ce generează.

În cazul în care un agent AI ia o decizie greșită cu impact major (de exemplu, recomandă automat vânzarea unui activ strategic sau emite informații eronate într-un raport de investitor), apare problema: cine răspunde? Lipsa unei atribuiri clare de responsabilitate între AI, operatorul său și managementul superior poate declanșa anchete ale autorităților de reglementare și daune reputaționale majore.

Măsurile recomandate aici merg către stabilirea unei guvernanțe clare: orice decizie AI trebuie atribuită unei entități umane răspunzătoare, dublată de clauze contractuale și politici interne ce definesc explicit cine validează rezultatele AI, și utilizarea registrelor AI (audit trail) pentru a documenta logicile decizionale.

Am lăsat la urmă, dar nu pentru că este mai puțin important, dimpotrivă, partea întunecată a adopției agenților AI, atunci când angajații unei companii (indiferent de domeniul de activitate, de altfel) au inițiative. Shadow AI sau riscul de pierdere a controlului intern apare în companiile mari listate sau în rețelele de brokeraj internaționale, atunci când agenții AI sunt adoptați „ad-hoc”, de echipe locale sau departamente nealiniate cu IT-ul central sau Compliance-ul. Aceste inițiative, deși pot părea eficiente pe termen scurt, pot crea un haos în guvernanța digitală a organizației.

Companiile ar trebui să fie pro-active și să interzică prin politici interne utilizarea neautorizată de AI (Shadow AI) și să creeze un proces formal de aprobare. De asemenea, să introducă registre centralizate de utilizare AI, accesibile departamentelor de Risk și Compliance. 

Pentru companiile listate la bursă și actorii din zona de brokeraj, agenții AI pot deveni aliați valoroși: accelerează analiza de piață, reduc erorile umane și optimizează comunicarea cu investitorii, dar în același timp, pot introduce vulnerabilități sistemice, greu gestionabile post-factum. Deci, mare atenție!

Autor: Cristiana Deca, expert cybersecurity, CEO&cofondator Decalex Digital

Ti-a placut acest articol?

Ti-a placut acest articol?

Susține activitatea Financial Market.

Contribuția lunară poate fi anulată în orice moment folosind link-ul din email.