Inteligența artificială nu poate accelera inovația fără o reconstrucție profundă a modului în care gândim securitatea.
Acesta a fost mesajul central al lui Aanchal Gupta, Chief Security Officer la Adobe, în deschiderea conferinței.
Ea a avertizat că până în 2031, costul global al criminalității cibernetice va depăși 12 trilioane de dolari – aproape jumătate din valoarea totală a celor mai mari 100 de companii listate pe Nasdaq.
„Nu mai protejăm doar servere și endpoint-uri. Acum trebuie să protejăm AI-ul însuși – modele, date, prompturi, lanțuri de furnizare și interconexiuni dintre agenți”, a avertizat ea.
Principalele idei
1. AI – noul teritoriu atacabil
Modelele nu sunt singura țintă: prompturile pot fi manipulate, datele pot fi “otrăvite”, iar mecanismele de inferență pot fi exploatate.
Lanțul de aprovizionare AI este fragil: cumpărăm modele, le găzduim, folosim surse open-source — fiecare etapă aduce noi riscuri.
AI agentic amplifică interconectarea sistemelor și implicit suprafața de atac.
2. Amenințările se accelerează
Atacatorii folosesc AI ca să scrie cod malițios, să perfecționeze phishingul și să exploateze vulnerabilități în câteva minute.
Exemple concrete: e-mailuri de phishing imposibil de diferențiat de cele reale; pachete NPM autoreplicante.
Datele nu sunt „în siguranță prin default”. Fiecare organizație trebuie să se asigure că datele de antrenare nu sunt contaminate.
3. Cum răspunde Adobe – modele de guvernanță și execuție
Common Control Framework – un set open source de controale de securitate certificate o singură dată și aplicate pentru toate standardele (ISO, SOC2 etc.).

Paved Roads Initiative – configurarea centralizată a controalelor de securitate pentru toate echipele (ex: servere MCP, configurări securizate predefinite).
Incident Response – ca proces viu, nu document static. Actualizat constant, adaptat noilor tipare de atac.
4. Recomandări concrete pentru organizații
Introduceți echipele de securitate de la începutul dezvoltării AI („security by design”).
Protejați prompturile – atât conținutul, cât și sistem promptul, pentru a preveni injecții și manipulări.

Asigurați trasabilitatea datelor – cine le-a creat, cine le poate accesa, prin ce sisteme circulă, ce reguli de retenție se aplică.
Înțelegeți tot ecosistemul AI – modele, date externe, vendorii de infrastructură.
Construiți detecții comportamentale – monitorizarea abaterilor de la comportamentul normal al modelului.
Gândiți versiuni de rollback selective pentru modele fine-tunate (nu poți reveni la un model „curat” fără a pierde învățările legitime).
5. Mesajul-cheie: securitatea nu frânează inovația — o face posibilă
Gupta a încheiat cu o metaforă:
„Nu cumperi o mașină fără frâne ca să mergi mai repede. Frânele sunt cele care îți dau curajul să accelerezi. Așa este și cu securitatea.”
În AI, cine construiește produse sigure și de încredere, va conduce industria în următorul deceniu.
Într-o lume în care clienții nu cumpără doar funcționalități, ci încredere, securitatea devine criteriul competitiv esențial — și un magnet pentru talente și parteneriate.


