Skip links
Delavnica

Kibernetska varnost AI sistemov

KDAJ?

Po dogovoru

KOLIKO?

3 ure

KJE?

Po dogovoru

KDAJ?

Po dogovoru

KOLIKO?

3 ure

KJE?

Po dogovoru

Napredni AI sistemi niso vedno odporni na napade, saj prav umetna inteligenca prinaša nova, specifična tveganja. Ta delavnica vas bo opremila s ključnim znanjem za razumevanje in zaščito AI modelov pred naprednimi napadi, od zavajanja modelov in zastrupitve podatkov do kraje informacij in ranljivosti velikih jezikovnih modelov (LLM).
 
Z Gregom Evseevom boste skozi konkretne primere, praktične scenarije in delo v Google Collabu spoznali, kako razmišljajo napadalci in kako se lahko pred tem pravočasno zaščitite.
 
Delavnica je zasnovana za vse, ki že delajo z AI rešitvami ali v varnostnih ekipah in želijo poglobiti znanje na presečišču umetne inteligence in kibernetske varnosti.

PROGRAM DELAVNICE

VSEBINA:

✔️ pregled glavnih vrst napadov na AI modele: zavajanje in kraja podatkov iz modelov, zastrupite podatkov in vrivanje zlonamernih pozivov,
✔️ osnove varnosti velikih jezikovnih modelov,
✔️ praktični prikazi napadov in njihove posledice,
✔️ strategije zaščite in dobre prakse za AI sisteme ter
✔️ interaktivno delo v Google Collabu z vodenimi vajami.
 
ZA DELO POTREBUJETE:
✔️ osnovno razumevanje konceptov umetne inteligence in strojnega učenja,
✔️ osnovno znanje programskega jezika Python ter
✔️ lasten prenosni računalnik in dostop do Google računa (lahko tudi začasnega za delavnico).
 
Priporočljive (a ne obvezne) so izkušnje z delom na projektih umetne inteligence in strojnega učenja.

Predavatelj

Greg EvseevDigitaliziran.si

Zakaj se odeležiti delavnice?

Če gradite, uvajate ali varujete AI sisteme, morate razumeti tudi njihova tveganja. Ta delavnica vam omogoča:
 
•  jasno prepoznavanje ranljivosti v sodobnih AI arhitekturah,
•  konkretno znanje o glavnih napadih in obrambnih mehanizmih ter
•  večjo samozavest pri načrtovanju varnih AI rešitev v praksi.

Pošljite povpraševanje

Delavnica je namenjena IT strokovnjakom, varnostnim specialistom, razvijalcem, arhitektom rešitev in vodjem AI projektov, ki želijo razumeti in obvladovati ključna varnostna tveganja umetne inteligence.
 
Število mest je omejeno na 15 oseb.
Za več informacij glede organizacije izpolnite obrazec spodaj oz. kontaktirajte matej.kirn@tp-lj.si ali zala.veselic@tp-lj.si.

Prijava za delavnico

Oddaja povpraševanja za delavnice v ponudbi
🍪 This website uses cookies to improve your web experience.