Delavnica
Kibernetska varnost AI sistemov

KDAJ?
Po dogovoru
KOLIKO?
3 ure
KJE?
Po dogovoru
KDAJ?
Po dogovoru
KOLIKO?
3 ure
KJE?
Po dogovoru
Napredni AI sistemi niso vedno odporni na napade, saj prav umetna inteligenca prinaša nova, specifična tveganja. Ta delavnica vas bo opremila s ključnim znanjem za razumevanje in zaščito AI modelov pred naprednimi napadi, od zavajanja modelov in zastrupitve podatkov do kraje informacij in ranljivosti velikih jezikovnih modelov (LLM).
Z Gregom Evseevom boste skozi konkretne primere, praktične scenarije in delo v Google Collabu spoznali, kako razmišljajo napadalci in kako se lahko pred tem pravočasno zaščitite.
Delavnica je zasnovana za vse, ki že delajo z AI rešitvami ali v varnostnih ekipah in želijo poglobiti znanje na presečišču umetne inteligence in kibernetske varnosti.
PROGRAM DELAVNICE
VSEBINA:
ZA DELO POTREBUJETE:
Priporočljive (a ne obvezne) so izkušnje z delom na projektih umetne inteligence in strojnega učenja.
Predavatelj
Zakaj se odeležiti delavnice?
Če gradite, uvajate ali varujete AI sisteme, morate razumeti tudi njihova tveganja. Ta delavnica vam omogoča:
• jasno prepoznavanje ranljivosti v sodobnih AI arhitekturah,
• konkretno znanje o glavnih napadih in obrambnih mehanizmih ter
• večjo samozavest pri načrtovanju varnih AI rešitev v praksi.
Pošljite povpraševanje
Delavnica je namenjena IT strokovnjakom, varnostnim specialistom, razvijalcem, arhitektom rešitev in vodjem AI projektov, ki želijo razumeti in obvladovati ključna varnostna tveganja umetne inteligence.
Število mest je omejeno na 15 oseb.
Za več informacij glede organizacije izpolnite obrazec spodaj oz. kontaktirajte matej.kirn@tp-lj.si ali zala.veselic@tp-lj.si.
