Abstract:

KI-Systeme verändern zunehmend das gesellschaftliche Leben, egal ob in Smartphones als Gesichtserkennung, beim autonomen Fahren oder der derzeit überall in den Nachrichten zu findende Chatbot 'ChatGPT'. Diese erreichen in ihrem Einsatzgebiet oft eine höhere Genauigkeit als der Mensch und benötigen dabei nur einen Bruchteil der Zeit. Doch auch KI-Systeme sind nicht unfehlbar. Sie können durch sogenannte Adversarial Attacks bewusst gestört werden. Im Vortrag wird eine Einführung in das Thema Adversarial Attacks gegeben und gezeigt, wie KI-Systeme am Beispiel der Bilderkennung gestört werden können

Zur Person:
CofCo_Portrait_Sieber.png

MICHAEL SIEBER ist Data Engineer bei der ESG im Bereich Systeme Aufklärung & Elektronischer Kampf. Er hält einen Master of Science in Informatik mit dem Schwerpunkt Visual Computing and Machine Learning von der Hochschule München.

Kontakt:
E-Mail: michael.sieber[at]esg.de
Telefon: +49 89 92161-4392
CoCo_ESG_res.png