KI-Systeme verändern zunehmend das gesellschaftliche Leben, egal ob in Smartphones als Gesichtserkennung, beim autonomen Fahren oder der derzeit überall in den Nachrichten zu findende Chatbot 'ChatGPT'. Diese erreichen in ihrem Einsatzgebiet oft eine höhere Genauigkeit als der Mensch und benötigen dabei nur einen Bruchteil der Zeit. Doch auch KI-Systeme sind nicht unfehlbar. Sie können durch sogenannte Adversarial Attacks bewusst gestört werden. Im Vortrag wird eine Einführung in das Thema Adversarial Attacks gegeben und gezeigt, wie KI-Systeme am Beispiel der Bilderkennung gestört werden können
![© ESG ELEKTRONIKSYSTEM- UND LOGISTIK-GMBH CofCo_Portrait_Sieber.png](https://unibw.de/code-events/code2023/coffee-corner-inh/cofco_portrait_sieber.png/@@images/5bd6b23a-81d6-4f4f-97f0-b7dedf959934.png)
MICHAEL SIEBER ist Data Engineer bei der ESG im Bereich Systeme Aufklärung & Elektronischer Kampf. Er hält einen Master of Science in Informatik mit dem Schwerpunkt Visual Computing and Machine Learning von der Hochschule München.
![CoCo_ESG_res.png CoCo_ESG_res.png](https://unibw.de/code-events/code2023/coffee-corner-inh/coco_esg_res.png)