CIO Erfahrungsaustausch: AI-Risiken benennen und begegnen; Baguettes als Lösegeld
Im CIO-Erfahrungsaustausch am 6. November teilten VOICE-Security-Spezialist Dirk Michael Ockel und Bosch Digital CTO Dr. Andreas Nauerz ihre Erkenntnisse mit ihren Kolleginnen und Kollegen. Dirk klärte uns über die neuesten Sicherheitsvorkomnisse auf und Andreas Nauerz berichtete, was heute schon mit GenAI geht - positiven wie im negativen.
Im Security-Update von Dirk Ockel ging es unter anderem um Angriffe auf das französische Unternehmen Schneider Electric . Dabei sind 40 GB Daten exfiltriert worden. Was von den Erpressern zu halten ist, ist unklar. Sie forderten Lösegeld in Höhe von 125 000 Dollar in Form von Baguettes. Außerdem versendeten Schadakteure gespoofte E-Mails mit genuinen Docu-Sign-Accounts. Sie enthalten fingierte Rechnungen.
Erste durch KI entdeckte Schwachstelle
Die Nutzung der Dokusign-Plattform ermöglicht den Kriminellen die Umgehung von Spam-Filtern. Ockel machte auch aufmerksam auf eine Zero-Day-Schwachstelle in Überwachungskameras der Marke Hisilicon. Teilweise braucht es für den Angriff nicht einmal eine Authentifizierung, um remote Code auszuführen. Interessant auch: Die Schwachstelle wurde durch eine #KI entdeckt und war damit der erste Zero-Day der durch eine KI detektiert worden ist.
Chancen von #GenAI
Die Keynote des Abends hielt Dr. Andreas Nauerz, CTO von Bosch Digital . Sein Thema: Chancen, Challenges and #Cyberrisks von GenAI. Nauerz sieht enorme Chancen für mehr Effizienz und Wachstum in den Unternehmen durch GenAI. Er sieht sowohl Verbesserungen in den Bereichen Effizienz und Qualität, (Informations-) Zugang und Usability sowie neue Geschäftsmöglichkeiten und Innovationen. Die kommenden Weiterentwicklungen von GenAI sieht er unter anderem in der Performanzverbesserung (Gerüchteweise soll ChatGPT 45 noch in diesem Jahr herauskommen), in höherer Verlässlichkeit, in mehr Security und #Privacy, im Aufkommen kleinerer spezialisierter Modelle, in neuen Bezahlungsmodellen und in der Personalisierung von AI.
Empfohlen von LinkedIn
Wo GenAI gefährlich werden kann
Nauerz ging aber auch intensiv auf die Risiken ein, die durch GenAI entstehen bzw. verstärkt werden könnten. Unter anderem sieht er Gefahren, wenn AI eingesetzt wird, um Angriffe zu fahren zum Beispiel:
Wir müssen uns wappnen
Nauerz brachte noch einige weitere Beispiele um das Missbrauchspotenzial von AI zu verdeutlichen. Sein Fazit. Wir müssen uns wappnen, bei allen Chancen der KI auch die Gefahren sehen. Das heißt, wir müssen unsere Leute gut ausbilden, KI verantwortungsvoll einsetzen, auf Transparenz achten, regulatorische Maßnahmen ergreifen und sowohl Privacy und Security im Auge behalten.