Der Blätterkatalog benötigt Javascript.
Bitte aktivieren Sie Javascript in Ihren Browser-Einstellungen.
The Blätterkatalog requires Javascript.
Please activate Javascript in your browser settings.
7 2024 SECURITY l Künstliche Intelligenz l 19 le von KI ist der sogenannte Payroll Diversion Scam Diese Art von BEC-Angriffen Business Email Compromise wird unter Cyberkriminellen immer beliebter und entzieht sich systematisch der Erkennung durch E-Mail-Security-Systeme So hat sich im vergangenen Oktober beispielsweise gezeigt dass mehr als 400 Bedrohungen die den Payroll-Diversion-Betrug einsetzten zwölf E-Mail-Sicherheitstools entgangen sind Derlei Angriffe sind schwer zu erkennen weil sie in der Regel keine Payloads wie Links oder Anhänge enthalten Darüber hinaus scannen herkömmliche APIbasierte E-Mail-Sicherheitslösungen die Bedrohungen im Anschluss an die Zustellung sodass IToder Sicherheitsteams viel Zeit aufwenden müssen um das Tool mit Daten zu füttern Weil sich dieser Ansatz nicht gut skalieren lässt entscheiden sich viele Teams stattdessen dafür diese Kontrollen nur für eine ausgewählte Mitarbeitergruppe – zum Beispiel Führungskräfte – zu implementieren Die Cyberkriminellen haben es jedoch auf viel mehr potenzielle Opfer innerhalb des Unternehmens abgesehen KIbeziehunsgweise MLbasierte Tools einschließlich generativer KI GenAI bieten hier einen enormen Vorteil KI MLbasierte Bedrohungserkennung kann zusammen mit LLMbasierter Erkennung vor der Zustellung angewendet werden um den kontextuellen Ton und die Absicht einer E-Mail zu interpretieren Dieser Ansatz schützt Unternehmen indem er betrügerische und bösartige E-Mails blockiert bevor sie die Postfächer der Mitarbeiter erreichen Dies minimiert deren Gefährdung durch Bedrohungen wie BEC erheblich Nicht alle KIbasierten Tools sind gleich Um gut zu funktionieren benötigen KIund ML-Lösungen große Mengen qualitativ hochwertiger Daten weil die Modelle aus Mustern und Beispielen und nicht aus Regeln lernen Proofpoint zum Beispiel trainiert seine Modelle tagtäglich mit Millionen von E-Mails aus einem globalen Threat Intelligence Ecosystem Dies gewährleistet eine genauere Erkennung und gibt Sicherheitsoder IT-Teams Vertrauen in die Wirksamkeit ihrer Sicherheitsmaßnahmen Bevor sich Security-Verantwortliche für neue KI-ML-Lösungen entscheiden sollten sie den Anbietern Fragen wie diese stellen u Woher kommen die Daten für das Training der Algorithmen? Daten für allgemeine KI-Anwendungen sind leicht zu beschaffen Das gilt nicht für Bedrohungsanalyse-Daten Die vom Anbieter verwendeten Trainingsdaten sollten nicht nur reale Szenarien widerspiegeln sondern auch für ein Unternehmen spezifische Bedrohungen u Was wird im Erkennungs-Stack eingesetzt um KI ML zu ergänzen? Intelligente Technologien sind bei bestimmten Arten von Bedrohungen nicht so effizient oder zuverlässig Es ist wichtig dass eine Sicherheitslösung andere Techniken wie Regeln oder „Humaninthe-Loop“-Prozesse integriert Bevor sich Interessierte in diese Details vertiefen sollten sie prüfen ob KI für die eigenen spezifischen Herausforderungen die optimale Lösung ist KI-Modelle sind komplex sowie rechenintensiv und benötigen unter Umständen mehr Zeit für die Ausführung als weniger komplexe Systeme Manchmal sind regelbasierte Techniken effektiver insbesondere wenn eine schnelle Reaktion entscheidend ist Die Verantwortlichen in den Unternehmen müssen sich im Klaren darüber sein welches Security-Ziel sie erreichen wollen und welche Methode am besten geeignet ist um das Problem anzugehen Entscheidung über GenAI noch offen Viele Sicherheitsanbieter haben KI bereits seit Jahren still und heimlich in ihre Pakete integriert aber es ist zu erwarten dass die Aktivitäten rund um GenAI mit der Zeit sichtbarer werden schon weil GenAI den Hype Cycle viel schneller durchläuft als jede andere Technologie zuvor Sogar staatliche Stellen die für gewöhnlich langsam sind haben bereits reagiert Ein Beispiel dafür ist eine Executive Order des US-Präsidenten die sich mit den Risiken dieser schnell wachsenden Technologie befasst Während weltweit Security-Verantwortliche versuchen die Auswirkungen von KI zu erfassen darf eines nicht vergessen werden Auch böswillige Akteure können sie zu ihrem Vorteil nutzen Diese Technologie ist somit ein zweischneidiges Schwert Insbesondere GenAI hat sich zur am schnellsten wachsenden Herausforderung für Unternehmen entwickelt Daten zeigen dass ITund Sicherheitsteams diese Bedrohung ernst nehmen Und die Unternehmensführungen sehen das genauso In einer weltweiten Umfrage die Proofpoint letztes Jahr unter mehr als 600 Vorstandsmitgliedern durchführte waren 59 Prozent der Meinung dass aufkommende Technologien wie GenAI ein Sicherheitsrisiko für ihr Unternehmen darstellen Cyberkriminelle missbrauchen diese Technologie bereits und verwenden Open-Source-Sprachmodelle um bösartige Tools wie WormGPT FraudGPT und Dark-BERT zu entwickeln Diese Tools ermöglichen es den Angreifern viel bessere Phishing-E-Mails zu erstellen und sie in viel mehr Sprachen zu übersetzen Zweifellos eröffnet die generative KI den Hintermännern von Cyberattacken neue Möglichkeiten Viele Befürchtungen sind jedoch übertrieben zumindest zum jetzigen Zeitpunkt Die Angreifer werden ihre bestehenden Taktiken nicht aufgeben oder das Rad neu erfinden solange ihre derzeitigen Modelle lukrativ bleiben Die Verteidiger müssen sich daher auf die unmittelbaren Bedrohungen konzentrieren und sicherstellen dass sie über grundlegende Schutzmaßnahmen verfügen Daniel Rapp ist Group Vice President AI ML bei Proofpoint Künstliche Intelligenz ist vielen insbesondere in Form von Large Language Models und Systemen wie ChatGPT ein Begriff Sowohl für Cyberkriminelle als auch in der Cyberabwehr ist sie ein gängiges Tool