Immer mehr Cyberkriminelle missbrauchen das Potenzial von KI zur Durchführung ihrer Angriffe. Daher drängt sich die Frage auf, ob man nun beispielsweise ChatGPT auch zur Verteidigung nutzen könnte?
Cisco Talos hat in der Praxis die KI von
OpenAI getestet und ist zum Schluss gekommen, dass ChatGPT grundsätzlich hilfreich sein kann, jedoch keine Wunder vollbringen könne. Thorsten Rosendahl, Technical Leader bei Cisco Talos, resümiert den Selbstversuch wie folgt: "Trotz einiger Probleme mit GPT-3.5 als Assistent für die Erkennung von Bedrohungen, kann er in einigen Bereichen sehr hilfreich sein: durch natürliche Sprache, umfangreiche Informationen und die Übersetzungsfunktionen." Er sagt ferner, dass viele Ideen des Sprachmodells banal seien, hin und wieder aber trotzdem ein kreativer Vorschlag zur Verbesserung der Cybersicherheit mitgeteilt werde.
Im Detail schreibt Cisco Thales, dass ChatGPT die Logik hinter komplexen Regeln zur Bedrohungserkennung in natürlicher Sprache zu erklären vermag. Gelegentlich trete jedoch das Halluzinieren oder die Fehlinterpretation einer Regel auf. Die KI könne ferner zur Erstellung von bösartigen Auslösern für bestimmte Erkennungsregeln hinzugezogen werden. Allerdings mussten die Security-Teams dafür die Sicherheitsvorkehrungen von GPT-3.5 umgehen. Die erzeugten bösartigen Befehle waren schliesslich oft korrekt, erforderten jedoch häufig zusätzliche Eingaben zur Anpassung an spezifische Umgebungen.
Zu guter Letzt vermag ChatGPT nur begrenzt bei der Umgehung von Erkennungsregeln zu unterstützen. Die von der KI vorgebrachten Vorschläge seien zwar korrekt, allerdings häufig für Angreifer viel zu leicht zu erkennen und daher nur in seltenen Fällen umsetzbar. Nichtsdestotrotz ist Rosendahl überzeugt, dass die Unterstützung durch KI bei der Cybersecurity vielversprechend sei, jedoch weiterer Forschung bedürfe.
(dok)