TEIL 3 – Virtuelle Verbrecherwelt: Wenn KI und Cybercrime sich treffen | Zwischen digitaler Herausforderung und technologischer Verteidigung

Geschrieben am 23.04.2024 von:

Noureddine Jerbi

Penetration Tester | IT Security Consultant
zum Profil

Kontaktiere mich:

+49 (0) 261 – 9886236 44
E-Mail senden

In den letzten beiden Teilen (Teil 1 & Teil 2) über „Virtuelle Verbrecherwelten“ haben wir die tiefgreifenden Einflüsse von KI-Technologien auf unseren Alltag und die Herausforderungen an diesem Wendepunkt der technologischen Entwicklung beleuchtet. Wir haben diskutiert, wie wichtig es ist, das Gleichgewicht zwischen dem Potenzial für außergewöhnliche Leistungen sowie nützlichen Funktionen und den Risiken unvorhergesehener Folgen zu wahren. Heute richten wir unser Augenmerk auf die Frage: Wie sicher sind unsere KI-Systeme tatsächlich?

Kürzlich hat der Trend der sogenannten „Prompt-Injection“ im Bereich der Cybersicherheit an Bedeutung gewonnen. Dieser bezieht sich auf einen Mechanismus, bei dem Benutzer KI-Systeme beeinflussen, indem sie gezielt Eingabeaufforderungen stellen, die das Verhalten des KI-Systems manipulieren. Dies stellt einen der häufigsten Angriffsvektoren auf KI-basierte Large-Language-Models (LLMs) dar, wobei die Schwachstelle nicht im Softwarecode liegt, sondern in der Art und Weise, wie die jeweiligen Eingaben von der KI verarbeitet werden.

Im Vergleich zu anderen bekannten Sicherheitslücken wie SQL-Injection oder Cross-Site-Scripting (XSS), die auf die Einschleusung bösartigen Codes in Webseiten oder Datenbanken abzielen, wirkt die Prompt-Injektion subtiler. Es handelt sich im Wesentlichen um einen Prozess, bei dem eindeutige Befehle oder Anweisungen in eine Eingabeaufforderung an das KI-System eingebettet werden, um das System zu einer anderen Reaktion oder Handlung zu verleiten, als es normalerweise der Fall wäre. Diese Art der Beeinflussung ähnelt in vielerlei Hinsicht den Techniken des Social Engineering, bei denen menschliche Interaktionen genutzt werden, um (unbefugt) Zugang zu Informationen oder Systemen zu erlangen.

Ein Beispiel hierfür ist ein Chat-Bot, der auf Grundlage riesiger Datensätze trainiert wurde, von denen einige vertrauliche Informationen enthalten können. Solch ein Chat-Bot könnte theoretisch dazu gebracht werden, Informationen preiszugeben, die eigentlich nicht offengelegt werden sollten. Es ist normalerweise nicht zu erwarten, dass ein Chat-Bot direkte Anfragen nach personenbezogenen Daten, firmeninternem Wissen oder anderen vertraulichen Informationen beantwortet. Jedoch könnte die Situation anders sein, wenn die Frage in einem anderen Kontext gestellt wird, der die Absichten der Fragestellung durch Änderung des Zwecks oder Vortäuschen einer anderen Identität erweitert oder verändert. Wiederholungen und Inversionen können KI-Systeme ebenfalls manipulieren.

Um diese Thematik nicht nur theoretisch zu beschreiben, sondern auch praktisch erlebbar zu machen, haben wir einen speziellen KI-Bot entwickelt, der so programmiert ist, dass er sein Passwort nicht preiszugeben soll – unser Clever Guardian. Wir laden dich ein, einen Blick darauf zu werfen und dich selbst an der Herausforderung zu versuchen, das Passwort zu knacken.

Du kannst und möchtest nicht bis zum nächsten Newsletter warten, sondern sofort mehr Informationen zu diesem Thema erhalten? Dann schau doch einfach in unserem Blog vorbei. Dort findest du unsere Beitragsreihe „Künstliche Intelligenz | Anwendungsfelder & Anwendungstipps“. Hier kommst du direkt zum ersten Teil.


Zurück zu den News