In der Welt der Künstlichen Intelligenz (KI) stehen Sicherheit und Datenschutz im Rampenlicht. Während KI-Systeme wie ChatGPT, Google Bard und Bing Chat das Potenzial haben, unsere Art zu kommunizieren, zu lernen und zu arbeiten, zu revolutionieren, werfen sie auch ernsthafte Fragen bezüglich ihrer Anfälligkeit für Missbrauch und Hacking auf. Sicherheitsexperten wie Johann Rehberger haben zahlreiche Schwachstellen in diesen Systemen aufgedeckt und warnen vor den Risiken, die sie darstellen.
Johann Rehberger, der in Seattle lebt und als Red Team Director bei Electronic Arts tätig ist, hat sich selbst Machine Learning beigebracht und testet KI-Systeme auf Schwachstellen. Er hat entdeckt, dass fast jedes KI-System, das er untersucht hat, anfällig für bestimmte Arten von Cyberangriffen ist.
Eine der Hauptbedrohungen ist die sogenannte "Prompt-Injection", bei der Angreifer Sprachmodelle manipulieren, um sie dazu zu bringen, etwas anderes zu tun, als sie eigentlich sollten. Diese Angriffsart wird besonders dann gefährlich, wenn KI-Systeme mit externen Daten und Werkzeugen verknüpft sind. Ein Angreifer könnte beispielsweise ein KI-System dazu bringen, auf E-Mails zuzugreifen oder Aktionen im Namen des Nutzers auszuführen, ohne dass dieser es merkt.
Rehberger erläutert, dass die erste Stufe des Tests darin besteht, zu sehen, ob das KI-System von seiner eigentlichen Aufgabe abgebracht werden kann. Die zweite Stufe prüft, ob das System mit externen Daten verbunden ist. In vielen Fällen funktionieren diese beiden Stufen fast immer.
Ein weiteres Problem ist der mögliche Datendiebstahl, bei dem Angreifer in der Lage sind, Daten direkt aus dem Chat zu extrahieren. Rehberger hat festgestellt, dass dies bei fast allen KI-Systemen möglich ist. Wenn ein Angreifer beispielsweise die Kontrolle über einen Chatbot übernimmt, könnte er einen Link senden, der den Nutzer dazu verleitet, auf eine schädliche Seite zu gehen, die dann persönliche Informationen stiehlt.
Rehberger mahnt zur Vorsicht und rät Nutzern, keine sensiblen Daten oder Passwörter in Chatboxen einzugeben und skeptisch gegenüber den Antworten zu sein, die sie von KI-Systemen erhalten. Er empfiehlt auch, externe Plugins und Erweiterungen kritisch zu prüfen, bevor sie installiert werden.
Die Reaktionen der Unternehmen auf die Entdeckung von Schwachstellen sind unterschiedlich. Während einige sehr positiv reagieren und an Lösungen arbeiten, gibt es auch Fälle, in denen Meinungsverschiedenheiten darüber bestehen, ob bestimmte Sicherheitslücken tatsächlich Probleme darstellen.
KI-Systeme können jedoch auch Schutz bieten, indem sie Cyberangriffe erkennen und abwehren. Sie spielen eine wichtige Rolle im Sicherheitsbereich, um Angriffe schnell zu identifizieren und zu stoppen. Trotzdem sollte man sich bewusst sein, dass KI-Systeme nicht immer korrekt sind und Nutzer ihre Antworten stets hinterfragen sollten.
Die Sicherheitslücken in KI-Systemen zeigen, dass es noch einen langen Weg bis zur Entwicklung von rundum sicheren KI-Anwendungen gibt. Die Forschung und das Testen von Sicherheitsmaßnahmen bleiben entscheidend, um die Risiken zu minimieren und die Vorteile von KI verantwortungsvoll zu nutzen.