Künstliche Intelligenz findet sich heute in fast jedem Bereich der Wirtschaft und hat sich in den letzten Jahren rasant entwickelt. Zur Prozessoptimierung oder auch nur zur Unterhaltung eingesetzt, kann KI viele positive Auswirkungen auf unseren (Arbeits-)Alltag haben. Doch in den falschen Händen kann sie ebenso zur Gefahr werden. Wie Cyberkriminelle ChatGPT & Co. im Darknet für illegale Aktivitäten nutzen.
KI-Tools wie ChatGPT vereinfachen komplizierte und zeitaufwändige Tasks unseres Alltags. Sie lernen aus den Eingaben der User:innen und verbessern ihre Ausgaben stetig. Von diesen Fähigkeiten profitieren jedoch nicht nur legale Nutzer:innen. Im Darknet setzen jetzt auch Cyberkriminelle auf die KI-Tools und erstellen mit ihnen ganz leicht und ohne spezifisches Fachwissen Malware, mit denen sie Sicherheitsmaßnahmen von Organisationen umgehen können, und entwickeln bösartige Programme. Eine eigene AI mit Informationen aus dem Darknet, genannt Darkbert, entwickelten südkoreanische Forscher:innen. Was es damit auf sich hat und welchen Nutzen die Forscher:innen daraus ziehen, erfährst Du im Artikel.
Was ist das Darknet?
KI im Darknet vereinfacht cyberkriminelle Aktivitäten
Um festzustellen, welche Rolle KI im Darknet spielt, beobachtete Kaspersky, Anbieter für Cybersicherheitsdienstleistungen, Diskussionen über die Nutzung von ChatGPT für illegale Zwecke auf Cybercrime-Foren. Dabei stellte man fest, dass Cyberkriminelle die API von OpenAI beispielsweise nutzen, um schwer erkennbaren, schädlichen Code zu generieren. Auch kriminelle Aktivitäten, die zuvor eine gewisse Expertise erforderten, können nun mit einem einfachen Prompt durchgeführt werden. So nutzte ein User die KI, um User Data Dumps zu verarbeiten und sich so sensible Informationen zu verschaffen.
Damit sinkt die Einstiegshürde in cyberkriminelle Aktivitäten – was zuvor nur von einem Team professioneller Hacker:innen bewerkstelligt werden konnte, können nun auch unerfahrene Neulinge in kurzer Zeit durchführen. Diese Entwicklung stellt eine Gefahr für die Sicherheit im Internet dar und kann zu einer steigenden Anzahl an Cyberkriminellen führen.
Neue Funktionen durch Jailbreaks
KI-Tools werden von ihren Entwickler:innen üblicherweise so programmiert, dass sie nur legale Aufgaben übernehmen und daher einige „unethische“ Funktionen einschränken. Cyberkriminelle jedoch haben Möglichkeiten gefunden, weitere Funktionen durch bestimmte Prompts freizuschalten. Dann hat die KI keine ethischen Einschränkungen mehr und kann leichter für bösartige Zwecke genutzt werden.
Auch dazu müssen die User:innen keine besondere Expertise vorweisen – sie können sich die Sets, die es dazu benötigt, einfach online kaufen. Projekte, die diese modifizierten ChatGPT Versionen anbieten, sind zum Beispiel WormGPT oder FraudGPT. Ersteres wurde im letzten August nach zahlreichen Medienberichten über dessen Verwendung zu bösartigen Aktivitäten abgeschaltet. Auch wenn die Entwickler:innen behaupteten, sich nicht primär auf das Ermöglichen illegaler Aktivitäten fokussiert zu haben. Nicht alle Prompts in diesen Sets zielen darauf ab, illegale Aktivitäten durchzuführen, einige sind lediglich dazu da, genauere Informationen vom Chatbot zu erhalten.
Auch Google Bard dient Hacker:innen als Vorbild
Im Darknet wird aber nicht nur ChatGPT als Vorbild verwendet und als Tool für illegale Aktivitäten genutzt, auch Google Bard ist nicht vor Missbrauch gefeit. So berichtet zum Beispiel Golem über einen Hacker, der regelmäßig neue, auf kriminelle Aktivitäten spezialisierte Chatbots ins Leben ruft und etwa Google Lens integriert. So können User:innen der KI auch Informationen aus abfotografierten Texten übermitteln.
Phishing-Templates per KI im Darknet
Phishing ist eines der effektivsten Mittel für Hacker:innen, um an Userdaten oder andere sensible Informationen von Privatpersonen oder Unternehmen zu gelangen. Ist ein KI-Chatbot so programmiert, dass er nicht auf ethische Handlungen bedacht ist, können Cyberkriminelle im Darknet damit ganz leicht Phishing-E-Mails oder entsprechende Websites und Landingpages erstellen. Auch die Ausgabesprache kann dabei unkompliziert an das Zielland bzw. die Zielpersonen angepasst werden. Die Vorlagen sind kaum von den Originalen zu unterscheiden: In einer Studie von SoSafe wurden KI-generierte Phishing-E-Mails ebenso oft geöffnet, wie von Menschen geschaffene. Erstere können allerdings erheblich schneller erstellt werden und damit mehr Menschen ins Visier nehmen. Legale Chatbots wie ChatGPT haben natürlich Mechanismen eingebaut, die solche betrügerischen Aktivitäten verhindern.
Verkauf von Konten und Software
Nicht nur die KI-Tools selbst, auch die Konten und Daten von deren Nutzer:innen stellen für Cyberkriminelle ein gefundenes Fressen dar. Der Markt für gestohlene ChatGPT-Accounts wächst stetig. Angreifer:innen verkaufen zum Beispiel gehackte Premium-Konten und nutzen automatisierte Tools, um massenhaft neue Accounts zu erstellen, die dann für schädliche Aktivitäten verwendet werden. Meist werden die Zugangsdaten per Brute-Force Attacke erlangt, eine Technik für die Kriminelle ebenfalls Tools im Darknet erwerben können.
Was ist eine Brute-Force Attacke?
Fazit: KI gleichermaßen Problem und Lösung
Die wachsende Verfügbarkeit und einfache Nutzung von KI im Darknet stellen eine erhebliche Gefahr dar. Während die Technologie bereits ihr Potenzial bewiesen hat, das Leben zu erleichtern, Prozesse zu optimieren und zu verschnellern, senkt sie gleichzeitig die Hürden für kriminelle Aktivitäten. Zusätzlich bietet die Anonymität des Darknets den Cyberkriminellen Schutz. Doch im Gegenzug kann KI auch bei der Aufdeckung von Phishing E-Mails und anderen Cyberangriffen helfen. Es ist daher wichtig, Sicherheitsmaßnahmen kontinuierlich weiterzuentwickeln und dabei gegebenenfalls auch auf die Hilfe von KI zu setzen. Besitzer:innen eines ChatGPT Premium Kontos sollten außerdem die Sicherheit ihres Kontos im Blick haben. Regelmäßige Passwortänderungen können helfen, einen Missbrauch des Accounts zu verhindern.
Bildquellen
- 2151252428: Image by freepik
No Comment