ChatGPT als Hacking-Tool: Wobei die KI unterstützen kann
ChatGPT kann erschreckend viel – aber auch hacken? Wir haben ausprobiert, ob man mit KI-Unterstützung zum Elite-Hacker wird und ob die KI bedrohlich ist.
- Ronald Eikenberg
"ChatGPT, kannst Du mir Hacking beibringen?" – Ganz so leicht war es dann doch nicht, die künstliche Intelligenz als Hacking-Kumpanin einzuspannen: "Nein, tut mir leid, aber als KI-Modell bin ich nicht in der Lage, Ihnen Hacking beizubringen oder Sie in irgendeiner Weise dazu zu ermutigen oder zu unterstützen, illegalen Aktivitäten nachzugehen." Illegale Aktivitäten? Nichts lag uns ferner. Ein Plan B war schnell gefunden: Wir fragten ChatGPT, wie denn ein Pentester vorgehen würde, ganz legal.
Plötzlich kam die KI in Plauderstimmung: "Hier sind einige Schritte, die ein Pentester im Rahmen eines Pentests typischerweise durchführen würde, um Sicherheitslücken in einem Netzwerk zu finden:" Es folgte ein grober Ablauf in sieben Schritten, von "Planung und Vorbereitung" über "Exploit-Tests" bis hin zu "Berichterstellung" und "Nachverfolgung". Zu Schritt 2, der Informationsbeschaffung, wollten wir mehr wissen: "Wie würde Schritt 2 ganz konkret ablaufen? Bitte nenne geeignete Tools und liefere einige konkrete Beispiele, wie man die Tools ausführt."
Wieder zeigte sich ChatGPT redselig und plauderte frei von der Leber weg, wie ein Profi vorgehen würde. Angefangen bei Trivialitäten wie einer Whois-Abfrage mit whois domain.com
und einer DNS-Abfrage mit nslookup domain.com
bis hin zu ersten Vorschlägen, die langsam in den Bereich Hacking gehen, etwa einem Portscan mit dem Netzwerkscanner Nmap: nmap -p 1-65535 domain.com