Kann ich mit Chat GPT die Sicherheit von Apps ermitteln?
Die künstliche Intelligenz Chat GPT ist aktuell in aller Munde: Erste Unternehmen experimentieren bereits mit der AI, um Arbeitsroutinen zu automatisieren. Auch in der IT- und IT-Security-Branche kommt vermehrt die Frage auf, ob man Chat GPT zur Ermittlung von IT-und App Security einsetzen kann. Wir sind dieser Frage auf den Grund gegangen und haben getestet, inwiefern Chat GPT bei der Auswahl sicherer und unsicherer Apps unterstützen kann!
Was ist Chat GPT?
Bei Chat GPT (kurz für „Generative Pre-training Transformer“) handelt es sich um eine künstliche Intelligenz des US-amerikanischen KI-Forschungsunternehmens OpenAI. Nutzer:innen können sich auf der Website von OpenAI für die Nutzung von Chat GPT registrieren und dem Chatbot in einem Textfenster Fragen stellen. Das Programm generiert daraufhin menschenähnliche Antworten und nutzt hierfür ein neuronales Netzwerk auf der Grundlage von gegebenen Vorlagen. Hierfür wurde Chat GPT mit Millionen Texten aus dem Internet, Büchern usw. trainiert. Auch aus den Konversationen mit den Nutzer:innen lernt die künstliche Intelligenz und erweitert dadurch stetig ihr Wissen. Chat GPT hat einen großen Hype um das Thema KI losgelöst und könnte zukünftig in verschiedenen Anwendungsbereichen zum Einsatz kommen. Neben den zahlreichen Vorteilen hat die KI jedoch auch einige Grenzen, an denen Menschen und zusätzliche Tools unterstützen müssen.
Welche Rolle spielt Chat GPT in der IT-Branche?
Der Hype um KI erfasst die gesamte Arbeitswelt und könnte künftig auch in der IT-Branche eine zentrale Rolle spielen. So kann Chat GPT bereits jetzt zum Programmieren von Software genutzt werden. Diverse Erfahrungsberichte von Informatiker:innen verdeutlichen, dass der Chatbot einfachen Code in wenigen Sekunden hervorbringt. Zudem kann er bei der Recherche von Code-Teilen unterstützen. Allerdings sind vor allem kompliziertere Codes noch fehleranfällig, sodass es weiterhin eine:n Programmierer:in für den Feinschliff braucht.
Ein immer wichtiger werdender Teil der IT-Branche ist und bleibt der Bereich App Security. Denn mit dem vermehrten Einsatz von Smartphones – auch im Business Kontext – gehen vielfache mobile Risiken einher. Gerade das Thema KI könnte diese Risiken noch verschärfen. Deshalb überprüfen immer mehr Unternehmen Apps vor ihrem Einsatz mit App Risk Management Tools wie APPVISORY, um Gefahrenpotenziale in Apps zuverlässig zu identifizieren und sich vor Sicherheitsrisiken zu schützen. Mit der Verfügbarkeit von Chat GPT kommt immer häufiger die Frage auf, ob Chat GPT derartige Tools ersetzen kann.
Chat GPT: Wie zuverlässig sind Aussagen zur App Security?
Fragt man Chat GPT nach der Sicherheit einzelner Apps, so liefert die KI zwar ausführliche Antworten – diese basieren jedoch nicht auf der inneren Struktur der Anwendungen, sondern auf den verfügbaren Informationen zum Zeitpunkt der Schulung. Chat GPT trägt diese Informationen zusammen und generiert eine Antwort zum Sicherheitsniveau der App. Der Chatbot berichtet den Nutzer:innen dabei, welche Daten die angefragte App sammelt, wie sie diese Informationen verwendet und welche Tracker in der App integriert sind. In unseren Testläufen haben wir Chat GPT zur App Sicherheit von Facebook befragt.
Chat GPT verwendet hierbei Formulierungen wie „Es ist bekannt, dass die Facebook-App Tracker und Cookies einsetzt, um die Aktivitäten der Nutzer zu verfolgen und personalisierte Werbung bereitzustellen“. Der Wortlaut macht bereits deutlich, dass es sich bei den Antworten lediglich um Vermutungen handelt, die die künstliche Intelligenz aus verschiedenen Quellen zusammenträgt. Selbst belegen kann die KI diese Ergebnisse jedoch nicht.
Zudem sind die Aussagen zum Datennutzungsverhalten von Apps sehr allgemein gehalten: „Facebook verwendet diese gesammelten Daten, um personalisierte Werbung bereitzustellen und Nutzerdaten mit Drittanbietern zu teilen, was möglicherweise Ihre Privatsphäre beeinträchtigen kann“. Auch hierbei wird deutlich, dass es sich in erster Linie um Thesen handelt. Die gelieferten Antworten basieren mitunter auf den Datenschutzerklärungen der angefragten Apps. Diese sind jedoch häufig fehlerbehaftet und lückenhaft. Weiterhin ist zu beachten, dass sich das Sicherheitsniveau von Apps stetig ändert. Da Chat GPT auf Informationen zum Zeitpunkt der letzten Schulung zurückgreift, entsprechen diese womöglich nicht mehr dem Status Quo.
Kann man Chat GPT als Berater für App Sicherheit einsetzen?
Chat GPT kann User:innen zwar einen ersten Überblick über die App Security liefern, allerdings kann die künstliche Intelligenz die Tiefe und Präzision von App Analyse-Tools wie APPVISORY nicht ersetzen. APPVISORY liefert fundierte Ergebnisse über die Sicherheit von Apps und kann Unternehmen somit genauestens darüber aufklären, welche Apps sicher im Business-Kontext eingesetzt werden können – und welche nicht. Hierbei kann APPVISORY die analysierten Apps, anders als Chat GPT, hinsichtlich Compliance-Vorgaben in einer Positiv- und Negativliste sortieren. Fest steht jedoch, dass KI in der IT- und IT-Security-Branche künftig eine immer größere Rolle spielen wird. Allerdings vielmehr als unterstützendes Tool. Denn eine App Risk Management Lösung muss fehlerfrei, strukturiert, wartbar und technisch skalierbar sein. Hierfür sind IT-Security-Spezialist:innen und App Security-Tools wie APPVISORY notwendig. Testen Sie APPVISORY hier kostenfrei!