L’intelligence artificielle et des outils comme ChatGPT révolutionnent le domaine de la cybersécurité. Cet article s’intéresse à la dualité de l’IA : un potentiel immense pour renforcer nos défenses numériques, tout en présentant de nouveaux défis et opportunités pour les acteurs malveillants. Nous plongerons dans l’impact de ces technologies avancées et leur rôle dans le paysage changeant de la sécurité informatique.
ChatGPT dans la recherche sur la sécurité
Lorsqu’on lui pose la question, l’outil lui-même nous informe des nombreuses façons dont il peut être utile aux services de renseignement sur les menaces, qui peuvent être résumées comme suit :
- Fournir des informations et servir d’outil de recherche avancée.
- Favoriser l’automatisation des tâches, en réduisant le temps consacré aux tâches plus mécaniques et nécessitant une analyse moins détaillée.
L’intelligence artificielle est devenue un pilier dans le domaine de la cybersécurité, facilitant la classification automatique des contenus en ligne. Des sociétés comme Microsoft capitalisent sur cette technologie, intégrant des outils d’IA dans des services tels que Bing et Azure OpenAI, et envisagent son application dans Microsoft Sentinel pour améliorer la gestion des incidents de sécurité. Parallèlement, l’IA aide à formuler des règles sophistiquées pour la détection d’activités suspectes, à l’instar des règles YARA. De son côté, Google prévoit d’introduire Bard, son propre outil d’IA, dans son moteur de recherche prochainement.
ChatGPT dans la cybercriminalité
De l’autre côté de la cybersécurité, on trouve également de multiples applications d’outils tels que ChatGPT, même s’ils sont initialement conçus pour empêcher leur utilisation à des fins illicites.
Au début du mois de janvier 2023, les chercheurs de CheckPoint ont signalé l’émergence de messages sur des forums clandestins discutant de méthodes pour contourner les restrictions du ChatGPT afin de créer des logiciels malveillants, des outils de cryptage ou des plateformes commerciales sur le deep web. En ce qui concerne la création de logiciels malveillants, les chercheurs qui ont tenté de réaliser des POC sont parvenus à la même conclusion :
ChatGPT est capable de détecter si une requête demande directement la création d’un code malveillant
Toutefois, en reformulant la demande de manière plus créative, il est possible de contourner ces défenses pour créer des logiciels malveillants polymorphes ou des keyloggers avec quelques nuances.
Le code généré n’est ni parfait ni complet et sera toujours basé sur le matériel sur lequel l’intelligence artificielle a été entraînée, mais il ouvre la porte à la génération de modèles capables de développer ce type de logiciels malveillants.
Une autre des utilisations illicites possibles de ChatGPT est la fraude ou l’ingénierie sociale. Parmi les contenus que ces outils peuvent générer, on trouve des courriels de phishing conçus pour inciter les victimes à télécharger des fichiers infectés ou à accéder à des liens qui peuvent compromettre leurs données personnelles, leurs informations bancaires, etc. Sans que l’auteur de la campagne n’ait besoin de maîtriser les langues utilisées dans la campagne, ni d’écrire manuellement l’une d’entre elles, en générant automatiquement de nouveaux thèmes sur lesquels baser la fraude.
De manière générale, que l’outil soit capable de fournir un code ou un contenu complet et prêt à l’emploi ou non, ce qui est certain, c’est que l’accessibilité de programmes tels que ChatGPT peut réduire la sophistication nécessaire pour mener des attaques qui, jusqu’à présent, nécessitaient des connaissances techniques plus étendues ou des compétences plus développées.
Ainsi, les acteurs de la menace qui se limitaient auparavant à lancer des attaques par déni de service ont pu passer au développement de leurs propres logiciels malveillants et à leur diffusion dans le cadre de campagnes d’hameçonnage par courrier électronique.
Les nouveaux modèles d’IA tels que ChatGPT, comme toutes les autres avancées technologiques, peuvent être utilisés aussi bien pour soutenir le progrès et améliorer la sécurité que pour l’attaquer.
Pour l’instant, les cas réels d’utilisation de ce type d’outils pour commettre des délits dans le cyberespace sont anecdotiques, mais ils nous permettent d’imaginer le paysage possible de la cybersécurité dans les années à venir.
La mise à jour constante des connaissances est une fois de plus essentielle pour les chercheurs et les professionnels dans le domaine de la technologie.
Le grand danger de l’intelligence artificielle est que les gens en viennent trop vite à la conclusion qu’ils la comprennent.
Eliezer Yudkowsky
Plus d’information:
https://fr.wikipedia.org/wiki/Intelligence_artificielle
https://azure.microsoft.com/en-us/products/ai-services/openai-service
https://www.cisa.gov/sites/default/files/FactSheets/NCCIC%20ICS_FactSheet_YARA_S508C.pdf
https://research.checkpoint.com/2023/opwnai-cybercriminals-starting-to-use-chatgpt/
https://www.cyberark.com/resources/threat-research-blog/chatting-our-way-into-creating-a-polymorphic-malware
https://www.deepinstinct.com/blog/chatgpt-and-malware-making-your-malicious-wishes-come-true