learn.hack.repeat

Étiquette : IA

Plus de 100 modèles IA/ML malveillants découverts dans Hugging Face

Les logiciels malveillants ont un nouveau vecteur à la mode : les grands modèles de langage (LLM) distribués gratuitement. La popularisation de l’intelligence artificielle a attiré l’attention des créateurs de logiciels malveillants. Distribués sur des sites tels que Hugging Face, les modèles sous licence libre sont accessibles à tous et n’importe qui peut publier un modèle ou un dérivé d’un modèle populaire.

Source: pexels.com

Des chercheurs de JFrog ont découvert de nombreux modèles de langage (LLM) compromis par des virus informatiques sur Hugging Face. Ils ont notamment identifié un modèle malveillant qui utilisait un pickle (une façon de sauvegarder des objets dans un fichier) pour insérer un reverse shell (un outil de contrôle à distance) qui s’activait au moment où le modèle était utilisé avec PyTorch, un logiciel de machine learning. Des problèmes similaires ont été trouvés avec des modèles destinés à TensorFlow, qui est un autre outil important dans ce domaine.

Ces modèles ont été conçus pour exécuter un code malveillant en chargeant des fichiers pickle, ce qui compromet la sécurité des systèmes qui les mettent en œuvre.

Les modèles malveillants, qui se faisaient passer pour des modèles légitimes, pouvaient exécuter un code caché lorsqu’ils étaient téléchargés par les utilisateurs, ce qui permettait aux attaquants d’obtenir un shell sur les machines compromises et d’en prendre le contrôle total. Ce type d’attaque, connu sous le nom d’exécution de code à distance (RCE), utilise des fichiers pickle malveillants comme vecteur d’attaque. La plateforme Hugging Face, réputée pour sa vaste bibliothèque de modèles d’IA/ML, est donc affectée par un fort impact sur la sécurité de ses utilisateurs.

Pour limiter les risques, il est conseillé aux utilisateurs d’être extrêmement prudents lors du téléchargement et de l’installation des modèles Hugging Face, d’examiner attentivement les modèles avant leur déploiement et d’utiliser des solutions de sécurité capables de détecter et de bloquer les fichiers malveillants.

Cet incident souligne l’importance de la cybersécurité dans le domaine de l’IA/ML et la nécessité pour les utilisateurs d’être informés des risques associés à l’utilisation de modèles open source. Il est essentiel de prendre des mesures préventives pour protéger les systèmes et les informations précieuses.

Ces incidents nous rappellent l’importance cruciale de l’AML (Apprentissage Automatique Adversarial), qui vise à élaborer des méthodes pour attaquer et défendre les modèles d’IA. Ce domaine nous montre combien il est nécessaire d’avoir des protections solides pour maintenir la sûreté de ces systèmes. L’AML crée des stratégies comme l’empoisonnement de données, les techniques d’évasion, et les attaques par rétropropagation pour tester et renforcer la sécurité des modèles d’IA. L’objectif est d’éviter que les performances des modèles soient diminuées ou que leurs prédictions soient altérées. En réponse, des tactiques de défense, telles que la détection des anomalies et le renforcement des modèles, sont mises en place pour prévenir ces dangers. Détecter rapidement les comportements suspects et concevoir des modèles plus robustes face aux tentatives de manipulation est vital pour se protéger contre les menaces, y compris celles concernant la sécurité financière comme la lutte contre le blanchiment d’argent.

Il est vital de connaître les faiblesses des modèles de ML et de développer des défenses efficaces contre les attaques adverses. Avec l’évolution de l’AML, il est de plus en plus important pour les développeurs d’adopter des stratégies de sécurité avancées pour préserver l’intégrité de leurs modèles.

Plus d’information:
https://fr.wikipedia.org/wiki/Grand_mod%C3%A8le_de_langage
https://fr.wikipedia.org/wiki/PyTorch
https://fr.wikipedia.org/wiki/TensorFlow
https://huggingface.co/docs/hub/security-pickle
https://jfrog.com/blog/data-scientists-targeted-by-malicious-hugging-face-ml-models-with-silent-backdoor/
https://www.vaadata.com/blog/fr/rce-remote-code-execution-exploitations-et-bonnes-pratiques-securite/

Intelligence artificielle, ChatGPT et cybersécurité

L’intelligence artificielle et des outils comme ChatGPT révolutionnent le domaine de la cybersécurité. Cet article s’intéresse à la dualité de l’IA : un potentiel immense pour renforcer nos défenses numériques, tout en présentant de nouveaux défis et opportunités pour les acteurs malveillants. Nous plongerons dans l’impact de ces technologies avancées et leur rôle dans le paysage changeant de la sécurité informatique.

Source: pexels.com

ChatGPT dans la recherche sur la sécurité

Lorsqu’on lui pose la question, l’outil lui-même nous informe des nombreuses façons dont il peut être utile aux services de renseignement sur les menaces, qui peuvent être résumées comme suit :

  • Fournir des informations et servir d’outil de recherche avancée.
  • Favoriser l’automatisation des tâches, en réduisant le temps consacré aux tâches plus mécaniques et nécessitant une analyse moins détaillée.
Capture d’écran d’une conversation avec ChatGPT sur le sujet de l’article.

L’intelligence artificielle est devenue un pilier dans le domaine de la cybersécurité, facilitant la classification automatique des contenus en ligne. Des sociétés comme Microsoft capitalisent sur cette technologie, intégrant des outils d’IA dans des services tels que Bing et Azure OpenAI, et envisagent son application dans Microsoft Sentinel pour améliorer la gestion des incidents de sécurité. Parallèlement, l’IA aide à formuler des règles sophistiquées pour la détection d’activités suspectes, à l’instar des règles YARA. De son côté, Google prévoit d’introduire Bard, son propre outil d’IA, dans son moteur de recherche prochainement.

ChatGPT dans la cybercriminalité

De l’autre côté de la cybersécurité, on trouve également de multiples applications d’outils tels que ChatGPT, même s’ils sont initialement conçus pour empêcher leur utilisation à des fins illicites.

Au début du mois de janvier 2023, les chercheurs de CheckPoint ont signalé l’émergence de messages sur des forums clandestins discutant de méthodes pour contourner les restrictions du ChatGPT afin de créer des logiciels malveillants, des outils de cryptage ou des plateformes commerciales sur le deep web. En ce qui concerne la création de logiciels malveillants, les chercheurs qui ont tenté de réaliser des POC sont parvenus à la même conclusion :

ChatGPT est capable de détecter si une requête demande directement la création d’un code malveillant

Toutefois, en reformulant la demande de manière plus créative, il est possible de contourner ces défenses pour créer des logiciels malveillants polymorphes ou des keyloggers avec quelques nuances.

Le code généré n’est ni parfait ni complet et sera toujours basé sur le matériel sur lequel l’intelligence artificielle a été entraînée, mais il ouvre la porte à la génération de modèles capables de développer ce type de logiciels malveillants.

Réponse de ChatGPT sur la création de logiciels malveillants par l’IA

Une autre des utilisations illicites possibles de ChatGPT est la fraude ou l’ingénierie sociale. Parmi les contenus que ces outils peuvent générer, on trouve des courriels de phishing conçus pour inciter les victimes à télécharger des fichiers infectés ou à accéder à des liens qui peuvent compromettre leurs données personnelles, leurs informations bancaires, etc. Sans que l’auteur de la campagne n’ait besoin de maîtriser les langues utilisées dans la campagne, ni d’écrire manuellement l’une d’entre elles, en générant automatiquement de nouveaux thèmes sur lesquels baser la fraude.

De manière générale, que l’outil soit capable de fournir un code ou un contenu complet et prêt à l’emploi ou non, ce qui est certain, c’est que l’accessibilité de programmes tels que ChatGPT peut réduire la sophistication nécessaire pour mener des attaques qui, jusqu’à présent, nécessitaient des connaissances techniques plus étendues ou des compétences plus développées.

Ainsi, les acteurs de la menace qui se limitaient auparavant à lancer des attaques par déni de service ont pu passer au développement de leurs propres logiciels malveillants et à leur diffusion dans le cadre de campagnes d’hameçonnage par courrier électronique.

Les nouveaux modèles d’IA tels que ChatGPT, comme toutes les autres avancées technologiques, peuvent être utilisés aussi bien pour soutenir le progrès et améliorer la sécurité que pour l’attaquer.

Pour l’instant, les cas réels d’utilisation de ce type d’outils pour commettre des délits dans le cyberespace sont anecdotiques, mais ils nous permettent d’imaginer le paysage possible de la cybersécurité dans les années à venir.

La mise à jour constante des connaissances est une fois de plus essentielle pour les chercheurs et les professionnels dans le domaine de la technologie.

Le grand danger de l’intelligence artificielle est que les gens en viennent trop vite à la conclusion qu’ils la comprennent.

Eliezer Yudkowsky

Plus d’information:
https://fr.wikipedia.org/wiki/Intelligence_artificielle
https://azure.microsoft.com/en-us/products/ai-services/openai-service
https://www.cisa.gov/sites/default/files/FactSheets/NCCIC%20ICS_FactSheet_YARA_S508C.pdf
https://research.checkpoint.com/2023/opwnai-cybercriminals-starting-to-use-chatgpt/
https://www.cyberark.com/resources/threat-research-blog/chatting-our-way-into-creating-a-polymorphic-malware
https://www.deepinstinct.com/blog/chatgpt-and-malware-making-your-malicious-wishes-come-true

Cybersécurité et IA : des lignes directrices mondiales pour un développement sécurisé

Le Royaume-Uni et les États-Unis, en collaboration avec des partenaires internationaux de 16 autres pays, ont annoncé la publication de lignes directrices révolutionnaires visant à développer des systèmes d’intelligence artificielle (IA) sécurisés. Ces lignes directrices visent à relever les nouveaux défis liés à la cybersécurité dans le domaine de l’intelligence artificielle et à garantir que cette technologie est conçue, développée et déployée de manière sécurisée.

Selon l’Agence américaine pour la sécurité des infrastructures et de la cybernétique (CISA), l’approche adoptée dans ces lignes directrices place la responsabilité de la sécurité entre les mains des clients. Cette approche souligne l’importance d’une transparence radicale, en établissant des structures organisationnelles où la conception sécurisée est une priorité absolue.

Selon le Centre national de cybersécurité (NCSC), l’objectif principal de ces lignes directrices est de relever les normes de cybersécurité dans le domaine de l’IA. Il s’agit de s’assurer que la technologie est développée en toute sécurité et que des mesures efficaces sont mises en œuvre pour prévenir les préjudices sociaux, tels que les préjugés et la discrimination, ainsi que pour répondre aux préoccupations en matière de protection de la vie privée.

Un aspect essentiel des lignes directrices est l’intégration des efforts déployés par le gouvernement américain pour gérer les risques associés à l’IA. Il s’agit notamment de tester minutieusement les nouveaux outils avant leur diffusion publique, de mettre en œuvre des mesures de protection pour lutter contre les préjudices sociaux et les atteintes à la vie privée, et de mettre en place des méthodes solides permettant aux consommateurs d’identifier les contenus générés par l’IA.

En outre, les entreprises qui adoptent ces lignes directrices s’engagent à faciliter la détection et le signalement des vulnérabilités de leurs systèmes d’IA par le biais d’un système de chasse aux bugs. Cette approche permet d’identifier rapidement et de corriger efficacement les faiblesses potentielles.

Le NCSC souligne que ces nouvelles lignes directrices font partie d’une approche globale appelée « secure by design », qui englobe la conception sécurisée, le développement sécurisé, le déploiement sécurisé, ainsi que l’exploitation et la maintenance sécurisées. Cette approche couvre l’ensemble du cycle de vie du développement des systèmes d’IA, et les organisations sont invitées à modéliser les menaces potentielles qui pèsent sur leurs systèmes, ainsi qu’à protéger leurs chaînes d’approvisionnement et leurs infrastructures.

Un aspect essentiel abordé par ces lignes directrices est la nécessité de lutter contre les attaques adverses ciblant les systèmes d’IA et d’apprentissage automatique. Ces attaques visent à provoquer des comportements indésirables, tels que l’altération de la classification des modèles, l’exécution d’actions par des utilisateurs non autorisés et l’extraction d’informations sensibles. Le NCSC met en évidence différentes manières de mener ces attaques, telles que les attaques par injection rapide dans le domaine des grands modèles de langage (LLM) ou le fameux « empoisonnement des données », qui implique la corruption délibérée des données d’apprentissage ou des commentaires des utilisateurs.

Plus d’information:
https://www.cisa.gov/news-events/alerts/2023/11/26/cisa-and-uk-ncsc-unveil-joint-guidelines-secure-ai-system-development
https://www.ncsc.gov.uk/news/uk-develops-new-global-guidelines-ai-security
https://www.whitehouse.gov/briefing-room/statements-releases/2023/09/12/fact-sheet-biden-harris-administration-secures-voluntary-commitments-from-eight-additional-artificial-intelligence-companies-to-manage-the-risks-posed-by-ai/
https://www.ncsc.gov.uk/collection/guidelines-secure-ai-system-development

Fièrement propulsé par WordPress & Thème par Anders Norén