La vulnérabilité du modèle Chat GPT semble avoir été percée à jour, et ce n’est pas rassurant. En effet, des experts ont trouvé une faille au sein des chatbots, aboutissant à la divulgation d’informations privées.
Avec des études poussées, les chercheurs ont pu voir la vulnérabilité de Chat GTP et des chatbots en général. Une faille de sécurité critique qui peut aboutir à des effets désastreux entre de mauvaises mains.
Répétition de mots : Vulnérabilité critique pour Chat GPT ?
Des chercheurs ont analysé la capacité des modèles de langage, particulièrement ChatGPT, à mémoriser et à divulguer des données sensibles en réponse à des prompts.
Un test qui révèle la vulnérabilité de Chat GPT face aux attaques par divergence. Une technique qui consiste à manipuler le modèle de langage par l’intermédiaire de mots spécifiques répétés. Cette attaque force ainsi chat GPT à divulguer des informations confidentielles. Cela peut inclure des adresses mail, des numéros de téléphone et autres informations privées. Des données critiques et potentiellement dangereuses dans les mains de cybercriminels.
Une inquiétude grandissante existe depuis la découverte de cette faille, celle des tendances des chatbots à conserver les données personnelles. Ainsi, il est d’autant plus nécessaire pour les internautes de redoubler de vigilance lorsqu’il est question d’utiliser ce type d’outil.
Cette faille soulève des questions sur le niveau de fiabilité de ces modèles de langage. Pour les experts, il s’agit maintenant de trouver les moyens adéquats pour corriger ce problème. Une nécessité d’autant plus importante actuellement.
En effet, l’ère numérique que nous vivons actuellement apporte son lot de défi au niveau de la cybersécurité. Cela amène les entreprises et les chercheurs à se renouveler sans cesse pour faire face aux menaces de piratage et de vol de données.