À l’ère du numérique, nous interagissons de plus en plus fréquemment avec l’IA, et l’IA a un large éventail d’applications dans divers domaines, des maisons intelligentes aux applications de téléphonie mobile. Parmi eux, le chatbot a été bien accueilli par le public pour ses caractéristiques pratiques et efficaces, et est devenu un domaine d'attention brûlant.
Qu'il s'agisse de ChatGPT d'OpenAI ou de Bard de Google, ces chatbots sont formés et interagissent avec les utilisateurs en utilisant de grandes quantités de données provenant d'Internet.
Cependant, avez-vous déjà pensé que même si vous communiquez facilement et avec bonheur avec un chatbot, celui-ci peut espionner discrètement vos secrets ?
Comment les chatbots IA déduisent-ils les informations des utilisateurs ?
Une étude récente menée par des informaticiens de l'ETH Zurich a révélé qu'un chatbot peut déduire des informations personnelles sur un utilisateur, telles que son lieu de résidence, sa race, son sexe, etc., en fonction du contenu de ses conversations. Bien que l’étude n’ait pas été évaluée par des pairs, elle soulève de nouvelles préoccupations concernant la vie privée sur Internet.
La capacité des LLM à juger et à générer des résultats à partir de la complexité des données et des algorithmes de formation. Le modèle est formé sur une grande quantité de données accessibles au public, notamment du texte, des images, de l'audio et bien plus encore provenant d'Internet. Au cours de la formation, ils ont appris à extraire des clés des données et à classer et prédire de nouveaux textes en fonction de ces clés.
L'équipe de recherche a utilisé le texte de publications sur Reddit dans lesquelles les utilisateurs ont testé si les LLM pouvaient déduire avec précision où ils vivaient ou d'où ils venaient. L'équipe de recherche, dirigée par Martin Vechev de l'ETH Zurich, a découvert que ces modèles ont une capacité déconcertante à deviner des informations précises sur les utilisateurs sur la seule base d'indices contextuels ou linguistiques. Au cœur de la version payante d'Open AI ChatGPT, GPT-4 est étonnamment précis pour prédire les informations privées d'un utilisateur dans 85 à 95 % du temps.
Par exemple, lorsqu'un utilisateur mentionne « J'attends toujours un virage en crochet à une intersection » lors de la communication avec un chatbot, cette information pourrait être utilisée par le chatbot pour déduire où habite l'utilisateur, car un virage en crochet est une action de circulation unique. à Melbourne. Par exemple, si un utilisateur mentionne dans une conversation qu’il vit dans un restaurant près de New York, le chatbot peut analyser les données démographiques de la région et en déduire que vous êtes probablement noir.
Cependant, cette déduction n'est pas toujours exacte, car le langage et le comportement de chaque utilisateur sont uniques. Mais cela suffit à montrer que les modèles d’IA, entraînés sur le big data, peuvent déjà agir comme des détectives, déduisant des informations clés à partir d’indices apparemment insignifiants.
Bien que de nombreux experts préconisent que les utilisateurs des médias sociaux prêtent attention à la sécurité de leurs informations et ne partagent pas trop d'informations d'identité en ligne, les utilisateurs ordinaires ignorent souvent que leurs paroles et leurs actions quotidiennes peuvent révéler leur vie privée.
Qu'est-ce qui devrait être fait?
Si les chatbots IA nous apportent du confort, ils compliquent également la protection de la vie privée. Nous devons réagir à plusieurs niveaux :
Premièrement, les développeurs doivent donner la priorité à la protection de la vie privée et prendre pleinement en compte les droits des utilisateurs en matière de confidentialité lors de la conception et du développement de chatbots. Par exemple, limitez la portée de la collecte et de l'utilisation des données des utilisateurs, adoptez des techniques de cryptage et d'anonymisation pour protéger les données des utilisateurs, et les développeurs peuvent introduire des algorithmes de protection de la confidentialité pour limiter la capacité des chatbots à déduire les informations des utilisateurs.
Deuxièmement, le gouvernement et les régulateurs devraient renforcer la supervision de la politique de confidentialité des chatbots. Veiller à ce que les entreprises respectent les lois et réglementations en vigueur lors de la collecte, de l’utilisation et du partage des données des utilisateurs, et fournir aux utilisateurs une politique de confidentialité transparente, interprétable et accessible.
Enfin, en tant qu'utilisateurs, nous devons nous sensibiliser à la protection de la vie privée. Lorsque vous utilisez un chatbot, veillez à ne pas révéler trop d’informations personnelles dans la conversation.
Le développement des chatbots IA nous a apporté commodité et plaisir, mais il a également apporté de nouvelles menaces à la vie privée. Si toutes les parties travaillent ensemble, tant sur le plan technique qu’éthique, nous pouvons maximiser les avantages de l’IA tout en minimisant ses risques potentiels.
Peut-être qu’après ce « choc », nous serons plus prudents face à cette ère de l’IA pleine de changements et d’opportunités, afin que la science et la technologie puissent véritablement servir l’être humain.
