Points clés à retenir
- L’IA manque de sensibilité et se contente d’imiter la compréhension humaine, en s’appuyant sur des ensembles de données pour sa formation.
- Les développeurs ont besoin des données des utilisateurs pour améliorer l’IA, mais garantir la confidentialité et la confiance est essentiel.
- Les utilisateurs doivent suivre les règles de sécurité Internet standard lorsqu’ils interagissent avec l’IA afin de protéger les informations personnelles.
Alors que l'intelligence artificielle se généralise et que les préoccupations concernant la protection des données des utilisateurs augmentent, il est important de comprendre pourquoi cela diffère des anciennes préoccupations en matière de sécurité Internet des 20 dernières années. Étonnamment, la solution pourrait être d'utiliser les mêmes anciennes règles de sécurité Internet que nous avons toujours utilisées.
Quelles données personnelles ?
Nous partons du principe que les technologies de sécurité sont désormais suffisamment développées pour que les développeurs d’IA protègent nos informations personnelles telles que nos noms, nos e-mails et nos informations de paiement. Cependant, de plus en plus d’entreprises dotées d’au moins quelques fonctionnalités d’IA génératrice ajoutent l’utilisation gratuite d’invites utilisateur et de réponses d’IA à leurs conditions générales.
Cela signifie qu'un humain peut examiner ces données. Si vous utilisez ChatGPT pour planifier des vacances, cela ne pose peut-être pas de problème. Si vous demandez à GPT de déboguer du code propriétaire ou de modifier des contrats confidentiels sur Adobe, cela peut poser problème.
Comment l'IA générative est-elle formée
En tant que formateur en IA, des centaines d’autres formateurs et moi-même avons rédigé des messages d’IA et les réponses correspondantes pour contribuer à un ensemble de données massif qui apprendrait aux LLM à répondre. La plupart des IA sont formées avec des ensembles de données comme ceux sur lesquels je travaille, et elles contribuent au modèle différemment des algorithmes de traitement du langage naturel qui forment le cadre de la plupart des modèles d’IA génératifs. La manière dont les ensembles de données sont créés est exclusive, car les ensembles de données sont un autre moyen de rendre un modèle d’IA unique.
Pourquoi les développeurs ont besoin des données des utilisateurs
Bien que l’IA existe sous une forme ou une autre depuis 1955, la technologie actuelle est nouvelle. Les entreprises tentent de monétiser cette nouvelle technologie en commandant une nouvelle IA ou une IA personnalisée pour leurs logiciels. Il existe peu ou pas de données sur la façon dont les gens ordinaires utilisent l’IA, en particulier lorsque de nombreuses personnes ordinaires ne l’utilisent pas du tout. Comment l’IA peut-elle améliorer les programmes et les applications informatiques ? Comment peut-elle rendre les choses plus faciles ? L’une des plaintes courantes concernant l’IA est qu’elle est intégrée dans des applications ou des sites Web quotidiens où elle n’est ni souhaitée ni nécessaire. Cela peut entraîner une confusion ou une baisse d’efficacité pour les utilisateurs de ces applications et sites. Le vieil adage « Si ce n’est pas cassé, ne le répare pas » me vient à l’esprit !
Les développeurs et leurs clients peuvent résoudre ce problème en faisant appel à des humains pour lire les messages de l’utilisateur final, classer la manière dont l’IA a été utilisée et évaluer les performances de l’IA. Les développeurs, les experts en marketing et les spécialistes des sciences sociales doivent savoir comment nous utilisons l’IA, car cela leur permettra de savoir comment l’IA peut aider les gens au lieu de les irriter. La seule solution consiste à étudier les messages de l’utilisateur final, c’est-à-dire les informations que vous avez fournies au service d’IA lors de son utilisation. La bonne nouvelle est que la plupart des applications d’IA vous permettent de refuser la collecte de données. Elles ont besoin des données des utilisateurs, et la qualité est importante, mais la plupart du temps, les données d’un utilisateur sont tout aussi utiles que celles d’un autre.
Comment les développeurs peuvent protéger notre vie privée
La plupart des développeurs affirment que pour améliorer l’IA tout en protégeant la confidentialité des utilisateurs, les invites sont toujours séparées des comptes qui les ont écrites. Si c’est vrai, il n’y aurait aucun moyen pour les humains d’évaluer les données pour lier l’invite à une personne spécifique. Jusqu’à présent, aucune grande entreprise d’IA n’a annoncé une quelconque faille de sécurité concernant les données des utilisateurs, mais le potentiel est là. Malheureusement, à moins qu’une entreprise ne soit piratée, nous ne saurons pas dans quelle mesure elle protège nos données. Une autre option couramment disponible sur les applications d’IA comme Google Gemini, Facebook/Instagram et même Adobe permet aux utilisateurs de choisir de ne pas partager leurs données. Là encore, cela nécessite que l’utilisateur final ait confiance que le développeur n’utilisera pas les données de toute façon. Comme nous n’avons aucun moyen de savoir dans quelle mesure nos données sont sécurisées auprès de ces entreprises, nous devons faire ce que nous pouvons pour agir de manière responsable avec nos données.
Comment pouvons-nous nous protéger ?
D'une certaine manière, les invites de l'utilisateur final sont nos commentaires au développeur sur l'IA. Toute IA que personne n'utilise se révélera inutile avec ce type de données. Cependant, tant qu'un certain niveau de confiance n'a pas été établi, il est préférable de suivre les règles de sécurité Internet standard lors de la rédaction des invites. Ne saisissez aucune information personnelle dans une IA, comme votre nom, votre adresse ou vos numéros d'identification. Partez du principe que tout ce que vous saisissez dans ChatGPT, chatbot ou générateur d'images sera sur Internet ouvert pour toujours. Tant que les développeurs n'auront pas gagné notre confiance, la pratique devrait être de gérer nos données nous-mêmes autant que possible.
Vous pouvez lire l’article original (en Angais) sur le {site|blog}www.howtogeek.com