Apple prend les devants sur les deepnudes et applique un grand ménage. Depuis ce 2 mai , les applications qui permettent de déshabiller n’importe qui avec l’intelligence artificielle disparaissent les unes après les autres sur tous les produits Apple. Apple a renforcé ses politiques de sécurité et de confidentialité, mettant en place des mécanismes de détection avancés pour repérer les applications suspectes.
Les problèmes que causes les applications de deepnudesLes deepnudes posnte un gros problème d’éthique, le but est pourtant très simple. Lorsqu’une photo d’un personne est déposée sur l’application, l’intelligence artificielle va déduire elle même ce qu’il se cache sous ses vêtements. Ce qui entraine des problèmes pour la société et surtout pour les plus jeunes d’entre nous qui peuvent avoir accès à ce type d’application.
Plus l’IA s’améliore, plus il y a de nombres de deepnudes à travers le monde. Selon une étude du cabinet Graphica, sur un mois de l’année dernière, près de 20 millions d’utilisateurs sont recensés sur les applications concernées. Et bien souvent, c’est uniquement dans le but de nuire à la personne visée. Les conséquences qui suivent les deepnudes, c’est le vrai danger ! Certaines personnes malveillantes s’en servent comme moyen de pression comme le précise Anthony Morel sur sa chronique « Culture IA » sur BFM TV : » On peut s’en servir pour faire du revenge porn. Si t’es pas gentil, j’invente un nu de toi-même que je diffuse sur les réseaux sociaux« .
Des applications de deepnudes...Lire la suite sur UnionCet article Apple : le grand ménage des deepnudes est apparu en premier sur Union.