Actualité

Apple et Google épinglés pour leurs apps de nudité par IA

Malgré leurs politiques strictes, les app stores d'Apple et Google dirigent activement les utilisateurs vers des applications de déshabillage par intelligence artificielle.

Sophie Bernard 1 min de lecture
Apple et Google épinglés pour leurs apps de nudité par IA

Voilà qui va faire du bruit dans le petit monde des app stores. Un rapport accablant vient de révéler qu'Apple et Google dirigent activement leurs utilisateurs vers des applications de déshabillage par intelligence artificielle, et ce malgré leurs politiques officielles bannissant ce type de contenu explicite.

Des suggestions automatiques problématiques

Le plus gênant dans cette histoire ? Ces apps de "nudify" apparaissent directement dans les suggestions de recherche automatique des deux géants. Imaginez taper quelques lettres dans l'App Store ou le Google Play Store et voir ce genre d'applications vous être proposées comme si de rien n'était.

Mais ça ne s'arrête pas là. Ces mêmes applications bénéficient aussi de publicités sponsorisées, ce qui signifie qu'Apple et Google touchent directement de l'argent sur leur promotion. Vous trouvez ça cohérent avec leurs règles anti-contenu explicite ?

Classification jeunesse : l'aberration totale

Et là, on atteint le sommet de l'absurdité. Certaines de ces applications étaient classées comme adaptées aux enfants ! Comment peut-on expliquer qu'une app capable de déshabiller virtuellement des personnes se retrouve avec une classification "tout public" ou "famille" ?

Lire aussi : Google prépare un dos lumineux pour ses futurs Pixel

Cette classification pose de vraies questions sur les processus de modération des deux plateformes. Soit les équipes de validation ne font pas leur travail correctement, soit les algorithmes de classification automatique ont de gros dysfonctionnements (personnellement, je penche pour un mélange des deux).

Politique officielle vs pratique réelle

Bon, rappelons les faits. Aussi bien Apple que Google ont des règles claires interdisant les contenus explicites ou à caractère sexuel dans leurs boutiques d'applications. Ces politiques existent noir sur blanc dans leurs conditions d'utilisation.

Alors comment expliquer ce fossé entre la théorie et la pratique ? Les deux entreprises vont probablement invoquer des "erreurs de modération" ou des "failles dans leurs systèmes automatisés". Pratique quand on brasse des millions d'applications quotidiennement.

Lire aussi : Apple a menacé Grok en secret : la lettre qui dit tout

L'intelligence artificielle, nouvelle zone grise

Cette affaire met en lumière un problème plus large : comment réguler les applications utilisant l'IA générative ? Ces outils de "nudify" exploitent des technologies d'intelligence artificielle pour créer de fausses images de nudité à partir de photos normales.

Le problème, c'est que ces technologies évoluent plus vite que les réglementations. Les app stores se retrouvent donc à jouer au chat et à la souris avec des développeurs qui contournent les règles en utilisant des descriptions floues ou en masquant les vraies fonctionnalités de leurs apps.

Et pendant ce temps, Apple et Google continuent d'encaisser leur commission sur chaque téléchargement et achat intégré. Difficile de croire à une simple négligence quand l'argent coule à flots, non ?

Lire aussi : Google étend enfin Gemini aux utilisateurs gratuits

Cette histoire soulève aussi des questions sur la responsabilité des plateformes face aux contenus qu'elles hébergent. Peut-on encore longtemps se cacher derrière l'argument du "simple intermédiaire technique" quand on influence activement les choix des utilisateurs via les suggestions et la publicité ?

Articles similaires