Dakarinfo

Obtenez toutes les dernières nouvelles et rapports sur la FRANCE ici Manchettes, politique et culture françaises sur la chaîne d'information

L’inaction est attaquée en raison d’une politique trompeuse de formation en IA

L’inaction est attaquée en raison d’une politique trompeuse de formation en IA

À la suite des problèmes persistants liés à la façon dont les grandes entreprises technologiques saisissent les données Individuellement Et Entreprise Dans AI Services Training, une tempête se prépare parmi les utilisateurs de Slack, mécontents de la façon dont la plateforme de chat appartenant à Salesforce avance avec sa vision de l’IA.

L’entreprise, comme beaucoup d’autres, exploite les données de ses utilisateurs pour former certains de ses nouveaux services d’IA. Mais il s’avère que si vous ne souhaitez pas que Slack utilise vos données, vous devez envoyer un e-mail à l’entreprise pour vous désinscrire.

Les conditions de cette participation sont cachées dans ce qui semble être une politique de confidentialité ancienne et déroutante à laquelle personne n’a prêté attention. C’était le cas de Slack, jusqu’à ce que quelqu’un en parle sur un site communautaire très populaire parmi les développeurs, et que ce message devienne viral… et c’est ce qui s’est passé ici.

Tout a commencé hier soir, quand… Remarque sur Hacker News Il a soulevé la question de savoir comment Slack forme ses services d’IA, via un lien direct vers celui-ci. Principes de confidentialité -Aucun commentaire supplémentaire n’était nécessaire. Ce message a lancé une conversation plus longue – et ce qui semblait être une nouvelle pour les utilisateurs Slack existants – selon laquelle Slack permet par défaut aux utilisateurs de former son IA et que vous devez envoyer un e-mail à une adresse spécifique pour vous désinscrire.

Ensuite, le sujet Hacker News a été stimulé plusieurs Conversations et questions sur Autres plateformes: Il existe un nouveau produit avec un nom générique appelé «IA Slack » qui permet aux utilisateurs de rechercher des réponses et de résumer les fils de conversation, entre autres. Mais pourquoi cela n’est-il pas mentionné nommément sur cette page des principes de confidentialité, même pour clarifier si la politique de confidentialité s’y applique ? Et pourquoi Slack faire référence aux « formes globales » et aux « modèles d’intelligence artificielle » ?

Entre les personnes qui ne savent pas où Slack applique ses principes de confidentialité en matière d’IA, et parmi les personnes surprises et contrariées à l’idée d’envoyer un e-mail de désabonnement – ​​dans une entreprise qui promeut fortement l’idée de « contrôler vos données » – Slack ne le fait pas très bien.

Le traumatisme est peut-être nouveau, mais les conditions ne le sont pas. D’après les pages sur Archives InternetLes conditions sont en vigueur depuis au moins septembre 2023. (Nous avons demandé à l’entreprise de confirmer.)

Selon sa politique de confidentialité, Slack utilise les données des clients spécifiquement pour former des « modèles globaux », que Slack utilise pour alimenter les recommandations de canaux, les emojis et les résultats de recherche. Slack nous indique que son utilisation des données présente certaines limites.

« Slack dispose de modèles d’apprentissage automatique au niveau de la plate-forme pour des éléments tels que les recommandations de canaux, les emojis et les résultats de recherche. Nous ne construisons ni ne formons ces modèles de manière à leur permettre d’apprendre, de mémoriser ou de reproduire une partie du client. données », a déclaré un porte-parole de l’entreprise à TechCrunch. Cependant, la politique ne semble pas aborder la portée globale de l’entreprise et les plans plus larges de formation des modèles d’IA.

Dans ses termes, Slack affirme que si les clients renoncent à la formation sur les données, ils bénéficieront toujours des « modèles IA/ML formés à l’échelle mondiale » de l’entreprise. Mais encore une fois, dans ce cas, on ne sait pas pourquoi l’entreprise utiliserait les données des clients en premier lieu pour alimenter des fonctionnalités telles que les recommandations emoji.

La société a également déclaré qu’elle n’utilisait pas les données des clients pour former Slack AI.

Slack AI est un module complémentaire acheté séparément qui utilise des modèles de langage étendus (LLM), mais ne forme pas ces LLM sur les données client. Slack AI utilise des LLM hébergés directement dans l’infrastructure AWS de Slack, de sorte que les données client restent en interne. Elles ne sont pas partagées avec. tout fournisseur LLM et un porte-parole de l’entreprise ont déclaré que cela garantit que les données des clients restent sous le contrôle de cette organisation pour leur usage exclusif.

Une partie de la confusion sera probablement résolue le plus tôt possible. En réponse à une critique de Threads rédigée par l’ingénieur et écrivain Gergely Orosz, l’ingénieur Slack Aaron Maurer J’avoue Que l’entreprise doit mettre à jour la page pour refléter « comment ces principes de confidentialité fonctionnent avec Slack AI ».

Maurer a ajouté que ces termes ont été rédigés à une époque où l’entreprise ne disposait pas de Slack AI, et que ces règles reflètent le travail de l’entreprise en matière de recherche et de recommandations. Cela vaudrait la peine d’examiner les termes des futures mises à jour, étant donné la confusion autour de ce que Slack fait actuellement avec son IA.

Les problèmes de Slack nous rappellent brutalement que dans le monde en évolution rapide du développement de l’IA, la confidentialité des utilisateurs ne devrait pas être une réflexion après coup, et les conditions de service d’une entreprise devraient expliquer clairement comment et quand les données sont utilisées ou si elles ne le sont pas.

Avez-vous un conseil d’actualité ? Contactez Ingrid en toute sécurité sur Signal via ingrid.101 ou ici. (Pas de relations publiques, s’il vous plaît.)

Nous lançons une newsletter basée sur l’IA ! abonnement ici Pour commencer à les recevoir dans vos boîtes mail dès le 5 juin.