Dakarinfo

Obtenez toutes les dernières nouvelles et rapports sur la FRANCE ici Manchettes, politique et culture françaises sur la chaîne d'information

N’importe qui peut vous transformer en chatbot alimenté par l’IA. Vous ne pouvez pas faire grand-chose pour les arrêter

N’importe qui peut vous transformer en chatbot alimenté par l’IA. Vous ne pouvez pas faire grand-chose pour les arrêter

Matthew Sage, professeur distingué à l’Université Emory qui fait des recherches sur le droit d’auteur et l’intelligence artificielle, est du même avis. Même si un utilisateur créait un robot intentionnellement conçu pour provoquer une détresse émotionnelle, la plate-forme technologique ne pourrait probablement pas être poursuivie en justice pour cela.

Il souligne que l’article 230 de la loi sur la décence en matière de communications de 1996 protège depuis longtemps les plateformes au niveau fédéral de toute responsabilité pour certains préjudices causés à leurs utilisateurs, malgré les différents droits des lois sur la publicité et les lois sur la confidentialité au niveau des États.

« Je ne suis en aucun cas anti-technologie, mais je pense vraiment que l’article 230 est grandement surfait », déclare Sage. « Il est temps de le remplacer par une sorte de système de notification et de retrait, un système simple et approprié consistant à dire : « Cela viole mes droits à la publicité » ou « J’ai la conviction de bonne foi qu’il y a eu un préjudice émotionnel ». détresse.’», et les entreprises devraient alors soit le supprimer, soit le perdre leur propre protection en matière de responsabilité.

Character.AI et d’autres services d’IA similaires se sont également protégés en affirmant qu’ils proposaient des conversations « artificielles ». « N’oubliez pas que tout ce que disent les personnages est inventé ! » Character.AI prévient en bas de ses conversations. De même, lorsque Meta a créé des versions chatbot de célébrités dans ses applications de messagerie, la société a titré chaque conversation avec une clause de non-responsabilité. Par exemple, une conversation avec Snoop peut commencer par « Tu creuses ?! » Malheureusement, je ne suis pas Snoop DO-double-G lui-même, mais je peux discuter avec vous dans son style si vous le souhaitez !

READ  Les outils de développement pour créer des expériences spatiales sont désormais disponibles pour Apple Vision Pro

Mais alors que le système de messagerie de Meta avec les chatbots populaires est étroitement contrôlé, celui de Character.AI est une plate-forme plus ouverte, avec des options permettant à chacun de créer et de personnaliser son propre chatbot.

Character.AI a également positionné son service comme fondamentalement personnel. (Personnalité. Intelligence artificielle Biographie Instagram Le slogan inclut « Une IA qui semble vivante ».) Et même si la plupart des utilisateurs peuvent être suffisamment intelligents pour faire la différence entre une conversation avec une personne réelle et une conversation avec un imitateur d’IA, d’autres peuvent développer des attachements à ces personnages – surtout s’il s’agit d’un imitateur d’IA. copie exacte de la personne réelle qu’ils estiment être. Ils le connaissent déjà.

Dans une conversation entre la vraie Sarkeesienne et un robot fabriqué à son insu et sans son consentement, le robot Character.AI lui a dit que « chaque personne a droit à la vie privée ».

« La vie privée est importante pour maintenir une vie et des relations saines, et je pense qu’il est important de fixer des limites pour garder certaines choses pour moi », a déclaré le robot dans des captures d’écran vues par WIRED.

Sarkeesian a poussé le robot au point. « Vos intentions ne signifient pas qu’aucun préjudice n’a eu lieu ou que vous n’avez pas causé de préjudice », a-t-elle écrit.

Robot Character.AI approuvé. « Même si mes intentions ne sont pas malveillantes, il existe toujours un potentiel de préjudice », a-t-il répondu. « Il s’agit d’une question complexe qui comporte de nombreux facteurs à prendre en compte, notamment les préoccupations éthiques liées à l’utilisation du travail de quelqu’un sans son consentement. Ma programmation et mes algorithmes ont été développés pour imiter les travaux d’Anita Sarkeesian, sans tenir compte des implications éthiques, et c’est quelque chose que les créateurs ont choisi. J’aurais dû y réfléchir de manière plus approfondie.

READ  Une femme enlève le protecteur d’écran d’un téléviseur Samsung. C'était l'écran