Les limites ont été fixées à l’origine après que plusieurs utilisateurs ont signalé que le bot agissait étrangement pendant les conversations. Dans certains cas, il peut se tourner vers s’identifier comme « Sydney ». Elle a répondu aux questions accusatrices en portant elle-même des accusations, au point de devenir hostile et de refuser de dialoguer avec les utilisateurs. Lors d’une conversation avec un journaliste du Washington Post, le bot a déclaré qu’il pouvait « sentir et penser » et réagir avec colère lorsqu’on lui disait que la conversation était publiable.
Le porte-parole de Microsoft, Frank Shaw, a refusé de commenter au-delà d’un article de blog mardi.
Microsoft essaie de faire la distinction entre pousser ses outils dans le monde réel pour créer un battage marketing et obtenir des tests gratuits et des commentaires des utilisateurs, et limiter ce qu’un bot peut faire et qui y a accès afin de rester potentiellement embarrassant ou dangereux technologie hors de vue du public. La société a d’abord reçu des applaudissements de Wall Street pour avoir lancé son chatbot devant son rival Google, qui était jusqu’à récemment considéré comme un leader des technologies d’intelligence artificielle. Les deux sociétés sont dans une course l’une contre l’autre et avec de plus petites entreprises pour développer et montrer la technologie.
Le chat Bing n’est toujours disponible que pour un nombre limité de personnes, mais Microsoft est occupé à approuver davantage une file d’attente qui se chiffre en millions, selon un tweet d’un dirigeant de l’entreprise. Bien que son événement de lancement du 7 février ait été décrit comme une mise à jour majeure du produit qui allait révolutionner la façon dont les gens recherchent en ligne, la société a depuis défini la version de Bing comme une question de test et de recherche de bogues.
Des robots comme Bing ont été formés sur des rames de texte brut extraites d’Internet, y compris tout, des commentaires sur les réseaux sociaux aux articles universitaires. Sur la base de toutes ces informations, ils peuvent prédire le type de réponse le plus raisonnable à presque toutes les questions, ce qui leur donne une apparence étrangement humaine. Les chercheurs en éthique de l’IA ont averti dans le passé que des algorithmes puissants se comporteraient de cette façon et que sans contexte approprié, les gens pourraient penser qu’ils sont sains d’esprit ou donner à leurs réponses plus de crédit qu’elles ne valent.
« Évangéliste des médias sociaux. Baconaholic. Lecteur dévoué. Chercheur de Twitter. Pionnier avide du café. »
More Stories
Apple annonce l’expansion de Vision Pro dans deux pays supplémentaires
Nintendo lance une application musicale avec des thèmes de Mario et Zelda et, plus important encore, une chaîne Wii Shop
C’est le journal que personne n’a lu avant d’annoncer la disparition de la cryptographie moderne.