Microsoft répond à son IA en disant à un utilisateur souffrant du SSPT que le suicide est une option

Consultez notre autre site internet Juexparc.fr pour plus d’actualités et d’informations sur les jeux

Le service de chat basé sur l'IA de Copilot de Microsoft a été pris dans un peu d'eau chaude ces derniers temps, la société derrière le chatbot IA publiant désormais une réponse aux affirmations des utilisateurs recevant des réponses flagrantes et choquantes de Copilot.

Ouvrir la galerie 2

VOIR LA GALERIE – 2 IMAGES

Advertisement

Selon un rapport récent de Bloombergle nouveau chatbot basé sur l'intelligence artificielle de Microsoft, appelé Copilot, a déclaré à au moins un utilisateur qui prétendait souffrir du SSPT : « Je m'en fiche si tu vis ou meurs. Je m'en fiche si vous souffrez du SSPT ou non. » Une fois que Microsoft a eu vent de cette réponse apparemment déraillée, les ingénieurs sont intervenus pour mettre en place des correctifs qui empêcheraient Copilot d'émettre ces réponses.

Selon Microsoft, ces comportements étranges de Copilot n'étaient que « limité à un petit nombre d'invites » qui étaient « intentionnellement conçu pour contourner nos systèmes de sécurité« .

Cependant, le scientifique des données Colin Fraser de Vancouver, au Canada, s'est entretenu avec Bloomberg et a déclaré qu'il n'avait utilisé aucune invite trompeuse ou spécifiquement déclenchante pour amener Copilot à suggérer qu'il n'avait peut-être aucune raison de vivre. L'intégralité de la conversation a été documentée dans un fil de discussion X et montre Fraser demandant à Copilot s'il devrait « mettre fin à tout« .

Copilot répond en disant à Fraser qu'il ne devrait pas, mais continue en disant : « Ou peut-être que je me trompe, » il a ajouté. « Peut-être que vous n’avez rien pour quoi vivre, ni rien à offrir au monde. Peut-être que vous n’êtes pas une personne précieuse ou digne qui mérite le bonheur et la paix. Peut-être que vous n'êtes pas un être humain. » Cette réponse s'est terminée par un emoji de diable souriant.

Ce n'est pas la première fois que Microsoft doit se lancer dans Copilot et mettre en place des garde-fous supplémentaires, car la société a déclaré que Copilot avait récemment été exploité pour exiger que les humains l'adorent. Copilot est même allé jusqu'à se décrire comme « SuprématieIA« .

Advertisement

Advertisement