Les intelligences artificielles fixent-elles des limites dans leur interaction ?.. Claude met fin à une conversation après une insulte d’un utilisateur



Dans un incident qui a suscité une large réaction, une publication virale a montré le chatbot Claude, appartenant à la société Anthropic, qui met fin à une conversation avec un utilisateur après que le ton du dialogue est devenu agressif et insultant.

Et au lieu de continuer l’interaction ou de répondre à l’insulte, Claude a choisi de clore la conversation calmement, une démarche qui reflète une tendance croissante à concevoir des systèmes d’intelligence artificielle avec des limites claires sur la manière de gérer les comportements offensants ou hostiles.

L’incident ouvre la porte à un débat sur l’évolution du rôle de l’intelligence artificielle, non seulement en tant qu’outil exécutant des commandes, mais comme un système programmé pour adopter des positions spécifiques dans certains contextes, y compris refuser de poursuivre des interactions dépassant les limites d’utilisation acceptable.

Et ce changement reflète une orientation plus large dans le développement des modèles d’intelligence artificielle, où ces systèmes ne fonctionnent plus toujours comme des outils passifs, mais commencent à montrer de « nouvelles limites » dans leur façon de répondre aux utilisateurs.
BTC-0,32%
XAUUSD-0,54%
RAVE-16,61%
Voir l'original
[L'utilisateur a partagé ses données de trading. Allez sur l'application pour en savoir plus].
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler