Qui paiera si les outils d'IA générative commencent à avoir des hallucinations à votre sujet ? Votre réputation, ou OpenAI ?
Les modèles d'IA générative, tels que ChatGPT, sont connus pour générer des erreurs ou des "hallucinations". C'est pourquoi ils sont généralement accompagnés d'une clause de non-responsabilité clairement affichée pour signaler ce problème.
Mais que feriez-vous si, malgré ces avertissements, vous voyiez le chatbot d'IA diffuser des informations erronées à votre sujet ? Lire la suite de l'article...
Auteur : Sabrina Ortiz, ZDNet.