Une hallucination de ChatGPT vaut à OpenAI des poursuites judiciaires. Voici ce qui s'est passé

Qui paiera si les outils d'IA générative commencent à avoir des hallucinations à votre sujet ? Votre réputation, ou OpenAI ?

Les modèles d'IA générative, tels que ChatGPT, sont connus pour générer des erreurs ou des "hallucinations". C'est pourquoi ils sont généralement accompagnés d'une clause de non-responsabilité clairement affichée pour signaler ce problème.

Mais que feriez-vous si, malgré ces avertissements, vous voyiez le chatbot d'IA diffuser des informations erronées à votre sujet ? Lire la suite de l'article...

Les derniers produits des risques professionnels