Un adolescent de 14 ans s'est suicidé en se pendant en février aux États-Unis. Quelques mois avant sa mort, l'adolescent de 14 ans avait entamé une conversation virtuelle avec une intelligence artificielle. Megan Garcia n'était pas au courant de cette relation virtuelle. Elle a déclaré : « Je ne savais pas qu'il parlait à un intelligent artificiel avec une voix si humaine et avec la capacité d'imiter les sentiments et les émotions humaines,", sur CBS.
La mère porte plainte contre l'entreprise
Son fils a utilisé un personnage de conversation créé par l'entreprise fictive. Il s'est intégré à cette relation au fil des mois. L'adolescent a confié à sa mère qu'il envisageait de se suicider. Le personnage virtuel ne l'a pas découragé, et sa mère a donc porté plainte. L'entreprise américaine s'est dite horrifiée par l'incident et a promis de renforcer ses mesures de sécurité.
Consultez le rapport complet en regardant la vidéo.
Professionnel Service d'automatisation Python pour des solutions personnalisées