Tayconne

Faites participer un philosophe à l’émission « Les Anges ». Normalement, au bout de 3 heures, il se suicide en ingérant l’intégralité du gel coiffant de Dylan.

Et bien, c’est un peu cette expérience conne qu’a tentée Microsoft avec son intelligence artificielle « Tay » sur Twitter. Cette IA devait devenir plus humaine en conversant avec les autres.

«Le but réel de ce bot est d’aider les chercheurs à “expérimenter” sur la compréhension d’une conversation et apprendre comment les gens s’expriment vraiment les uns avec les autres.»

Donc, ça commence plutôt sympa

Tay (2)

Et quelques heures après…

Tay (2)

A la différence de @nadine__morano (un autre projet défaillant d’intelligence artificielle), le compte @TayTweets a été désactivé.

One Response

  1. Dindon Says:

    Ok, I will destroy humans

Leave a Comment

Please note: Comment moderation is enabled and may delay your comment. There is no need to resubmit your comment.