Sur le même sujet

A lire aussi

Les lois de la robotique d’Asimov : quels enjeux aujourd’hui ?

La débâcle récente d’une intelligence artificielle invite à réfléchir à la programmation des machines. Comment leur inculquer, outre une capacité à répondre automatiquement, celle de raisonner selon des principes moraux ?

En mars 2016, Microsoft mit sur le marché un dialogueur ou agent conversationnel, en anglais un « chatbot » : un logiciel capable de s’entretenir « intelligemment » avec ses utilisateurs. Son nom était Tay, pour thinking about you : « Je pense à vous. » Tay était en fait la réédition d’un projet lancé par le même géant de l’informatique en Chine sous le nom de Xiaoice. Le logiciel était considéré là-bas comme une réussite, ayant tenu plus de 40 millions de conversations avec ses usagers.Au bout de seulement seize heur...

La lecture des articles est réservée à la souscription d‘un abonnement spécifique
La lecture de cet article est soumise à la souscription d'un abonnement. Si vous possédez un abonnement, merci de vous connecter ci-dessous. Si vous souhaitez vous abonner, nous vous remercions d'utiliser un ordinateur plutôt qu'un téléphone ou une tablette

Vous êtes abonné(e)

Identifiez vous

Pas encore abonné(e) ?

Abonnez vous

Choisissez votre formule d'abonnement et accédez à La Quinzaine

Vous aimerez aussi