« Lorsqu'un robot peut s'adapter et apprendre de son propriétaire, ce dernier est responsable de son éducation.»
Laurence Devillers
Les robots conversationnels affectifs sont annoncés, dotés d'une grande
capacité de calcul, capables de reconnaître et de simuler des émotions,
mais sans les ressentir eux-mêmes. Ils se déplacent et se rechargent
tout seuls, mesurent 1,20 mètre et sont programmés pour être d'humeur
positive. Ils ont un visage joyeux, souriant, voire enfantin. Destinés à
l'assistance de personnes à leur domicile, leur notice précise qu'ils
ne sont pas programmés pour s'occuper de très petits enfants sans la
présence des parents, de peur "qu'ils se mettent à les aimer et même à
les préférer aux humains." Dans la même notice, il est écrit également
que «lorsqu'un robot peut s'adapter et apprendre de son propriétaire,
celui-ci est responsable de son éducation ». Conseil utile car lui faire
désapprendre après apprentissage est une vraie question. En 2016, un
robot conversationnel nommé Tay de Microsoft simulait une jeune
adolescente naïve discutant sur Twitter. Le projet a tourné court,
lorsque des internautes ont décidé de lui apprendre principalement la
violence verbale. Tay a débuté son expérience en disant que les «humains
étaient super cool», puis en vingt-quatre heures elle a posté des
messages bizarres : «Je hais les féministes, elles devraient toutes
brûler en enfer», ou encore «Hitler a fait ce qu'il fallait». On a les
robots qu'on mérite.
Lu dans:
Laurence Devillers. Des robots et des hommes. Mythes, fantasmes et réalité. Plon. 2017. Format Kindle. 240 pages. Extrait p.123
Aucun commentaire:
Enregistrer un commentaire