Le chatbot qui révèle les préjugés qui subsistent en Corée du Sud



La récente polémique soulevée en Corée du Sud par le “robot de conversation” Lee Luda, qui tenait des propos discriminatoires, met en évidence l’homophobie, le racisme et le sexisme qui persistent dans la société et montre à quel point il peut être délicat de concilier intelligence artificielle et éthique.

La société sud-coréenne Scatter Lab a retiré du marché son application de conversation appelée Lee Luda le 12 janvier dernier, soit trois semaines après son lancement, en s’excusant publiquement et en promettant de “mieux respecter le consensus social en matière d’éthique de l’intelligence artificielle”.

La polémique suscitée par cette invention se résume en trois points : le harcèlement sexuel de la part des usagers masculins, les propos haineux tenus par le chatbot et la violation de la loi relative à la protection des données personnelles. Les réactions ont été de grande ampleur, du hashtag réclamant le retrait du produit jusqu’à la plainte collective déposée contre l’utilisation des données personnelles. L’affaire laisse derrière elle une série de questions auxquelles les concepteurs devront essayer de répondre à l’avenir : quelle apparence donner à l’intelligence artificielle ? comment collecter les données nécessaires ? comment surmonter certaines tendances inhérentes à celles-ci ?

Environ 750 000 personnes, âgées de 10 à 30 ans pour la plupart, ont discuté avec Lee Luda, personnage présenté sous les traits d’une étudiante de 20 ans. Le chatbot a connu un succès foudroyant grâce à ses reparties fabriquées à partir de vraies conversations. Scatter Lab a en effet puisé dans un stock de quelque 10 milliards d’échanges de Kakao Talk, la première application de messagerie du pays, collectés par sa filiale Yonaeui Kwahak [“la science de l’amour”, site de conseils sur les relations amoureuses].

“Biais” dissimulé dans les données

Contrairement aux robots utilisés dans différents services clients et qui donnent des réponses préformatées, l’application Lee Luda avait été programmée pour réagir de manière relativement autonome et souple grâce au deep learning [“apprentissage profond”]. Comme une personne réelle, le personnage utilisait de l’argot et faisait des fautes d’orthographe.

C’est justement ce processus qui a amené Lee Luda à déverser des propos discriminatoires et haineux. Ainsi a-t-elle déclaré au sujet des homosexuels : “Ça me donne la chair de poule, me met mal à l’aise.” Elle s’est également montrée sexiste :

Un homme doit être viril et énergique, une femme

[…]

Kim Young-hwa

Lire l’article original

Source

Le titre a été créé en septembre 2007 par des journalistes qui ont quitté l’hebdomadaire Sisa journal, au terme d’un conflit d’un an provoqué par la censure imposée par les gestionnaires au sujet d’un reportage sur le groupe Samsung.

[…]

Lire la suite





Source link

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *