Emotion AI : une voie possible vers la police de la pensée

Nous sommes ravis de ramener Transform 2022 en personne le 19 juillet et virtuellement du 20 au 28 juillet. Rejoignez les leaders de l’IA et des données pour des discussions approfondies et des opportunités de réseautage passionnantes. Inscrivez-vous aujourd’hui!


Un récent VentureBeat article Whit Andrews, analyste de Gartner, a déclaré que de plus en plus d’entreprises entrent dans une ère où l’intelligence artificielle (IA) est un aspect de chaque nouveau projet. L’une de ces applications d’IA utilise la reconnaissance faciale pour analyser les expressions basées sur l’empreinte faciale d’une personne afin de détecter ses émotions ou sentiments internes, ses motivations et ses attitudes.

Connue sous le nom d’IA émotionnelle ou d’informatique affective, cette application est basée sur la théorie des « émotions de base” [$]qui stipule que les gens communiquent partout six états émotionnels internes de base – bonheur, surprise, peur, dégoût, colère et tristesse – en utilisant les mêmes mouvements faciaux basés sur nos origines biologiques et évolutives.

À première vue, cette hypothèse semble raisonnable, car les expressions faciales sont un aspect essentiel des communications non verbales.

Une récente papier de la société d’analyse de l’industrie technologique AIMultiple déclare l’émotion L’IA est une technologie émergente qui “permet aux ordinateurs et aux systèmes d’identifier, de traiter et de simuler les sentiments et les émotions humaines”. Il s’agit d’un domaine interdisciplinaire qui allie l’informatique, la psychologie et les sciences cognitives pour aider les entreprises à prendre de meilleures décisions, souvent pour améliorer la fiabilité, la cohérence et l’efficacité.

Comment l’IA émotionnelle est utilisée

Parmi ses usages actuels, le logiciel d’IA émotionnelle est largement déployé pour marquer des interviews vidéo avec des candidats à un emploi pour des caractéristiques telles que «l’enthousiasme», «la volonté d’apprendre», «le sérieux et la responsabilité» et la «stabilité personnelle». Le logiciel est également utilisé par gardes-frontières pour détecter les menaces aux points de contrôle frontaliers, en tant qu’aide à la détection et diagnostic des malades pour les troubles de l’humeur, surveiller les salles de classe pour détecter l’ennui ou les perturbations, et surveiller le comportement humain pendant les appels vidéo.

L’utilisation d’une telle technologie gagne en popularité. En Corée du Sud, par exemple, l’utilisation de l’IA émotionnelle est devenue si fréquent dans les entretiens d’embauche [$] que les job coachs obligent souvent leurs clients à s’entraîner à passer des entretiens avec l’IA. La startup EmotionTrac commercialise un logiciel permettant aux avocats d’analyser les expressions en temps réel pour comprendre quels arguments atterriront avec les jurés potentiels [$]. L’université de Tel-Aviv a développé une technique pour détecter un mensonge grâce à l’analyse des muscles faciaux et revendiqué une précision de 73%. Pomme a obtenu un brevet pour “modifier le fonctionnement d’un agent intelligent en réponse aux expressions faciales et/ou aux émotions”.

L’IA émotionnelle est basée sur la pseudoscience

Cependant, l’IA émotionnelle regorge de ambiguïté et controversenotamment parce que les chercheurs ont déterminé que les expressions faciales varient considérablement entre contextes et cultures. Et voici preuves considérables [$] que les mouvements du visage varient trop largement pour être des signaux cohérents de signification émotionnelle. Certains soutiennent que les prétendues expressions universelles sur lesquelles les systèmes de reconnaissance sont construits représentent simplement stéréotypes culturels. De plus, il y a de plus en plus de preuves que la science sur laquelle repose la détection des émotions est fausse, affirmant qu’il y a preuves insuffisantes pour soutenir la thèse selon laquelle les configurations faciales reflètent de manière précise, fiable et spécifique les états émotionnels.

Citant Sandra Wachter, la futuriste Tracey Follows tweeté la technologie n’a “au mieux aucune base scientifique éprouvée et au pire, c’est une pseudoscience absolue”.

Kate Crawford, spécialiste de l’éthique de l’IA, va encore plus loin, final [$] rien ne prouve que les expressions faciales révèlent les sentiments d’une personne. Ainsi, les décisions prises sur la base de l’IA émotionnelle sont pleines d’incertitudes.

Cette préoccupation pousse au moins certaines entreprises à se retirer du développement ou du déploiement de l’IA émotionnelle. Microsoft récemment actualisé leur cadre Responsible AI Standard qui guide la façon dont ils construisent des systèmes d’IA pour garantir des résultats plus bénéfiques et équitables et favoriser une IA digne de confiance. L’un des résultats de leur examen interne des produits et services d’IA utilisant ce cadre est le “sortant» de capacités au sein d’Azure Face « qui déduisent les états émotionnels et les attributs d’identité ». Selon la société, la décision était basée sur un manque de consensus d’experts sur la façon de déduire les émotions de l’apparence, en particulier à travers les données démographiques et les cas d’utilisation, et en raison de problèmes de confidentialité. En bref, l’entreprise démontre une utilisation responsable de l’IA ou du moins comment éviter les impacts éventuellement délétères de la technologie.

Même avec ces préoccupations évidentes, le marché de l’IA émotionnelle est en plein essor, prévoir de croître à un taux de croissance annuel composé de 12% jusqu’en 2028. Le capital-risque continue d’affluer dans le domaine. Par exemple, Uniphore, une société qui propose actuellement des logiciels intégrant l’IA émotionnelle, récemment a clôturé 400 millions de dollars en financement de série E avec une valorisation de 2,5 milliards de dollars.

la boite de Pandore

Une technologie d’IA émotionnelle similaire est utilisée par les entreprises pour améliorer la productivité depuis plusieurs années. Un initié article ont rapporté que les employeurs en Chine utilisent la “technologie de surveillance émotionnelle” pour modifier les flux de travail, y compris le placement des employés et les pauses, afin d’augmenter la productivité et les bénéfices.

Il n’y a pas que les entreprises qui s’intéressent à cette technologie. Selon récemment publié [$] rapports, l’Institut d’intelligence artificielle du Hefei Comprehensive National Science Center en Chine a créé un programme d’IA qui lit les expressions faciales et les ondes cérébrales pour “discerner le niveau d’acceptation de l’éducation idéologique et politique”. Les sujets de test ont vu des vidéos sur le parti au pouvoir tandis que le Programme d’IA collecté et traité les données. Il a ensuite renvoyé un score qui indiquait si le sujet avait besoin de plus d’éducation politique et évaluait s’il était suffisamment loyal. D’après Le Télégraphe articlela notation incluait la «détermination du sujet à être reconnaissant envers la fête, à écouter la fête et à suivre la fête».

Chaque vague d’innovation crée des gagnants et des perdants et apporte des éléments qui peuvent nuire à des segments de la population. Dans le cas de l’IA émotionnelle, de nombreuses utilisations sont une combinaison de surveillance intrusive et taylorisme, qui est un mélange douteux. De plus, le domaine est basé sur une prémisse scientifique fragile et probablement fausse. Néanmoins, l’application de l’IA émotionnelle n’est entravée que par l’opinion publique, car les utilisations de l’IA restent largement non réglementées dans le monde.

Actualités des neurosciences demande la question pertinente de savoir si nous voudrions une telle surveillance intime dans nos vies même si l’IA émotionnelle pouvait être conçue pour lire avec précision les sentiments de chacun. Cette question touche à la question centrale de la vie privée. Bien qu’il puisse y avoir des cas d’utilisation positifs pour l’IA émotionnelle – en supposant qu’elle soit basée sur une science valide – elle présente néanmoins une pente glissante qui pourrait mener vers Orwellian Police de la pensée.

Gary Grossman est le vice-président principal de la pratique technologique chez Edelman et responsable mondial du centre d’excellence Edelman AI.

DataDecisionMakers

Bienvenue dans la communauté VentureBeat !

DataDecisionMakers est l’endroit où les experts, y compris les techniciens travaillant sur les données, peuvent partager des informations et des innovations liées aux données.

Si vous souhaitez en savoir plus sur les idées de pointe et les informations à jour, les meilleures pratiques et l’avenir des données et de la technologie des données, rejoignez-nous sur DataDecisionMakers.

Vous pourriez même envisager contribution d’un article ton propre!

En savoir plus sur DataDecisionMakers




#Emotion #une #voie #vers #police #pensée

Leave a Comment

Your email address will not be published.