L'IA doit apprendre les valeurs sociales pour ne pas avoir de problèmes

Selon deux chercheurs, les professionnels travaillant à la création et au développement de l'intelligence artificielle doivent «enseigner» leurs machines aux valeurs sociales et humaines si nous ne voulons pas avoir de problèmes à l'avenir. Selon des scientifiques - Mona Sloane et Emanuel Moss de l'Université de New York et de l'Université de New York, respectivement - il existe déjà des preuves que l'IA peut perpétuer la discrimination, intensifier les inégalités et même causer des torts à cet égard. Par conséquent, les développeurs doivent veiller à ce que leurs créations, au lieu de leur nuire, servent la société au mieux de leurs capacités.

Technologie sociale

Les chercheurs soutiennent que nous sommes confrontés à l'émergence d'un système «technosocial» complexe et que, pour le rendre plus juste, plus démocratique et plus équilibré, les ingénieurs et les programmeurs doivent inclure le plus large éventail de notions sociales dans leurs IA afin de réduire le risque de perte. nuire à notre société.

(Source: EFFRA / Reproduction)

Les deux hommes ont mentionné que des études avaient montré que les moteurs de recherche pouvaient discriminer les femmes noires et, comme vous le savez peut-être, on s'inquiète beaucoup de la manière dont les voitures autonomes prendront des décisions en cas de collision, où elles devront choisir entre écraser un homme ou frapper une voiture. sur un poteau, par exemple. Pour éviter de tels dilemmes et parvenir à un développement technologique qui profite à l'humanité dans son ensemble, il faut apprendre aux machines à devenir également plus socialement intelligentes.

Les chercheurs savent qu'il existe déjà des professionnels soucieux d'intégrer les idées sociales dans leurs machines afin qu'elles agissent davantage en conformité avec les valeurs humaines, bien qu'il soit extrêmement difficile de définir et de coder ces informations sur une machine - sans mentionner le fait que les ingénieurs et les programmeurs ne le sont généralement pas. formés à comprendre comment différentes catégories raciales et sociales de l’apprentissage automatique peuvent avoir un impact sur les organisations et la société elle-même.

Ainsi, le couple suggère que des méthodes qualitatives de recherche sociale devraient être adoptées dans la création et le développement d'IA, car elles impliquent généralement que les professionnels réfléchissent à l'impact de leurs interventions sur l'univers dans lequel les observations sont effectuées. En outre, la recherche qualitative peut aider les programmeurs et les ingénieurs à mieux comprendre le contexte socioculturel et historique des différentes catégories qui composent notre société et la manière dont l’IA devrait s’intégrer dans ce contexte.

L'IA doit en apprendre davantage sur les valeurs sociales pour ne pas avoir de problèmes avec TecMundo