L’éthique de l’IA dans le monde réel : la FTC montre la voie vers la justice économique

ai-ethics-shutterstock-1423229633.jpg

La prolifération de l’intelligence artificielle et de la prise de décision algorithmique a contribué à façonner une myriade d’aspects de notre société : de la reconnaissance faciale à la fausse technologie en passant par la justice pénale et les soins de santé, leurs applications sont apparemment infinies. Dans ces contextes, l’histoire de la prise de décision algorithmique appliquée est à la fois prometteuse et périlleuse. Compte tenu de la nouveauté, de l’échelle et de l’opacité impliquées dans de nombreuses applications de ces technologies, les enjeux sont souvent incroyablement élevés.

Voici l’introduction du livre blanc de la commissaire de la FTC, Rebecca Kelly Slaughter : Algorithmes et justice économique : une taxonomie des méfaits et une voie à suivre pour la Federal Trade Commission. Si vous avez suivi la prise de décision basée sur les données et algorithmique, l’analyse, l’apprentissage automatique, l’IA et leurs applications, vous pouvez dire que c’est parfait. Le Livre blanc de 63 pages ne déçoit pas.

Slaughter a travaillé sur le livre blanc avec ses collègues de la FTC Janice Kopec et Mohamad Batal. Leur travail a été soutenu par Inchangé, et il vient d’être publié dans le cadre de la Série de livres blancs sur le projet de société de l’information de la faculté de droit de Yale. La série de livres blancs sur l’avenir numérique, lancée en 2020, est un lieu pour les principaux penseurs mondiaux de remettre en question l’impact des technologies numériques sur le droit et la société.

La série vise à fournir aux universitaires, aux chercheurs et aux praticiens un forum pour décrire les nouveaux défis des données et de la réglementation, pour confronter les hypothèses fondamentales sur le droit et la technologie, et pour proposer de nouvelles façons d’aligner les cadres juridiques et éthiques sur les problèmes du monde numérique.

Slaughter note qu’au cours des dernières années, la prise de décision algorithmique a produit des résultats biaisés, discriminatoires et autrement problématiques dans certains des domaines les plus importants de l’économie américaine. Son travail fournit une taxonomie de base des préjudices algorithmiques qui laissent présager une injustice, décrivant à la fois les préjudices eux-mêmes et les mécanismes techniques à l’origine de ces préjudices.

En outre, il décrit le point de vue de Slaughter sur la façon dont les outils existants de la FTC peuvent et doivent être appliqués de manière agressive pour contrecarrer l’injustice, et explore comment une nouvelle législation ou une réglementation de la FTC pourraient aider à remédier structurellement aux dommages générés par la prise de décision algorithmique.

Entrées défectueuses, conclusions erronées, échec des tests adéquats

Slaughter identifie trois façons dont les défauts de conception d’algorithmes peuvent produire des résultats préjudiciables : des entrées erronées, des conclusions erronées et l’échec des tests adéquats.

La valeur d’un algorithme d’apprentissage automatique est intrinsèquement liée à la qualité des données utilisées pour le développer, et des entrées erronées peuvent produire des résultats très problématiques. Ce concept large est capturé dans l’expression familière : “Les ordures dedans, les ordures dehors.”

Les données utilisées pour développer un algorithme d’apprentissage automatique peuvent être faussées parce que les points de données individuels reflètent des biais humains problématiques ou parce que l’ensemble de données global n’est pas suffisamment représentatif. Les données de formation souvent faussées reflètent des modèles historiques et durables de préjugés ou d’inégalités, et lorsqu’ils le font, ces des entrées défectueuses peuvent créer des algorithmes biaisés qui exacerbent l’injustice, Notes d’abattage.

Elle cite quelques exemples très médiatisés d’entrées défectueuses, telles que La tentative infructueuse d’Amazon de développer un algorithme d’embauche basé sur l’apprentissage automatique, et le Baccalauréat International et Examens du A-Level au Royaume-Uni. Dans tous ces cas, les algorithmes introduits pour automatiser les décisions ont continué à identifier des modèles de biais dans les données utilisées pour les former et ont tenté de les reproduire.

Un autre type de problème implique l’introduction de données dans des algorithmes qui génèrent des conclusions inexactes ou trompeuses – peut-être mieux exprimées par « entrée de données, sortie de déchets ». Ce type de faille, de conclusions erronées, sous-tend les craintes concernant le domaine en prolifération rapide de la technologie de « reconnaissance des effets » pilotée par l’IA et est souvent alimenté par des échecs dans la conception expérimentale.

mlblackbox.jpg

L’apprentissage automatique fonctionne souvent comme une boîte noire, et comme les applications deviennent plus percutantes, cela peut être problématique. Image : Immuta

L’abattage décrit des situations dans lesquelles les algorithmes tentent de trouver des modèles et de tirer des conclusions sur la base de certains types de présentations physiques et de maniérismes. Mais, note-t-elle, comme on pouvait s’y attendre, le caractère humain ne peut être réduit à un ensemble de facteurs objectifs et observables. Slaughter souligne que l’utilisation de la technologie de reconnaissance des affects lors de l’embauche est particulièrement problématique.

Certains plus que d’autres, comme une entreprise qui prétend profiler plus de soixante traits de personnalité pertinents pour la performance au travail – de ” débrouillard ” à ” aventureux ” à ” cultivé ” – tous basés sur l’analyse d’un algorithme des 30 ans d’un candidat. deuxième lettre de motivation vidéo enregistrée.

Malgré le vernis d’objectivité qui vient de l’utilisation de termes tels que « IA » et « apprentissage automatique », dans de nombreux contextes, la technologie est encore profondément imparfaite, et beaucoup soutiennent que son utilisation n’est rien de moins que de la pseudo-science.

Mais même les algorithmes conçus avec soin et de bonnes intentions peuvent toujours produire des résultats biaisés ou nocifs imprévus, note Slaughter. Trop souvent, les algorithmes sont déployés sans tests adéquats qui pourraient révéler ces résultats indésirables avant qu’ils ne nuisent aux personnes dans le monde réel.

Slaughter mentionne des biais dans les résultats de recherche découverts lors des tests avec de Google et LinkedIn recherche mais se concentre sur le domaine des soins de santé. UNE étude récente ont trouvé des préjugés raciaux dans un algorithme d’apprentissage automatique largement utilisé destiné à améliorer l’accès aux soins pour les patients à haut risque souffrant de problèmes de santé chroniques.

L’algorithme a utilisé les coûts des soins de santé comme indicateur des besoins de santé, mais pour diverses raisons sans rapport avec les besoins de santé, les patients blancs dépensent plus en soins de santé que leurs homologues noirs tout aussi malades. L’utilisation des coûts des soins de santé pour prédire les besoins de santé a donc amené l’algorithme à signaler de manière disproportionnée les patients blancs pour des soins supplémentaires.

Les chercheurs ont estimé qu’en raison de ce biais intégré, le nombre de patients noirs identifiés pour des soins supplémentaires a été réduit de plus de la moitié. Les chercheurs qui ont découvert la faille dans l’algorithme ont pu le faire parce qu’ils regardaient au-delà de l’algorithme lui-même pour rechercher les résultats qu’il produisait et parce qu’ils avaient accès à suffisamment de données pour mener une enquête significative.

Lorsque les chercheurs ont identifié la faille, le fabricant de l’algorithme a travaillé avec eux pour atténuer son impact, réduisant finalement les biais de 84 % — exactement le type de réduction des biais et d’atténuation des dommages que les tests et les modifications cherchent à atteindre, note Slaughter.

Faciliter la discrimination par procuration, permettre le capitalisme de surveillance, inhiber la concurrence sur les marchés

Toutes les conséquences néfastes des algorithmes ne proviennent pas de défauts de conception. Slaughter identifie également trois façons dont les algorithmes sophistiqués peuvent générer des dommages systémiques : en facilitant la discrimination par procuration, en permettant le capitalisme de surveillance et en inhibant la concurrence sur les marchés.

La discrimination par procuration est l’utilisation d’une ou plusieurs variables facialement neutres pour remplacer un trait légalement protégé, entraînant souvent un traitement ou un impact disparate sur les classes protégées pour certaines opportunités économiques, sociales et civiques. En d’autres termes, ces algorithmes identifient des caractéristiques apparemment neutres pour créer des groupes qui reflètent étroitement une classe protégée, et ces « proxies » sont utilisés pour l’inclusion ou l’exclusion.

Slaughter mentionne certains cas très médiatisés de discrimination par procuration : les allégations du ministère du Logement et du Développement urbain contre l’outil de Facebook appelé “Publics similaires, ” diffusion d’offres d’emploi à différents publics, et Innovations FinTech qui peuvent permettre la poursuite des biais historiques refuser l’accès au système de crédit ou cibler efficacement les produits à taux d’intérêt élevé sur ceux qui ont le moins les moyens de se les payer.

Une autre façon dont la prise de décision algorithmique peut alimenter des défis sociaux plus larges est le rôle qu’elle joue dans le système de capitalisme de surveillance, que Slaughter définit comme un modèle commercial qui érode systématiquement la vie privée, favorise la désinformation et la désinformation, conduit à la radicalisation, sape la santé mentale des consommateurs et réduit ou élimine les choix des consommateurs.

opéra-instantané-2021-08-13-152203-www-shutterstock-com.png

L’éthique de l’IA a des ramifications très réelles qui deviennent de plus en plus répandues et importantes

Grâce à des ajustements constants basés sur les données, note Slaughter, les algorithmes qui traitent les données des consommateurs, souvent en temps réel, évoluent et « s’améliorent » dans un effort incessant pour capter et monétiser autant d’attention du plus grand nombre que possible. De nombreuses entreprises du capitalisme de surveillance réussissent remarquablement à utiliser des algorithmes pour « optimiser » l’attention des consommateurs sans tenir compte des conséquences en aval.

Slaughter examine le cas de Contenu YouTube adressé aux enfants et comment il a été transformé en arme. Le La FTC a traité ce, et Slaughter note que YouTube a annoncé qu’il utiliserait l’apprentissage automatique pour rechercher activement du contenu mal désigné et appliquer automatiquement des restrictions d’âge.

Bien que cela ressemble au filet de sécurité technologique Abattage demandé dans ce cas, elle note deux différences majeures : premièrement, elle est entièrement volontaire et deuxièmement, tant son application que son efficacité sont opaques. Cela, soutient-elle, soulève un ensemble plus large de préoccupations concernant le capitalisme de surveillance – qui s’étend au-delà de toute plate-forme unique.

Les pièges associés à la prise de décision algorithmique sont le plus évidents dans les lois que la FTC applique dans le cadre de sa mission de protection des consommateurs, note Slaughter. Mais la FTC est également chargée de promouvoir la concurrence, et les menaces posées par les algorithmes affectent également profondément cette mission.

De plus, ajoute-t-elle, ces deux missions ne sont pas réellement distinctes et les problèmes – y compris ceux liés aux algorithmes et à la justice économique – doivent être considérés à la fois sous l’angle de la concurrence et de la protection des consommateurs.

Slaughter examine des sujets tels que les tarifs antitrust traditionnels tels que la tarification et la collusion, ainsi que des questions plus nouvelles telles que les implications de l’utilisation d’algorithmes par les entreprises numériques dominantes pour renforcer leur pouvoir de marché et s’engager dans des pratiques d’exclusion.

Vers un débat rationnel sur l’éthique de l’IA

Dans l’ensemble, le livre blanc semble bien documenté et montre un bon aperçu du sujet. Bien que les sections du document sur l’utilisation des pouvoirs actuels de la FTC pour mieux protéger les consommateurs et les nouvelles solutions législatives et réglementaires proposées fassent référence à des outils juridiques sur lesquels nous ne nous sentons pas qualifiés pour faire rapport, nous encourager les lecteurs intéressés à les lire.

Nous voudrions également noter, cependant, que s’il est important d’être conscient de L’éthique de l’IA et les conséquences profondes des données et des algorithmes, il est tout aussi important de maintenir une attitude constructive et impartiale face à des questions souvent subjectives et sujettes à interprétation.

Une attitude trop zélée dans les débats qui ont souvent lieu sur les réseaux sociaux, où le contexte et l’intention peuvent facilement être mal interprétés et mal représentés, n’est peut-être pas le moyen le plus constructif de progresser. Exemple concret, les figures de proue de l’IA Yann LeCun et chez Pedro Domingo mésaventures.

En ce qui concerne l’éthique de l’IA, nous devons aller au-delà du sensationnalisme et vers une approche bien informée et, bien, axée sur les données. Le travail de Slaughter semble être un pas dans cette direction.

Leave a Comment