De multiples cas de racisme, de sexisme et d'autres types de biais dans les algorithmes présentés par les médias ont finalement fait comprendre à l'industrie que le respect des principes d'éthique de l'IA est indispensable au développement de l'IA.

Le développement éthique de l'IA est une discipline essentielle qui remet en question les idées et les croyances que nous tenons pour acquises. C'est un nouveau domaine, mais il a fait émerger de nouvelles approches du développement de l'IA. Dans cet article, parlons des tendances de développement éthique de l'IA que vous devez surveiller en 2021.

Pourquoi l'éthique de l'IA est-elle nécessaire ?

60d1993b48ec5317963152a8 ai 04 - Sabma Digital
Source : Unsplash

Au cours des dernières années, l'IA a commencé à attirer beaucoup d'attention négative de la part de la presse pour ses conclusions étranges et biaisées. Quelles sont les raisons derrière un algorithme d'IA classant tous les hommes de moins de 25 ans comme des conducteurs imprudents ou considérant toutes les femmes comme inaptes à travailler pour Amazon ?

Il s'est avéré que les biais implicites des équipes de développement étaient transmis aux jeux de données. Par exemple, une équipe de développement de Google composée presque exclusivement d'hommes blancs n'a pas envisagé d'inclure des photos de personnes de couleur dans ses ensembles de données d'entraînement. En conséquence, leur algorithme de reconnaissance faciale n'a pas compris que les personnes non blanches sont aussi des personnes et les a classées comme des gorilles ou ne les a tout simplement pas vues !

Êtes-vous impatient de vivre dans un monde où les algorithmes sont biaisés comme les humains ? Après tout, l'intelligence artificielle est désormais utilisée dans les systèmes chargés du diagnostic et du traitement médical, de l'évaluation des risques criminels et de la notation des candidats universitaires. L'IA a un impact énorme sur la vie humaine, et notre mission est de ne pas la laisser nuire.

Tendances du développement éthique de l'IA que tout le monde devrait connaître

60d1995ec6796bcc730c0c4d ai 03 - Sabma Digital
Source : Unsplash

Comment pouvons-nous rendre les algorithmes que nous avons plus sûrs pour l'humanité ? Découvrons-le.

Agence humaine et surveillance

L'intelligence artificielle est une technologie qui est généralement jugée par sa capacité à agir de manière autonome. Pensez à la Modèle GPT-3 qui peut écrire n'importe quoi, du code aux fausses nouvelles ou Générateur de rêves profonds qui génère de l'art après avoir appuyé sur un bouton.

Créer un système entièrement autonome qui apprend sur l'environnement et s'améliore par lui-même a toujours été un défi intéressant pour les développeurs. D'une certaine manière, l'IA est l'incarnation d'un rêve où les machines font tout le travail et les humains profitent de la vie en se consacrant aux arts et aux loisirs.

Cependant, l'IA a fait l'objet de nombreuses critiques ces dernières années dans des domaines socialement sensibles. Les systèmes d'évaluation des risques criminels ont été mis en cause être racisteet algorithmes d'embauche — sexiste. L'utilisation de l'IA dans de nombreux domaines est actuellement en cours de révision, par exemple dans l'armée où des robots IA appelés « machines de guerre » sont souvent utilisés. Ces machines varient en termes d'autonomie, mais les plus avancées peuvent prendre des décisions sur l'ouverture du feu sans impliquer du tout un opérateur humain.

Il est évident que les motivations initiales pour créer des algorithmes d'IA qui fourniraient un service militaire étaient bonnes : les robots sont beaucoup plus fiables que les humains. De plus, amener des robots sur le champ de bataille permettrait de réduire le nombre de crimes de guerre, y compris les violences sexuelles contre les femmes et les enfants.

Cependant, il y a tellement de risques impliqués aussi:

  • L'IA est impitoyable. Les soldats humains ont pitié de ceux qui se rendent ou qui ne sont pas capables de faire le moindre mal. Il existe de nombreux cas où des soldats de camps opposés s'entraident s'ils sont gravement blessés. Comment expliquerons-nous à la machine que l'ennemi n'est plus un ennemi ?
  • L'IA peut être facilement trompée. L'IA est facile à tromper. Par exemple, les drapeaux blancs sont souvent un signe de reddition sur le champ de bataille. Cependant, les adversaires peuvent utiliser exprès des drapeaux blancs pour tromper la machine et se rapprocher d'elle pour la détruire.
  • L'IA est confuse par le chaos. Sur le champ de bataille, il est difficile de faire la distinction entre camarades et adversaires. Les cas de tirs amis sont encore plus susceptibles de se produire lorsque l'IA est impliquée, car la fumée, les explosions et les mouvements rapides des soldats les empêchent de réagir en temps opportun.

Compte tenu de tous ces problèmes, l'automatisation complète dans le cas des machines de guerre est éthiquement impossible. C'est pourquoi la tendance actuelle est de passer du cadre humain hors boucle (où une machine est entièrement autonome) au mécanisme humain sur boucle. Une fois qu'il y a une situation extraordinaire et que l'IA se sent confuse, un opérateur humain a la possibilité d'intervenir et de prendre la bonne décision.

Cette tendance est également adoptée dans d'autres domaines de la vie, par exemple dans les voitures autonomes. Même les modèles les plus avancés de Tesla impliquent toujours qu'il y ait un conducteur humain qui surveille la situation sur la route à tout moment.

Robustesse technique et sécurité

60d199848a26fb1a4f8e4c4e ai 01 - Sabma Digital
Source : Unsplash

Les systèmes d'IA sont omniprésents et prennent souvent des décisions très importantes concernant nos vies. Par conséquent, lorsque l'IA échoue, les conséquences peuvent être énormes.

En 2013, Hackers syriens a eu accès au compte Twitter de l'Associated Press et a publié des informations sur les explosions à la Maison Blanche. L'algorithme de Twitter a qualifié ce tweet de fiable car l'Associated Press avait déjà été considérée comme une source fiable. À cause de cela, le Dow Jones Industrial Average a chuté de 136 milliards de dollars. Un humain effectuerait une vérification des faits dans d'autres ressources avant de croire cette information, mais les systèmes d'apprentissage automatique actuels ne sont pas bons pour identifier les changements soudains. Ils gèrent mal les situations d'empoisonnement parce qu'ils ne comprennent pas le contexte.

L'un des principaux axes des chercheurs aujourd'hui est d'essayer d'améliorer les techniques de détection d'anomalies et la compréhension globale du contexte. Sans être technologiquement robuste, l'IA ne peut pas être vraiment digne de confiance.

Transparence

Un modèle d'apprentissage automatique peut mal fonctionner pour de nombreuses raisons. Les données de formation pourraient être mal prétraitées. Les hyperparamètres du modèle pourraient être mal choisis. Peut-être que les ingénieurs ML qui travaillaient sur le modèle ont volontairement introduit une logique algorithmique nuisible ou que le comportement du programme a été modifié en raison d'attaques contradictoires. Il est également possible que le modèle soit surajusté ou sous-ajusté, et c'est la raison pour laquelle les résultats ne sont pas fiables.

Beaucoup de choses peuvent mal tourner. Et il est difficile de découvrir la source du problème, car le plus souvent, les erreurs ne sont évidentes que pendant le temps d'exécution. En attendant, une erreur peut coûter cher en termes financiers et de réputation.

C'est pourquoi les actions de l'IA doivent être suivies et les décisions de l'IA doivent pouvoir être expliquées. Différentes réglementations légales sont mises en œuvre dans différents pays pour favoriser la transparence des modèles. La principale limitation ici est que la majorité des algorithmes ML sont propriétaires. L'entreprise a des raisons légales de ne pas divulguer son processus décisionnel car il s'agit de sa propriété intellectuelle. Dans de tels cas, un audit interne approfondi doit être mis en place.

Responsabilité

La responsabilité est étroitement liée à la transparence. L'IA devrait être capable de dire pourquoi elle a pris certaines mesures. De plus, ces informations devraient être rendues publiques le cas échéant. Par exemple, si un Le système d'IA est utilisé pour l'évaluation des risques criminels, l'accusé a le droit de savoir comment le score affectera sa peine et sur la base de quels critères la décision a été prise. Cette approche permettrait d'éviter des cas scandaleux de racisme inexprimé qui ProPublica ont récemment écrit dans leurs recherches consacrées aux biais dans les systèmes d'évaluation des risques aux États-Unis.

Diversité et équité

60d1999b5d03bd85d8a018d1 ai 02 - Sabma Digital
Source : Unsplash

Nous avons tous entendu dire que l'équité et la diversité sont bonnes et que la discrimination est mauvaise. Bien que la majorité d'entre nous ne se considère pas comme raciste ou sexiste, la vérité est que beaucoup d'entre nous ont divers biais cognitifs. Ils se cachent très bien et nous sommes profondément convaincus que nous traitons les autres comme ils méritent d'être traités. Si vous souhaitez faire une expérience, rendez-vous sur Site Web de la machine morale. Il vous fait résoudre des dilemmes moraux comme si vous étiez en charge d'une voiture autonome avec des freins cassés. Qui mérite de mourir : un homme d'affaires ou un sans-abri ? Une vieille dame respectable ou un jeune criminel ? Vous en apprendrez beaucoup sur vous-même.

Le fait est que les algorithmes d'IA doivent résoudre ces problèmes quotidiennement. En 2018, Amazon a tenté d'utiliser un algorithme d'embauche d'IA. Cela vous semble une excellente solution pour promouvoir la diversité ? En réalité, l'algorithme considérait toutes les candidatures féminines comme un mauvais candidat pour n'importe quel poste car historiquement dans l'entreprise, elles étaient occupées par des hommes. En fin de compte, ils n'ont pas pu corriger l'erreur et ont dû rejeter une initiative qui a coûté des millions de dollars. Pour éviter de telles erreurs dans les produits, les entreprises technologiques doivent promouvoir la diversité sur le lieu de travail et sensibiliser aux questions sensibles.

Quelles tendances trouvez-vous les plus importantes dans le développement éthique de l'IA ? Souhaitez-vous mettre en œuvre l'éthique de l'IA dans votre entreprise ?

Laisser un commentaire