Étiquettes

,

Le député à la Lavallière, le mathématicien Cédric Villani s’est vu confier la réalisation d’un rapport sur l’IA … le point sur ses recommandations.

Pourquoi ce rapport ?

[Il avait] pour but de « dresser une feuille de route sur l’IA », expliquait M. Villani en septembre 2017 au Monde. […] Après quatre cent vingt auditions d’experts de différents domaines, M. Villani et son équipe ont remis un rapport de plus de deux cent quarante pages, balayant des problématiques variées et proposant une série de recommandations.

Favoriser un meilleur accès aux données … [ … où c’est bien là le grand danger de la collecte des informations à l’échelle de … l’État, ou l’Europe, ou la Terre entière et puis nous allons nous retrouver comme … voir l’article Allo  … Vous en riez, ne vous déplaise car demain vos enfants pleureront de cette absurdité. MC]

Pour donner des résultats pertinents, l’IA doit reposer sur d’importantes bases de données, à partir desquelles des programmes peuvent « apprendre » et effectuer des corrélations. C’est pourquoi M. Villani prône, dans ce rapport, « une politique de la donnée offensive qui vise à favoriser son accès, son partage et sa circulation », notamment à l’échelle européenne.

Concrètement, il s’agirait de « renforcer » la politique d’ouverture des données publiques, mais aussi issues du secteur privé. « Dans certains cas, la puissance publique pourrait imposer l’ouverture s’agissant de certaines données d’intérêt général », précise le document.

Le député évoque notamment le secteur de la santé, pour lequel il aimerait la création « d’une plate-forme d’accès et de mutualisation des données pertinentes pour la recherche et l’innovation ». […]

Se concentrer sur la santé, l’écologie, la défense…

L’effort économique et industriel devrait, selon les conclusions du rapport, se concentrer sur les secteurs de la santé, du transport et des mobilités, de l’écologie, de la défense et de la sécurité. Des secteurs « dans lesquels notre industrie peut sérieusement envisager jouer un rôle de premier plan au niveau mondial et concurrencer les géants extra-européens ».[…]

Des propositions sans chiffrage …

Le rapport de M. Villani propose un grand nombre de recommandations très concrètes, mais comment les financer ? Le document n’avance aucun chiffre. « On a fait ces calculs, et plutôt trois fois qu’une, a assuré M. Villani au Monde. Mais on ne voulait pas qu’ils soient dans le rapport pour éviter que l’expression publique se précipite dessus. »

Par ailleurs, le député en appelle également au financement privé pour soutenir le développement de l’IA en France : « [L’Etat] n’a pas vocation à supplanter les investissements privés. (…) Il faut que le venture capital [capital-risque] se développe de plus en plus. »


Vincent Fagot et Morgane Tual  – Le Monde  « Titre original : « Intelligence artificielle : ce qu’il faut retenir du rapport de Cédric Villani » – Source (Extrait) 


L’éthique et l’intelligence artificielle

  • Eric Horvitz le dit sans détour : « des attaques de l’IA sur l’esprit humain ». Cet éminent spécialiste de l’intelligence artificielle, directeur de Microsoft Research Labs, a listé, au festival SXSW qui s’est tenu en mars à Austin (Texas), les dangers potentiels de l’IA auxquels il faudrait, selon lui, réfléchir dès aujourd’hui. Ce qu’il entend par « attaques » n’a rien à voir avec un délire cyberpunk d’implantation de technologies dans le cerveau. Le danger est bien plus concret — et est, pour lui, déjà là.
  • Eric Horvitz évoque par exemple des programmes d’IA capables de rédiger un tweet « spécialement conçu » pour une personne. « Sur quoi tweete-t-elle ? Quand est-ce qu’elle répond ? A quels événements a-t-elle participé ? Ces informations peuvent être utilisées pour concevoir un tweet tel qu’il est quasi impossible pour [la personne] de ne pas cliquer. »
  • Une nouvelle étape pour la publicité ciblée, mais pas seulement. « Des entreprises utilisent ces données pour personnaliser des messages, mais aussi pour influencer la façon dont les gens votent, comme Cambridge Analytica ». Eric Horvitz évoque également le risque des « fake news », de fausses informations montées de toutes pièces, qui pourraient bénéficier de ces technologies : aujourd’hui, des programmes sont par exemple capables de faire dire ce que l’on veut à Barack Obama ou à Vladimir Poutine, en vidéo.Un problème qui n’est pas spécifique à l’intelligence artificielle, mais ces technologies permettent d’automatiser et de simplifier ces moyens d’influence.

Le spectre des armes autonomes

  • Etant donné le niveau des technologies d’IA et de robotique, rien ne s’oppose techniquement à la création d’armes létales autonomes. Aujourd’hui, les armées affirment que les machines qu’elles utilisent sont toujours contrôlées à distance par un humain, comme les drones de l’armée américaine, et qu’aucune ne prend jamais la décision de tirer. Mais aucune réglementation internationale n’interdit aujourd’hui l’usage d’armes létales autonomes, qui fait l’objet de discussions à l’ONU.
  • En 2015, plus d’un millier de personnes, parmi lesquelles de nombreux chercheurs en IA, mais aussi des personnalités comme Elon Musk ou l’astrophysicien Stephen Hawking, avaient signé un appel pour faire interdire ces armes. « L’intelligence artificielle a atteint un point où le déploiement de tels systèmes sera — matériellement, sinon légalement — faisable d’ici à quelques années, et non décennies, et les enjeux sont importants : les armes autonomes ont été décrites comme la troisième révolution dans les techniques de guerre, après la poudre à canon et les armes nucléaires », pouvait-on lire dans cet appel.

Une nouvelle étape dans la surveillance

  • La vision par ordinateur a connu d’importants progrès ces dernières années grâce aux avancées du deep learning (« apprentissage automatique profond »). Des programmes sont désormais capables de reconnaître les visages, de distinguer un chat d’un chien et de décrire des images. De plus en plus, ces innovations s’appliquent à la vidéo, et notamment à la vidéosurveillance. La SNCF a par exemple annoncé, peu après les attentats de novembre 2015 en région parisienne, qu’elle expérimentait des technologies de détection des comportements suspects à partir des caméras de surveillance, en se basant sur des critères comme « le changement de température corporelle, le haussement de la voix ou le caractère saccadé de gestes, qui peuvent montrer une certaine anxiété ».
  • Couplé à des technologies de reconnaissance faciale, ce type de système pourrait par exemple permettre de détecter en direct une personne fichée S abandonnant un colis suspect. Mais aussi un militant pour les droits de l’homme dans une dictature ou une personne homosexuelle dans un pays où cela est condamné. Ces systèmes sont encore loin de fonctionner parfaitement, et le risque de « faux positifs » reste important.

Des systèmes opaques

  • Grâce aux technologies d’intelligence artificielle, il est possible de créer des programmes permettant de sélectionner des curriculum vitae, de proposer des diagnostics médicaux ou d’approuver une demande de prêt. Or, une bonne partie des décisions prises par ces programmes… ne sont pas explicables. Concrètement, les ingénieurs ne savent pas retracer la multitude de calculs effectués par la machine pour arriver à sa conclusion.
  • En clair, cela signifie que si votre demande de prêt est refusée, ou votre CV recalé, aucune explication ne pourra vous être fournie. […]
  • Ces derniers mois, la controverse qui a entouré l’algorithme APB qui arbitre les choix d’orientation des bacheliers — qui n’est pas un programme d’IA, mais dont le code est longtemps resté entièrement secret — a déjà montré que l’opacité des systèmes automatisés posait d’importants problèmes.

D’importantes questions de droit à régler

  • « Si les robots se développent, qui va être responsable ? Va se poser la question de la réparation en cas de dommages », soulignait Jean-Yves Le Déaut, alors député, lors d’une audition au Sénat le 19 janvier. […]
  • « Qui, par exemple, sera responsable des actes des voitures autonomes ? » La question revient souvent, et hante déjà les assureurs : si une voiture autonome tue quelqu’un dans un accident, la responsabilité ira-t-elle au constructeur, à l’ingénieur qui a développé l’IA, au propriétaire de la voiture ou à la personne à la place du conducteur ? C’est déjà a la suite au USA d’un accident le questionnement […]
  • L’idée d’une IA qui échappe au contrôle de son créateur provoque aussi des sourires en coin dans la communauté, qui peine à comprendre pourquoi certains craignent qu’un programme conçu pour jouer au jeu de go puisse soudainement vouloir s’attaquer à la race humaine.
  • […]

Morgane Tual – Le Monde – Titre original : « Au-delà des fantasmes, quels sont les problèmes concrets que pose l’intelligence artificielle ? » – Source (Extrait)