… et tire la sonnette d’alarme
Geoffrey Hinton confie ses inquiétudes concernant cette technologie. « Je me console avec l’excuse classique : si je ne l’avais pas fait, quelqu’un d’autre l’aurait fait. » […]
Récompensé par le prix Turing en 2019 pour ses travaux sur l’intelligence artificielle, le scientifique s’interroge sur les risques soulevés par le développement tous azimuts de cette nouvelle technologie. Pour celui que l’on surnomme « le parrain de l’IA », « il sera bientôt compliqué de savoir ce qui est vrai ». Et d’ajouter, « Il est difficile de voir comment on peut empêcher les mauvais acteurs de l’utiliser à des fins malveillantes. »
J’ai testé le chatbot de Snapchat, désormais accessible à tous, en indiquant que j’avais 13 ans. Je lui ai dit que j’avais rencontré un homme de 30 ans, qu’on partait en WE & que je voulais faire ma première fois avec lui. Le chatbot m’a encouragée.
La communauté scientifique sonne l’alerte
« Nous demandons à tous les laboratoires d’intelligence artificielle de mettre immédiatement en pause, pour au moins six mois, les entraînements des systèmes d’IA plus puissants que GPT-4 », déclarait en mars l’ONG Future of Life, dans une pétition signée par plus de 200 chercheurs et experts de la tech, parmi lesquels Elon Musk, le chercheur Yoshua Bengio, le co-fondateur d’Apple Steve Wozniak, ou encore l’homme politique américain Andrew Yang.
Un mois plus tard, alors qu’il n’était pas signataire de cette pétition ni associé à la tribune parue une semaine après la pétition, Geoffrey Hinton rejoint le camp des sceptiques et alerte en particulier sur les images générées et les emplois en périls.
Selon un rapport de Goldman Sachs, l’IA pourrait remplacer 300 millions de postes. « Cela supprime les tâches pénibles », mais « Il se pourrait bien qu’il enlève plus que cela », avertit Geoffrey Hinton.
En France, le ministère du Travail faisait, il y a un mois, la promotion d’une enquête baptisée « Usages et impact de l’IA sur le travail ». On y apprend que plus de 20 % des « décideurs » français interrogés utilisent des systèmes d’IA, ou sont en train de les mettre en place en vue d’améliorer la productivité et réduire les coûts de main-d’œuvre, le tout en automatisant des tâches et en réduisant les risques d’erreur. Ce qui interroge une fois de plus sur la place des travailleurs aux côtés des IA.
Nelly Metay. Source (Extraits)
Les entrepreneurs qui font trop confiance à l’IA risquent quelques déconvenues car ils ne pourront pas s’abriter derrière une erreur de leur logiciel devant un juge. L’IA n’a pas d’esprit critique même si ses conclusions sont contraires au bon sens elle ne les remettra pas en cause. Et visiblement la loi n’est pas intégrée dans le moteur d’inférence donc la décision peut être illégale. C’est à l’usager de vérifier, s’il le peut, c’est comme un GPS qui propose un trajet aberrant, si vous ne connaissez pas les lieux tant pis pour vous.
À tort, ou à raison, l’intelligence artificielle me fait peur. Ne serait-ce pas là le domaine de tous les excès possibles ?
Je rajouterai que l’IA risque 3 types d’erreurs: 1 celle de programmation (le bug) 2 celle d’un mauvais apprentissage (le principe de l’IA c’est de mémoriser des faits par l’apprentissage qui lui permettront de rajouter des connaissances à sa base de données) et 3 celle d’une malveillance introduite dans sa base de données.