• delphine pramotton

Les risques de l’IA et la marginalisation de la machine face à l'homme

Le concept d’intelligence artificielle est apparu dans les années 50, c’est dire qu’il ne date pas d’hier. Nous sommes maintenant en 2020 et l’essor du big data a rendu les applications d’IA nettement plus concrètes. Les systèmes d’intelligence artificielle (SIA) arrivent partout pour améliorer notre vie : soins de santé, transports autonomes, gestion de l’énergie, lutte contre le changement climatique, anticipation des menaces en matière de cybersécurité, reconnaissance faciale, digitale, vocale et bien d’autres.


Mais qu’il s’agisse d’accidents, d’erreurs ou de malveillances, les risques liés à l’intelligence artificielle sont réels. Imaginez un robot « soigneur » qui se trompe de diagnostic, des feux de croisement qui engendrent un accident ou encore l’introduction d’explosifs dans des robots de restaurants ou de nettoyage. Les états autoritaires pourraient aussi utiliser l’IA pour espionner leurs citoyens et pour mener des attaques.


Si nous n’encadrons pas rapidement et rigoureusement à la source, la conception et le déploiement des SIA, nous nous enfoncerons tout droit dans un 1984 Orwellien précipité par les velléités de pouvoir et de fortune de personnalités égocentriques de type A, et par l’inaction des gouvernements et des GAFA.


La bonne nouvelle est que nos chercheurs sont actifs sur le sujet ! Cela va bientôt faire un an que le Comité Économique et Social Européen a déposé son avis d’initiative sur l’intelligence artificielle : anticiper ses impacts sur le travail pour assurer une transition équitable. Cet avis d’initiative a le mérite d’avoir posé les premiers fondements éthiques nécessaires pour éviter la dérive, mais est encore trop frileux sur le concept de transparence algorithmique et tend à marginaliser la machine par rapport à l’être humain en oubliant que derrière les algorithmes se cachent les opinions des concepteurs, comme le dit si bien Cathy O’Neil, Harvard PhD. L’IA en soi n’est pas un danger. Ce sont les hommes qui sont derrière et l’usage qu’ils veulent en faire qui pourraient en être un. Tout comme le manque d’anticipation et de transition. Il ne faudra donc pas oublier ce précepte et mettre autant l’accent sur la constitution de l’équipe de projet d’un SIA que sur le système lui-même.


Ceci étant dit, différentes communautés de recherche de Montréal (siège de l’Observatoire mondial sur les impacts sociétaux de l’IA et du numérique – rappelons-le) ont rédigé l’excellente déclaration de Montréal pour un développement responsable de l’intelligence artificielle, que je vous invite à signer. Les principes de la déclaration de Montréal ont été développés sur l’idée commune que « Les êtres humains cherchent à s’épanouir comme des êtres sociaux doués de sensations, d’émotions et de pensées, et qu’ils s’efforcent de réaliser leurs potentialités en exerçant librement leurs capacités affectives, morales et intellectuelles ». Elle y expose 10 principes éthiques de l’IA :


  1. Le développement et l’utilisation des SIA doivent permettre d’accroître le bien-être de tous les êtres sensibles.

  2. Les SIA doivent être développés et utilisés dans le respect de l’autonomie des personnes et dans le but d’accroître le contrôle des individus sur leur vie et leur environnement.

  3. La vie privée et l’intimité doivent être protégées de l’intrusion de SIA et de systèmes d’acquisition et d’archivage de données personnelles.

  4. Le développement de SIA doit être compatible avec le maintien de liens de solidarité entre les personnes et les générations.

  5. Les SIA doivent satisfaire les critères d’intelligibilité, de justifiabilité et d’accessibilité, et doivent pouvoir être soumis à un examen, à un débat et un contrôle démocratiques.

  6. Le développement et l’utilisation des SIA doivent contribuer à la réalisation d’une société juste et équitable.

  7. Le développement et l’utilisation des SIA doivent être compatibles avec le maintien de la diversité sociale et culturelle et ne doivent pas restreindre l’éventail des choix de vie et des expériences personnelles.

  8. Toutes les personnes impliquées dans le développement des SIA doivent faire preuve de prudence en anticipant autant que possible les conséquences néfastes de l’utilisation des SIA et en prenant des mesures appropriées pour les éviter.

  9. Le développement et l’utilisation des SIA ne doivent pas contribuer à une déresponsabilisation des êtres humains quand une décision doit être prise.

  10. Le développement et l’utilisation de SIA doivent se réaliser de manière à assurer une soutenabilité écologique forte de la planète.


Enfin, citons un extrait de certains articles qui trouvent un écho particulier chez Pradel Conseil :


Art 3 du principe 5 : Le code des algorithmes, publics ou privés, doit toujours être accessible aux autorités publiques compétentes et aux parties prenantes concernées à des fins de vérification et de contrôle.


Art 4 du principe 5 : La découverte d’erreurs de fonctionnement des systèmes d’intelligence artificielle, d’effets imprévus ou indésirables, de failles de sécurité ou de fuites de données doit impérativement être signalée aux autorités publiques compétentes, aux parties prenantes concernées et aux personnes affectées par la situation.


Art 7 du principe 5 : On doit pouvoir s’assurer en tout temps que les SIA font ce pour quoi ils ont été programmés et ce pour quoi ils sont utilisés.


Art 3 du principe 8 : Avant d’être mis sur le marché, qu’ils soient payants ou gratuits, les systèmes d’intelligence artificielle doivent satisfaire des critères rigoureux de fiabilité, de sécurité et d’intégrité et faire l’objet de tests qui ne mettent pas en danger la vie des personnes, ne nuisent pas à leur qualité de vie et ne portent pas atteinte à leur réputation ou leur intégrité psychologique. Ces tests doivent être ouverts aux autorités publiques compétentes et aux parties prenantes concernées.


Dans un prochain billet, nous reviendrons plus en profondeur sur les critères à vérifier et nous aborderons les pistes de solutions pour s’assurer d’une IA digne de confiance.


Mais pour le mot de la fin, ajoutons que sans aucun doute l’IA va remplacer des emplois par une plus grande automatisation. Les impacts sociaux sont importants dans une économie où croît la densité robotique, alors que l’impôt sur le travail reste la principale source de recettes fiscales. Il faut donc anticiper son impact sur les emplois et prévoir la mise en place de fonds de formation et de transition pour les victimes collatérales qui ne sauront pas trouver immédiatement leur place dans la transformation digitale de leur activité, mais c’est aussi une opportunité formidable pour responsabiliser l’homme et le faire briller dans les tâches qui le rendent profondément humain et créatif, sensible et doué d’émotions et pour inventer les rôles de demain, des rôles où il pourra encore mieux s’épanouir.