Je suis très mitigé sur ce livre. D'un côté il apporte sa contribution sur la nécessité de réguler l'utilisation des algorithmes et a eu le mérite de m'intéresser à la question. D'un autre côté, il est confus, assez creux en terme de contenu et contient énormément de redites et des nombreuses digressions qui nous font perdre le fil du chapitre.
Les deux premiers chapitres sont très fouillis. L'auteur tente de planter le décor en s'adressant au plus grand nombre. C'est peu réussi : vouloir expliquer l'algorithmique, l'IA, la conception, le contexte entreprise en quelques paragraphes n'est pas simple. En outre, aucunes images ou schémas. Connaissant le sujet, j'ai vraiment constaté des maladresses et une vulgarisation alambiquée. Que de termes grandiloquents (comme "algorithme computationnel") pour perdre le lecteur néophyte.
La façon d'amener la RGPD est également très trompeuse. La RGPD, c'est d'abord la protection des données. C'est l'individu, son consentement éclairé, sa liberté de disposer de ses données personnelles. Il y a certes une notion de traitement informatique (d'algorithme si vous préférez), mais ce n'est pas la finalité de ce règlement. Rappelons qu'il s'agit de déclaratif de la part des entreprises.
Les exemples énoncés concernent des IA qui traitent des données humaines (réseaux sociaux, banque, police) qui comportent, en effet, de nombreux biais. Comme justement dit par l'auteur, on ne pourra pas couvrir toute la gaussienne, je suis très d'accord avec ça. La science s'améliorera avec le temps c'est certain, mais on aura toujours des cas extrêmes qui vont poser problème.
A parler d'algorithme au sens large, je me suis posé la question s'il fallait mettre tous les algorithmes dans le même panier. Je ne le pense pas. Si on considère des algorithmes qui n'ont pas trait directement aux humains, pourquoi les légiférer ? Par exemple: un algorithme de rechargement de batteries ou un modèle de prédiction météorologique. Ces algos sont imparfaits (sous-optimaux), c'est regrettable mais pas critique au sens législatif. Pourquoi vouloir imposer du "fairness" et de l'éthique partout ?
J'ai apprécié les chapitres 5 & 6, notamment la partie sur le droit international. Bien qu'empreint d'un peu trop de conditionnel à mon gout ("y'a qu'à, faut qu'on"). Parmi de longues phrases (pour finalement peu de contenu), il y a des choses intéressantes ici et là.
Concernant la partie justice, je pense que l'IA est présente pour donner un avis (prédictions, suggestions), mais c'est toujours un humain qui prendra la décision finale. Diaboliser ce qui se passe aux États-Unis n'est pas une bonne idée. En 2023, la comparaison d'empreinte digitale ou faciale, s'effectue toujours par un expert. Celui-ci valide si une empreinte (ou une partie) recueillie sur une scène de crime est identique à une empreinte présente en base de données policière. L'outil est là pour suggérer une réponse (des candidats), il ne décide pas d'envoyer les gens en prison ! Ces algorithmes servent énormément aux forces de police car il aide concrètement à la résolution de crimes et des "cold cases".
Cela m'a aussi rappelé aussi un article relatant la sévérité des verdicts des juges statistiquement moins cléments avant manger que après manger. A l'instar des données d'entrainement de nos IA, le cerveau humain est lui aussi rempli de biais...
Un dernier point positif : sources en bas de page et glossaire en fin d'ouvrage. Merci !