Intelligence artificielle et santé : vers un monde meilleur ?

Publié le par bmasson-blogpolitique

Intelligence artificielle et santé : vers un monde meilleur ?

The Camp

Aix-en-Provence

05 19

 

Avec Philippe Pujol, journaliste,

Philippe Pujol, né le 11 juillet 1975 à Paris, est un journaliste et écrivain français, lauréat du prix Albert-Londres en 2014 pour sa série d’articles « Quartiers shit » sur les quartiers nord de Marseille.

 

 

Philippe Pujol 

La fabrique du monstre 

 

Hervé Guillandre, Engie, chargé de mission Digital,

Auteur d’un ouvrage sur l’intelligence artificielle.

 

Jean-François Moulin, oncologue à l’Institut Paoli-Calmettes.

 

Nicolas Gros, facilitateur graphique

Jean-François Moulin, oncologue à l’Institut Paoli-Calmettes.

Intelligence artificielle et santé : vers un monde meilleur ?

 

Que va-t-on faire de cet outil qui existe depuis longtemps? En santé, ce n’est pas si simple que ce que l’on va imaginer. Il y a des freins. La santé est un domaine protégé. Les données de santé ne sont pas celles de Facebook. Les données sont des richesses à structurer avec l’intelligence artificielle.

Jean-François Moulin, oncologue à l’Institut Paoli-Calmettes.

Intelligence artificielle et santé : vers un monde meilleur ?

 

Le premier outil utilisable est un outil de détection d’anomalies de la rétine chez les diabétiques. Il a été validé par l’organisme de validation américaine. Il n’y en a pas tant que ça. Il faut démontrer qu’il apporte quelque chose de plus que les compétences d’un médecin.  Il ne doit rien apporter de moins en étant dangereux. Une machine automatique apprend-elle correctement ?

Philippe Pujol, journaliste

Intelligence artificielle et santé : vers un monde meilleur ?

La traduction anglais/français est mauvaise. « Intelligence » signifie « information » et pas intelligence. Ce sont des algorithmes. Ce sont des automatisations de certaines actions ou une délégation de décisions.

Qu’est-ce que l’intelligence humaine ? Est-on proche de la conscience ?

En radiologie, en brassant des centaines de milliers de données, on repère une tumeur du poumon avant l’œil humain. Quelques hôpitaux aux USA sont en phase de test. Les radiologues ne disparaîtront pas et seront assistés par l’IA. Pour des raisons judiciaires, on ne va pas condamner la machine en cas d’erreur de diagnostic. La décision finale sera laissée à un humain qui prendra la responsabilité.

Philippe Pujol, journaliste

Intelligence artificielle et santé : vers un monde meilleur ?

Une autre utilisation de l’IA est l’opération à distance. Il y en a eu une entre Los Angeles et Strasbourg en 2002. Dans l’avenir, ça permettra dans certains déserts médicaux, d’avoir de très bons chirurgiens.

Avec le « Deep learning », on s’intéresse au « comment les machines apprennent seules ».

 

 

Hervé Guillandre, Engie, chargé de mission Digital

Intelligence artificielle et santé : vers un monde meilleur ?

 

On assiste à une transformation du métier et à une automatisation de certaines activités automatisables : les traitements de données, les caractéristiques de photos. Ca viendra chez nous. Pour l’erreur médicale, ces machines sont redoutables. Le médecin reste le responsable de l’acte médical. Son rôle doit évoluer vers le sens avec l’homme ou la femme qu’il aura en face de lui, car il sera soulagé des erreurs possibles. Il peut repérer autre chose, écouter.

Philippe Pujol, journaliste

Intelligence artificielle et santé : vers un monde meilleur ?

Qui fait quoi ? Qui organise quoi ? Il y a plusieurs structures qui organisent la santé et qui « se tirent dans les pattes ». Le ministère de la santé ne travaille pas avec la Sécurité Sociale qui ne travaille pas avec l’ARS (= Agence régionale de santé, NDLR).

Les algorithmes, demain, vont techniciser leurs décisions. Ce ne sera pas un mieux car on arrivera à un autoritarisme technologique qui amènera une déshumanisation.

 

Philippe Pujol, journaliste

Intelligence artificielle et santé : vers un monde meilleur ?

Des médecins resteront toujours aussi peu humains. Ca existe déjà. D’autres resteront aussi humains. Le rôle des infirmières va augmenter. On va leur faire faire des actes car ça coûte moins cher. Elles en sont capables et les ¾ le font déjà aujourd’hui.

Avec qui le patient –t-il le plus de contact ? Avec les infirmiers.

 Il y aura de plus en plus de personnes âgées. Vers 2040, il y aura plus de dépendances, de maladies chroniques.

Avec l’augmentation de la température, de nouvelles maladies arrivent, la dingue par exemple avec le moustique tigre.

 

Jean-François Moulin, oncologue à l’Institut Paoli-Calmettes.

Intelligence artificielle et santé : vers un monde meilleur ?

 

 

L’IA remplace une partie de nos activités manuelles. Elle travaille sur les robots émotionnels, sur le « chatbot ». Ils détectent des intonations, un flux de langage, des signaux faibles. Ca peut être une richesse et un danger majeur. En fonction de la programmation des algorithmes, on peut décider de voir ou non certains signaux, en le décidant ou sans le faire exprès. Il faut intégrer cette notion « d’éthique ». Ca concerne les professionnels de la santé et les citoyens. On peut faire croire que les machines sont humaines. La déshumanisation de la santé par l’intelligence artificielle est possible. Si Google, demain, décide de devenir le psychiatre de la Terre entière, c’est possible.

Jean-François Moulin, oncologue à l’Institut Paoli-Calmettes.

Intelligence artificielle et santé : vers un monde meilleur ?

 

 

La supervision humaine en santé est obligatoire.

Il faut vérifier qu’un outil d’IA soit sécurisé, et qu’il donne des bonnes réponses. Si on ne sait pas comment une machine apprend et décide, on n’est pas prêt de lui faire confiance. Ni les médecins, ni les patients. On demande aujourd’hui une seule chose à la machine : « détecter les anomalies du poumon qui ressemblent à des cancers. »  Si elle détecte autre chose, elle ne sera pas capable de diagnostiquer. L’IA capable de tout, on en est loin. Les secteurs concernés sont l’imagerie, la radio, l’anatomopathologie, car les images sont numérisées. Le langage n’est pas loin avec l’analyse de la sémantique, la communication verbale et non verbale, le mouvement des yeux, l’intonation. Les robots dans les maisons de retraite sont capables de stimuler les personnes. Pour les autistes, ces robots stimulent les enfants. Ils font aussi bien que du personnel soignant. Pourquoi pas si cela facilite la communication ? Mais en faisant attention d’expliquer que le robot n’est pas un humain…

 

Hervé Guillandre, Engie, chargé de mission Digital

Intelligence artificielle et santé : vers un monde meilleur ?

 

L’intelligence artificielle est devenu un outil essentiel. On ne songerait pas à s’en passer. On a dépassé le cap de l’utilité. Il est temps de savoir ce que l’on en fait. Quelle évolution ? Quel type de système accepte-t-on ? On ne peut plus penser aux métiers « d’avant ».

Philippe Pujol, journaliste

Intelligence artificielle et santé : vers un monde meilleur ?

 

Qaund Google a créé un avatar pour discuter avec les Américains moyens sur des chats tout en s’éduquant tout seul, Google a arrêté en une nuit car le robot devenait raciste, misogyne et insultant tout le monde, à l’image de la moyenne des Américains. Le robot s’est mis dans un « biais ». Il est devenu ce qu’était la moyenne. Voilà la géographie de la réalité. Les Américains ont remarqué empiriquement que les Noirs étaient tous en prison. Il y avait peu de Blancs en prison. Ils se sont dit qu’ils condamnaient trop les Noirs. Ils ont rentré les données de dizaines d’années dans une machine d’intelligence artificielle qui n’a pas d’émotions. Les machines ont fait en pire ce que faisaient les humains. Quand on était Noir, on était quasiment instantanément en prison.

Philippe Pujol, journaliste

Intelligence artificielle et santé : vers un monde meilleur ?

 

Les femmes ont moins accès aux crédits. Quand elles font une grossesse, elles ont moins d’argent. Le banquier se dit qu’il laisse un peu « tomber les femmes ». L’Intelligence artificielle exclue automatiquement les femmes (un « biais »). La machine apprend par rapport aux données qu’on lui donne. Si on lui donne des données biaisées dès le début, on va fausser la question. Sur une radiographie, une erreur faite depuis toujours deviendra une « erreur scientifique ». C’est un des soucis.

Philippe Pujol, journaliste

Intelligence artificielle et santé : vers un monde meilleur ?

 

 

Les deux algorithmes utilisés pour battre le champion du monde du jeu de Go qui est le jeu le plus compliqué sont français et datent des années 1980. On n’est pas dans une évolution incroyable des algorithmes. Mais les puissances de calcul sont exceptionnelles. Le « deep learning » permet à une machine de répondre à une multitude de questions. Google le programme dans son coin. La Sécurité Sociale pourrait en sortir un. Le souci c’est le privé et à 90% les GAFA qui rachètent toutes les startup.

 

Philippe Pujol, journaliste

Intelligence artificielle et santé : vers un monde meilleur ?

 

En 2040, une Apple car et une Google car se percutent. Les données des deux véhicules autonomes s’échangent. C’est l’interopérabilité qui existent déjà aujourd’hui. « Qu’as-tu dans ta voiture ? » « J’ai un petit vieux en insuffisance respiratoire. » « Moi, j’ai trois étudiants qui vont à un examen. »

Donc, ils tuent le petit vieux. La voiture tombe dans le ravin. C’est la programmation française.

Programmé par les Asiatiques, les Chinois ou les Africains,  ils gardent le petit vieux et ils tuent les jeunes.

Programmé par les Corses, ils tuent tout le monde. « C’est la fatalité et on ne s’en mêle pas ».

 Philippe Pujol, journaliste

Intelligence artificielle et santé : vers un monde meilleur ?

 

Si le petit vieux est un ministre, les Français changent leur programmation. Sur les thérapies génétiques les plus avancées, sur certains cancers qui coûtent très cher aux populations, on sera obligé de choisir qui l’on soigne. Des comités d’éthique diront aux informaticiens ce qu’ils devront faire. Et qui met-on dans les comités d’éthique ? Il faut des philosophes, des personnes formées en sciences humaines, en sciences sociales, et pas que du monde économique, politique, et médical. Il va falloir renforcer les comités d’éthique qui existent. La décision sera prise une fois et s’appliquera tant que l’algorithme existera.

 

 

p 31 :

Les lois douces :

« Ce serait ici une absurdité palpable que de vouloir prescrire des lois universelles ; (…) c’est une injustice effrayante que d’exiger que des hommes de caractères inégaux se plient à des lois égales : ce qui va à l’un ne va point à l’autre. Je conviens que l’on ne peut pas faire autant de lois qu’il y a d’hommes ; mais les lois peuvent être si douces, en si petit nombre, que tous les hommes, de quelque caractère qu’ils soient, puissent facilement s’y plier. »

 

Français encore un effort si vous voulez être républicains.

Marquis de Sade

Editions Mille et une nuits

2014

Première édition en 1795

Hervé Guillandre, Engie, chargé de mission Digital

Intelligence artificielle et santé : vers un monde meilleur ?

 

 

Les emplois sont occupés essentiellement par des hommes blancs. Ce ne sont jamais des femmes. Il y a un biais dans la création de métiers qui sont porteurs. Il ne comprend pas pourquoi les métiers de la programmation qui ont été créés par des femmes voient la population féminine qui a disparu. Il faut revenir là-dessus. Google car et Apple car sont deux systèmes américains. Demain, est-ce que ce sera un système américain ou chinois ? Les systèmes chinois sont extrêmement denses. Notamment sur la capacité du calcul du quantique qui va révolutionner l’informatique dans les quinze ans à venir. C’est comme pour le bug de passe à l’euro en 2 000. Ca va beaucoup embaucher et il espère de manière mixte. Sur le quantique, les Chinois ont quatre ans d’avance sur les Américains qui ont une infinité d’avance sur nous. On se prépare à une invasion d’intelligence artificielle chinoise.

Nous sommes très « Liberté, égalité, fraternité ». Les Américains sont très libéraux. Les Chinois, pour des raisons internes liées à la criminalité, se lient « à la règle ». Il pense que nous ne supporterons pas ce type de fonctionnement.

Jean-François Moulin, oncologue à l’Institut Paoli-Calmettes.

Intelligence artificielle et santé : vers un monde meilleur ?

 

 

Un algorithme testé et qui donnera la réponse la plus juste sera forcément multidisciplinaire et sera fabriqué à la fois par des hommes, des femmes, des blancs, des noirs, etc

Les « ethic by design » :

Dès le début de la conception d’un programme d’intelligence artificielle, on doit se poser les questions :

Qu’est-ce qu’on cherche ?

Où veut-on aller ?

Qu’a-t-on oublié ? (biais cognitifs majeurs partagés par tous, médecins, banquiers, citoyens, etc.)

Quand on marche dans la rue, on  a tous des réactions différentes. Le biais  cognitif est intégré dans notre personnalité. Pour les supprimer, il faut multiplier les personnalités. Il y a des algorithmes de justice aux USA, de notation des professeurs.

 

Jean-François Moulin, oncologue à l’Institut Paoli-Calmettes.

Intelligence artificielle et santé : vers un monde meilleur ?

 

 

En Europe, le RGPD nous protège tous contre les déréglementations américaines et chinoises. C’est un premier pas pour nous protéger contre des gens invasifs qui nous disent comment il faut vivre, comment il faut faire, comment il faut être en bonne santé. C’est la « dictature » de la bonne santé qui nous interdira de rentrer chez nous car nous n’aurons « pas fait assez de pas ». En Europe on développe un gros projet d’intelligence artificielle « de confiance ».

 

Jean-François Moulin, oncologue à l’Institut Paoli-Calmettes.

Intelligence artificielle et santé : vers un monde meilleur ?

 

Qui va vous dire que vous pourrez faire confiance à une machine d’intelligence artificielle ?

L’Académie nationale de médecine ? Des fois elle ne dit pas des choses très justes. En Europe et au Canada, nous sommes sensibles aux questions de la confiance. Il faut produire des données, les structurer, les organiser. Mais pas à n’importe quel prix ni n’importe comment. On veut savoir où vont les données, qui va en faire quoi. La Déclaration de Montréal a déterminé dix critères de l’éthique dans l’IA.

Hervé Guillandre, Engie, chargé de mission Digital

Intelligence artificielle et santé : vers un monde meilleur ?

 

 

 

Les métiers de l’informatique ont changé à partir du moment où des publicités massives liées aux PC sont apparues. Au niveau marketing, e PC est devenu un jouet et a quitté la sphère féminine. Au début de l’informatique, les femmes étaient le « clavier ». Maintenant on plafonne à 17% Pourquoi ? Alors que ce sont des métiers rémunérateurs, qui construisent le futur. Des biais commencent à l’école. On dit que les métiers techniques ne sont pas pour elles. A la sortie d’école, les taux plafonnent à 20% On ne peut pas les recruter. Qui irait rejoindre des équipes entièrement masculines ? ll n’y  pas de modèle pour représenter des réussites de femmes. Une des solutions, c’est de donner envie dès l’école, de dire que c’est faisable et que ce n’est pas exclusivement masculin. Dans les pays asiatiques, les métiers de l’informatique sont considérés comme des métiers féminins.

Hervé Guillandre, Engie, chargé de mission Digital

Intelligence artificielle et santé : vers un monde meilleur ?

 

 

 

On n’est pas obligé d’avoir le Prix Nobel de mathématiques pour entrer dans les métiers de l’informatique. Pour le bug de l’an 2 000 pour le passage à l’euro, on a recruté massivement des gens qui venaient de tous les horizons et qui n’avaient pas fait d’informatique avant. On les a formés en quelques mois. Pourquoi on ne le fait pas pour les femmes alors qu’il y a un problème de mixité ? Parce que ce n’est pas une urgence industrielle. On n’explique pas que l’on serait gagnant à embaucher les talents. Il y a un déficit d’embauche. On ne trouve jamais le nombre de personnes que l’on souhaiterait embaucher.

Hervé Guillandre, Engie, chargé de mission Digital

Intelligence artificielle et santé : vers un monde meilleur ?

 

 

 

Le quantique.

Après la place du signal zéro et un, on calcule la vitesse de transfert des données par plusieurs milliers.

Les Chinois n’ont aucun mal à « craquer » les comptes bancaires. Ca va poser de graves problèmes de sécurité aux USA et en Europe. Mais ça va être une manne d’emplois fantastique. Quand ça va bien dans la société, on embauche tout le temps. Mais quand ça va mal, et qu’il y a une grosse rupture dans la société, on embauche encore plus. C’est le métier de rêve.

Jean-François Moulin, oncologue à l’Institut Paoli-Calmettes.

Intelligence artificielle et santé : vers un monde meilleur ?

 

Les tests génétiques :

Il y a vingt ans, on n‘était pas capable d’en faire beaucoup. On cherchait un gène un par un. Maintenant, on fait des recherches multigènes. On ne sait plus quoi faire de ces informations. On crée des machines qui reclassent tout et font des catégories. Ca permet la personnalisation de la médecine prédictive. On ne pouvait pas imaginer que l’on pourrait faire une recherche de 3 000 gènes en une demi-journée. Des sociétés américaines vendent des tests à 100 dollars. Elles sont des voleuses de données. « D’où venez-vous ? Vous avez 30% de Grec et 25% de libanais ? Alors que vous habitez à Lille ». Sous ces prétextes, ces sociétés ont récupéré de la génétique et des données.

Jean-François Moulin, oncologue à l’Institut Paoli-Calmettes.

Intelligence artificielle et santé : vers un monde meilleur ?

 

 

Les données.

Si vous les donnez à un hôpital français, aujourd’hui, il n’a pas  le droit de les exploiter commercialement car le dossier médial est protégé. Mais si vous les donnez à Facebook, à Amazon, à une boîte qui écoute chez vous tout ce que vous faites, quand vous rentrez, quand vous partez, à quelle vitesse vous marchez,  si vous avez bu ou on ne vous ouvre pas la voiture, c’est de votre responsabilité. On détecte sur Google les épidémies de grippe, l’apparition de signes prédictifs de complication du diabète chez les diabétiques en analysant les forums. Pour le Médiator, tout ce qui avait été trouvé était présent sur les forums dix ans avant.

Mais attention, on peut trouver que vous êtes trop comme ceci, pas assez comme cela, que vous ne devez pas aller là…Quelle réputation on veut vous faire ? Qui peut dire qui vous êtes ?

Qui décide si vous êtes bien ou pas bien ?

 

 

Jean-François Moulin, oncologue à l’Institut Paoli-Calmettes.

Intelligence artificielle et santé : vers un monde meilleur ?

 

 

Les erreurs de diagnostique.

Une machine doit dire comment elle trouve le résultat. C’est la question de la confiance. Un médecin va expliquer pourquoi il annonce un diagnostique. IBM a développé une machine « Watson oncologie ». Si elle se trompe, la machine part à la poubelle.

Il faut que le diagnostique soit meilleur que celui des médecins. Ces machines dépensent beaucoup d’énergie.

Pour les mélanomes, ils ont entraîné la machine pour des peaux blanches. Sur des peaux noires, la machine en a été incapable. Pourtant, c’est presque la moitié de l’humanité.

Jean-François Moulin, oncologue à l’Institut Paoli-Calmettes.

Intelligence artificielle et santé : vers un monde meilleur ?

 

La donnée est universelle.

 

Dès le départ, il faut faire attention pour que le rêve ne devienne pas un cauchemar. Il y a des intentions qui sont bonnes et d’autres malveillantes dès le départ.

« Google health » est lancé. Plusieurs milliards de personnes sont connectées à Facebook. Il suffit qu’il y en ait un pour cent qui mette des échographies sur FB et Google a une base de données d’échographies mondiales qu’aucun hôpital n’a. Le système anglais ne l’a pas.

Nous devons en parler autour de nous. Nos données nous appartiennent. Comme pour une greffe, on peut donner un organe dont on n’est pas propriétaire. On ne vend pas notre rein en Europe. On ne vend pas nos données. La donnée est universelle.

Après le génome, il y a le digitosome. Cette empreinte digitale que nous laissons partout est utilisée pour les recherches sur les diabétiques.

Philippe Pujol, journaliste

Intelligence artificielle et santé : vers un monde meilleur ?

 

Les données et les jeunes.

 

Il ne croit pas à l’éducation. Car les plus jeunes, en 2040, s’en moqueront complètement. A son avis, les données seront acquises pour les jeunes qui naissent maintenant. Tout sera public. Les étudiants de Sciences Po qui ont une vingtaine d’années ont un décalage avec lui. On peut tout dire. Il n’y a presque plus de secret. C’est ce qu’ils font dans la drague avec Tender. Ils s’échangent des fiches et quand ils se rencontrent, ils se connaissent déjà.

Qui doit décider ? Le politique dans le sens noble du terme, doit le faire car on vote pour lui. Il travaille dans le cadre de commissions.

 

 

Prix de l'assurance santé en fonction du comportement

Risque d'une médecine à plusieurs vitesses.

Londres 
Greenwich 
Observatoire et méridien 
Sharp 
Abraham Sharp (1653-18 juillet 1742) était un mathématicien et astronome anglais. 
Sharp s'installe à Little Horton, calculant, fabriquant des instruments et correspondant avec des scientifiques.

L'astronomie a attiré l'attention de Flamsteed et c'est par l'intermédiaire de Flamsteed que Sharp a été invité, en 1688, à entrer à l'Observatoire royal de Greenwich.
Dans une lettre datée de Greenwich, le 20 septembre 1710, et adressée à Abraham Sharp à Little Horton, Flamsteed 
écrit: 
"Vous avez vécu avec moi en 1684 et 1685".
Abraham Sharp avec ses précisions précises sur les  angles est  nommé assistant astronome royal.

 

Un « incident sérieux » au décollage d’un avion de 200 passagers à cause… du sexisme.
L'organisme britannique d'enquête sur les accidents aériens a émis un rapport sur un « incident sérieux » constaté en juillet 2020. À cause d'un logiciel qui avait classé toute les passagères catégorisées « mademoiselle » en « enfants », l'avion a décollé avec moins de puissance qu'il aurait dû. Une défaillance qui aurait pu causer de graves accidents.
(…) Cette mise à jour avait causé un bug : toutes les passagères (majoritairement des femmes anglaises) qui avaient coché la case « Miss » (mademoiselle) se sont vues attribuer les caractéristiques d’un enfant. Or la classification utilisée associe un poids (moyen) de 34 kg à un enfant, et un poids (moyen) de 69 kg à une femme, soit deux fois plus. 38 femmes ont ainsi été catégorisées comme des enfants.

(…) L’état de charge (le fichier qui contient le poids total des passagers) faisait état de 65 enfants à bord, contre seulement 29 enfants à bord attendus sur le plan de vol. 

(…) Aucune information n’a été donnée pour identifier le pays dans lequel cette programmation a été faite.

(…) Au 21è siècle, il est encore demandé aux femmes de choisir entre la catégorie « mademoiselle » et « madame » lorsqu’elles voyagent.

 (…) Les fondements du mariage (est un, NDLR) contrat qui agence la société depuis des siècles, historiquement basé sur une femme censée acquérir « stabilité » en s’associant à un mari qui travaille pour deux, tandis qu’elle s’occupe de tâches non-rémunérées à l’intérieur du foyer.

(…) Nous avons fait le test avec plusieurs compagnies, dont Air France : les femmes sont encore obligées de choisir (le champ est obligatoire) entre le champ « Madame » et « Mademoiselle ». En revanche, le site de TUI Airways ne proposait plus, le 10 avril 2021, que deux champs : M. ou Mme.

(…) « LA RELATION ENTRE LE TITRE D’UN PASSAGER ET LE POIDS MOYEN ATTRIBUÉ N’A PAS ÉTÉ ABORDÉE. »

Gladys West, née Brown en 1930, est une mathématicienne américaine connue pour ses contributions aux systèmes de positionnement par satellites.

 

Première de sa classe au lycée, Gladys West, fille d’agriculteur, voit son salut à travers l’école. Brillante, elle obtient une bourse et entre au Virginia State University. Puis intègre, en 1956, le Naval Center. C’est l’une des premières femmes noires à y avoir travaillé.

Gladys West a fait ses études à l’université d’État de Virginie (VSU) avec une bourse d’études complète et a travaillé comme prof de maths pendant deux ans avant d’obtenir un Master. Quand elle a été embauchée par la base militaire de l’US Navy en 1956, elle faisait partie des quatre employés noirs de la base, en tout et pour tout.

 

Gladys West collecte les données mathématiques des satellites, qu’elle entre dans d’énormes ordinateurs occupant des salles entières, pour faire des calculs. Perfectionniste, elle s’y reprend autant de fois que possible pour obtenir des résultats fiables.

 

Le GPS que l’on utilise tous les jours dans sa voiture, c’est elle qui l’a créé, c’est une femme, elle est khadhor’, elle est américaine, descendante d’esclave, issue d’une famille d’agriculteur.

-------------

Gérald Darmanin.
Les algorithmes pour "prévenir" les attentats et surtout les manifestations.
"La Marseillaise".
 
-----------
Gérald Darmanin s'occupe des manifestant.e.s.
Les manifestations seront sous contrôle.
Les renseignements généraux travailleront en amont avec les données d'internet.
Source JDD.
-----------
Gérald Darmanin s'attaque à la surveillance des sites web des Français.e.s.
Les algorithmes seront au service de l'état policier.
---------
Loi antiterroriste : l’utilisation des algorithmes pour déceler des menaces pose question

 

(…) « Cette surveillance de masse va analyser potentiellement tous les messages de la population. Pas forcément le contenu, mais le contexte. Qui parle à qui, à quelle heure… On craint que le prétexte de l’antiterrorisme soit dévié contre des opposants politiques. »

Alors que pourront effectivement faire ou non les services de renseignement si cette nouvelle loi est adoptée ?

(…) Ils pourront désormais passer au crible les sites web consultés par les citoyens. Une alerte serait donc déclenchée dès qu’un individu cliquera sur un site suspect, pouvant porter atteinte à la sécurité nationale.

(…) À partir du moment où l’algorithme aura pointé un danger potentiel, « on entrera dans des techniques plus intrusives, avec autorisations », a expliqué le coordonnateur.

(…) L’algorithme des données téléphoniques n’a (pas, NDLR) permis d’éviter aucun attentat depuis six ans. Et le projet de loi semble pour le moment avoir un sérieux trou dans la raquette, puisque « nul ne dit quelles mesures entraîneront la consultation de sites suspects ou le fait de poster des contenus jugés haineux ».

L'algorithme du licenciement chez les plateformes de livraison:

Des employés ayant effectué des milliers de livraisons avec un taux de satisfaction de 100% affirment qu’ils «ont été subitement exclus de la plateforme» par les algorithmes de Microsoft.
L'économie numérique | Travail à la demande | ARTE
Livraison de repas à domicile, voitures avec chauffeur, participation rémunérée à des sondages : "l'économie des petits boulots" ou "gig economy" génère un chiffre d'affaires planétaire de 5 000 milliards de dollars, en constante expansion. Des États-Unis au Nigeria, de la France à la Chine, un voyage à la rencontre des travailleurs "à la tâche" de l'économie numérique mondialisée.   "Accédez à une main-d'œuvre mondiale, à la demande, 24 heures sur 24 et 7 jours sur 7", promet la plate-forme d'Amazon Mechanical Turk, dite "M Turk", créée au début des années 2000 pour proposer des services allant de la correction de données à la participation à des sondages en passant par l'évaluation de photos pour des sites de rencontres. Elle emploie aujourd'hui un demi-million d'"indépendants" dans 190 pays qui, hors Inde et États-Unis, sont rémunérés en bons d'achat Amazon, pour une moyenne de 10 à 20 dollars par jour. Avec la livraison de repas à domicile et les VTC (voitures avec chauffeur), elle constitue l'un des emblèmes de cette gig economy, littéralement "économie des petits boulots", qui génère un chiffre d'affaires planétaire de 5 000 milliards de dollars, en constante expansion. On estime que 500 millions de personnes en dépendront pour vivre, ou plutôt survivre, en 2025. Car la liberté et la simplicité d'accès qui font le succès des plates-formes reposent aujourd'hui sur leur exploitation.  Pour une poignée de dollars  À San Francisco, Al Aloudi et Annette, chauffeurs Uber dont les gains ont fondu, puis disparu avec la pandémie, luttent pour se faire reconnaître comme salariés par la plate-forme. À Strasbourg et à Paris, Leila et ses pairs, livreurs cyclistes de repas, s'engagent dans une bataille similaire contre Deliveroo après l'accident grave dont a été victime l'un d'entre eux. Dans une bourgade de Floride, Jason expose ses combines pour arracher à M Turk quelques dollars de plus, tandis que d'autres "travailleurs fantômes", à Lagos ou ailleurs, décrivent leur sujétion permanente à l'écran pour ne pas rater une opportunité. Cet aperçu éloquent et sensible de la division planétaire du travail révèle le coût humain, mais aussi environnemental, de l'expansion dérégulée de l'économie numérique, à l'image de ces millions de vélos urbains jetés dans une décharge de Shenzhen, conséquence de la concurrence effrénée entre loueurs. Travail à la demande Documentaire de Harold Crooks (France, 2017, 1h27mn) Disponible jusqu'au 24/10/2021

-------------

Travail à la demande (Arte) : "Derrière des outils numériques qui paraissent magiques se trouve une armée de gens mal payés".
(…) Le premier, (est, NDLR) consacré à l'économie dite "de plateforme" – Uber, Amazon, Deliveroo, etc.
(…) En tant qu’utilisateurs, nous avons aussi notre part de responsabilité. Des usages qui semblent nous simplifier la vie ont un coût humain que l’on oublie trop souvent.
(…) Ces gens craignent que leur témoignage leur porte préjudice. Ils ont besoin de ce travail-là même si les conditions sont difficiles.

 

Selon Amnesty International, Twitter n'en fait pas assez pour protéger les femmes.

 

(…) "Twitter a révélé qu'elle se sert d'algorithmes pour combattre la désinformation dans le cadre de la pandémie de Covid-19, mais n'a pas affiché le même degré de transparence sur la façon dont les algorithmes sont utilisés pour lutter contre les tweets violents."

(…)  "Il est tout à fait dans ses cordes de mettre en place ces changements". 

Deliveroo ose tout : et maintenant, des étudiants payés à la tâche pour faire les garde-chiourmes.

 

(…) Sa dernière trouvaille : dépêcher des étudiants embauchés à la tâche, via un site Web dédié, pour transmettre des rappels à l’ordre aux livreurs, eux-mêmes auto­entrepreneurs. Après le travail ubérisé, Deliveroo invente ainsi les ressources humaines sous-traitées à des précaires indépendants, en direction d’autres précaires indépendants.

Ils n’ont pas honte !. L’algorithme raciste de Facebook.

L’intelligence artificielle du réseau social a confondu des personnes noires avec des singes, rappelant les biais racistes de cet outil.

Algorithmes racistes ? Facebook confond par erreur des hommes noirs avec des singes et s'excuse.
Sous une vidéo où des hommes noirs apparaissent, l'algorithme de Facebook a demandé aux internautes s'ils souhaitaient "voir plus de vidéos sur les primates ?". Ce n'est pas la première fois que la plateforme est épinglée pour de tels faits de racisme, tout comme Google et Twitter.
(…) "Même si nous avons amélioré nos systèmes d'intelligence artificielle, nous savons qu'ils ne sont pas parfaits et que nous avons des progrès à faire"
(…) L'an dernier, dans la traduction automatique d'un texte birman en anglais, le président chinois Xi Jinping était qualifié de «Mr. S***hole» («M. Tr** du C*l»). Un problème de traduction automatique, qui n'a pas affecté Google.

Lire aussi:

 

Publié dans Politique

Pour être informé des derniers articles, inscrivez vous :
Commenter cet article