Les États-Unis et le Canada, dirigés par des libéraux sous l’emprise du Forum économique mondial, se rapprochent de la mise en œuvre d’une technologie de crédit social et d’IA prédictive à la chinoise, qui récompense le gouvernement avec une autorité centrale de niveau soviétique et place une cible sur le dos des citoyens.

D’ici peu, chaque citoyen et chaque foyer américain sera signalé et se verra attribuer un score de menace.

Sans avoir jamais commis de crime en connaissance de cause ni avoir été condamnés, vous et vos concitoyens avez probablement été évalués pour des comportements que le gouvernement pourrait considérer comme sournois, dangereux ou inquiétants ; on vous a attribué un score de menace en fonction de vos associations, de vos activités et de vos points de vue ; et vous avez été catalogués dans une base de données gouvernementale en fonction de la manière dont la police et les autres agences gouvernementales devraient vous aborder en fonction de votre niveau de menace particulier.

Si les ramifications de l’utilisation et de l’abus d’un tel programme ne vous inquiètent pas, continuez à lire. Via John Whitehead :

Ce n’est qu’une question de temps avant que vous ne vous retrouviez accusé à tort, que vous ne fassiez l’objet d’une enquête et que vous ne soyez confronté à la police sur la base d’un algorithme fondé sur des données ou d’une évaluation des risques élaborée par un programme informatique géré par une intelligence artificielle.

Prenons le cas de Michael Williams, qui a passé près d’un an en prison pour un crime qu’il n’a pas commis. Williams était au volant lorsqu’une voiture qui passait a tiré sur son véhicule, tuant son passager de 25 ans, Safarian Herring, qui avait fait du stop.

Malgré le fait que Williams n’avait aucun mobile, qu’il n’y avait aucun témoin oculaire de la fusillade, qu’aucune arme n’a été trouvée dans la voiture et que Williams lui-même a conduit Herring à l’hôpital, la police a accusé l’homme de 65 ans de meurtre au premier degré en se basant sur ShotSpotter, un programme de détection de coups de feu qui avait capté une forte détonation sur son réseau de microphones de surveillance et triangulé le bruit pour qu’il corresponde à une vidéo de sécurité silencieuse montrant la voiture de Williams traversant une intersection. L’affaire a finalement été rejetée pour manque de preuves.

Bien que les programmes de détection de coups de feu comme ShotSpotter gagnent en popularité auprès des forces de l’ordre, des procureurs et des tribunaux, ils sont truffés de défauts, confondant « les bennes à ordures, les camions, les motos, les hélicoptères, les feux d’artifice, les travaux de construction, le ramassage des ordures et les cloches d’église… avec des coups de feu ».

Comme l’a constaté une enquête de l’Associated Press« le système peut manquer des tirs en direct juste sous ses microphones, ou classer à tort les bruits de feux d’artifice ou de voitures pétaradantes comme des coups de feu ».

Dans une communauté, le ShotSpotter a fonctionné moins de 50 % du temps.

Ensuite, il y a l’élément humain de la corruption qui s’ajoute invariablement au mélange. Dans certains cas, « des employés ont modifié les sons détectés par le système pour dire qu’il s’agit de coups de feu ». Les rapports médico-légaux préparés par les employés de ShotSpotter ont également « été utilisés au tribunal pour affirmer à tort qu’un défendeur a tiré sur la police, ou fournir un décompte douteux du nombre de coups de feu prétendument tirés par les défendeurs ».

La même société qui possède ShotSpotter possède également un programme de police prédictive qui vise à utiliser les données de détection des coups de feu pour « prédire » les crimes avant qu’ils ne se produisent. Les présidents Biden et Trump ont tous deux poussé à une plus grande utilisation de ces programmes prédictifs pour lutter contre la violence armée dans les communautés, malgré le fait qu’il n’a pas été constaté qu’ils réduisaient la violence armée ou augmentaient la sécurité des communautés.

La raison d’être de cette fusion de la surveillance généralisée, des technologies de prédiction du comportement, de l’exploration des données, de la technologie précognitive et des programmes de dénonciation des quartiers et des familles est censée permettre au gouvernement de prendre des mesures préventives pour combattre la criminalité (ou tout ce que le gouvernement a choisi d’interdire à un moment donné).

Il s’agit de la précriminalité, tout droit sortie du royaume des films de science-fiction dystopiques tels que Minority Report, qui vise à prévenir les crimes avant qu’ils ne se produisent, mais en fait, ce n’est qu’un autre moyen de placer les citoyens dans le collimateur du gouvernement afin de verrouiller la nation.

Même les services sociaux s’y mettent, avec des algorithmes informatiques qui tentent de prédire quels ménages pourraient être coupables d’abus et de négligence envers les enfants.

Il suffit qu’un robot IA signale un foyer pour négligence potentielle pour qu’une famille fasse l’objet d’une enquête, soit reconnue coupable et que les enfants soient placés en famille d’accueil.

Il faut savoir que la négligence potentielle peut aller d’un logement inadéquat à une mauvaise hygiène, mais qu’elle est différente des abus physiques ou sexuels.

Selon un rapport d’enquête de l’Associated Press, une fois que les incidents de négligence potentielle sont signalés à une ligne d’assistance téléphonique pour la protection de l’enfance, les rapports sont soumis à un processus de sélection qui rassemble « les données personnelles recueillies à partir des dossiers de naissance, de Medicaid, de toxicomanie, de santé mentale, de prison et de probation, entre autres ensembles de données gouvernementales ». L’algorithme calcule ensuite le risque potentiel de l’enfant et lui attribue un score de 1 à 20 pour prédire le risque qu’un enfant soit placé en famille d’accueil dans les deux années suivant l’enquête« Plus le chiffre est élevé, plus le risque est grand. Les travailleurs sociaux utilisent alors leur pouvoir discrétionnaire pour décider d’enquêter ou non. »

D’autres modèles prédictifs utilisés dans tout le pays s’efforcent « d’évaluer le risque de décès et de blessures graves d’un enfant, de déterminer si les enfants doivent être placés en famille d’accueil et, si oui, où ».

Aussi incroyable que cela puisse paraître, il n’y a aucun moyen pour une famille de savoir si la technologie prédictive de l’IA est responsable du fait qu’elle ait été ciblée, enquêtée et séparée de ses enfants. Comme le note l’AP« les familles et leurs avocats ne peuvent jamais être sûrs du rôle de l’algorithme dans leur vie, car ils ne sont pas autorisés à connaître les scores« .

Une chose que nous savons, cependant, c’est que le système cible de manière disproportionnée les familles noires et pauvres en vue d’une intervention, d’une perturbation et éventuellement d’un déplacement, parce que la plupart des données utilisées sont glanées dans les communautés à faible revenu et minoritaires.

La technologie est également loin d’être infaillible. Dans un seul comté, un problème technique a présenté aux travailleurs sociaux des scores erronés, sous-estimant ou surestimant le risque d’un enfant.

Pourtant, faillible ou non, le programme de dépistage prédictif de l’IA est largement utilisé dans tout le pays par les agences gouvernementales pour surveiller et cibler les familles à enquêter. Les retombées de cette surveillance excessive, selon Aysha Schomburg, commissaire adjointe du Bureau des enfants des États-Unis, sont des « séparations familiales massives ».

L’impact de ce type d’outils prédictifs d’IA se fait sentir dans presque tous les domaines de la vie.

Sous le prétexte d’aider les agences gouvernementales débordées à travailler plus efficacement, les technologies prédictives et de surveillance de l’IA sont utilisées pour classer, séparer et signaler la population sans se soucier du droit à la vie privée ou de la procédure régulière.

Tous ces tris, tamisages et calculs sont effectués rapidement, secrètement et sans cesse avec l’aide de la technologie de l’IA et d’un État de surveillance qui suit chacun de vos mouvements.

Cela devient particulièrement dangereux lorsque le gouvernement prend des mesures préventives pour lutter contre la criminalité ou les abus, ou tout ce qu’il a choisi de proscrire à un moment donné.

Ainsi, les agents du gouvernement – avec l’aide d’yeux et d’oreilles automatisés, d’un arsenal croissant de logiciels, de matériel et de techniques de haute technologie, de la propagande gouvernementale incitant les Américains à devenir des espions et des mouchards, ainsi que des médias sociaux et des logiciels de détection du comportement – tissent une toile d’araignée collante d’évaluations de menaces, d’avertissements de détection du comportement, de « mots » marqués et de rapports d’activités « suspectes » visant à attraper les ennemis potentiels de l’État.

Êtes-vous un vétéran de l’armée souffrant du syndrome de stress post-traumatique ? Avez-vous exprimé des opinions controversées, découragées ou en colère sur les médias sociaux ? Fréquentez-vous des personnes ayant un casier judiciaire ou adhérant à des théories du complot ? Vous a-t-on vu avoir l’air en colère à l’épicerie ? Votre apparence est-elle négligée en public ? Votre conduite est-elle irrégulière ? Les précédents occupants de votre maison ont-ils eu des démêlés avec la police ?

Tous ces détails et bien d’autres sont utilisés par la technologie de l’IA pour créer un profil de vous qui aura un impact sur vos relations avec le gouvernement.

Il s’agit de l’État policier américain réuni en un ensemble oppressant de pré-crime et de crime pré-pensé, et le résultat final est la mort de la procédure régulière.

En un mot, la procédure régulière a été conçue comme un rempart contre les abus du gouvernement. L’application régulière de la loi interdit au gouvernement de priver quiconque de « vie, liberté et propriété » sans s’assurer au préalable que les droits d’une personne ont été reconnus et respectés et qu’elle a eu l’occasion de connaître les accusations portées contre elle et de se défendre contre ces accusations.

Avec l’avènement des programmes de police prédictive IA financés par le gouvernement qui surveillent et signalent une personne comme une menace potentielle devant faire l’objet d’une enquête et être traitée comme dangereuse, il ne peut y avoir aucune garantie de procédure régulière : vous avez déjà été transformé en suspect.

Pour vous dégager des retombées d’une telle évaluation de la menace, la charge de la preuve vous incombe de prouver votre innocence.

Vous voyez le problème ?

Autrefois, toute personne avait le droit d’être présumée innocente jusqu’à preuve du contraire, et la charge de la preuve incombait à ses accusateurs. Cette présomption d’innocence a depuis été renversée par un État de surveillance qui nous rend tous suspects et une surcriminalisation qui nous rend tous potentiellement coupables d’un méfait ou d’un autre.

Combinez la technologie de l’IA prédictive avec la surveillance et la surcriminalisation, puis ajoutez une police militarisée qui s’introduit dans les portes au milieu de la nuit pour délivrer un mandat de routine, et vous aurez de la chance de vous en sortir vivant.

Mais attention : une fois que vous avez été repéré par une caméra de surveillance, signalé par un programme de dépistage prédictif de l’IA et placé sur une liste de surveillance gouvernementale – qu’il s’agisse d’une liste de surveillance pour négligence envers les enfants, d’une liste de surveillance de la santé mentale, d’une liste de surveillance des dissidents, d’une liste de surveillance des terroristes ou d’une liste de surveillance des armes à feu avec drapeau rouge – il n’y a pas de moyen clair d’en sortir, que vous deviez ou non y être.

Vous serez suivi partout où vous irez, signalé comme une menace potentielle et traité en conséquence.

Si vous n’avez pas encore peur, vous devriez avoir peur.

Nous avons fait en sorte qu’il soit trop facile pour le gouvernement d’identifier, d’étiqueter, de cibler, de désamorcer et de détenir toute personne qu’il considère comme une menace potentielle pour une variété de raisons qui vont de la maladie mentale au fait d’avoir un passé militaire en passant par la contestation de son autorité ou le fait d’être simplement sur la liste des persona non grata du gouvernement.

Source : https://www.rutherford.org/publications_resources/john_whiteheads_commentary/youve_been_flagged_as_a_threat_predictive_ai_technology_puts_a_target_on_your_back

Traduction : https://exoconscience.com



Source:

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.