information par et pour les luttes, Rennes et sa région

« Saint Graal » génocidaire : comment Israël se sert de l’IA pour cibler des milliers de victimes

Antiracismes - colonialismes Guerres - Armement Solidarités internationales

Le « Saint Graal », c’est par ce terme que des officiers israéliens décrivent le système d’intelligence artificielle « Lavender » (Lavande) utilisée par l’armée israélienne depuis le 7 octobre. Dans une enquête menée par +972mag, on apprend que cette IA a joué un rôle central dans les bombardements sur Gaza en permettant à l’armée de répertorier environ 37.000 cibles potentielles, considérées comme membres du Hamas, et en élargissant le nombre de « victimes acceptables ».

Le journal en ligne avait déjà révélé en novembre dernier l’utilisation d’une autre intelligence artificielle, « The Gospel » (L’évangile), dans les offensives génocidaires de Tsahal. Cette IA a permis à l’armée israélienne de cibler des bâtiments où il y aurait eu des activités du Hamas pour ensuite mener des frappes aériennes, faisant des milliers de morts sur le passage.

Des milliers de « dommages collatéraux » : Israël élargit le nombre de victimes « acceptables » dans les frappes aériennes

Selon l’enquête, avant le 7 octobre, Tsahal utilisait le terme de « cible humaine » pour désigner les commandants militaires haut-gradés du Hamas pour des frappes aériennes sur leurs domiciles, faisant de leurs familles des dommages collatéraux « acceptables » selon Israël. Cette restriction n’existe plus. Maintenant, chaque membre supposé du Hamas est répertorié par l’IA et fiché dans une « kill-list ».

Comme nous l’explique +972mag, « pendant les premières semaines de la guerre, l’armée s’est presque totalement appuyée sur Lavender, qui avait ciblé environ 37.0000 personnes suspectées — avec leurs domiciles — pour de potentielles frappes aériennes ». De plus, d’autres systèmes électroniques comme « Where’s Daddy ? » (« Où est Papa ? ») ont été utilisé pour lancer les attaques au moment où les cibles rentraient chez eux, le soir, auprès de leurs familles. On notera le cynisme de l’Etat israélien dans le nom des logiciels.

Un des militaires qui a témoigné au journal anglophone explique : « Nous n’étions pas intéressés de tuer des agents [du Hamas] seulement lorsqu’ils se trouvaient dans des locaux militaires ou au milieu d’opérations militaires. Au contraire, Tsahal les a bombardés chez eux sans hésitation. C’est beaucoup plus facile de bombarder une famille. Le système est construit de manière à rechercher ces situations ». En utilisant la rhétorique des « boucliers humains », Tsahal continue de légitimer la mort des femmes et des enfants sous ses bombardements.

Selon deux sources du journal, l’armée a aussi étendu le nombre de « dommages collatéraux acceptables » dans le cadre d’une attaque. Alors que l’armée n’autorisait pas de dommages collatéraux pour l’assassinat d’un militant de base du Hamas, avec Lavender, elle permet désormais de tuer de 15 à 20 civils, un chiffre qui peut aller jusqu’à une centaine de civil lors d’opération ciblant un général. Il s’agit d’un élément de plus qui prouve la volonté israélienne de faire de Gaza un champ de ruine, inhabitable, et de réduire drastiquement le nombre de Palestiniens sur le territoire.

20 secondes pour décider : la recette d’une opération génocidaire

Avec le soutien et la complicité des différentes puissances impérialistes, Israël se permet de créer une sorte de flux tendu génocidaire, une manière de renforcer l’efficacité, au prix de meurtres sanglants de civils, au nom de l’éradication du Hamas. En effet, Lavender a déjà reconnu une marge d’erreur évaluée à 10 % et de cibler des individus n’ayant que très peu, ou pas du tout, de lien avec le Hamas.

Ces données n’empêchent pas des décisions extrêmement rapides basées sur les prédictions de l’IA. Selon les sources, l’armée « ne dévouerait qu’environ « 20 secondes » pour chaque cible avant d’autoriser un bombardement — le temps d’être sûr que la cible est un homme ». L’adoption de ce mode de décision n’a pris que deux semaines pour l’armée israélienne avant que la « liste à tuer » définit par l’IA ne deviennent la ressource principale utilisée pour ces attaques.

Classées selon des méthodes statistiques expliquées dans le livre « The Human-Machine Team » (L’équipe Humain-Robot) écrit par le commandant de l’unité israélienne 8200, l’IA Lavender se sert des données de surveillance pour pallier le problème des limites du travail humain dans l’identification des cibles. Selon les sources de +972mag, les décisions de l’IA se basent sur les listes de Palestiniens répertoriés à l’aide du système israélien de surveillance de masse. Une méthode qui, selon le journal, « substitue l’activité humaine et la précision pour la création de cibles massives et la létalité ».

L’enquête révèle aussi l’utilisation massive de « dumb bombs » (bombes débiles), des missiles coûtant bien moins chers à Israël et faisant des dégâts plus importants, en entrainant donc dans la mort beaucoup plus de victimes. Un choix assumé par Tsahal qui, selon les sources du journal, autoriserait des attaques « sans considérations pour les dommages collatéraux ».

Une politique de la terreur sur les Palestiniens, à l’aide de l’IA

Lors d’une opération menée pour assassinat Ayman Nofal, commandant d’une des brigades du Hamas, une source explique l’armée israélienne aurait autorisé le massacre d’environ 300 civils ainsi que la destruction de plusieurs bâtiments du camp de réfugiés d’Al-Bureij. Un des résidents du camp, Aéro Al-Khatib, explique à « +972mag » qu’ « entre seize et dix-huit maisons ont été rasées pendant l’attaque. Nous ne pouvions différencier un appartement d’un autre — tout était mélangé sous les décombres et nous avons trouvé des restes humains partout ».

Si l’armée israélienne continue d’utiliser le prétexte du 7 octobre dans la légitimation de sa politique génocidaire à l’encontre des Palestiniens, il apparaît clairement que les IA sont utilisées à des fins de terreur, pouvant cibler des milliers de personnes pour les éradiquer en quelques secondes. Une politique qui est appuyée par les puissances impérialistes à l’image des Etats-Unis où des fonds d’investissement comme Ibex Investors financent des start-ups de cybersécurité, des logiciels ou encore des infrastructures. C’est aussi le cas d’entreprise comme Elbit System qui fournit des drones et des outils de surveillance, dont les données sont utilisées par Israël pour bombarder Gaza.

Dans l’escalade guerrière et le renforcement militariste actuelle, l’utilisation des intelligences artificielles pour renforcer les armées des pays en guerre tend à de plus en plus se démocratiser, qu’importe, comme on l’a vu, le coût humain. Plus que jamais, il est essentiel d’apporter sa solidarité avec le peuple palestinien et de se mobiliser pour mettre fin à la guerre e au génocide en cours et soutenir le droit à l’auto-détermination du peuple palestinien.

https://www.revolutionpermanente.fr/Saint-Graal-genocidaire-comment-Israel-se-sert-de-l-IA-pour-cibler-des-milliers-de-victimes

Proposer un complément d'info

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par une administratrice du site.

Qui êtes-vous ?
Votre message
  • Pour créer des paragraphes, laissez simplement des lignes vides.

Derniers articles de la thématique « Guerres - Armement » :

Stop génocide en Palestine - Manif

Ce samedi 2 novembre, à 15h à République, continuons le combat pour la liberté du peuple palestinien et des peuples du monde entier !

Jénine dans le viseur

La tournée d’Ehab Gjafri et son film « Jénine dans le viseur » passera par la Bretagne en novembre. Le 18 à Rennes à l’Université de Rennes 2, et le 19 à Redon (20h10 au CinéManivel, 12 Quai Jean Bart)

Vers un autre soulèvement

Ces lignes répondent à un article paru dans Tinderbox, un journal hors-ligne d’anarchie combative. Fin 2010 un acte individuel de désespoir dans la ville de Sidi Bouzid a déclenché un bouleversement audacieux, enragé et joyeux qui a voyagé à travers l’Afrique du Nord jusqu’au Moyen-Orient et...

> Tous les articles "Guerres - Armement"

Derniers articles de la thématique « Antiracismes - colonialismes » :

Babacar, on ne t’oublie pas !

9e marche commémorative pour Babacar Gueye. Awa Gueye et le collectif vérité et justice pour Babacar Gueye vous invitent à participer, le samedi 7 décembre 2024, à la 9e journée en hommage à Babacar, tué de 5 balles, par la BAC de Rennes, dans la nuit du 2 au 3 décembre 2015.

WEEK-END RÉGIONAL DE FORMATION/ DISCUSSIONS A2C RENNES

📍 les 15-16 et 17 Novembre - OUVERT A TOUS.TES par Autonomie de Classe (A2C) 🎥 Vendredi 15 : un ciné discussion sur la lutte contre VIH 💥Samedi 16 et dimanche 17 : 2 jours de discussions de folie ! 🧅Un programme concocté aux petits oignons, avec un thème par demi-journée : lutte en Kanaky,...

> Tous les articles "Antiracismes - colonialismes"

Vous souhaitez publier un article ?

Vous organisez un évènement ? Vous avez un texte à diffuser ?
Ces colonnes vous sont ouvertes. Pour publier, suivez le guide !
Vous avez une question ? Un problème ? N’hésitez pas à nous contacter