Le journaliste israélien Yuval Abraham a rédigé un article détaillé, qui s’appuie sur de multiples sources, expliquant comment les forces israéliennes ont désigné des dizaines de milliers d’habitants de Gaza comme suspects d’assassinat à l’aide d’un système de ciblage par intelligence artificielle.
Le droit international est fondé sur la responsabilité humaine et l’obligation de rendre des comptes lorsque des êtres humains tuent d’autres êtres humains. Le droit relatif aux combattants armés est le plus étendu, mais la responsabilité personnelle s’applique également au meurtre de civils, de femmes et d’enfants.
Mais qu’en est-il si l’on prétend que le meurtre est dirigé par une «machine» – par une intelligence artificielle, basée sur une «science» algorithmique ?
La responsabilité humaine dans le meurtre d’«autrui» est-elle en quelque sorte absoute par l’intention «scientifique» des listes de personnes à abattre générées par des machines d’intelligence artificielle – lorsqu’elles «deviennent folles» ?
C’est la question que soulève l’utilisation par les forces israéliennes de l’IA «Lavender» pour fournir à Israël des listes de personnes à abattre dans la bande de Gaza.
Le journaliste israélien Yuval Abraham a rédigé un compte rendu détaillé, aux sources multiples et «dénonciateur», qui explique comment les forces israéliennes ont désigné des dizaines de milliers d’habitants de Gaza comme suspects d’assassinat à l’aide d’un système de ciblage par IA, avec peu de contrôle humain et une politique permissive en matière de pertes humaines.
Le créateur du système, l’actuel commandant de l’unité d’élite du renseignement israélien 8200, avait auparavant plaidé en faveur de la conception d’une «machine à cibler» basée sur des algorithmes d’intelligence artificielle et d’apprentissage automatique, capable de traiter rapidement des quantités massives de données afin de générer des milliers de «cibles» potentielles pour des frappes militaires, dans le feu de l’action.
Comme l’explique Abraham,
«Officiellement, le système Lavender est conçu pour marquer tous les agents présumés des ailes militaires du Hamas et du Jihad islamique palestinien (PIJ), notamment ceux de bas rang, comme cibles potentielles de bombardements. Les sources ont déclaré à +972 et à Local Call qu’au cours des premières semaines de la guerre, l’armée s’est presque entièrement appuyée sur Lavender, qui a marqué jusqu’à 37 000 Palestiniens comme militants présumés – et leurs maisons – en vue d’éventuelles frappes aériennes».
«Au cours des premières phases de la guerre, l’armée a largement autorisé les officiers à adopter les listes de personnes à abattre de Lavender, sans exiger de vérification approfondie des raisons pour lesquelles la machine avait fait ces choix ni d’examen des données brutes de renseignement sur lesquelles elles étaient basées. Une source a indiqué que le personnel humain ne faisait souvent qu’entériner les décisions de la machine, ajoutant que, normalement, il ne consacrait personnellement qu’une vingtaine de secondes à chaque cible avant d’autoriser un bombardement».
Pour être clair : Le «génocide» généré par l’IA enfonce un pieu dans le cœur du droit international humanitaire.
«Le résultat est que des milliers de Palestiniens – pour la plupart des femmes et des enfants ou des personnes qui n’étaient pas impliquées dans les combats – ont été anéantis par les frappes aériennes israéliennes, en particulier au cours des premières semaines de la guerre, en raison des décisions du programme d’IA».
Qui est donc responsable ? Qui doit être tenu pour responsable ?
Le système était défectueux dès le départ. Les forces militaires Al-Qassam du Hamas opèrent depuis de profonds tunnels souterrains, où se trouvent leurs quartiers d’hébergement, ce qui les rend imperméables aux programmes de reconnaissance faciale mis en œuvre par la reconnaissance aérienne israélienne au-dessus de Gaza.
Deuxièmement, comme l’a expliqué un haut responsable du bureau «B» à Abraham, «nous ne savions pas qui étaient les agents de niveau inférieur [à la surface]». Les combattants du Qassam et les civils de Gaza ne sont pas différents. Lavender a donc identifié ces «cibles» comme étant «affiliées au Hamas» sur des lignes de démarcation fluides, telles qu’elles ont pu rejoindre un jour un groupe Whatsapp comprenant notamment un membre du Hamas, ou qu’elles ont prêté leur téléphone à leur famille ou encore qu’elles l’ont laissé en charge à la maison.
«Ils voulaient nous permettre d’attaquer automatiquement [les agents subalternes]. C’est le Saint Graal. Une fois que vous passez à l’automatisme, la génération de cibles devient folle».
«Selon certaines sources, la machine attribue à presque chaque personne de Gaza une note de 1 à 100, exprimant la probabilité qu’il s’agisse d’un militant».
Ayant travaillé quelques années à Gaza, je peux dire que tout le monde connaissait ou parlait à quelqu’un du Hamas à Gaza. Le Hamas y a remporté les élections à une écrasante majorité en 2006 : Presque tout le monde peut donc être considéré – d’une manière ou d’une autre – comme «affilié».
Et ce n’est pas tout :
«À 5 heures du matin, [l’armée de l’air] arrivait et bombardait toutes les maisons que nous avions marquées», raconte B.. «Nous avons éliminé des milliers de personnes. Nous ne les avons pas examinées une par une – nous avons tout mis dans des systèmes automatisés, et dès que l’une [des personnes marquées] était chez elle, elle devenait immédiatement une cible. Nous la bombardions, elle et sa maison».
«L’armée préférait n’utiliser que des bombes «muettes»… Vous ne voulez pas gaspiller des bombes coûteuses sur des personnes sans importance – cela coûte très cher au pays et il y a une pénurie [de ces bombes]», a déclaré B.
L’auteur du système Lavender, le général de brigade Yossi Sariel, a écrit anonymement dans «The Human Machine Team» (2021) que la synergie entre «l’intelligence humaine et l’intelligence artificielle révolutionnera notre monde». Il est clair que les dirigeants israéliens (et certains à Washington également – voir, par exemple, cet article de John Spencer, titulaire de la chaire d’études sur les guerres urbaines à l’académie militaire d’élite de l’armée américaine, WestPoint) ont cru à son enthousiasme pour cette révolution dans la guerre. D’où l’affirmation répétée de Netanyahou selon laquelle Israël était sur le point de remporter une «grande victoire» à Gaza, 19 des 24 brigades du Hamas ayant été démantelées. Nous savons aujourd’hui qu’il s’agissait d’un non-sens.
L’IA devait être l’arme secrète d’Israël. Yossi Sariel (l’initiateur de Lavender) a récemment fait son mea culpa (rapporté dans The Guardian) : Les détracteurs de Sariel, dans un rapport cité par le Guardian, estiment que la priorité accordée par l’Unité 8200 à une technologie «addictive et excitante» au détriment de méthodes de renseignement plus traditionnelles a conduit à un désastre. Un fonctionnaire chevronné a déclaré au Guardian que l’unité dirigée par Sariel avait «suivi la nouvelle bulle du renseignement [IA]».
Pour sa part, Sariel aurait déclaré à ses collègues, au lendemain du 7 octobre : «J’accepte la responsabilité de ce qui s’est passé au sens le plus profond du terme». «Nous avons été vaincus. J’ai été vaincu».
Oui – et des dizaines de milliers de Palestiniens innocents, de femmes et d’enfants ont été brutalement tués en conséquence. Et Gaza n’est plus qu’un champ de ruines. Le rapport d’enquête de Yuval Abraham devrait être transmis à la Cour internationale de justice (CIJ) pour qu’elle examine les preuves d’un «génocide présumé» à Gaza.
source : Al Mayadeen