Lavander : l’IA qui dirige les bombardements israéliens à Gaza

f8eu3fgwwaaqe 2

L’armée israélienne a désigné des dizaines de milliers d’habitants de Gaza comme cibles à assassiner, en utilisant un système de ciblage par IA avec peu de surveillance humaine et une politique permissive en matière de pertes, révèlent +972 et Local Call.

En 2021, un livre intitulé « The Human-Machine Team : How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World » a été publié en anglais sous le pseudonyme de « Brigadier General Y.S. » Dans cet ouvrage, l’auteur – un homme dont nous avons confirmé qu’il est l’actuel commandant de l’unité d’élite du renseignement israélien 8200 – plaide en faveur de la conception d’une machine spéciale capable de traiter rapidement des quantités massives de données afin de générer des milliers de « cibles » potentielles pour des frappes militaires dans le feu de l’action. Une telle technologie, écrit-il, résoudrait ce qu’il décrit comme un « goulot d’étranglement humain à la fois pour la localisation des nouvelles cibles et la prise de décision pour approuver les cibles ».

Il s’avère qu’une telle machine existe réellement. Une nouvelle enquête menée par +972 Magazine et Local Call révèle que l’armée israélienne a mis au point un programme basé sur l’intelligence artificielle, connu sous le nom de « Lavender », dévoilé ici pour la première fois. Selon six officiers de renseignement israéliens, qui ont tous servi dans l’armée pendant la guerre actuelle contre la bande de Gaza et ont été directement impliqués dans l’utilisation de l’intelligence artificielle pour générer des cibles à assassiner, Lavender a joué un rôle central dans le bombardement sans précédent des Palestiniens, en particulier pendant les premières phases de la guerre. En fait, selon les sources, son influence sur les opérations militaires était telle qu’elles traitaient les résultats de la machine d’IA « comme s’il s’agissait d’une décision humaine ».

Officiellement, le système Lavender est conçu pour marquer tous les agents présumés des ailes militaires du Hamas et du Jihad islamique palestinien, y compris les moins gradés, comme des cibles potentielles à bombarder. Les sources ont déclaré à +972 et à Local Call que, pendant les premières semaines de la guerre, l’armée s’est presque entièrement appuyée sur Lavender, qui a marqué jusqu’à 37 000 Palestiniens comme militants présumés – et leurs maisons – en vue d’éventuelles frappes aériennes.

Au début de la guerre, l’armée a largement autorisé les officiers à adopter les listes d’objectifs de Lavender, sans exiger de vérification approfondie des raisons pour lesquelles la machine avait fait ces choix, ni d’examen des données brutes de renseignement sur lesquelles elles étaient basées. Une source a déclaré que le personnel humain ne faisait souvent qu’entériner les décisions de la machine, ajoutant que, normalement, il ne consacrait personnellement qu’environ « 20 secondes » à chaque cible avant d’autoriser un bombardement – juste pour s’assurer que la cible marquée par Lavender est bien un homme. Et ce, tout en sachant que le système commet ce que l’on considère comme des « erreurs » dans environ 10 % des cas, et qu’il est connu pour marquer occasionnellement des individus qui n’ont qu’un lien ténu avec des groupes militants, voire aucun lien du tout.

En outre, l’armée israélienne a systématiquement attaqué les personnes ciblées alors qu’elles se trouvaient chez elles – généralement la nuit en présence de toute leur famille – plutôt qu’au cours d’une activité militaire. Selon les sources, cela s’explique par le fait que, du point de vue du renseignement, il est plus facile de localiser les individus dans leurs maisons privées. D’autres systèmes automatisés, dont celui appelé « Where’s Daddy ? » (« Où est Papa ? » – NdT), également révélé ici pour la première fois, ont été utilisés spécifiquement pour suivre les individus ciblés et effectuer des frappes lorsqu’ils étaient entrés dans la maison familiale.

Le résultat, comme en témoignent les sources, est que des milliers de Palestiniens – pour la plupart des femmes et des enfants ou des personnes qui n’étaient pas impliquées dans les combats – ont été anéantis par les frappes aériennes israéliennes, en particulier au cours des premières semaines de la guerre, en raison des décisions du programme d’IA.

« Nous ne voulions pas tuer les agents [du Hamas] uniquement lorsqu’ils se trouvaient dans un bâtiment militaire ou qu’ils étaient engagés dans une activité militaire », a déclaré A., un officier de renseignement, à +972 et Local Call. « Au contraire, les FDI les ont bombardés dans leurs maisons sans hésitation, comme première option. Il est beaucoup plus facile de bombarder la maison d’une famille. Le système est conçu pour les rechercher dans ces situations. »

La machine Lavender rejoint un autre système d’IA, « The Gospel », au sujet duquel des informations ont été révélées dans une enquête précédente de +972 et Local Call en novembre 2023, ainsi que dans les propres publications de l’armée israélienne. La différence fondamentale entre les deux systèmes réside dans la définition de la cible : alors que The Gospel marque les bâtiments et les structures à partir desquels, selon l’armée, les militants opèrent, Lavender marque les personnes – et les inscrit sur une liste de personnes à abattre.

En outre, selon les sources, lorsqu’il s’agissait de cibler des militants juniors présumés marqués par Lavender, l’armée préférait n’utiliser que des missiles non guidés, communément appelés bombes « stupides » (par opposition aux bombes de précision « intelligentes »), qui peuvent détruire des bâtiments entiers sur leurs occupants et causer d’importantes pertes humaines. « Vous ne voulez pas gaspiller des bombes coûteuses sur des personnes sans importance – cela coûte très cher au pays et il y a une pénurie [de ces bombes] », a déclaré C., l’un des officiers de renseignement. Une autre source a déclaré avoir personnellement autorisé le bombardement de « centaines » de domiciles privés d’agents subalternes présumés marqués par Lavender, nombre de ces attaques tuant des civils et des familles entières en tant que « dommages collatéraux ».

Selon deux de ces sources, l’armée a également décidé, au cours des premières semaines de la guerre, que pour chaque agent subalterne du Hamas marqué par Lavender, il était permis de tuer jusqu’à 15 ou 20 civils ; par le passé, l’armée n’autorisait aucun « dommage collatéral » lors de l’assassinat de militants de bas rang. Les sources ont ajouté que, dans le cas où la cible était un haut responsable du Hamas ayant le rang de commandant de bataillon ou de brigade, l’armée a autorisé à plusieurs reprises le meurtre de plus de 100 civils lors de l’assassinat d’un seul commandant.

L’enquête qui suit est organisée selon les six étapes chronologiques de la production hautement automatisée de cibles par l’armée israélienne au cours des premières semaines de la guerre de Gaza. Tout d’abord, nous expliquons la machine Lavender elle-même, qui a marqué des dizaines de milliers de Palestiniens à l’aide de l’IA. Ensuite, nous révélons le système « Where’s Daddy ? » (Où est papa ?), qui a suivi ces cibles et signalé à l’armée qu’elles entraient dans leurs maisons familiales. Enfin, nous décrivons comment les bombes « stupides » ont été choisies pour frapper ces maisons.

Quatrièmement, nous expliquons comment l’armée a assoupli le nombre autorisé de civils pouvant être tués lors du bombardement d’une cible. Cinquièmement, nous indiquons comment un logiciel automatisé a calculé de manière inexacte le nombre de non-combattants dans chaque foyer. Sixièmement, nous montrons qu’à plusieurs reprises, lorsqu’une maison a été frappée, généralement la nuit, la cible individuelle n’était parfois pas présente, parce que les officiers militaires n’ont pas vérifié l’information en temps réel.

ÉTAPE 1 : DÉFINITION DES OBJECTIFS

« Une fois que l’on passe à l’automatisme, la génération de cibles s’emballe ».

Dans l’armée israélienne, le terme « cible humaine » désignait autrefois un haut responsable militaire qui, selon les règles du département du droit international de l’armée, pouvait être tué à son domicile privé, même s’il y avait des civils autour de lui. Des sources de renseignement ont déclaré à +972 et à Local Call qu’au cours des précédentes guerres d’Israël, étant donné qu’il s’agissait d’une manière « particulièrement brutale » de tuer quelqu’un – souvent en tuant toute une famille à côté de la cible – ces cibles humaines étaient marquées très soigneusement et seuls les hauts commandants militaires étaient bombardés à leur domicile, afin de maintenir le principe de proportionnalité en vertu du droit international.

Mais après le 7 octobre, lorsque les militants du Hamas ont lancé un assaut meurtrier contre les communautés du sud d’Israël, tuant environ 1 200 personnes et en enlevant 240, l’armée a adopté une approche radicalement différente, selon les sources. Dans le cadre de l’opération « Iron Swords », l’armée a décidé de désigner tous les agents de la branche militaire du Hamas comme des cibles humaines, quel que soit leur rang ou leur importance militaire. Et cela a tout changé.

Cette nouvelle politique a également posé un problème technique aux services de renseignement israéliens. Lors des guerres précédentes, pour autoriser l’assassinat d’une seule cible humaine, un officier devait passer par un processus d’ »incrimination » long et complexe : vérifier par recoupement les preuves que la personne était bien un membre haut placé de l’aile militaire du Hamas, découvrir où elle vivait, ses coordonnées et enfin savoir quand elle était chez elle en temps réel. Lorsque la liste des cibles ne comptait que quelques dizaines d’agents de haut rang, les services de renseignement pouvaient s’occuper individuellement du travail d’incrimination et de localisation.

Cependant, une fois que la liste a été élargie pour inclure des dizaines de milliers d’agents de rang inférieur, l’armée israélienne a compris qu’elle devait s’appuyer sur des logiciels automatisés et sur l’intelligence artificielle. Le résultat, selon les sources, est que le rôle du personnel humain dans l’incrimination des Palestiniens en tant qu’agents militaires a été mis de côté et que l’intelligence artificielle a fait le gros du travail à sa place. Selon quatre des sources qui ont parlé à +972 et à Local Call, Lavender – qui a été développé pour créer des cibles humaines dans la guerre actuelle – a marqué quelque 37 000 Palestiniens en tant que « militants du Hamas » présumés, la plupart d’entre eux étant jeunes, en vue de leur assassinat (le porte-parole des FDI a nié l’existence d’une telle liste dans une déclaration à +972 et à Local Call).

« Nous ne savions pas qui étaient les jeunes agents, car Israël ne les suivait pas régulièrement [avant la guerre] », a expliqué l’officier supérieur B. à +972 et à Local Call, expliquant la raison pour laquelle cette machine cible a été développée pour la guerre en cours. « Ils voulaient nous permettre d’attaquer automatiquement [les agents subalternes]. C’est le Saint Graal. Une fois que vous passez à l’automatique, la génération de cibles s’emballe ».

Les sources ont déclaré que l’autorisation d’adopter automatiquement les listes de personnes à abattre de Lavender, qui n’étaient auparavant utilisées que comme outil auxiliaire, a été accordée environ deux semaines après le début de la guerre, après que le personnel des services de renseignement a vérifié « manuellement » l’exactitude d’un échantillon aléatoire de plusieurs centaines de cibles sélectionnées par le système d’intelligence artificielle. Lorsque cet échantillon a révélé que les résultats de Lavender avaient atteint une précision de 90 % dans l’identification de l’affiliation d’un individu au Hamas, l’armée a autorisé l’utilisation généralisée du système. À partir de ce moment, les sources ont déclaré que si Lavender décidait qu’un individu était un militant du Hamas, il leur était essentiellement demandé de traiter cela comme un ordre, sans obligation de vérifier de manière indépendante pourquoi la machine avait fait ce choix ou d’examiner les données brutes de renseignement sur lesquelles elle est basée.

« À 5 heures du matin, [l’armée de l’air] arrivait et bombardait toutes les maisons que nous avions marquées », raconte B.. « Nous avons éliminé des milliers de personnes. Nous ne les avons pas examinées une par une – nous avons tout mis dans des systèmes automatisés, et dès que l’une [des personnes marquées] était chez elle, elle devenait immédiatement une cible. Nous l’avons bombardé, lui et sa maison. »

« J’ai été très surpris que l’on nous demande de bombarder une maison pour tuer un simple soldat, dont l’importance dans les combats était si faible », a déclaré une source au sujet de l’utilisation de l’IA pour marquer des militants présumés de rang inférieur. J’ai surnommé ces cibles « cibles poubelles ». Néanmoins, je les trouvais plus éthiques que les cibles que nous bombardions uniquement à des fins de « dissuasion » – des immeubles évacués et détruits dans le seul but de provoquer des destructions. »

Les résultats meurtriers de ce relâchement des restrictions au début de la guerre ont été stupéfiants. Selon les données du ministère palestinien de la santé à Gaza, sur lesquelles l’armée israélienne s’appuie presque exclusivement depuis le début de la guerre, Israël a tué quelque 15 000 Palestiniens – soit près de la moitié du nombre de morts jusqu’à présent – au cours des six premières semaines de la guerre, jusqu’à ce qu’un cessez-le-feu d’une semaine soit conclu le 24 novembre.

« Plus il y a d’informations et de variété, mieux c’est »

Le logiciel Lavender analyse les informations recueillies sur la plupart des 2,3 millions d’habitants de la bande de Gaza grâce à un système de surveillance de masse, puis évalue et classe la probabilité que chaque personne soit active dans l’aile militaire du Hamas ou du Djihad Islamique. Selon certaines sources, la machine attribue à la quasi-totalité des habitants de Gaza une note de 1 à 100, exprimant la probabilité qu’il s’agisse d’un militant.

Lavender apprend à identifier les caractéristiques des agents connus du Hamas et du Djihad, dont les informations ont été transmises à la machine en tant que données d’entraînement, puis à repérer ces mêmes caractéristiques – également appelées « traits » – au sein de la population générale, ont expliqué les sources. Une personne présentant plusieurs caractéristiques incriminantes différentes atteindra un niveau élevé et deviendra ainsi automatiquement une cible potentielle pour un assassinat.

Dans « The Human-Machine Team », le livre cité au début de cet article, le commandant actuel de l’unité 8200 plaide en faveur d’un tel système sans citer le nom de Lavender. (Le commandant lui-même n’est pas nommé, mais cinq sources au sein de l’unité 8200 ont confirmé que le commandant était l’auteur, comme l’a également rapporté Haaretz). Décrivant le personnel humain comme un « goulot d’étranglement » qui limite la capacité de l’armée au cours d’une opération militaire, le commandant se lamente : « Nous [les humains] ne pouvons pas traiter autant d’informations. Peu importe le nombre de personnes chargées de produire des objectifs pendant la guerre, vous ne pouvez toujours pas produire suffisamment d’objectifs par jour ».

Selon lui, la solution à ce problème réside dans l’intelligence artificielle. Le livre propose un petit guide pour construire une « machine à cibler », dont la description est similaire à celle de Lavender, basée sur des algorithmes d’intelligence artificielle et d’apprentissage automatique. Ce guide contient plusieurs exemples de « centaines et de milliers » de caractéristiques susceptibles d’augmenter la cote d’un individu, comme le fait de faire partie d’un groupe Whatsapp avec un militant connu, de changer de téléphone portable tous les quelques mois et de changer fréquemment d’adresse.

« Plus il y a d’informations, et plus elles sont variées, mieux c’est », écrit le commandant. « Informations visuelles, informations cellulaires, connexions aux médias sociaux, informations sur le champ de bataille, contacts téléphoniques, photos. Si les humains sélectionnent d’abord ces caractéristiques », poursuit le commandant, « au fil du temps, la machine en viendra à les identifier d’elle-même. » Selon lui, cela peut permettre aux armées de créer « des dizaines de milliers de cibles », la décision de les attaquer ou non restant du ressort de l’homme.

Ce livre n’est pas la seule fois où un haut commandant israélien a fait allusion à l’existence de machines à cibler comme Lavender. +972 et Local Call ont obtenu des images d’une conférence privée donnée par le commandant du centre secret de science des données et d’IA de l’unité 8200, le « colonel Yoav », lors de la semaine de l’IA de l’université de Tel-Aviv en 2023, qui a été rapportée à l’époque par les médias israéliens.

Dans la conférence, le commandant parle d’une nouvelle machine à cibler sophistiquée utilisée par l’armée israélienne qui détecte les « personnes dangereuses » en fonction de leur ressemblance avec les listes existantes de militants connus sur lesquelles elle a été formée. « Grâce à ce système, nous avons réussi à identifier les commandants des escadrons de missiles du Hamas », a déclaré le colonel Yoav lors de la conférence, en référence à l’opération militaire israélienne de mai 2021 à Gaza, au cours de laquelle la machine a été utilisée pour la première fois.

Les diapositives de la présentation, également obtenues par +972 et Local Call, contiennent des illustrations du fonctionnement de la machine : elle est alimentée en données sur les agents du Hamas existants, elle apprend à remarquer leurs caractéristiques, puis elle évalue d’autres Palestiniens en fonction de leur degré de ressemblance avec les militants.

« Nous classons les résultats et déterminons le seuil [à partir duquel il convient d’attaquer une cible] », a déclaré le colonel Yoav lors de la conférence, soulignant qu’ »en fin de compte, ce sont des personnes en chair et en os qui prennent les décisions ». Dans le domaine de la défense, d’un point de vue éthique, nous insistons beaucoup sur ce point. Ces outils sont destinés à aider [les officiers de renseignement] à briser leurs barrières ».

Dans la pratique, cependant, les sources qui ont utilisé Lavender au cours des derniers mois affirment que l’action humaine et la précision ont été substituées à la création de cibles de masse et à la létalité.

Il n’y avait pas de politique « zéro erreur ».

B., un officier supérieur qui utilise Lavender, a expliqué à +972 et à Local Call que, dans la guerre actuelle, les officiers n’étaient pas tenus d’examiner indépendamment les évaluations du système d’IA, afin de gagner du temps et de permettre la production en masse de cibles humaines sans entraves.

« Tout était statistique, tout était ordonné – c’était très sec », a déclaré B.. Il a noté que ce manque de supervision a été autorisé malgré des contrôles internes montrant que les calculs de Lavender n’étaient considérés comme exacts que dans 90 % des cas ; en d’autres termes, on savait à l’avance que 10 % des cibles humaines destinées à être assassinées n’étaient pas du tout des membres de l’aile militaire du Hamas.

Par exemple, des sources ont expliqué que la machine Lavender signalait parfois par erreur des personnes dont les habitudes de communication étaient similaires à celles d’agents connus du Hamas ou du Djihad, notamment des policiers et des membres de la défense civile, des parents de militants, des habitants dont le nom et le surnom étaient identiques à ceux d’un agent, et des habitants de Gaza qui utilisaient un appareil ayant appartenu à un agent du Hamas.

« À quel point une personne doit-elle être proche du Hamas pour être [considérée par une machine d’IA comme] affiliée à l’organisation ? », a déclaré une source critiquant l’inexactitude de Lavender. « Il s’agit d’une limite vague. Une personne qui ne reçoit pas de salaire du Hamas, mais qui l’aide pour toutes sortes de choses, est-elle un agent du Hamas ? Une personne qui a fait partie du Hamas dans le passé, mais qui n’y est plus aujourd’hui, est-elle un agent du Hamas ? Chacune de ces caractéristiques – des caractéristiques qu’une machine signalerait comme suspectes – est inexacte ».

Des problèmes similaires se posent en ce qui concerne la capacité des machines de ciblage à évaluer le téléphone utilisé par une personne désignée pour être assassinée. « En temps de guerre, les Palestiniens changent tout le temps de téléphone », explique la source. « Les gens perdent le contact avec leur famille, donnent leur téléphone à un ami ou à une épouse, ou le perdent. Il est impossible de se fier à 100 % au mécanisme automatique qui détermine quel numéro de téléphone appartient à qui. »

Selon les sources, l’armée savait que la supervision humaine minimale en place ne permettrait pas de découvrir ces défauts. Il n’y avait pas de politique « zéro erreur ». Les erreurs étaient traitées statistiquement », a déclaré une source qui a utilisé Lavender. « En raison de la portée et de l’ampleur du projet, le protocole était le suivant : même si l’on n’est pas sûr que la machine soit correcte, on sait que statistiquement, c’est bon. Alors, on y va ».

« Elle a fait ses preuves », a déclaré B., la source principale. « Il y a quelque chose dans l’approche statistique qui vous fait respecter une certaine norme et un certain standard. Il y a eu un nombre illogique de [bombardements] dans cette opération. De mémoire, c’est sans précédent. Et je fais bien plus confiance à un mécanisme statistique qu’à un soldat qui a perdu un ami il y a deux jours. Tout le monde, y compris moi, a perdu des gens le 7 octobre. La machine l’a fait froidement. Et c’est ce qui a rendu les choses plus faciles. »

Une autre source de renseignements, qui a défendu le recours aux listes de suspects palestiniens établies par Lavender, a fait valoir qu’il valait la peine d’investir le temps d’un agent de renseignements uniquement pour vérifier les informations si la cible était un haut commandant du Hamas. « Mais lorsqu’il s’agit d’un militant subalterne, il n’est pas souhaitable d’investir du temps et de la main-d’œuvre dans cette tâche », a-t-il déclaré. « En temps de guerre, on n’a pas le temps d’incriminer chaque cible. On est donc prêt à prendre la marge d’erreur de l’utilisation de l’intelligence artificielle, à risquer des dommages collatéraux et la mort de civils, et à risquer d’attaquer par erreur, et à s’en accommoder. »

B. a expliqué que cette automatisation s’expliquait par une volonté constante de générer davantage de cibles à assassiner. « Le jour où il n’y avait pas de cibles [dont l’évaluation des caractéristiques était suffisante pour autoriser une frappe], nous attaquions à un seuil plus bas. On nous mettait constamment la pression : « Apportez-nous plus de cibles ». Ils nous ont vraiment crié dessus. Nous avons fini [de tuer] nos cibles très rapidement ».

Il a expliqué qu’en abaissant le seuil d’évaluation de Lavender, le système marquait davantage de personnes comme cibles pour les frappes. « À son apogée, le système a réussi à générer 37 000 personnes comme cibles humaines potentielles », a déclaré B. « Mais les chiffres changeaient tout le temps, parce que cela dépendait de l’endroit où l’on plaçait la barre de ce qu’était un agent du Hamas. À certains moments, la définition d’un agent du Hamas était plus large, puis la machine a commencé à nous fournir toutes sortes d’agents de la défense civile et de la police, sur lesquels il serait dommage de gaspiller des bombes. Ils aident le gouvernement du Hamas, mais ne mettent pas vraiment les soldats en danger ».

Une source qui a travaillé avec l’équipe militaire de science des données qui a formé Lavender a déclaré que les données collectées auprès des employés du ministère de la sécurité intérieure dirigé par le Hamas, qu’il ne considère pas comme des militants, ont également été introduites dans la machine. « J’ai été gêné par le fait que lors de la formation de Lavender, le terme « agent du Hamas » a été utilisé de manière vague et que des personnes travaillant pour la défense civile ont été incluses dans l’ensemble de données de formation », a-t-il déclaré.

La source a ajouté que même si l’on pense que ces personnes méritent d’être tuées, le fait d’entraîner le système sur la base de leurs profils de communication rend Lavender plus susceptible de sélectionner des civils par erreur lorsque ses algorithmes sont appliqués à l’ensemble de la population. « Comme il s’agit d’un système automatique qui n’est pas géré manuellement par des humains, la signification de cette décision est dramatique : cela signifie que vous incluez de nombreuses personnes ayant un profil de communication civil en tant que cibles potentielles. »

« Nous avons seulement vérifié que la cible était un homme ».

L’armée israélienne rejette catégoriquement ces affirmations. Dans une déclaration à +972 et à Local Call, le porte-parole des FDI a nié utiliser l’intelligence artificielle pour incriminer des cibles, affirmant qu’il s’agit simplement « d’outils auxiliaires qui aident les officiers dans le processus d’incrimination ». Le communiqué poursuit : « Dans tous les cas, un examen indépendant par un analyste [du renseignement] est nécessaire, qui vérifie que les cibles identifiées sont des cibles légitimes pour l’attaque, conformément aux conditions énoncées dans les directives de Tsahal et le droit international. »

Toutefois, des sources ont indiqué que le seul protocole de supervision humaine mis en place avant de bombarder les maisons de militants « juniors » présumés marqués par Lavender consistait à effectuer une seule vérification : s’assurer que la cible sélectionnée par l’IA était bien un homme et non une femme. L’armée partait du principe que si la cible était une femme, la machine s’était probablement trompée, car il n’y a pas de femmes dans les rangs des ailes militaires du Hamas et du Djihad.

« Un être humain devait [vérifier la cible] pendant quelques secondes seulement », a déclaré B., expliquant que ce protocole a été adopté après avoir constaté que le système Lavender « faisait bien les choses » la plupart du temps. « Au début, nous faisions des vérifications pour nous assurer que la machine ne s’embrouillait pas. Mais à un moment donné, nous nous sommes fiés au système automatique et nous nous sommes contentés de vérifier que [la cible] était un homme – c’était suffisant. Il ne faut pas beaucoup de temps pour savoir si quelqu’un a une voix d’homme ou de femme. »

Pour effectuer la vérification homme/femme, B. affirme que dans la guerre actuelle, « je consacrerais 20 secondes à chaque cible à ce stade, et j’en faisais des douzaines chaque jour. Je n’avais aucune valeur ajoutée en tant qu’être humain, si ce n’est d’être un tampon d’approbation. Cela permettait de gagner beaucoup de temps. Si [l’agent] apparaissait dans le mécanisme automatisé et que je vérifiais qu’il s’agissait d’un homme, j’avais l’autorisation de le bombarder, sous réserve d’un examen des dommages collatéraux ».

Dans la pratique, les sources ont déclaré que cela signifiait que pour les hommes civils marqués par erreur par Lavender, il n’y avait pas de mécanisme de supervision en place pour détecter l’erreur. Selon B., une erreur courante se produit « si la cible [du Hamas] donne [son téléphone] à son fils, à son frère aîné ou à un homme au hasard. Cette personne sera bombardée dans sa maison avec sa famille. Cela s’est souvent produit. C’est la plupart des erreurs causées par Lavender », a déclaré B.

ÉTAPE 2 : RELIER LES OBJECTIFS AUX FOYERS FAMILIAUX

« La plupart des personnes tuées étaient des femmes et des enfants »

L’étape suivante de la procédure d’assassinat de l’armée israélienne consiste à déterminer où attaquer les cibles générées par Lavender.

Dans une déclaration à +972 et Local Call, le porte-parole des FDI a affirmé en réponse à cet article que « le Hamas place ses agents et ses moyens militaires au cœur de la population civile, utilise systématiquement la population civile comme bouclier humain et mène des combats à l’intérieur de structures civiles, y compris des sites sensibles tels que des hôpitaux, des mosquées, des écoles et des installations de l’ONU. Les FDI sont liées par le droit international et agissent conformément à celui-ci, en dirigeant leurs attaques uniquement contre des cibles militaires et des agents militaires ».

Les six sources avec lesquelles nous nous sommes entretenus ont fait écho à ces propos dans une certaine mesure, affirmant que le vaste réseau de tunnels du Hamas passe délibérément sous les hôpitaux et les écoles, que les militants du Hamas utilisent des ambulances pour se déplacer et qu’un nombre incalculable de moyens militaires ont été placés à proximité de bâtiments civils. Les sources ont affirmé que de nombreuses frappes israéliennes tuent des civils en raison de ces tactiques du Hamas – une caractérisation qui, selon les groupes de défense des droits de l’homme, élude la responsabilité d’Israël dans l’apparition de ces victimes.

Toutefois, contrairement aux déclarations officielles de l’armée israélienne, les sources ont expliqué que le nombre sans précédent de victimes des bombardements israéliens actuels s’explique en grande partie par le fait que l’armée a systématiquement attaqué les cibles dans leurs maisons privées, aux côtés de leurs familles – en partie parce qu’il était plus facile, du point de vue du renseignement, de marquer les maisons familiales à l’aide de systèmes automatisés.

En effet, plusieurs sources ont souligné que, contrairement aux nombreux cas d’agents du Hamas engagés dans des activités militaires depuis des zones civiles, dans le cas des frappes d’assassinat systématiques, l’armée a régulièrement fait le choix actif de bombarder des militants présumés lorsqu’ils se trouvaient à l’intérieur de maisons civiles où aucune activité militaire n’avait lieu. Ce choix, ont-ils dit, est le reflet de la manière dont le système israélien de surveillance de masse à Gaza est conçu.

Les sources ont déclaré à +972 et à Local Call que, puisque chaque habitant de Gaza avait une maison privée à laquelle il pouvait être associé, les systèmes de surveillance de l’armée pouvaient facilement et automatiquement « relier » les individus aux maisons familiales. Afin d’identifier en temps réel le moment où les agents entrent dans leurs maisons, divers logiciels automatiques supplémentaires ont été développés. Ces programmes suivent des milliers d’individus simultanément, identifient le moment où ils sont chez eux et envoient une alerte automatique à l’officier chargé du ciblage, qui marque alors la maison pour le bombardement. L’un de ces logiciels, révélé ici pour la première fois, s’appelle « Where’s Daddy ? » (Où est papa ?).

« Vous entrez des centaines [de cibles] dans le système et vous attendez de voir qui vous pouvez tuer », a déclaré une source connaissant le système. « C’est ce qu’on appelle la pêche au gros : vous copiez-collez les listes produites par le système de ciblage. »

La preuve de cette politique est également évidente dans les données : au cours du premier mois de la guerre, plus de la moitié des victimes – 6 120 personnes – appartenaient à 1 340 familles, dont beaucoup ont été complètement anéanties à l’intérieur de leur maison, selon les chiffres de l’ONU. La proportion de familles entières bombardées dans leurs maisons au cours de la guerre actuelle est beaucoup plus élevée que lors de l’opération israélienne de 2014 à Gaza (qui était auparavant la guerre la plus meurtrière d’Israël dans la bande de Gaza), ce qui confirme l’importance de cette politique.

Une autre source a déclaré que chaque fois que le rythme des assassinats diminuait, de nouvelles cibles étaient ajoutées à des systèmes tels que Where’s Daddy ? pour localiser les individus qui entraient chez eux et pouvaient donc être bombardés. Selon cette source, ce sont des officiers de rang relativement bas dans la hiérarchie militaire qui décidaient des personnes à inclure dans les systèmes de repérage.

« Un jour, de mon propre chef, j’ai ajouté quelque 1 200 nouvelles cibles au système [de suivi], parce que le nombre d’attaques [que nous menions] diminuait », a déclaré la source. « Cela me paraissait logique. Rétrospectivement, cela semble être une décision grave que j’ai prise. Et de telles décisions n’ont pas été prises à des niveaux élevés ».

Les sources ont déclaré qu’au cours des deux premières semaines de la guerre, « plusieurs milliers » de cibles ont été initialement introduites dans des programmes de localisation tels que « Where’s Daddy ? ». Il s’agissait notamment de tous les membres de l’unité d’élite des forces spéciales du Hamas, la Nukhba, de tous les agents antichars du Hamas et de toute personne ayant pénétré en Israël le 7 octobre. Mais très vite, la liste des personnes à abattre s’est considérablement allongée.

« En fin de compte, il s’agissait de tout le monde [marqué par Lavender] », a expliqué une source. « Des dizaines de milliers. Cela s’est produit quelques semaines plus tard, lorsque les brigades [israéliennes] sont entrées dans Gaza et qu’il y avait déjà moins de personnes non impliquées [c’est-à-dire de civils] dans les zones du nord ». Selon cette source, même certains mineurs ont été désignés par Lavender comme des cibles à bombarder. « Normalement, les agents ont plus de 17 ans, mais ce n’était pas une condition. »

Lavender et des systèmes comme Where’s Daddy ? ont donc été combinés avec un effet mortel, tuant des familles entières, selon certaines sources. En ajoutant un nom figurant sur les listes générées par Lavender au système de suivi des domiciles Where’s Daddy ?, a expliqué A., la personne marquée était placée sous surveillance permanente et pouvait être attaquée dès qu’elle mettait le pied chez elle, ce qui faisait s’effondrer la maison sur tous ceux qui s’y trouvaient.

« Disons que vous calculez [qu’il y a un] [agent] du Hamas et 10 [civils dans la maison] », explique A.. « En général, ces dix personnes sont des femmes et des enfants. Et donc d’une manière absurde, il s’avère que la plupart des personnes que vous avez tuées étaient des femmes et des enfants. »

ÉTAPE 3 : CHOIX D’UNE ARME

« Nous avons généralement perpétré les attentats avec des « bombes stupides » ».

Une fois que Lavender a désigné une cible à assassiner, que le personnel de l’armée a vérifié qu’il s’agissait d’un homme et que le logiciel de suivi a localisé la cible à son domicile, l’étape suivante consiste à choisir la munition avec laquelle on va la bombarder.

En décembre 2023, CNN a rapporté que, selon les estimations des services de renseignement américains, environ 45 % des munitions utilisées par l’armée de l’air israélienne à Gaza étaient des bombes « stupides », connues pour causer plus de dommages collatéraux que les bombes guidées. En réponse à l’article de CNN, un porte-parole de l’armée cité dans l’article a déclaré : « En tant qu’armée attachée au droit international et à un code de conduite moral, nous consacrons de vastes ressources à minimiser les dommages causés aux civils que le Hamas a contraints à jouer le rôle de boucliers humains. Notre guerre est contre le Hamas, pas contre la population de Gaza ».

Trois sources de renseignements ont toutefois déclaré à +972 et à Local Call que les agents subalternes marqués par Lavender n’étaient assassinés qu’avec des bombes stupides, afin d’économiser des armements plus coûteux. L’une des sources a expliqué que l’armée ne frapperait pas une cible subalterne si elle vivait dans un immeuble de grande hauteur, parce qu’elle ne voulait pas dépenser une « bombe d’étage » plus précise et plus coûteuse (avec des effets collatéraux plus limités) pour la tuer. En revanche, si une cible de rang inférieur vivait dans un immeuble de quelques étages seulement, l’armée était autorisée à la tuer, ainsi que tous les habitants de l’immeuble, à l’aide d’une bombe stupide.

« C’était comme ça pour toutes les cibles juniors », témoigne C., qui a utilisé divers programmes automatisés dans la guerre actuelle. « La seule question était de savoir s’il était possible d’attaquer le bâtiment en limitant les dommages collatéraux. En effet, nous menions généralement les attaques avec des bombes stupides, ce qui signifiait détruire littéralement toute la maison et ses occupants. Mais même si une attaque est évitée, on s’en moque, on passe immédiatement à la cible suivante. Grâce au système, les cibles ne s’arrêtent jamais. Il y en a encore 36 000 qui attendent. »

ÉTAPE 4 : AUTORISER LES PERTES CIVILES

« Nous avons attaqué presque sans tenir compte des dommages collatéraux »

Une source a déclaré que lors de l’attaque d’agents subalternes, y compris ceux marqués par des systèmes d’IA comme Lavender, le nombre de civils qu’ils étaient autorisés à tuer à côté de chaque cible était fixé, au cours des premières semaines de la guerre, à 20 au maximum. Selon une autre source, ce nombre aurait été fixé à 15. Ces « degrés de dommages collatéraux », comme les militaires les appellent, ont été appliqués de manière générale à tous les militants juniors présumés, selon les sources, indépendamment de leur rang, de leur importance militaire et de leur âge, et sans examen spécifique au cas par cas pour évaluer l’avantage militaire de les assassiner par rapport aux dommages attendus pour les civils.

Selon A., qui était officier dans une salle d’opérations de ciblage pendant la guerre actuelle, le département du droit international de l’armée n’a jamais donné une telle « approbation générale » pour un degré de dommages collatéraux aussi élevé. « Ce n’est pas seulement que vous pouvez tuer toute personne qui est un soldat du Hamas, ce qui est clairement autorisé et légitime en termes de droit international », a déclaré A.. « Mais ils vous disent directement : Vous êtes autorisés à les tuer en même temps que de nombreux civils. »

« Chaque personne ayant porté un uniforme du Hamas au cours de l’année ou des deux années précédentes pouvait être bombardée et 20 [civils tués] étaient considérés comme des dommages collatéraux, même sans autorisation spéciale », a poursuivi M. A.. « Dans la pratique, le principe de proportionnalité n’existait pas. »

Selon A., cette politique a été appliquée pendant la majeure partie de la période où il a servi. Ce n’est que plus tard que l’armée a abaissé le niveau des dommages collatéraux. « Dans ce calcul, il peut s’agir de 20 enfants pour un agent subalterne… Ce n’était pas vraiment le cas dans le passé », a expliqué A.. Interrogé sur la logique sécuritaire derrière cette politique, A. a répondu : « La létalité »

Le degré de dommages collatéraux prédéterminé et fixe a contribué à accélérer la création massive de cibles à l’aide de la machine Lavender, selon les sources, car cela permettait de gagner du temps. B. a affirmé que le nombre de civils qu’ils étaient autorisés à tuer au cours de la première semaine de la guerre par militant junior présumé marqué par l’IA était de quinze, mais que ce nombre « augmentait et diminuait » au fil du temps.

« Au début, nous avons attaqué presque sans tenir compte des dommages collatéraux », a déclaré B. à propos de la première semaine qui a suivi le 7 octobre. « En pratique, on ne comptait pas vraiment les personnes [dans chaque maison bombardée], parce qu’on ne pouvait pas vraiment savoir si elles étaient à la maison ou non. Au bout d’une semaine, les restrictions sur les dommages collatéraux ont commencé. Le nombre est passé [de 15] à cinq, ce qui a rendu nos attaques très difficiles, car si toute la famille était à la maison, nous ne pouvions pas la bombarder. Puis ils ont à nouveau augmenté ce nombre.

« Nous savions que nous allions tuer plus de 100 civils ».

Des sources ont déclaré à +972 et à Local Call que maintenant, en partie à cause de la pression américaine, l’armée israélienne ne génère plus en masse des cibles humaines juniors pour les bombardements dans les maisons civiles. Le fait que la plupart des habitations de la bande de Gaza aient déjà été détruites ou endommagées et que la quasi-totalité de la population ait été déplacée a également empêché l’armée de s’appuyer sur des bases de données de renseignements et des programmes automatisés de localisation des habitations.

E. a affirmé que les bombardements massifs des militants juniors n’ont eu lieu que pendant la première ou les deux premières semaines de la guerre, et qu’ils ont ensuite été interrompus principalement pour ne pas gaspiller les bombes. « Il existe une économie des munitions », a déclaré E.. « Ils ont toujours eu peur qu’il y ait [une guerre] dans l’arène nord [avec le Hezbollah au Liban]. Ils n’attaquent plus du tout ce genre de personnes [juniors]. »

Toutefois, les frappes aériennes contre les hauts responsables du Hamas se poursuivent, et des sources ont indiqué que pour ces attaques, l’armée autorise le meurtre de « centaines » de civils par cible – une politique officielle pour laquelle il n’existe aucun précédent historique en Israël, ni même dans les récentes opérations militaires américaines.

« Lors du bombardement du commandant du bataillon Shuja’iya, nous savions que nous allions tuer plus de 100 civils », se souvient B. à propos d’un bombardement du 2 décembre qui, selon le porte-parole des FDI, visait à assassiner Wisam Farhat. « Pour moi, psychologiquement, c’était inhabituel. Plus de 100 civils, c’est une ligne rouge à ne pas franchir. »

Amjad Al-Sheikh, un jeune Palestinien de Gaza, a déclaré que de nombreux membres de sa famille avaient été tués lors de ce bombardement. Résident de Shuja’iya, à l’est de la ville de Gaza, il se trouvait ce jour-là dans un supermarché local lorsqu’il a entendu cinq explosions qui ont brisé les vitres.

« J’ai couru jusqu’à la maison de ma famille, mais il n’y avait plus de bâtiments », a déclaré M. Al-Sheikh à +972 et à Local Call. « La rue était remplie de cris et de fumée. Des pâtés de maisons entiers se sont transformés en montagnes de décombres et en fosses profondes. Les gens ont commencé à chercher dans le ciment, avec leurs mains, et j’ai fait de même, à la recherche de traces de la maison de ma famille ».

La femme et la petite fille d’Al-Sheikh ont survécu – protégées des décombres par une armoire qui leur est tombée dessus – mais il a trouvé 11 autres membres de sa famille, dont ses sœurs, ses frères et leurs jeunes enfants, morts sous les décombres. Selon l’organisation de défense des droits de l’homme B’Tselem, les bombardements de ce jour-là ont détruit des dizaines de bâtiments, tué des dizaines de personnes et en ont enseveli des centaines sous les ruines de leurs maisons.

« Des familles entières ont été tuées »

Des sources de renseignements ont déclaré à +972 et à Local Call qu’ils ont participé à des frappes encore plus meurtrières. Afin d’assassiner Ayman Nofal, le commandant de la Brigade centrale de Gaza du Hamas, une source a déclaré que l’armée avait autorisé le meurtre d’environ 300 civils, détruisant plusieurs bâtiments lors de frappes aériennes sur le camp de réfugiés d’Al-Bureij le 17 octobre, sur la base d’un repérage imprécis de Nofal. Des images satellite et des vidéos de la scène montrent la destruction de plusieurs grands immeubles d’habitation à plusieurs étages.

« Entre 16 et 18 maisons ont été détruites lors de l’attaque », a déclaré Amro Al-Khatib, un résident du camp, à +972 et à Local Call. « Nous ne pouvions pas distinguer les appartements les uns des autres, ils étaient tous mélangés dans les décombres et nous avons trouvé des morceaux de corps humains partout. »

Au lendemain de la catastrophe, M. Al-Khatib se souvient qu’une cinquantaine de cadavres ont été retirés des décombres et qu’environ 200 personnes ont été blessées, dont un grand nombre grièvement. Mais ce n’était que le premier jour. Les habitants du camp ont passé cinq jours à sortir les morts et les blessés.

Nael Al-Bahisi, ambulancier, a été l’un des premiers à arriver sur les lieux. Il a dénombré entre 50 et 70 victimes ce premier jour. « À un moment donné, nous avons compris que la cible de la frappe était le commandant du Hamas Ayman Nofal », a-t-il déclaré à +972 et à Local Call. « Ils l’ont tué, ainsi que de nombreuses personnes qui ne savaient pas qu’il était là. Des familles entières avec des enfants ont été tuées. »

Une autre source de renseignements a déclaré à +972 et à Local Call que l’armée avait détruit un immeuble de grande hauteur à Rafah à la mi-décembre, tuant « des dizaines de civils », afin d’essayer de tuer Mohammed Shabaneh, le commandant de la brigade du Hamas à Rafah (on ne sait pas s’il a été tué ou non lors de l’attaque). Selon la source, les hauts commandants se cachent souvent dans des tunnels qui passent sous des bâtiments civils, et le choix de les assassiner par une frappe aérienne entraîne donc nécessairement la mort de civils.

« La plupart des blessés étaient des enfants », a déclaré Wael Al-Sir, 55 ans, qui a été témoin de la frappe à grande échelle que certains habitants de Gaza considèrent comme une tentative d’assassinat. Il a déclaré à +972 et à Local Call que le bombardement du 20 décembre avait détruit « tout un quartier résidentiel » et tué au moins 10 enfants.

« Il y avait une politique tout à fait permissive concernant les victimes des opérations [de bombardement] – tellement permissive qu’à mon avis, il y avait un élément de vengeance », affirme D., une source des services de renseignement. « L’élément central était l’assassinat de hauts responsables [du Hamas et du Djihad] pour lesquels ils étaient prêts à tuer des centaines de civils. Nous avons fait un calcul : combien pour un commandant de brigade, combien pour un commandant de bataillon, etc. »

« Il y avait des règles, mais elles étaient très souples », a déclaré E., une autre source de renseignements. « Nous avons tué des gens avec des dommages collatéraux à deux chiffres, voire à trois chiffres. Ce sont des choses qui ne s’étaient jamais produites auparavant ».

Un taux aussi élevé de « dommages collatéraux » est exceptionnel non seulement par rapport à ce que l’armée israélienne jugeait acceptable auparavant, mais aussi par rapport aux guerres menées par les États-Unis en Irak, en Syrie et en Afghanistan.

Le général Peter Gersten, commandant adjoint des opérations et du renseignement dans le cadre de l’opération de lutte contre L’État Islamique en Irak et en Syrie, a déclaré à un magazine de défense américain en 2021 qu’une attaque avec dommages collatéraux de 15 civils s’écartait de la procédure ; pour la mener à bien, il avait dû obtenir une autorisation spéciale du chef du commandement central américain, le général Lloyd Austin, qui est aujourd’hui secrétaire à la défense.

« Dans le cas d’Oussama Ben Laden, la NCV (Non-Combatant Casualty Value) était de 30, mais dans le cas d’un commandant de rang inférieur, la NCV était généralement de zéro », a déclaré M. Gersten. « Nous sommes restés à zéro pendant très longtemps. Puis on nous a dit : « Bombardez tout ce que vous pouvez » ».

Toutes les sources interrogées dans le cadre de cette enquête ont déclaré que les massacres perpétrés par le Hamas le 7 octobre et l’enlèvement des otages avaient fortement influencé la politique de l’armée en matière de tirs et de degrés de dommages collatéraux. « Au début, l’atmosphère était pénible et vindicative », a déclaré B., qui a été enrôlé dans l’armée immédiatement après le 7 octobre et a servi dans une salle d’opérations. « Les règles étaient très souples. Ils ont détruit quatre bâtiments parce qu’ils savaient que la cible se trouvait dans l’un d’entre eux. C’était de la folie. »

« Il y avait une dissonance : d’un côté, les gens ici étaient frustrés que nous n’attaquions pas assez », poursuit B.. « D’autre part, à la fin de la journée, on constatait un millier d’habitants de Gaza de plus étaient morts, la plupart des civils. »

« L’hystérie régnait dans les rangs des professionnels », raconte D., qui a lui aussi été recruté immédiatement après le 7 octobre. « Ils ne savaient pas du tout comment réagir. La seule chose qu’ils savaient faire était de commencer à bombarder comme des fous pour essayer de démanteler les capacités du Hamas ».

D. a souligné qu’on ne leur avait pas dit explicitement que l’objectif de l’armée était la « vengeance », mais il a exprimé que « dès que chaque cible liée au Hamas devient légitime, et que presque tous les dommages collatéraux sont approuvés, il est clair pour vous que des milliers de personnes vont être tuées. Même si officiellement chaque cible est liée au Hamas, lorsque la politique est si permissive, elle perd tout son sens ».

A. a également utilisé le mot « revanche » pour décrire l’atmosphère qui régnait au sein de l’armée après le 7 octobre. « Personne n’a pensé à ce qu’il faudrait faire après, une fois la guerre terminée, ni à la façon dont il serait possible de vivre à Gaza et à ce qu’ils en feraient », a déclaré A.. « On nous a dit : maintenant, il faut foutre en l’air le Hamas, quel qu’en soit le prix. Bombardez tout ce que vous pouvez. »

B., la principale source de renseignements, a déclaré qu’avec le recul, il pensait que cette politique « disproportionnée » consistant à tuer des Palestiniens à Gaza mettait également en danger les Israéliens, et que c’était l’une des raisons pour lesquelles il avait décidé d’être interviewé.

« À court terme, nous sommes plus en sécurité, car nous avons affaibli le Hamas. Mais je pense que nous sommes moins en sécurité à long terme. Je vois comment toutes les familles endeuillées à Gaza – c’est-à-dire presque tout le monde – motiveront les gens à rejoindre le Hamas dans dix ans. Et il sera beaucoup plus facile pour le Hamas de les recruter. »

Dans une déclaration à +972 et à Local Call, l’armée israélienne a démenti une grande partie de ce que les sources nous ont dit, affirmant que « chaque cible est examinée individuellement, tandis qu’une évaluation individuelle est faite de l’avantage militaire et des dommages collatéraux attendus de l’attaque … Les FDI ne mènent pas d’attaques lorsque les dommages collatéraux attendus de l’attaque sont excessifs par rapport à l’avantage militaire ».

ÉTAPE 5 : CALCUL DES DOMMAGES COLLATÉRAUX

« Le modèle n’était pas lié à la réalité »

Selon les sources de renseignement, le calcul par l’armée israélienne du nombre de civils susceptibles d’être tués dans chaque maison située à côté d’une cible – une procédure examinée dans une enquête précédente de +972 et Local Call – a été effectué à l’aide d’outils automatiques et imprécis. Lors des guerres précédentes, les services de renseignement passaient beaucoup de temps à vérifier le nombre de personnes présentes dans une maison destinée à être bombardée, le nombre de civils susceptibles d’être tués étant répertorié dans un « fichier cible ». Après le 7 octobre, cependant, cette vérification approfondie a été largement abandonnée au profit de l’automatisation.

En octobre, le New York Times a fait état d’un système exploité à partir d’une base spéciale dans le sud d’Israël, qui recueille des informations à partir de téléphones portables dans la bande de Gaza et fournit à l’armée une estimation en temps réel du nombre de Palestiniens qui ont fui le nord de la bande de Gaza pour se diriger vers le sud. Le général de brigade Udi Ben Muha a déclaré au Times : « Ce n’est pas un système parfait à 100 %, mais il vous donne les informations dont vous avez besoin pour prendre une décision ». Le système fonctionne par couleurs : le rouge indique les zones où il y a beaucoup de monde, tandis que le vert et le jaune indiquent les zones qui ont été relativement débarrassées de leurs habitants.

Les sources qui ont parlé à +972 et à Local Call ont décrit un système similaire de calcul des dommages collatéraux, utilisé pour décider de bombarder ou non un bâtiment à Gaza. Elles ont indiqué que le logiciel calculait le nombre de civils résidant dans chaque maison avant la guerre – en évaluant la taille du bâtiment et en examinant sa liste de résidents – et réduisait ensuite ces chiffres par la proportion de résidents censés avoir évacué le quartier.

Par exemple, si l’armée estime que la moitié des habitants d’un quartier ont quitté les lieux, le programme comptabilisera une maison qui compte habituellement 10 habitants comme une maison contenant cinq personnes. Pour gagner du temps, l’armée n’a pas surveillé les maisons pour vérifier combien de personnes y vivaient réellement, comme elle l’avait fait lors d’opérations précédentes, afin de savoir si l’estimation du programme était effectivement exacte.

« Ce modèle n’avait aucun lien avec la réalité », affirme une source. « Il n’y avait aucun lien entre les personnes qui se trouvaient dans la maison aujourd’hui, pendant la guerre, et celles qui étaient répertoriées comme vivant dans cette maison avant la guerre. [À une occasion], nous avons bombardé une maison sans savoir qu’il y avait plusieurs familles à l’intérieur, qui se cachaient ensemble. »

Selon la source, bien que l’armée ait su que de telles erreurs pouvaient se produire, ce modèle imprécis a tout de même été adopté, car il était plus rapide. Ainsi, selon la source, « le calcul des dommages collatéraux était complètement automatique et statistique », produisant même des chiffres qui n’étaient pas des nombres entiers.

ÉTAPE 6 : BOMBARDEMENT D’UNE MAISON FAMILIALE

« Vous avez tué une famille sans raison »

Les sources qui ont parlé à +972 et à Local Call ont expliqué qu’il y avait parfois un écart important entre le moment où des systèmes de localisation comme Where’s Daddy ? alertaient un officier qu’une cible était entrée dans sa maison, et le bombardement lui-même – ce qui a conduit au meurtre de familles entières sans même que la cible de l’armée ne soit atteinte. « Il m’est arrivé plusieurs fois d’attaquer une maison, mais la personne n’était même pas chez elle », a déclaré une source. « Le résultat est que vous avez tué une famille sans raison. »

Trois sources de renseignements ont déclaré à +972 et à Local Call avoir été témoins d’un incident au cours duquel l’armée israélienne a bombardé la maison privée d’une famille. Il s’est avéré par la suite que la cible visée par l’assassinat ne se trouvait même pas à l’intérieur de la maison, aucune autre vérification n’ayant été effectuée en temps réel.

« Parfois, [la cible] était chez elle plus tôt, puis, le soir, elle est allée dormir ailleurs, par exemple sous terre, et vous ne le saviez pas », a déclaré l’une des sources. Il y a des moments où l’on vérifie deux fois l’emplacement, et d’autres où l’on se dit simplement : « D’accord, il était dans la maison au cours des dernières heures, alors vous pouvez simplement bombarder ».

Une autre source a décrit un incident similaire qui l’a affecté et l’a incité à être interrogé dans le cadre de cette enquête. « Nous avons compris que la cible était chez elle à 20 heures. Finalement, l’armée de l’air a bombardé la maison à 3 heures du matin. Il y avait deux autres familles avec des enfants dans le bâtiment que nous avons bombardé ».

Lors des précédentes guerres à Gaza, après l’assassinat de cibles humaines, les services de renseignement israéliens effectuaient des procédures d’évaluation des dommages causés par les bombes (BDA) – une vérification de routine après la frappe pour voir si le commandant en chef avait été tué et combien de civils avaient été tués en même temps que lui. Comme l’a révélé une précédente enquête sur le +972 et Local Call, ces procédures impliquaient l’écoute des appels téléphoniques des parents ayant perdu un être cher. Dans la guerre actuelle, cependant, au moins en ce qui concerne les militants subalternes marqués à l’aide de l’IA, les sources affirment que cette procédure a été supprimée afin de gagner du temps. Les sources ont déclaré qu’elles ne savaient pas combien de civils avaient été effectivement tués dans chaque frappe, et pour les militants présumés de bas rang du Hamas et du Djihad marqués par l’IA, elles ne savaient même pas si la cible elle-même avait été tuée.

« Vous ne savez pas exactement combien vous avez tué, ni qui vous avez tué », a déclaré une source des services de renseignement à Local Call dans le cadre d’une précédente enquête publiée en janvier. « Ce n’est que lorsqu’il s’agit de hauts responsables du Hamas que vous suivez la procédure du BDA. Dans les autres cas, vous ne vous en souciez pas. Vous recevez un rapport de l’armée de l’air indiquant si le bâtiment a explosé, et c’est tout. Vous n’avez aucune idée de l’ampleur des dommages collatéraux ; vous passez immédiatement à la cible suivante. L’accent était mis sur la création d’autant de cibles que possible, aussi rapidement que possible. »

Mais alors que l’armée israélienne peut tourner la page de chaque frappe sans s’attarder sur le nombre de victimes, Amjad Al-Sheikh, le résident de Shuja’iya qui a perdu 11 membres de sa famille dans le bombardement du 2 décembre, a déclaré que lui et ses voisins sont toujours à la recherche de cadavres.

« Il y a toujours des corps sous les décombres », a-t-il déclaré. « Quatorze immeubles résidentiels ont été bombardés avec leurs habitants à l’intérieur. Certains de mes proches et de mes voisins y sont toujours enfouis ».

Yuval Abraham

Traduit du 972mag

Première parution en français : Le Grand Soir

  

Retour en haut