C’est le quotidien de gauche britannique The Guardian qui a levé le lièvre. Comme s’il n’existait pas assez de témoignages réels de la pauvreté, certaines associations caritatives comme Plan International au Royaume Uni ou même l’ONU, se servent de l’IA pour mieux attendrir les donateurs. Elles composent des images particulièrement apitoyantes mais entièrement fictives : enfants maigres comme des bâtons blottis les uns contre les autres dans un ruisseau boueux, volontaires blancs entourés d’une foule d’Africains affamés, ou enfants arabes tendant des boîtes en fer-blanc dans des camps de réfugiés. Selon le sociologue Arsenii Alenichev, c’est une nouvelle forme de « pornographie de la pauvreté ». Les critères permettant de cibler les dons sont choisis sans avoir à se soucier de la réalité, extrême pauvreté, angoisse, racialisation, etc. Sans qu’aucun photographe ne soit nécessaire : « Il est assez clair que diverses organisations commencent à envisager des images synthétiques plutôt que de vraies photographies, car c’est bon marché et vous n’avez pas besoin de vous soucier du consentement et de tout ça », a déclaré Alenichev au Guardian. La pauvreté n’est pas le seul domaine de cette pornographie par l’IA : l’ONU s’en est servi pour des « reconstitutions » de violences sexuelles.











