Prédire l'avenir permet d'agir de façon optimale au présent. Aujourd'hui, les prédictions les plus précises proviennent d'algorithmes, qui permettent d'anticiper aussi bien une maladie que le départ d'un employé. Mais cette prédiction algorithmique atteint également l'État dans ses fonctions les plus régaliennes, comme la sécurité.
Que ce soit en justice pénale (pour estimer le risque de récidive d'un détenu), au sein de la police (afin de connaître les probabilités d'occurrence d'un crime dans un certain lieu), ou dans la lutte contre le terrorisme (afin de détecter les menaces potentielles), les algorithmes prédictifs sont largement mobilisés en matière de sécurité intérieure et extérieure. Ces nouveaux oracles marquent-ils l'avènement de Minority Report version 2.0 ?
S'ils charrient la promesse d'une efficacité accrue, ces algorithmes pourraient aussi bien agir, en cas de biais importants, comme des " armes de destruction massive ". Nos valeurs nous enjoignent à nous prémunir de l'émergence d'un Big Brother que nos moyens technologiques rendent désormais possible. Le panoptique à ciel ouvert, tel que déployé par la Chine, par exemple, en constitue un exemple inquiétant. Il faut donc trouver la ligne de crête, le fragile équilibre qui doit permettre d'éviter le double écueil de l'impuissance publique et de la dystopie totalitaire. Au fond, les algorithmes sont solubles dans la démocratie s'ils la servent plutôt que s'y substituent.