Peut-on confier notre sécurité à l’IA ?

L’intelligence artificielle fonctionne mais personne ne sait comment ni pourquoi, faute de fondements théoriques suffisants. D'autant que les pirates y ont également recours. D’où la nécessité d’une meilleure collaboration entre législateurs et scientifiques. En attendant, certaines armées créent des robots tueurs. Alors, à quand la version terroriste ou mafieuse ?

Analyse des signaux faibles, analyse comportementale, analyse de cible, reconnaissance de plaques minéralogiques, reconnaissance faciale… jusqu’ici, l’intelligence artificielle (IA) appliquée au monde de la sécurité s’est surtout développée dans la cybersécurité ainsi que dans les algorithmes d’analyse des images de vidéoprotection. Le secteur a le vent en poupe A l’échelle mondiale, le poids de la R&D dans le domaine de la sécurité et de la Défense représentent que 6% du total des investissements en IA, à égalité avec les FinTech et devant les RH, les loisirs ou les transports (3% chacun ), selon un récente étude du cabinet d’analyse européen Roland Berger. A présent, l’IA et ses systèmes auto-apprenants s’immiscent massivement dans les rouages des systèmes d’information les plus divers : voitures (bientôt autonomes), avions, engins de chantier, métros, tramways, systèmes de régulation de la circulation urbaine, robotique chirurgicale, lignes de production industrielle… La promesse est toujours la même : une automatisation des processus, une détection fine et accélérée des points d’intérêt, un accroissement de la qualité, de meilleures prises de décisions automatiques, etc. Or, en parallèle de l'éthique, il apparaît également important de se poser la question de la sécurité et de la sûreté de ces outils. Bref, faut-il confier notre sécurité à une intelligence artificielle ? Lire la suite de l'article...

 

Les derniers produits des risques professionnels