index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

AI engineering Embedded AI Arcadia Method Trustworthiness Assessment AI System Characterization Counterfactuals Cryptography and Security Distribution based method Adversarial attacks Intelligence Articifielle Data Stream Processing Data Quality Trustworthiness Attributes Evaluation Christoffel functions Attack transferability Machine Learning Custom search space Decision tree Semantic segmentation Anomaly GPU ODD Mixed Integer Programming Fiabilité Bayesian Optimization Explicabilité AI-Based Critical Systems Adversarial examples Sûreté de fonctionnement Concepts Artificial Intelligence Embarqué Adversarial physical attack AI component evaluation methodology System Identification Bias Detection Hardware Recurrent Neural Networks Fault tolerance Computer Vision Computer Vision and Pattern Recognition Calibration Generative Models Realization theory Deep Reinforcement Learning Ingénierie algorithmique de l’IA Cycle-accurate simulator Data-driven reachability Computer vision Gas Distribution Example-based Neural network Fault detection Influence Functions Deep neural network classifiers Conformal prediction Distributed learning Data Analysis Critical systems Adversarial Training Bayesian inference Artificial intelligence Confiance explicabilité Case-based Monitoring Explanations Adversarial Attacks Data Stream Neural ODEs Branch-and-Bound algorithm AI-based systems Adversarial attack Robustesse AI Distributed Machine Learning Engineering Processes AI-Based Systems Long Short-Term Memory Explicability Explainable AI Confiance Anomaly detection Robustness Anomaly Detection Federated Learning FOS Computer and information sciences Explainability Enalty Bayesian Neural Networks Deep learning Complexity Fault tolerant systems Conformal Prediction Contextual Evaluation Neural Network Data Visualization XAI Sûreté Automated vehicle Deep Reinforcement Learning Robustness Adversarial Attacks Adversarial Training