index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Decision tree Semantic segmentation Anomaly Detection Machine Learning Robustness AI engineering Data Visualization Explanations Embedded AI AI component evaluation methodology Conformal prediction Example-based Data-driven reachability Confiance AI Explicability Neural network Christoffel functions Data Stream Processing Adversarial Training System Identification Calibration Recurrent Neural Networks Adversarial attacks Data Quality Cryptography and Security Attack transferability Distributed Machine Learning Monitoring Deep neural network classifiers Adversarial examples Branch-and-Bound algorithm Adversarial physical attack Complexity AI-based systems Conformal Prediction Reliability Computer vision Evaluation AI-Based Critical Systems Case-based Adversarial Attacks Artificial Intelligence Sûreté de fonctionnement Contextual Evaluation XAI Neural Network Deep Reinforcement Learning AI System Characterization Arcadia Method Counterfactuals Sûreté Assurance case Robustesse Computer Vision and Pattern Recognition Fault tolerant systems Data Stream Mixed Integer Programming Computer Vision Data trustworthiness Explainability Long Short-Term Memory Trustworthiness Assessment FOS Computer and information sciences Confiance explicabilité Trustworthiness Attributes Cycle-accurate simulator Adversarial attack Engineering Processes Generative Models Realization theory Deep Reinforcement Learning Robustness Adversarial Attacks Adversarial Training Anomaly Data Analysis Fault tolerance AI-Based Systems ODD Explicabilité Distribution based method Fault detection Federated Learning Distributed learning Bias Detection AI-Systems Engineering Fiabilité Embarqué Concepts Enalty Bayesian Neural Networks Anomaly detection Explainable AI Artificial intelligence Deep learning Automated vehicle GPU Bayesian Optimization Intelligence Articifielle Critical systems Custom search space Neural ODEs Bayesian inference