index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Evaluation Neural network Automated vehicle Realization theory Bias Detection Counterfactuals Trustworthiness Attributes Bayesian inference Data Stream Adversarial attacks Robustesse ODD Distribution based method Generative Models Robustness Gas Distribution Cycle-accurate simulator Explicabilité Fault tolerance Data Quality Custom search space Mixed Integer Programming Attack transferability Confiance Hardware Sûreté XAI Neural ODEs System Identification Conformal Prediction Anomaly AI-Based Critical Systems Engineering Processes Example-based Distributed Machine Learning Computer Vision and Pattern Recognition Intelligence Articifielle GPU Data Analysis Distributed learning Concepts Explanations Arcadia Method Machine Learning Neural Network Monitoring Trustworthiness Assessment Fault detection Recurrent Neural Networks Anomaly detection Fiabilité Computer Vision Semantic segmentation Critical systems Ingénierie algorithmique de l’IA Deep Reinforcement Learning Robustness Adversarial Attacks Adversarial Training Adversarial physical attack Enalty Bayesian Neural Networks Conformal prediction Explicability Explainable AI FOS Computer and information sciences Influence Functions AI Data Stream Processing Embarqué Contextual Evaluation Calibration Artificial Intelligence AI-Based Systems Adversarial Attacks AI component evaluation methodology Computer vision Confiance explicabilité Adversarial Training Cryptography and Security Adversarial attack Data Visualization Artificial intelligence AI-based systems Federated Learning Decision tree Case-based Explainability Deep Reinforcement Learning Long Short-Term Memory Anomaly Detection Embedded AI Complexity Deep neural network classifiers Data-driven reachability Adversarial examples Bayesian Optimization AI System Characterization Fault tolerant systems Christoffel functions Sûreté de fonctionnement AI engineering Deep learning Branch-and-Bound algorithm