L'intelligence artificielle (IA) pilotée par des réseaux neuronaux est cruciale dans de nombreuses applications telles que les systèmes de recommandation, la traduction linguistique, les médias sociaux, les chatbots, les correcteurs orthographiques, etc. Cependant, ces réseaux sont souvent critiqués pour être des "boîtes noires", ce qui soulève des inquiétudes quant à leur explicabilité, en particulier dans des domaines sensibles tels que les soins de santé, la conduite autonome, etc. Les méthodes existantes pour améliorer l'explicabilité, telles que l'importance des caractéristiques, manquent souvent de clarté et d'interprétabilité. Pour remédier à ce problème, le réseau neuronal orienté objet pour une meilleure explicabilité (OONNIE) a été mis au point. OONNIE utilise la modélisation orientée objet pour combiner la perte et le poids de connexion afin de calculer l'importance des caractéristiques et intègre des règles spécifiques au domaine grâce à l'extensibilité de la POO. Le modèle met l'accent sur la transparence algorithmique en détaillant chaque étape de la formation. Évalué sur les fonctions XOR et XNOR, OONNIE montre des résultats prometteurs en termes d'importance des caractéristiques, de réduction plus rapide des pertes et d'amélioration des prédictions après l'intégration des règles du domaine. Il s'agit d'une contribution significative à l'IA explicable, qui fait d'OONNIE un outil précieux pour le développement de systèmes d'IA fiables.
Bitte wählen Sie Ihr Anliegen aus.
Rechnungen
Retourenschein anfordern
Bestellstatus
Storno







