La Inteligencia Artificial (IA) impulsada por redes neuronales es crucial en muchas aplicaciones como los sistemas de recomendación, la traducción de idiomas, las redes sociales, los chatbots, la corrección ortográfica, etc. Sin embargo, a menudo se critica a estas redes por ser "cajas negras", lo que suscita dudas sobre su explicabilidad, especialmente en ámbitos sensibles como la sanidad, la conducción autónoma, etc. Los métodos existentes para mejorar la explicabilidad, como la importancia de las características, suelen carecer de claridad e interpretabilidad. Para solucionar este problema, se ha desarrollado la red neuronal orientada a objetos para mejorar la explicabilidad (OONNIE). OONNIE utiliza el modelado orientado a objetos para combinar la pérdida y el peso de la conexión para calcular la importancia de las características e integra reglas específicas del dominio gracias a la capacidad de ampliación de la programación orientada a objetos. El modelo enfatiza la transparencia algorítmica detallando cada paso del entrenamiento. Evaluado con funciones XOR y XNOR, OONNIE muestra resultados prometedores en la importancia de las características, una reducción más rápida de las pérdidas y una mejora de las predicciones tras integrar reglas de dominio. Esto supone una importante contribución a la IA explicable, lo que convierte a OONNIE en una valiosa herramienta para desarrollar sistemas de IA fiables.
Bitte wählen Sie Ihr Anliegen aus.
Rechnungen
Retourenschein anfordern
Bestellstatus
Storno







