Interpretable Neural Networks with Frank-Wolfe: Sparse Relevance Maps and Relevance Orderings
von Jan Macdonald, Mathieu Besançon, Sebastian Pokutta
Jahr:
2022
Publikation:
Interpretable Neural Networks with Frank-Wolfe: Sparse Relevance Maps and Relevance Orderings
Abstrakt:
We study the effects of constrained optimization formulations and Frank-Wolfe algorithms for obtaining interpretable neural network predictions. Reformulating the Rate-Distortion Explanations (RDE) method for relevance attribution as a constrained optimization problem provides precise control over the sparsity of relevance maps.
Link:
Read the paperAdditional Information
Brief introduction of the dida co-author(s) and relevance for dida's ML developments.
Dr. Jan Macdonald
Während seines Mathematikstudiums (TU Berlin) konzentrierte sich Jan auf angewandte Themen der Optimierung, Funktionalanalysis und Bildverarbeitung. Im Rahmen seiner Promotion (TU Berlin) untersuchte er das Zusammenspiel von theoretischer und empirischer Forschung zu neuronalen Netzen. Dies resultierte in seiner Dissertation, in der die Zuverlässigkeit von Deep Learning für Bildverarbeitungs- und Computer-Vision-Anwendungen in Bezug auf Interpretierbarkeit, Robustheit und Genauigkeit untersucht wird. Bei dida arbeitet er als Machine Learning Researcher an der Schnittstelle von wissenschaftlicher Forschung und Softwareentwicklung.