XI ValgrAI Matinal de Investigación
ValgrAI se complace en anunciar la próxima edición de los “ValgrAI Matinales de Investigación”, una iniciativa que sigue firme en su compromiso de proporcionar un espacio para el intercambio y la discusión sobre las últimas innovaciones en el campo de la inteligencia artificial. Este evento se llevará a cabo de forma virtual a través de Teams, ofreciendo una excelente oportunidad para que investigadores, académicos y profesionales conecten y exploren las nuevas tendencias y desarrollos en IA.
Os invitamos cordialmente a todas las personas interesadas en la tecnología de punta a participar en este matinal, donde se expondrán dos investigaciones revolucionarias realizadas por destacados académicos. Esta sesión virtual será una ocasión única para aprender cómo la inteligencia artificial está transformando sectores clave y abriendo nuevas posibilidades.
Ponencias del XI ValgrAI Matinal de Investigación:
Explicabilidad en modelos de deep learning aplicados a problemas espacio-temporales
Ponente: Javier García Sigüenza, Universitat d’Alacant en el grupo de investigación Análisis y Visualización de Datos en Redes (ANVIDA)
La Inteligencia Artificial está transformando la sociedad, afectando desde la industria hasta la toma de decisiones, por ello, ha aumentado la preocupación por su transparencia. La Inteligencia Artificial Explicable (XAI) es crucial para abordar este problema, permitiendo obtener un mejor entendimiento de su comportamiento, pudiendo ayudar así tanto en aspectos éticos como técnicos. Sin embargo, la aplicación de técnicas de explicabilidad junto con problemas espacio-temporales representa un reto debido al reducido número de opciones, que cuando se implementan penalizan el rendimiento a cambio de la explicabilidad obtenida.
Invarianza de las métricas de calidad de imagen a transformaciones afines
Ponente: Nuria Alabau, Universitat de València en el grupo de investigación Image Processing Laboratory
Las arquitecturas profundas son el estado del arte actual en la predicción de la calidad subjetiva de las imágenes.
Normalmente, estos modelos se evalúan en función de su capacidad para correlacionarse con la opinión humana en bases de datos con una serie de distorsiones que pueden aparecer en los medios digitales.
Sin embargo, estos pasan por alto las transformaciones afines, que pueden representar mejor los cambios que se producen realmente en las imágenes en condiciones naturales. Los seres humanos pueden ser particularmente invariantes a estas transformaciones naturales, a diferencia de las digitales. En este trabajo, evaluamos el estado del arte de las métricas de calidad de imagen profunda mediante la evaluación de su invarianza a las transformaciones afines, en concreto: rotación, traslación, escalado y cambios en la iluminación espectral. Descubrimos que ninguna de las métricas del estado del arte muestra resultados similares a los humanos bajo esta fuerte prueba basada en umbrales de invisibilidad. Esto significa que ajustar los modelos exclusivamente para predecir la visibilidad de las distorsiones genéricas puede hacer que no se tengan en cuenta otras propiedades de la visión humana como, por ejemplo, las invarianzas o los umbrales de invisibilidad.
Fecha del evento: 13 de septiembre de 2024
Próximo evento
Nos complace anunciar que la siguiente edición del ValgrAI Matinal de Investigación se llevará a cabo el 4 de octubre. Invitamos a todos los interesados en las fronteras de la inteligencia artificial a participar y/o unirse a nosotros. No pierdas la oportunidad de estar al frente de las discusiones más relevantes en el campo y de contribuir a la configuración del futuro de la tecnología.
Para inscripciones y más información, por favor contacta con info@valgrai.eu.
¡Esperamos verte en nuestro próximo evento para seguir explorando y moldeando juntos el futuro de la inteligencia artificial!