BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//Máster Universitario en Visión Artificial - ECPv6.15.20//NONSGML v1.0//EN
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-ORIGINAL-URL:https://mastervisionartificial.es
X-WR-CALDESC:Eventos para Máster Universitario en Visión Artificial
REFRESH-INTERVAL;VALUE=DURATION:PT1H
X-Robots-Tag:noindex
X-PUBLISHED-TTL:PT1H
BEGIN:VTIMEZONE
TZID:UTC
BEGIN:STANDARD
TZOFFSETFROM:+0000
TZOFFSETTO:+0000
TZNAME:UTC
DTSTART:20200101T000000
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
DTSTART;TZID=UTC:20210209T160000
DTEND;TZID=UTC:20210209T180000
DTSTAMP:20260410T090220
CREATED:20210203T170706Z
LAST-MODIFIED:20210203T175048Z
UID:2144-1612886400-1612893600@mastervisionartificial.es
SUMMARY:Seminario: Deep learning para contar coches en imágenes de satélite
DESCRIPTION:Motivados por el hecho de que la pandemia de COVID-19 ha causado conmoción mundial en un corto periodo de\ntiempo desde diciembre de 2019\, estimamos el impacto negativo del confinamiento a causa de la COVID-19 en la\ncapital de España\, Madrid\, utilizando imágenes de satélite comerciales cortesía de Maxar Technologies©. Las\nautoridades en España están adoptando todas las medidas necesarias\, incluyendo ciertas restricciones a la\nmovilidad urbana\, para contener la propagación del virus y mitigar su impacto en la economía nacional. Dichas\nrestricciones dejan señales en las imágenes de satélite que se pueden detectar y clasificar automáticamente.
URL:https://mastervisionartificial.es/event/seminario-deep-learning-para-contar-coches-en-imagenes-de-satelite
LOCATION:Seminarios MUVA URJC\, Online mediante Microsoft Teams\, Mostoles\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20210216T160000
DTEND;TZID=UTC:20210216T180000
DTSTAMP:20260410T090220
CREATED:20210203T174621Z
LAST-MODIFIED:20210203T175100Z
UID:2151-1613491200-1613498400@mastervisionartificial.es
SUMMARY:Seminario: Rethinking Online Action Detection - Dr. Roberto López Sastre – UAH
DESCRIPTION:The Online Action Detection (OAD) problem needs to be revisited. Unlike traditional offline action detection approaches\, where the evaluation metrics are clear and well established\, in the OAD setting we find very few works and no consensus on the evaluation protocols to be used. In this talk we propose to rethink the OAD scenario\, clearly defining the problem itself and the main characteristics that the models which are considered online must comply with. We will also present some novel metrics\, which have been specifically designed to evaluate models online. Finally\, we will show the latest advances in unsupervised systems for the generation of action proposals in an online video stream.
URL:https://mastervisionartificial.es/event/seminario-rethinking-online-action-detection-dr-roberto-lopez-sastre-uah
LOCATION:Seminarios MUVA URJC\, Online mediante Microsoft Teams\, Mostoles\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20210223T160000
DTEND;TZID=UTC:20210223T180000
DTSTAMP:20260410T090220
CREATED:20210203T175502Z
LAST-MODIFIED:20210203T175502Z
UID:2154-1614096000-1614103200@mastervisionartificial.es
SUMMARY:Seminario:  Seguimiento y reconstrucción 3D en tiempo real de manos en interacción - Dr. Dan Casas – URJC
DESCRIPTION:En este seminario presentaré artículo «RGB2Hands: Real-Time Tracking of 3D Hand Interactions from Monocular RGB Video”\, publicado recientemente en el congreso SIGGRAPH Asia 2021. El seguimiento y la reconstrucción de la pose 3D y la geometría de las dos manos en interacción es un problema que tiene una gran relevancia para varias aplicaciones de interacción persona-computadora\, incluyendo AR / VR\, robótica o reconocimiento de lenguaje de señas. Los trabajos existentes se limitan a configuraciones de seguimiento más simples (por ejemplo\, considerando solo una mano o dos manos separadas espacialmente)\, o dependen de sensores complejos\, como cámaras de profundidad tipo Kinect. Por el contrario\, en este trabajo presentamos el primer método en tiempo real para la captura de movimiento de la pose articulada y la geometría de la superficie 3D de las manos desde una sola cámara RGB que considera explícitamente las interacciones cercanas. Con el fin de abordar las ambigüedades de profundidad inherentes en los datos RGB\, proponemos una nueva red neuronal convolucional (CNN) multitarea que calcula información adicional de la escena\, incluida la segmentación\, las correspondencias densas con un modelo de mano 3D y posiciones de puntos clave 2D\, además de mapas de profundidad relativa y distancia entre manos. Estas predicciones se utilizan posteriormente para estimar los parámetros de pose y forma de un modelo generativo de mano en 3D para ambas manos. Verificamos experimentalmente cada uno de los componentes individuales de nuestra método de reconstrucción 3D y seguimiento a dos manos RGB a través de un extenso estudio de ablación. Además\, demostramos que nuestro enfoque ofrece un rendimiento de seguimiento de dos manos nunca antes visto de RGB\, y supera cuantitativa y cualitativamente los métodos basados ​​en RGB existentes que no fueron diseñados explícitamente para interacciones de dos manos.
URL:https://mastervisionartificial.es/event/seminario-seguimiento-y-reconstruccion-3d-en-tiempo-real-de-manos-en-interaccion-dr-dan-casas-urjc
LOCATION:Seminarios MUVA URJC\, Online mediante Microsoft Teams\, Mostoles\, España
CATEGORIES:Seminarios
END:VEVENT
END:VCALENDAR