BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//Máster Universitario en Visión Artificial - ECPv6.15.18//NONSGML v1.0//EN
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-ORIGINAL-URL:https://mastervisionartificial.es
X-WR-CALDESC:Eventos para Máster Universitario en Visión Artificial
REFRESH-INTERVAL;VALUE=DURATION:PT1H
X-Robots-Tag:noindex
X-PUBLISHED-TTL:PT1H
BEGIN:VTIMEZONE
TZID:UTC
BEGIN:STANDARD
TZOFFSETFROM:+0000
TZOFFSETTO:+0000
TZNAME:UTC
DTSTART:20220101T000000
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
DTSTART;TZID=UTC:20230412T160000
DTEND;TZID=UTC:20230412T180000
DTSTAMP:20260405T163921
CREATED:20230203T123954Z
LAST-MODIFIED:20230203T191506Z
UID:2663-1681315200-1681322400@mastervisionartificial.es
SUMMARY:Plataforma robótica asistencial para la monitorización de las acciones basada en sistemas de reconocimeinto de actividades mediante deep learning y continual learning.
DESCRIPTION:PONENTE\nDra. Nadia Nasri Mohammadshahi\n\n\nAFILIACIÓN\nUniversidad de Alicante y Universidad de Alcalá de Henares\n\n\nRESUMEN\nEn este seminario presentaremos LOLA\, nuestro robot de asistencia de bajo coste. La plataforma fue desarrollada para proporcionar asistencia a personas con trastornos delneurodesarrollo. Su principal objetivo es permitir a los terapeutas medir la capacidad de los usuarios para comprender y ejecutar las tareas cotidianas con la ayuda de plataformasrobóticas de asistencia como LOLA y seguir el proceso de aprendizaje de sus pacientes. Para lograr este objetivo\, la plataforma robótica utiliza una interfaz gráfica de usuario\, así como una aplicación basada en modelos de deep learning para el reconocimiento de acciones de forma online\, que permiten reforzar y aprender las actividades de la vida diaria mediante sesiones interactivas con los usuarios. Las personas con discapacidad han estado probando la funcionalidad de la plataforma\, y en esta sesión analizaremos los resultados de este periodo de validación técnica. Finalmente\, presentaremos los soluciones conocidas como de Continual Learning que se están empleando para mejorar los sistemas de reconocimiento de acciones. Realizaremos una introducción a este paradigma de aprendizaje\, explicando cómo se emplea en modelos de vídeo\, mediante una revisión del estado del arte. Así mismo\, concluiremos con los avances que desde nuestro grupo de investigación se han completado en esta línea.\n\n\nBIO\nNadia Nasri Mohammadshahi es licenciada en Ingeniería Electrónica y tiene un Máster en Automatización y Robótica. Hizo su doctorado en Ciencias de la Computación e Inteligencia Artificial en la Universidad de Alicante y con la ayuda de Margarita Salas (de la universidad de Alicante). Actualmente está haciendo un Postdoc en la Universidad de Alcalá de Henares.
URL:https://mastervisionartificial.es/event/plataforma-robotica-asistencial-para-la-monitorizacion-de-las-acciones-basada-en-sistemas-de-reconocimeinto-de-actividades-mediante-deeplearning-y-continual-learning
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230419T160000
DTEND;TZID=UTC:20230419T180000
DTSTAMP:20260405T163921
CREATED:20230203T192211Z
LAST-MODIFIED:20230203T192719Z
UID:2667-1681920000-1681927200@mastervisionartificial.es
SUMMARY:Visual Semantic Navigation: an introduction to the problem.
DESCRIPTION:PONENTE\nDr. Roberto J. López Sastre\n\n\nAFILIACIÓN\nUniversidad de Alcalá de Henares\n\n\nRESUMEN\nSemantic and goal-oriented visual navigation is one of the most prominent tasks performed by intelligent species in their daily lives. This task is defined as the ability we have to navigate through our environment\, finding targets and enabling interaction with it. Navigation methods used in robotics can be divided into two main categories: geometry-based and learning-based. Semantic visual navigation belongs to the second group\, where there is no need to know the map of the environment a priori\, and where there is no need to build such a map «on the fly». In this talk we will present the problem of semantic visual navigation in detail\, reviewing the state-of-the-art models. We will then describe the main advances that are being made on this problem from a reinforcement-based learning and meta-learning approach.\n\n\nBIO\nI received a Master of Electrical Engineering from the University of Alcalá\, Spain in 2005. I work at GRAM research group within the Department of Signal Theory and Communications\, where I defended my PhD in Electrical Engineering on may 18\, 2010\, entitled «Visual Vocabularies for Category-Level Object Recognition». In 2008\, I spent 6 months in lovely Leuven\, working with Tinne Tuytelaars and the VISICS-PSI research group. Summer 2010\, I visited Silvio Savarese’s group at University of Michigan. Research interests in reverse chronological order: meta-learning\, semantic visual navigation\, AI applied to astrophysics\, unsupervised learning\, activity recognition\, object category pose estimation\, semantic visual vocabularies\, category-level object recognition.
URL:https://mastervisionartificial.es/event/visual-semantic-navigation-an-introduction-to-the-problem
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230426T160000
DTEND;TZID=UTC:20230426T180000
DTSTAMP:20260405T163921
CREATED:20230203T192546Z
LAST-MODIFIED:20230203T192546Z
UID:2669-1682524800-1682532000@mastervisionartificial.es
SUMMARY:Deshojando la margarita. O ¿cuánto podemos enrevesar la más sencilla de las decisiones?
DESCRIPTION:PONENTE\nDr. José Luis Esteban Sánchez-Marín\n\n\nAFILIACIÓN\nGrupo de Visión\, 3DVI (Verisk Analytics)\n\n\nRESUMEN\n¿Sí o no? Eso es todo lo que tiene que decidir nuestro sistema y no queremos que falle. Pero fallará\, mucho o poco.\nExaminaremos las métricas que nos permiten conocer la calidad o utilidad de nuestro sistema de decisión.\nCon un poco de suerte no veremos nada nuevo\, pero trataremos de contraponer y poner en perspectiva muchos conceptos ya conocidos.\n\n\nBIO\nBiólogo e informático. En la UPV/EHU desarrollé sistemas de análisis de imagen y cuantificación mediante microespectrofotometría. En FiloSoft desarrollé sistemas de captura y análisis de datos biomédicos\, incluyendo el primer sistema de análisis de ADN usado por la policía española. En Ipsa desarrollé sistemas de reconocimiento de información en documentos. En relación con la FAI desarrollé sistemas de análisis de registros de vuelo para campeonatos aeronáuticos. En la URJC fui profesor asociado y miembro del grupo Gavab. En 3DVI (antes Geomni) desarrollo sistemas de inferencia de modelos de edificios partir de imágenes aéreas.
URL:https://mastervisionartificial.es/event/deshojando-la-margarita-o-cuanto-podemos-enrevesar-la-mas-sencilla-de-las-decisiones
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
END:VCALENDAR