BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//Máster Universitario en Visión Artificial - ECPv6.15.19//NONSGML v1.0//EN
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-WR-CALNAME:Máster Universitario en Visión Artificial
X-ORIGINAL-URL:https://mastervisionartificial.es
X-WR-CALDESC:Eventos para Máster Universitario en Visión Artificial
REFRESH-INTERVAL;VALUE=DURATION:PT1H
X-Robots-Tag:noindex
X-PUBLISHED-TTL:PT1H
BEGIN:VTIMEZONE
TZID:UTC
BEGIN:STANDARD
TZOFFSETFROM:+0000
TZOFFSETTO:+0000
TZNAME:UTC
DTSTART:20210101T000000
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
DTSTART;TZID=UTC:20220301T180000
DTEND;TZID=UTC:20220301T200000
DTSTAMP:20260407T230430
CREATED:20220216T083708Z
LAST-MODIFIED:20220216T083708Z
UID:2379-1646157600-1646164800@mastervisionartificial.es
SUMMARY:Seminario: Reconstruction and Animation of 3D Digital Garments.
DESCRIPTION:In this talk\, I will discuss a collection of learning-based methods used to create digital garments. First\, I will present a method based on advanced computer vision techniques and differentiable rendering to recover the surface of dynamic garments. Then I will discuss how these reconstructions are used to learn a regressor that estimates how a garment deforms as a function of the underlying human body\, paving the path to realistic digital humans and virtual try-on applications.
URL:https://mastervisionartificial.es/event/seminario-reconstruction-and-animation-of-3d-digital-garments
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20220308T180000
DTEND;TZID=UTC:20220308T200000
DTSTAMP:20260407T230430
CREATED:20220216T084519Z
LAST-MODIFIED:20220216T084519Z
UID:2381-1646762400-1646769600@mastervisionartificial.es
SUMMARY:Seminario: Analytical Solutions in Deformable registration and reconstruction methods
DESCRIPTION:The tasks of image registration (i.e.\, the computation of correspondences) and image-based reconstruction (i.e.\, the computation of depth) are fundamental in Computer Vision. Solving both tasks is required in fields such as video editing\, robotics\, or Augmented Reality (AR) applications. To date\, there exist mature techniques for the reconstruction and registration of rigid objects\, such as Structure-from-Motion (SfM). The case of deformable objects is however largely unresolved\, despite being crucial in applications where most of the objects are non-rigid\, such as in medical imaging. There exist two main scenarios. In Non-Rigid SfM (NRSfM)\, the inputs are a set of images and the problem is to find correspondences across images (registration) and depth (reconstruction). It is thus an extension of SfM to non-rigid objects. In Shape-from-Template (SfT)\, the inputs are a single image and a 3D object model (template)\, and the problem is to find correspondences between the model and the image (registration) and depth (reconstruction). Obviously\, as the object is deformable\, the image is not a photo of the model under some unknown pose: rather\, it is a photo of the model taken after some unknown deformation. In the last few years\, both SfT and NRSfM have been thoroughly for some types of deformation models that can be expressed as partial differential equations\, such as the isometric model. Based on those models\, NRSfM and SfT can be solved analytically. This talk gives insight into these methods from both a theoretical and practical perspective.
URL:https://mastervisionartificial.es/event/seminario-analytical-solutions-in-deformable-registration-and-reconstruction-methods
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20220315T180000
DTEND;TZID=UTC:20220315T200000
DTSTAMP:20260407T230430
CREATED:20220216T084926Z
LAST-MODIFIED:20220216T085230Z
UID:2388-1647367200-1647374400@mastervisionartificial.es
SUMMARY:Seminario: Tratamientos guiados por imagen para una medicina personalizada
DESCRIPTION:Diversas técnicas como el posicionamiento o la realidad aumentada permiten localizar elementos durante la cirugía e integrar esa información con datos de imagen médica\, adaptando el tratamiento a cada caso específico. Estas técnicas pueden emplearse durante las distintas fases del tratamiento quirúrgico de un paciente\, de forma que se mejore el entrenamiento\, la planificación o la ejecución del mismo. En este seminario se presentarán las diferentes tecnologías que se emplean para llevar estas mejoras al campo médico (sistemas de posicionamiento ópticos y magnéticos\, algoritmos de registro\, realidad aumentada o impresión 3D) así como ejemplos de aplicaciones clínicas en las que el grupo BiiG-IGT (https://biig-igt.uc3m.es) de\nla UC3M colabora con diversos hospitales en radioterapia intraoperatoria\, cirugía oncológica\, entrenamiento para parto o cirugía maxilofacial.
URL:https://mastervisionartificial.es/event/seminario-tratamientos-guiados-por-imagen-para-una-medicina-personalizada
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20220322T180000
DTEND;TZID=UTC:20220322T200000
DTSTAMP:20260407T230430
CREATED:20220216T085712Z
LAST-MODIFIED:20220216T085712Z
UID:2391-1647972000-1647979200@mastervisionartificial.es
SUMMARY:Seminario: Métodos de detección y reducción de sesgos en algoritmos de aprendizaje automático.
DESCRIPTION:En este seminario se hará un repaso por técnicas recientes desarrolladas para la detección de sesgos en arquitecturas de aprendizaje basadas en redes neuronales. También se hablará de técnicas para incorporar nuevos objetivos de aprendizaje que permitan incrementar la privacidad y la confiabilidad\nen los algoritmos de aprendizaje automático. Por último se presentarán casos de estudio relacionados con estas temáticas y el uso de Inteligencia  Artificial en sectores críticos.
URL:https://mastervisionartificial.es/event/seminario-metodos-de-deteccion-y-reduccion-de-sesgos-en-algoritmos-de-aprendizaje-automatico
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20220329T180000
DTEND;TZID=UTC:20220329T200000
DTSTAMP:20260407T230430
CREATED:20220216T085859Z
LAST-MODIFIED:20220216T092534Z
UID:2396-1648576800-1648584000@mastervisionartificial.es
SUMMARY:Seminario: Deshojando la margarita. O ¿cuánto podemos enrevesar la más sencilla de las decisiones?
DESCRIPTION:Sí o no. Eso es todo lo que tiene que decidir nuestro sistema y no queremos que falle. Pero fallará\, mucho o poco.
URL:https://mastervisionartificial.es/event/seminario-deshojando-la-margarita-o-cuanto-podemos-enrevesar-la-mas-sencilla-de-las-decisiones-2
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20220405T180000
DTEND;TZID=UTC:20220405T200000
DTSTAMP:20260407T230430
CREATED:20220404T074057Z
LAST-MODIFIED:20220404T074057Z
UID:2424-1649181600-1649188800@mastervisionartificial.es
SUMMARY:Seminario: Visión artificial eficiente para dispositivos móviles
DESCRIPTION:La visión artificial está en todas partes. Dispositivos como smartphones\, tablets o drones captan nuestro día a día\, ofreciendo nuevas e interesantes oportunidades de negocio. Sin embargo\, su limitada capacidad computacional supone un reto en el diseño de algoritmos de visión con un claro compromiso entre precisión y eficiencia. En este seminario se mostrarán algunos ejemplos de métodos de bajo nivel que sirven como base para la construcción de nuevas aplicaciones de visión\, tratamos el problema de la detección y descripción de características locales de apariencia\, que es la piedra angular del flujo de trabajo en sistemas como SLAM\, Structure from Motion\, Pose Estimation o Robust object recognition.
URL:https://mastervisionartificial.es/event/seminario-vision-artificial-eficiente-para-dispositivos-moviles
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20220419T180000
DTEND;TZID=UTC:20220419T200000
DTSTAMP:20260407T230430
CREATED:20220404T074636Z
LAST-MODIFIED:20220404T074710Z
UID:2428-1650391200-1650398400@mastervisionartificial.es
SUMMARY:Seminario: La Visión Artificial en la nueva era: Advanced Manufacturing
DESCRIPTION:La Visión Artificial se ha convertido en un elemento fundamental en la industria de la nueva era. La inteligencia artificial aplicada al análisis de imagen\, la gestión de los sistemas VGR (Vision Guide Robotics) y su capacidad de obtener una gran cantidad de datos de los procesos confieren a los sistemas de visión un alto valor estratégico en la coyuntura industrial actual y futura.
URL:https://mastervisionartificial.es/event/seminario-la-vision-artificial-en-la-nueva-era-advanced-manufacturing
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20220426T180000
DTEND;TZID=UTC:20220426T200000
DTSTAMP:20260407T230430
CREATED:20220404T074934Z
LAST-MODIFIED:20220404T074934Z
UID:2431-1650996000-1651003200@mastervisionartificial.es
SUMMARY:Seminario: AI for Autonomous Assistive Robots
DESCRIPTION:In this talk we will present some of the latest advances made in the GRAM group of the University of Alcalá in the implementation of AI solutions for autonomous assistive robots. We will detail some semantic visual navigation solutions using RL and meta-learning models\, to achieve robots with sufficient autonomy to navigate through novel environments. Finally\, we will also introduce some assistive applications\, based on online action detection solutions\, that allow robots to help people with neurodevelopmental problems to enhance the learning of daily life actions. ..
URL:https://mastervisionartificial.es/event/seminario-ai-for-autonomous-assistive-robots
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230201T160000
DTEND;TZID=UTC:20230201T180000
DTSTAMP:20260407T230430
CREATED:20230203T114924Z
LAST-MODIFIED:20230203T120024Z
UID:2631-1675267200-1675274400@mastervisionartificial.es
SUMMARY:Inteligencia Artificial Explicativa en Aprendizaje Profundo: arrojando luz sobre las cajas negras
DESCRIPTION:PONENTE\nDña. Clara Isabel López González\n\n\nAFILIACIÓN\nPersonal Docente Investigador en formación en la Universidad Complutense de Madrid.\n\n\nRESUMEN\nEn los últimos años el Aprendizaje Profundo ha experimentado un rápido crecimiento\, demostrando un gran rendimiento en numerosas técnicas\, desde clasificación de imágenes\, segmentación semántica\, detección de objetos\, hasta lenguaje natural. Gracias a este éxito el uso de redes neuronales se ha extendido a diversas disciplinas más allá de la investigación\, como puede ser la medicina en la detección de enfermedades o la conducción autónoma en la detección de obstáculos. Es\, por tanto\, de suma importancia poder explicar e interpretar los resultados obtenidos. Sin embargo\, estas técnicas entran dentro de lo que se conoce como modelos de caja negra\, y aun conociendo su funcionamiento no somos capaces de explicar el proceso de toma de decisiones que llevan a cabo. Para hacer frente a este problema se han desarrollado diferentes métodos bajo el paraguas de la Inteligencia Artificial Explicativa (xAI)\, los cuales pretenden ayudar a interpretar qué aprenden las redes neuronales. En este seminario se presenta el concepto de Inteligencia Artificial Explicativa\, distintos métodos y aplicaciones dentro del campo de la Visión Artificial.\n\n\nBIO\nClara Isabel López González es graduada en Matemáticas y Física por la Universidad Complutense de Madrid. Estudió el Máster en Matemáticas en la Universidad de Padua y el Máster en Matemáticas y Aplicaciones en la Universidad de Burdeos. Actualmente es estudiante de doctorado en Ingeniería Informática en la UCM. Su investigación se centra en el análisis de mecanismos explicativos en Aprendizaje Profundo para procesamiento de imágenes de exterior.\n\n\n\n 
URL:https://mastervisionartificial.es/event/inteligencia-artificial-explicativa-en-aprendizaje-profundo-arrojando-luz-sobre-las-cajas-negras
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230208T160000
DTEND;TZID=UTC:20230208T180000
DTSTAMP:20260407T230430
CREATED:20230203T120640Z
LAST-MODIFIED:20230203T205244Z
UID:2636-1675872000-1675879200@mastervisionartificial.es
SUMMARY:Building Smart and Fast Systems using Machine Learning and Computer Vision.
DESCRIPTION:PONENTE\nDra. Thaleia Dimitra Doudali\n\n\nAFILIACIÓN\nAssistant Research Professor at IMDEA Software Institute.\n\n\nRESUMEN\nNowadays\, computing platforms use a mix of different hardware technologies\, to scale application performance\, resource capacities and achieve cost effectiveness. However\, this heterogeneity\, along with the greater irregularity in the behavior of emerging workloads\, render existing resource management approaches ineffective. In the first part of this talk\, I will describe how we can use machine learning methods at the operating system-level\, in order to make smarter resource management decisions and speed up application performance. In the second part of the talk\, I will present how we can accelerate certain components of such systems using visualization and computer vision methods. Finally\, I will conclude with my vision of coupling machine learning and computer vision at the system-level and present open questions that make this research area exciting to work on!\n\n\nBIO\nShe received her PhD from the Georgia Institute of Technology (Georgia Tech) in the United States. Thaleia’s research explores novel methodologies\, such as machine learning and computer vision\, to improve operating system-level resource managemen. In 2021\, Thaleia received the Juan de la Cierva post-doctoral fellowship.
URL:https://mastervisionartificial.es/event/building-smart-and-fast-systems-using-machine-learning-and-computer-vision
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230215T160000
DTEND;TZID=UTC:20230215T180000
DTSTAMP:20260407T230430
CREATED:20230203T120943Z
LAST-MODIFIED:20230203T205417Z
UID:2640-1676476800-1676484000@mastervisionartificial.es
SUMMARY:Aplicación de visión artificial en capiloroscopía para la detección de neutropenia severa
DESCRIPTION:PONENTE\nDr. Alberto Pablo Trinidad\n\n\nAFILIACIÓN\nLeuko\n\n\nRESUMEN\nLa neutropenia es uno de los efectos secundarios más graves de la quimioterapia y su principal resultado negativo es el riesgo elevado de infección conocida como neutropenia febril. Los métodos actuales para detectar neutropenia implican una extracción y análisis de muestras de sangre con equipo de laboratorio y personal capacitado. Desde la empresa Leuko\, se está desarrollando un nuevo dispositivo capaz de detectar neutropenia mediante el análisis no invasivo de videos del flujo sanguíneo en capilares\, utilizando técnicas de visión artificial y análisis de imagen.\n\n\nBIO\nEl Dr. Alberto Pablo Trinidad trabaja como «senior data scientist» en la empresa Leuko en el desarrolo de algoritmos de inteligencia artificial aplicados a imagenes y videos de capilaroscopia para la detección de neutropenia severa. Realizó el master de visión artificial por la universidad Rey Juan Carlos en el 2013/14 y se doctoró en Sistemas Electronicos por la universidad Politecnica de Madrid en 2021.\n\n\n\n 
URL:https://mastervisionartificial.es/event/aplicacion-de-vision-artificial-en-capiloroscopia-para-la-deteccion-de-neutropenia-severa
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230222T160000
DTEND;TZID=UTC:20230222T180000
DTSTAMP:20260407T230430
CREATED:20230203T121326Z
LAST-MODIFIED:20230203T205900Z
UID:2643-1677081600-1677088800@mastervisionartificial.es
SUMMARY:3D perception for AR/VR devices
DESCRIPTION:PONENTE\nDr. Eduardo Perdices\n\n\nAFILIACIÓN\nIngeniero en visión Artifical en Arcturus Industries\n\n\nRESUMEN\nExplicación de los distintos retos a abordar a la hora de aplicar soluciones de visión artifical en dispositivos de realidad virtual\, tomando como objetivo el posicionamiento 3D en tiempo real del dispositivo (headset) y sus controladores.\n\n\nBIO\nDoctor en visión artificial en la URJC\, con experiencia de más de 10 años trabajando en empresas de robótica y visión artificial\n\n\n\n 
URL:https://mastervisionartificial.es/event/3d-perception-for-ar-vr-devices
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230301T160000
DTEND;TZID=UTC:20230301T180000
DTSTAMP:20260407T230430
CREATED:20230203T121621Z
LAST-MODIFIED:20230203T205923Z
UID:2645-1677686400-1677693600@mastervisionartificial.es
SUMMARY:Beyond supervised Deep Learning for Autonomous Driving.
DESCRIPTION:PONENTE\nDr. Luis Miguel Bergasa Pascual\n\n\nAFILIACIÓN\nUniversidad de Alcalá de Henares\n\n\nRESUMEN\nAutonomous driving is one of the most exciting engineering fields of our era. The benefits that self-driving cars will have in our society are still unmeasurable\, while the associated goals are also growing increasingly complex and challenging. In recent years\, fully supervised Deep Learning (DL) algorithms have seen an unprecedented boom in this field and are progressively being introduced into autonomous vehicle navigation architectures. However\, compared to classical methods\, supervised DL-based techniques face scalability issues as they require huge amounts of labeled data and are unable to generalize to multiple domains. These issues represent a great barrier for the practical application of DL techniques in this field. In this talk\, we will revise the DL developments made by our Research Lab for our Autonomous Vehicle prototype surrounding alternatives to fully supervised learning in the DL context (synthetic data\, transfer learning\, reinforcement learning\, etc.). In addition\, we will present our thoughts on the future of research in this field with the purpose of solving the challenging remaining problems.\n\n\nBIO\nLuis M. Bergasa received the MS degree in Electrical Engineering in 1995 from the Technical University of Madrid and the PhD degree in Electrical Engineering in 1999 from the University of Alcalá (UAH)\, Spain. He is Full Professor at the Department of Electronics of the UAH since 2011. From 2000 he had different research and teaching positions at the UAH. He was Head of the Department of Electronics (2004-2010)\, coordinator of the Doctorate program in Electronics (2005-2010) and Director of Knowledge Transfer at the UAH (2014-2018). He is author of more than 280 refereed papers in journals and international conferences. He was recognized as one of the most productive researcher in Intelligent Transportation Systems (ITS) field during the period 1996-2014\, and as a Distinguished Lecturer of the IEEE Vehicular Technology Society (2019-2021). He received the Institutional Lead Award 2019 from the IEEE ITS Society for the longstanding work of his research group. His research activity has been awarded/recognized with 28 prizes/recognitions related to Robotics and Automotive fields from 2004 to nowadays.  He is Associate Editor of the IEEE Transactions on ITS and habitual reviewer in several journals included in the JCR index. He was Guest Editor of two Special Issues (Sensors and IEEE T ITS)\, member of the Editorial Board of International Journal of Vehicular Technology (2012-2017) and he have served on Program/Organizing Committees in more than 20 conferences. He was Research Visitor at the Computer Vision Research Group of the Trinity College in Dublin (Irland) in 1998\, Visiting Scholar at the Toyota Technological Institute at Chicago (USA) in 2013\, and at the OPTIMAL Center Northwestern Polytechnic University (China) in 2017. He was co-founder of Vision Safety Technologies Ltd\, a spin-off company established to commercialize computer vision systems for road infrastructure inspection (2009-2016). His research interests include driver behaviors and scene understanding using Computer Vision and Deep Learning Techniques for autonomous vehicles applications.\n\n\n\n 
URL:https://mastervisionartificial.es/event/beyond-supervised-deep-learning-for-autonomous-driving
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230308T160000
DTEND;TZID=UTC:20230308T180000
DTSTAMP:20260407T230430
CREATED:20230203T122239Z
LAST-MODIFIED:20230203T122427Z
UID:2652-1678291200-1678298400@mastervisionartificial.es
SUMMARY:¿Navegación en un entorno quirúrgico?
DESCRIPTION:PONENTE\nDra. Verónica García Vázquez\n\n\nAFILIACIÓN\nAyudante doctor en el Área Tecnología Electrónica\, Departamento Matemática Aplicada\, Ciencia e Ingeniería de los Materiales y Tecnología Electrónica\, Universidad Rey Juan Carlos. Medical Image Analysis and Biometry Lab\n\n\nRESUMEN\n¿Sabes que en un quirófano se puede navegar igual que hacemos con el móvil en el coche para llegar a nuestro destino? En el caso del quirófano\, el mapa de carreteras sería la información que tenemos sobre la anatomía del paciente (por ejemplo\, imágenes médicas)\, el móvil que localiza donde está el coche correspondería con el sistema de posicionamiento\, el destino sería la región a tratar en ese procedimiento médico\, el coche sería la herramienta que queremos localizar en el paciente (por ejemplo\, un bisturí) y el conductor sería el médico. Este seminario se centrará primero en explicaros cómo funciona un sistema de posicionamiento óptico y electromagnético para luego contaros varias aplicaciones relacionadas con el guiado de procedimientos médicos en el campo de la oncología y de la cirugía endovascular en las que he empleado estas tecnologías junto con el escaneo 3D\, la impresión 3D y la realidad aumentada.\n\n\nBIO\nVerónica García Vázquez trabajó en el Laboratorio de Imagen Médica del Hospital Gregorio Marañón (Madrid) donde inicialmente participó en varias líneas de investigación como planificación quirúrgica de pacientes con disfunciones oculomotoras\, escáneres comerciales PET/TAC para pequeño animal\, y en neuroimagen con imágenes preclínicas y clínicas. A continuación\, se centró en el guiado de tratamientos con sistemas de posicionamiento\, escáneres 3D e impresión 3D. Obtuvo el doctorado en Multimedia y Comunicaciones por la Universidad Carlos III de Madrid con una tesis sobre navegación e imagen intraoperatoria en radioterapia intraoperatoria con electrones. Realizó un postdoc en University of Luebeck (Alemania) donde trabajó en un proyecto para la navegación de procedimientos de reparación aórtica mediante el uso de sistemas de posicionamiento y realidad aumentada. Antes de unirse a la Universidad Rey Juan Carlos como ayudante doctor estuvo trabajando en la empresa GMV Soluciones Globales Internet\, S.A.U en la navegación de tratamientos de radioterapia intraoperatoria con rayos X de bajo voltaje\, proyecto en el que sigue colaborando con GMV y con University Medical Center Mannheim (Alemania).\n\n\n\n 
URL:https://mastervisionartificial.es/event/navegacion-en-un-entorno-quirurgico
LOCATION:Salon de grados del Departamental 1\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230315T160000
DTEND;TZID=UTC:20230315T180000
DTSTAMP:20260407T230430
CREATED:20230203T122722Z
LAST-MODIFIED:20230203T122736Z
UID:2655-1678896000-1678903200@mastervisionartificial.es
SUMMARY:From physical textiles to digital twins
DESCRIPTION:PONENTE\nDra. Elena Garcés García\n\n\nAFILIACIÓN\nHead of AI & Optics at SEDDI\n\n\nRESUMEN\nVirtual design\, online marketplaces\, product lifecycle workflows\, AR/VR\, videogames\, …\, all require lifelike digital representations of real-world materials (i.e.\, digital twins). Acquiring these digital copies is typically a cumbersome and slow process that requires expensive machines and several manual steps\, creating roadblocks for scalability\, repeatability\, and consistency. Among the many industries requiring digital twins of materials\, the fashion industry is in a critical position; facing the demand to digitize hundreds of samples of textiles in short periods\, which cannot be achieved with current technology. In this context\, casual capture systems for optical digitization provide a promising path for scalability. These systems leverage low cost devices (such as smartphones)\, one or more different illuminations\, and learning-based priors to estimate the material’s diffuse and specular reflection lobes. However\, to train a machine learning-based solution\, data is needed\, which is not easy to obtain for textile materials. In this talk\, I will discuss our end-to-end approach to providing a scalable solution to digitize textiles\, including the design of an optical gonioreflectometer (capable of seeing yarns at the fiber level) for dataset creation and our deep learning-based solution that only requires a single image as input.\n\n\nBIO\nElena es doctora en Informática desde 2016 donde se especializó en técnicas avanzadas de procesamiento de imagen y render inverso para captura de apariencia. Actualmente es investigadora en la URJC además de líder del equipo de IA y óptica de la empresa SEDDI\, donde desarrolla métodos de captura de materiales\, y modelado de humanos y ropa virtual.
URL:https://mastervisionartificial.es/event/from-physical-textiles-to-digital-twins
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230322T160000
DTEND;TZID=UTC:20230322T180000
DTSTAMP:20260407T230430
CREATED:20230203T123127Z
LAST-MODIFIED:20230203T123153Z
UID:2658-1679500800-1679508000@mastervisionartificial.es
SUMMARY:Avatares Digitales con Machine Learning
DESCRIPTION:PONENTE\nDr. Dan Casas Guix\n\n\nAFILIACIÓN\nUniversidad Rey Juan Carlos.\n\n\nRESUMEN\nLa digitalización de humanos mediante técnicas basadas en reconstrucción 3D supone un enorme desafío dentro del campos de la Visión Artificial y la Informática Gráfica. Recientemente\, métodos basados en técnicas de Machine Learning han demostrado ser una buena manera de atacar este problema\, y han permitido avanzar el estado del arte tanto para la reconstrucción 3D de humanos desde una sola imagen\, como para el modelado de la deformación 3D de ropa virtual. En esta charla describiré los avances recientes publicados por nuestro grupo de investigación en esta área\, incluyendo varios artículos aceptados en congresos internacionales de gran prestigio como CVPR\, NeurIPS\, y SIGGRAPH\n\n\nBIO\nDan Casas is Assistant Professor at the Universidad Rey Juan Carlos (URJC)\, Spain. Previosuly he was Marie Sklodowska-Curie Fellow (2016-2018) at MSLab of the URJC\, and postdoc (2015-2016) in the Graphics\, Vision and Video group at the Max Planck Institute in Saarbrucken\, Germany\, led by Prof. Christian Theobalt\, and at the Character Animation group of the University of Southern California Institute for Creative Technology\, in Los Angeles\, USA (2014-2015). Dan received his PhD in Computer Graphics in 2014 from the University of Surrey (UK)\, supervised by Prof. Adrian Hilton. Dan’s dissertation introduced novel methods for character animation from multi-camera capture that allow the synthesis of video-realistic interactive 3D characters. During his PhD\, he was also intern at the R&D department of the Oscar Award-winning visual effects company\, Framestore. Previously\, in 2009\, Dan received his M.Sc. degree from the Universitat Autonoma de Barcelona (Spain). In 2008\, during the last year of his M.Sc. studies\, he joined the Human Sensing Lab at Carnegie Mellon University (PA\, USA) as an invited research scholar\, where he investigated methods for real-time face tracking\, advised by Prof. Fernando de la Torre.
URL:https://mastervisionartificial.es/event/2658
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230329T160000
DTEND;TZID=UTC:20230329T180000
DTSTAMP:20260407T230430
CREATED:20230203T123419Z
LAST-MODIFIED:20230203T123645Z
UID:2661-1680105600-1680112800@mastervisionartificial.es
SUMMARY:Visión Artificial con proyección industrial.
DESCRIPTION:PONENTE\nDr. Gonzalo Pajares Martinsanz\n\n\nAFILIACIÓN\nUniversidad Complutense de Madrid\n\n\nRESUMEN\nLa Visión Artificial constituye una herramienta clave en desarrollos inteligentes integrados en distintos sistemas\, donde los vehículos robotizados autónomos son un claro exponente. La industria ha demandado y demanda actualmente soluciones a sus diversos problemas en este sentido\, solicitando perfiles de ingeniería cada vez más especializados. La charla tiene como objetivo principal proporcionar una panorámica general sobre aplicaciones de la Visión Artificial\, siempre inteligente\, para la solución de problemas de naturaleza empresarial\, materializadas a través de los distintos proyectos de investigación que se describen. Se ofrece una doble perspectiva\, de forma que por una parte se presentan soluciones ofrecidas por iniciativa de los grupos de investigación\, siendo la empresa la receptora de estas. Por otra parte\, es la iniciativa empresarial\, en base a su problemática o perspectiva de crecimiento\, quien demanda el desarrollo de sistemas para abordar su problemática.\n\n\nBIO\nGonzalo Pajares es catedrático en el Dpt. de Ingeniería del Software e Inteligencia Artificial en la Universidad Complutense de Madrid. Durante más de 12 años trabajó en varias empresas destacando Inisel\, ENOSA\, Indra en desarrollo de software aplicado y en INTA en Remote Sensing. Su investigación ha girado en torno a la Visión Artificial muy enfocada a desarrollos industriales. Ha sido investigador principal en varios proyectos competitivos de I+D+i internacionales\, incluyendo el programa FP7 de la UE\, y nacionales dentro del Plan Nacional\, en particular de la convocatoria RETOS de la Sociedad con participación empresarial\, destacando CEPSA. También ha sido investigador principal en varios proyectos de transferencia directa en varias empresas. Todos ellos en el ámbito de los vehículos autónomos robotizados en Agricultura de Precisión\, así como en vehículos submarinos y marinos de superficie. Ha publicado más de una centena de artículos en revistas indexadas y varios libros docentes. Entre 2015-2018 fue Adjunto al Coordinador de la Agencia Estatal de Investigación (antes ANEP) en el Área Científica de Transferencia de Tecnología. Desde 2017 figura en la “World’s Top 2% Scientist List” de la Universidad de Stanford. Ha sido y es editor asociado de varias revistas indexadas.
URL:https://mastervisionartificial.es/event/vision-artificial-con-proyeccion-industrial
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230412T160000
DTEND;TZID=UTC:20230412T180000
DTSTAMP:20260407T230430
CREATED:20230203T123954Z
LAST-MODIFIED:20230203T191506Z
UID:2663-1681315200-1681322400@mastervisionartificial.es
SUMMARY:Plataforma robótica asistencial para la monitorización de las acciones basada en sistemas de reconocimeinto de actividades mediante deep learning y continual learning.
DESCRIPTION:PONENTE\nDra. Nadia Nasri Mohammadshahi\n\n\nAFILIACIÓN\nUniversidad de Alicante y Universidad de Alcalá de Henares\n\n\nRESUMEN\nEn este seminario presentaremos LOLA\, nuestro robot de asistencia de bajo coste. La plataforma fue desarrollada para proporcionar asistencia a personas con trastornos delneurodesarrollo. Su principal objetivo es permitir a los terapeutas medir la capacidad de los usuarios para comprender y ejecutar las tareas cotidianas con la ayuda de plataformasrobóticas de asistencia como LOLA y seguir el proceso de aprendizaje de sus pacientes. Para lograr este objetivo\, la plataforma robótica utiliza una interfaz gráfica de usuario\, así como una aplicación basada en modelos de deep learning para el reconocimiento de acciones de forma online\, que permiten reforzar y aprender las actividades de la vida diaria mediante sesiones interactivas con los usuarios. Las personas con discapacidad han estado probando la funcionalidad de la plataforma\, y en esta sesión analizaremos los resultados de este periodo de validación técnica. Finalmente\, presentaremos los soluciones conocidas como de Continual Learning que se están empleando para mejorar los sistemas de reconocimiento de acciones. Realizaremos una introducción a este paradigma de aprendizaje\, explicando cómo se emplea en modelos de vídeo\, mediante una revisión del estado del arte. Así mismo\, concluiremos con los avances que desde nuestro grupo de investigación se han completado en esta línea.\n\n\nBIO\nNadia Nasri Mohammadshahi es licenciada en Ingeniería Electrónica y tiene un Máster en Automatización y Robótica. Hizo su doctorado en Ciencias de la Computación e Inteligencia Artificial en la Universidad de Alicante y con la ayuda de Margarita Salas (de la universidad de Alicante). Actualmente está haciendo un Postdoc en la Universidad de Alcalá de Henares.
URL:https://mastervisionartificial.es/event/plataforma-robotica-asistencial-para-la-monitorizacion-de-las-acciones-basada-en-sistemas-de-reconocimeinto-de-actividades-mediante-deeplearning-y-continual-learning
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230419T160000
DTEND;TZID=UTC:20230419T180000
DTSTAMP:20260407T230430
CREATED:20230203T192211Z
LAST-MODIFIED:20230203T192719Z
UID:2667-1681920000-1681927200@mastervisionartificial.es
SUMMARY:Visual Semantic Navigation: an introduction to the problem.
DESCRIPTION:PONENTE\nDr. Roberto J. López Sastre\n\n\nAFILIACIÓN\nUniversidad de Alcalá de Henares\n\n\nRESUMEN\nSemantic and goal-oriented visual navigation is one of the most prominent tasks performed by intelligent species in their daily lives. This task is defined as the ability we have to navigate through our environment\, finding targets and enabling interaction with it. Navigation methods used in robotics can be divided into two main categories: geometry-based and learning-based. Semantic visual navigation belongs to the second group\, where there is no need to know the map of the environment a priori\, and where there is no need to build such a map «on the fly». In this talk we will present the problem of semantic visual navigation in detail\, reviewing the state-of-the-art models. We will then describe the main advances that are being made on this problem from a reinforcement-based learning and meta-learning approach.\n\n\nBIO\nI received a Master of Electrical Engineering from the University of Alcalá\, Spain in 2005. I work at GRAM research group within the Department of Signal Theory and Communications\, where I defended my PhD in Electrical Engineering on may 18\, 2010\, entitled «Visual Vocabularies for Category-Level Object Recognition». In 2008\, I spent 6 months in lovely Leuven\, working with Tinne Tuytelaars and the VISICS-PSI research group. Summer 2010\, I visited Silvio Savarese’s group at University of Michigan. Research interests in reverse chronological order: meta-learning\, semantic visual navigation\, AI applied to astrophysics\, unsupervised learning\, activity recognition\, object category pose estimation\, semantic visual vocabularies\, category-level object recognition.
URL:https://mastervisionartificial.es/event/visual-semantic-navigation-an-introduction-to-the-problem
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230426T160000
DTEND;TZID=UTC:20230426T180000
DTSTAMP:20260407T230430
CREATED:20230203T192546Z
LAST-MODIFIED:20230203T192546Z
UID:2669-1682524800-1682532000@mastervisionartificial.es
SUMMARY:Deshojando la margarita. O ¿cuánto podemos enrevesar la más sencilla de las decisiones?
DESCRIPTION:PONENTE\nDr. José Luis Esteban Sánchez-Marín\n\n\nAFILIACIÓN\nGrupo de Visión\, 3DVI (Verisk Analytics)\n\n\nRESUMEN\n¿Sí o no? Eso es todo lo que tiene que decidir nuestro sistema y no queremos que falle. Pero fallará\, mucho o poco.\nExaminaremos las métricas que nos permiten conocer la calidad o utilidad de nuestro sistema de decisión.\nCon un poco de suerte no veremos nada nuevo\, pero trataremos de contraponer y poner en perspectiva muchos conceptos ya conocidos.\n\n\nBIO\nBiólogo e informático. En la UPV/EHU desarrollé sistemas de análisis de imagen y cuantificación mediante microespectrofotometría. En FiloSoft desarrollé sistemas de captura y análisis de datos biomédicos\, incluyendo el primer sistema de análisis de ADN usado por la policía española. En Ipsa desarrollé sistemas de reconocimiento de información en documentos. En relación con la FAI desarrollé sistemas de análisis de registros de vuelo para campeonatos aeronáuticos. En la URJC fui profesor asociado y miembro del grupo Gavab. En 3DVI (antes Geomni) desarrollo sistemas de inferencia de modelos de edificios partir de imágenes aéreas.
URL:https://mastervisionartificial.es/event/deshojando-la-margarita-o-cuanto-podemos-enrevesar-la-mas-sencilla-de-las-decisiones
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230503T160000
DTEND;TZID=UTC:20230503T180000
DTSTAMP:20260407T230430
CREATED:20230203T193047Z
LAST-MODIFIED:20230203T193115Z
UID:2673-1683129600-1683136800@mastervisionartificial.es
SUMMARY:Vision based end-to-end autonomous driving via imitation learning.
DESCRIPTION:PONENTE\nD. Sergio Paniego Blanco\n\n\nAFILIACIÓN\nUniversidad Rey Juan Carlos\n\n\nRESUMEN\nLas soluciones para autonomous driving suelen dividirse en modulares o end-to-end. En este seminario abordaremos la segunda alternativa\, centrándonos en las soluciones basadas en visión que permiten realizar conducción autónoma utilizando imitation learning. Para ello\, abordaremos un problema de conducción basado en simulación\, donde buscaremos realizar la percepción y el control del vehículo utilizando una cámara como sensor principal. A partir de esa información de entrada\, el objetivo de nuestro sistema será generar la salida de control (señal de aceleración\, giro y freno) para manejar el vehículo en situaciones diversas. Exploraremos las ventajas y limitaciones de esta aproximación\, además de la forma de comparar los diferentes sistemas creados de forma objetiva.\n\n\nBIO\nSoy estudiante de doctorado en Visión Artificial en la URJC bajo la supervisión de José María Cañas. Mi línea de investigación se centra en la unión entre robótica\, inteligencia artificial y visión\, concretamente en la conducción autónoma. Además de mi labor de investigación\, colaboro en varias asignaturas dentro de la misma universidad como profesor.
URL:https://mastervisionartificial.es/event/vision-based-end-to-end-autonomous-driving-via-imitation-learning
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20240124T180000
DTEND;TZID=UTC:20240124T200000
DTSTAMP:20260407T230430
CREATED:20240117T132630Z
LAST-MODIFIED:20240117T133019Z
UID:2858-1706119200-1706126400@mastervisionartificial.es
SUMMARY:¿Navegación en un entorno quirúrgico?
DESCRIPTION:Impartido por la Dra. Verónica García Vázquez (URJC). \n¿Sabes que en un quirófano se puede navegar igual que hacemos con el móvil en el coche para llegar a nuestro destino? El mapa de carreteras sería la información que tenemos sobre la anatomía del paciente (por ejemplo\, imágenes médicas)\, el móvil que localiza donde está el coche correspondería con el sistema de posicionamiento\, el destino sería la región a tratar en ese procedimiento médico\, el coche sería la herramienta que queremos localizar en el paciente (por ejemplo\, un bisturí) y el conductor sería el médico. En este seminario os mostraré cómo navegar en este entorno y jugaremos con maniquíes. \n\nVerónica García  es Ingeniera en Telecomunicaciones y doctorado en Multimedia y Comunicaciones\, trabajó en el Laboratorio de Imagen Médica del Hospital Gregorio Marañón (Madrid) donde su investigación se centró en el guiado de tratamientos con sistemas de posicionamiento\, escáneres 3D e impresión 3D. Después\, realizó un postdoc en University of Luebeck (Alemania) donde trabajó en un proyecto para la navegación de procedimientos de reparación aórtica mediante el uso de sistemas de posicionamiento y realidad aumentada. Actualmente es ayudante doctor en el Área Tecnología Electrónica (Universidad Rey Juan Carlos) y pertenece al Grupo de Investigación en Tecnologías de Imagen Médica de la Universidad Rey Juan Carlos (PROMISE).
URL:https://mastervisionartificial.es/event/navegacion-en-un-entorno-quirurgico-2
LOCATION:Madrid
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20240131T180000
DTEND;TZID=UTC:20240131T200000
DTSTAMP:20260407T230430
CREATED:20240117T133325Z
LAST-MODIFIED:20240117T133325Z
UID:2864-1706724000-1706731200@mastervisionartificial.es
SUMMARY:Image matching
DESCRIPTION:Impartido por el Dr. Iago Suárez (Qualcomm) \nDado un elemento de una imagen\, Image Matching se encarga de encontrar ese mismo elemento en otra imagen. Es la piedra angular\, y a la vez el talón de Aquiles de muchos otros métodos como la estimación de pose\, SfM\, SLAM\, etc. Hoy en día tiene especial importancia por su gran impacto sobre en NeRF y Gaussian Splatting. En esta presentación revisaremos desde las técnicas básicas hasta los métodos más avanzados del estado del arte. Los últimos se basan en deep learning (transformers y graph neural networks) y múltiples tipos de características para alcanzar los mejores resultados. \n\nIago Suárez es Ingeniero Informático por Universidade da Coruña y Doctor en Inteligencia Artificial por la Universidad Politécnica de Madrid. A día de hoy trabaja como Senior Machine Learning Engineer en Qualcomm XR Labs Europe\, en Madrid.
URL:https://mastervisionartificial.es/event/image-matching
LOCATION:Madrid
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20240207T180000
DTEND;TZID=UTC:20240207T200000
DTSTAMP:20260407T230430
CREATED:20240117T133559Z
LAST-MODIFIED:20240117T133559Z
UID:2866-1707328800-1707336000@mastervisionartificial.es
SUMMARY:La imagen astronómica: nuestros ojos hacia el Universo.
DESCRIPTION:Impartido por el Dr. Francisco M. Montenegro Montes (UCM) \nLa gran mayoría de la información de que disponemos sobre los cuerpos celestes y\, en general\, de la materia en nuestro Universo procede del análisis de la luz que llega a nuestros telescopios y que normalmente queda registrada en forma de imágenes. En este seminario se presentará la tecnología asociada a la adquisición de la imagen astronómica profesional\, abarcando los procesos de detección\, calibración\, pre-procesado y almacenamiento de imágenes en archivos científicos. Finalmente se hablará sobre el potencial de descubrimiento que surge gracias a la aplicación de las técnicas de aprendizaje automático a los grandes repositorios de imágenes astronómicas. \n\nFrancisco Montenegro es actualmente investigador en el Grupo UCM de Astrofísica Instrumental y Extragaláctica (GUAIX) y docente en el Máster de Astrofísica de la UCM. Se doctoró en la Universidad de La Laguna habiendo desarrollado su trabajo en el Istituto di Radioastronomia\, en Bolonia. Después trabajó por más de 10 años en el Observatorio Europeo Austral (ESO)\, liderando las operaciones científicas del telescopio submilimétrico APEX situado en el desierto de Atacama en Chile.
URL:https://mastervisionartificial.es/event/la-imagen-astronomica-nuestros-ojos-hacia-el-universo
LOCATION:Madrid
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20240214T180000
DTEND;TZID=UTC:20240214T200000
DTSTAMP:20260407T230430
CREATED:20240117T134005Z
LAST-MODIFIED:20240117T134101Z
UID:2868-1707933600-1707940800@mastervisionartificial.es
SUMMARY:Dos soluciones I+D de visión artificial
DESCRIPTION:Impartido por Dña. Beatriz Pacheco y D. Daniel Hernández (Pixelabs) \nComercio inteligente. Se trata de un proyecto real en el que se ha creado un sistema de visión artificial para aplicarlo en tienda. Con este desarrollo es consegue nuevas métricas para la tienda\, las cuales usarán para mejorar la calidad del servicio y la atención ofrecida al cliente. \nClasificación de residuos. Se explicarán algunos trabajos industriales relacionados con imagen hiperespectral para clasificación de diferentes tipos de residuos urbanos. Se detallan las fases de desarrollo del proyecto y las diferentes soluciones que se ofrecen al cliente para visualizar y procesar las imágenes infrarrojas. \n\nBeatriz Pacheco es Ingeniera de Visión artificial\, con conocimientos debidos al máster de Visión Artificial\, y del grado de Audiovisuales y Multimedia. Actualmente\, desarrolladora de proyectos de Visión Artificial. \nDaniel Hernández estudió Ingeniería electrónica y automática y actualmente es investigador y desarrollador de Visión artificial gracias al máster de Visión Artificial y doctorando en el grupo CAPO.
URL:https://mastervisionartificial.es/event/dos-soluciones-id-de-vision-artificial
LOCATION:Madrid
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20240221T180000
DTEND;TZID=UTC:20240221T200000
DTSTAMP:20260407T230430
CREATED:20240117T134400Z
LAST-MODIFIED:20240117T134400Z
UID:2871-1708538400-1708545600@mastervisionartificial.es
SUMMARY:Avatares 3D Fotorrealistas con Inteligencia Artificial
DESCRIPTION:Impartido por el Dr. Dan Casas Guix (URJC) \nLa creación de humanos digitales en 3D es un área activa de investigación debido a la gran cantidad de aplicaciones en muchos campos\, incluido las telecomunicaciones\, el diseño de moda\, el e-commerce\, y los videojuegos. En esta charla hablaré de los recientes avances basados en el aprendizaje automático para la reconstrucción\, modelado\, y síntesis de personas y ropa en 3D directamente a partir de imágenes. \n\nDan Casas es Profesor Titular de la Universidad Rey Juan Carlos (URJC) desde Noviembre de 2023. Sus intereses en investigación se encuentran en la intersección de la Informática Gráfica\, la Visión por Computador y la Inteligencia Artificial\, con especial énfasis en la reconstrucción 3D y el modelado de superficies deformables para crear humanos virtuales. Dan es autor de más de 40 publicaciones de alto impacto (incluyendo ACM SIGGRAPH\, CVPR\, NeurIPS) que acumulan más de 5.000 citas y un h-index de 24\, inventor de 3 patentes internacionales\, y ha sido Investigador Principal de 7 proyectos nacionales y europeos. \nSu trayectoria investigadora ha sido reconocida a través de varios premios y becas muy relevantes\, incluyendo una beca individual Marie Sklodowska-Curie (2015)\, la Certificación i3 del Ministerio de Universidades (2020)\, una beca Leonardo FBBVA (2021)\, y la medalla honorífica del Premio Jóvenes Investigadores de la Real Academia de Ingeniería de España (2023). Además\, sus contribuciones científicas en el campo de la digitalización de humanos 3D le han llevado a recibir invitaciones como ponente (por ej.\, CVPR Workshop keynote speaker) y organizador (por ej.\, Area Chair ICCV 2023\, General Chair ACM I3D 2020) en los principales conferencias internacionales en el campo del Aprendizaje Automático\, los Gráficos y la Visión por Computador. \nDan obtuvo el título de Ingeniero Informático en 2009 por la Universitat Autònoma de Barcelona\, realizando el proyecto de final de carrera en una estancia de investigación de un año (2008-2009) en la Carnegie Mellon University (EEUU). En 2014 se doctoró en Informática Gráfica y Visión Artificial en la University of Surrey (Reino Unido)\, supervisado por el Prof. Adrian Hilton. Su tesis doctoral introdujo novedosos métodos para la animación de personajes a partir de captura multi-cámara\, permitiendo la síntesis de personajes 3D interactivos videorealistas. Realizó un postdoctorado (2014-2015) en el Institute for Creative Technologies de la University of Southern Carlifornia en Los Ángeles (EEUU) y otro postdoctorado (2015-2016) en el Max Planck Institute de Saarbrücken (Alemania). En 2016 obtuvo una beca Marie Sklodowska-Curie que le permite incorporarse a la Universidad Rey Juan Carlos como investigador\, y en 2018 consigue una plaza de Profesor Ayudante Doctor en la misma universidad.
URL:https://mastervisionartificial.es/event/avatares-3d-fotorrealistas-con-inteligencia-artificial
LOCATION:Madrid
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20240228T180000
DTEND;TZID=UTC:20240228T200000
DTSTAMP:20260407T230430
CREATED:20240119T145437Z
LAST-MODIFIED:20240119T145510Z
UID:2874-1709143200-1709150400@mastervisionartificial.es
SUMMARY:Visión Artificial en el ámbito de la industria
DESCRIPTION:Impartido por Dña. María López de Maya (Hexcel) \nEn esta charla se describen 2 aspectos de la visión artificial en la industria. \n\n\n\nEl papel de la Visión Artificial en el control de calidad de un proceso productivo. Es crucial para el ingeniero de visión entender los requerimientos de calidad para traducirlos a lo que el sistema es capaz de capturar e identificar.\nDiseño de los sistemas de visión (elección de iluminación\, ópticas\, sensores…)\, teniendo en cuenta el soporte y mantenimiento de los mismos\, que debe ser procedimentado tanto si se externaliza como si hace internamente.\n\n\n\n\nMaría López es Vision Engineer – European Process Robustness Team\, en Hexcel.
URL:https://mastervisionartificial.es/event/vision-artificial-en-el-ambito-de-la-industria
LOCATION:Madrid
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20240306T180000
DTEND;TZID=UTC:20240306T200000
DTSTAMP:20260407T230430
CREATED:20240119T145841Z
LAST-MODIFIED:20240119T145841Z
UID:2876-1709748000-1709755200@mastervisionartificial.es
SUMMARY:Visión artificial aplicada a la robótica.
DESCRIPTION:Impartido por el Dr. Alejandro Hernández Cordero \nEn este seminario se hablará sobre técnicas de visión artificial que se aplican en la robótica\, como el guiado de vehículos terrestres en entornos exteriores donde nos centraremos en analizar las características extraídas con redes neuronales y cómo integrarlo con el SLAM visual. Además se incluirán algunas nociones de como la simulación puede ayudar a mejorar los resultados de estos algoritmos. También se introducirán herramientas open source que ayudan a generar datos para entrenar las redes neurales\, generación de datasets\, depuración de los resultados y cómo visualizar los datos extraídos de las imágenes. \n\nAlejandro Hernández es Ingeniero Superior en ingeniería de Telecomunicación y Máster en visión artificial por la Universidad Rey Juan Carlos. Con más de 10 años de experiencia desarrollando\, manteniendo y contribuyendo a proyectos open source centrados en la robótica. Alejandro ha fundado varias empresas relacionadas con la robótica y actualmente trabaja como consultor independiente para Intrinsic (empresa del grupo Alphabet) y Bonsai Robotics (startup de agricultura centrada en la recolección de frutos secos).
URL:https://mastervisionartificial.es/event/vision-artificial-aplicada-a-la-robotica
LOCATION:Madrid
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20240313T180000
DTEND;TZID=UTC:20240313T200000
DTSTAMP:20260407T230430
CREATED:20240119T150251Z
LAST-MODIFIED:20240119T150251Z
UID:2878-1710352800-1710360000@mastervisionartificial.es
SUMMARY:From physical textiles to digital twins
DESCRIPTION:Impartido por la Dra. Elena Garcés García (SEDDI). \nVirtual design\, online marketplaces\, product lifecycle workflows\, AR/VR\, videogames\,…\, all require lifelike digital representations of real-world materials (i.e.\, digital twins).\nAcquiring these digital copies is typically a cumbersome and slow process that requires expensive machines and several manual steps\, creating roadblocks for scalability\, repeatability\, and consistency.\nIn this talk\, I will discuss our end-to-end approach to providing a scalable solution to digitize textiles\, including the design of an optical gonioreflectometer (capable of seeing yarns at the fiber level) for dataset creation and our deep learning-based solution that only requires a single image as input. \n\nElena Garcés es doctora en Informática\, experta en técnicas avanzadas de procesamiento de imagen y render inverso para captura de apariencia. Actualmente es investigadora en la URJC además de líder del equipo de IA y óptica de la empresa SEDDI\, donde desarrolla métodos de captura de materiales\, modelado de humanos\, y ropa virtual.
URL:https://mastervisionartificial.es/event/from-physical-textiles-to-digital-twins-2
LOCATION:Madrid
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20240320T180000
DTEND;TZID=UTC:20240320T200000
DTSTAMP:20260407T230430
CREATED:20240119T150359Z
LAST-MODIFIED:20240119T150359Z
UID:2880-1710957600-1710964800@mastervisionartificial.es
SUMMARY:¿Cómo elegir una óptica para un sensor concreto en diferentes aplicaciones de visión industrial optoelectrónica?
DESCRIPTION:Impartido por la Dra. Ana Manzanares (GREENLIGHT)
URL:https://mastervisionartificial.es/event/como-elegir-una-optica-para-un-sensor-concreto-en-diferentes-aplicaciones-de-vision-industrial-optoelectronica
LOCATION:Madrid
CATEGORIES:Seminarios
END:VEVENT
END:VCALENDAR