BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//Máster Universitario en Visión Artificial - ECPv6.15.18//NONSGML v1.0//EN
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-ORIGINAL-URL:https://mastervisionartificial.es
X-WR-CALDESC:Eventos para Máster Universitario en Visión Artificial
REFRESH-INTERVAL;VALUE=DURATION:PT1H
X-Robots-Tag:noindex
X-PUBLISHED-TTL:PT1H
BEGIN:VTIMEZONE
TZID:UTC
BEGIN:STANDARD
TZOFFSETFROM:+0000
TZOFFSETTO:+0000
TZNAME:UTC
DTSTART:20220101T000000
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
DTSTART;TZID=UTC:20230201T160000
DTEND;TZID=UTC:20230201T180000
DTSTAMP:20260405T130821
CREATED:20230203T114924Z
LAST-MODIFIED:20230203T120024Z
UID:2631-1675267200-1675274400@mastervisionartificial.es
SUMMARY:Inteligencia Artificial Explicativa en Aprendizaje Profundo: arrojando luz sobre las cajas negras
DESCRIPTION:PONENTE\nDña. Clara Isabel López González\n\n\nAFILIACIÓN\nPersonal Docente Investigador en formación en la Universidad Complutense de Madrid.\n\n\nRESUMEN\nEn los últimos años el Aprendizaje Profundo ha experimentado un rápido crecimiento\, demostrando un gran rendimiento en numerosas técnicas\, desde clasificación de imágenes\, segmentación semántica\, detección de objetos\, hasta lenguaje natural. Gracias a este éxito el uso de redes neuronales se ha extendido a diversas disciplinas más allá de la investigación\, como puede ser la medicina en la detección de enfermedades o la conducción autónoma en la detección de obstáculos. Es\, por tanto\, de suma importancia poder explicar e interpretar los resultados obtenidos. Sin embargo\, estas técnicas entran dentro de lo que se conoce como modelos de caja negra\, y aun conociendo su funcionamiento no somos capaces de explicar el proceso de toma de decisiones que llevan a cabo. Para hacer frente a este problema se han desarrollado diferentes métodos bajo el paraguas de la Inteligencia Artificial Explicativa (xAI)\, los cuales pretenden ayudar a interpretar qué aprenden las redes neuronales. En este seminario se presenta el concepto de Inteligencia Artificial Explicativa\, distintos métodos y aplicaciones dentro del campo de la Visión Artificial.\n\n\nBIO\nClara Isabel López González es graduada en Matemáticas y Física por la Universidad Complutense de Madrid. Estudió el Máster en Matemáticas en la Universidad de Padua y el Máster en Matemáticas y Aplicaciones en la Universidad de Burdeos. Actualmente es estudiante de doctorado en Ingeniería Informática en la UCM. Su investigación se centra en el análisis de mecanismos explicativos en Aprendizaje Profundo para procesamiento de imágenes de exterior.\n\n\n\n 
URL:https://mastervisionartificial.es/event/inteligencia-artificial-explicativa-en-aprendizaje-profundo-arrojando-luz-sobre-las-cajas-negras
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230208T160000
DTEND;TZID=UTC:20230208T180000
DTSTAMP:20260405T130821
CREATED:20230203T120640Z
LAST-MODIFIED:20230203T205244Z
UID:2636-1675872000-1675879200@mastervisionartificial.es
SUMMARY:Building Smart and Fast Systems using Machine Learning and Computer Vision.
DESCRIPTION:PONENTE\nDra. Thaleia Dimitra Doudali\n\n\nAFILIACIÓN\nAssistant Research Professor at IMDEA Software Institute.\n\n\nRESUMEN\nNowadays\, computing platforms use a mix of different hardware technologies\, to scale application performance\, resource capacities and achieve cost effectiveness. However\, this heterogeneity\, along with the greater irregularity in the behavior of emerging workloads\, render existing resource management approaches ineffective. In the first part of this talk\, I will describe how we can use machine learning methods at the operating system-level\, in order to make smarter resource management decisions and speed up application performance. In the second part of the talk\, I will present how we can accelerate certain components of such systems using visualization and computer vision methods. Finally\, I will conclude with my vision of coupling machine learning and computer vision at the system-level and present open questions that make this research area exciting to work on!\n\n\nBIO\nShe received her PhD from the Georgia Institute of Technology (Georgia Tech) in the United States. Thaleia’s research explores novel methodologies\, such as machine learning and computer vision\, to improve operating system-level resource managemen. In 2021\, Thaleia received the Juan de la Cierva post-doctoral fellowship.
URL:https://mastervisionartificial.es/event/building-smart-and-fast-systems-using-machine-learning-and-computer-vision
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230215T160000
DTEND;TZID=UTC:20230215T180000
DTSTAMP:20260405T130821
CREATED:20230203T120943Z
LAST-MODIFIED:20230203T205417Z
UID:2640-1676476800-1676484000@mastervisionartificial.es
SUMMARY:Aplicación de visión artificial en capiloroscopía para la detección de neutropenia severa
DESCRIPTION:PONENTE\nDr. Alberto Pablo Trinidad\n\n\nAFILIACIÓN\nLeuko\n\n\nRESUMEN\nLa neutropenia es uno de los efectos secundarios más graves de la quimioterapia y su principal resultado negativo es el riesgo elevado de infección conocida como neutropenia febril. Los métodos actuales para detectar neutropenia implican una extracción y análisis de muestras de sangre con equipo de laboratorio y personal capacitado. Desde la empresa Leuko\, se está desarrollando un nuevo dispositivo capaz de detectar neutropenia mediante el análisis no invasivo de videos del flujo sanguíneo en capilares\, utilizando técnicas de visión artificial y análisis de imagen.\n\n\nBIO\nEl Dr. Alberto Pablo Trinidad trabaja como «senior data scientist» en la empresa Leuko en el desarrolo de algoritmos de inteligencia artificial aplicados a imagenes y videos de capilaroscopia para la detección de neutropenia severa. Realizó el master de visión artificial por la universidad Rey Juan Carlos en el 2013/14 y se doctoró en Sistemas Electronicos por la universidad Politecnica de Madrid en 2021.\n\n\n\n 
URL:https://mastervisionartificial.es/event/aplicacion-de-vision-artificial-en-capiloroscopia-para-la-deteccion-de-neutropenia-severa
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230222T160000
DTEND;TZID=UTC:20230222T180000
DTSTAMP:20260405T130821
CREATED:20230203T121326Z
LAST-MODIFIED:20230203T205900Z
UID:2643-1677081600-1677088800@mastervisionartificial.es
SUMMARY:3D perception for AR/VR devices
DESCRIPTION:PONENTE\nDr. Eduardo Perdices\n\n\nAFILIACIÓN\nIngeniero en visión Artifical en Arcturus Industries\n\n\nRESUMEN\nExplicación de los distintos retos a abordar a la hora de aplicar soluciones de visión artifical en dispositivos de realidad virtual\, tomando como objetivo el posicionamiento 3D en tiempo real del dispositivo (headset) y sus controladores.\n\n\nBIO\nDoctor en visión artificial en la URJC\, con experiencia de más de 10 años trabajando en empresas de robótica y visión artificial\n\n\n\n 
URL:https://mastervisionartificial.es/event/3d-perception-for-ar-vr-devices
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230301T160000
DTEND;TZID=UTC:20230301T180000
DTSTAMP:20260405T130821
CREATED:20230203T121621Z
LAST-MODIFIED:20230203T205923Z
UID:2645-1677686400-1677693600@mastervisionartificial.es
SUMMARY:Beyond supervised Deep Learning for Autonomous Driving.
DESCRIPTION:PONENTE\nDr. Luis Miguel Bergasa Pascual\n\n\nAFILIACIÓN\nUniversidad de Alcalá de Henares\n\n\nRESUMEN\nAutonomous driving is one of the most exciting engineering fields of our era. The benefits that self-driving cars will have in our society are still unmeasurable\, while the associated goals are also growing increasingly complex and challenging. In recent years\, fully supervised Deep Learning (DL) algorithms have seen an unprecedented boom in this field and are progressively being introduced into autonomous vehicle navigation architectures. However\, compared to classical methods\, supervised DL-based techniques face scalability issues as they require huge amounts of labeled data and are unable to generalize to multiple domains. These issues represent a great barrier for the practical application of DL techniques in this field. In this talk\, we will revise the DL developments made by our Research Lab for our Autonomous Vehicle prototype surrounding alternatives to fully supervised learning in the DL context (synthetic data\, transfer learning\, reinforcement learning\, etc.). In addition\, we will present our thoughts on the future of research in this field with the purpose of solving the challenging remaining problems.\n\n\nBIO\nLuis M. Bergasa received the MS degree in Electrical Engineering in 1995 from the Technical University of Madrid and the PhD degree in Electrical Engineering in 1999 from the University of Alcalá (UAH)\, Spain. He is Full Professor at the Department of Electronics of the UAH since 2011. From 2000 he had different research and teaching positions at the UAH. He was Head of the Department of Electronics (2004-2010)\, coordinator of the Doctorate program in Electronics (2005-2010) and Director of Knowledge Transfer at the UAH (2014-2018). He is author of more than 280 refereed papers in journals and international conferences. He was recognized as one of the most productive researcher in Intelligent Transportation Systems (ITS) field during the period 1996-2014\, and as a Distinguished Lecturer of the IEEE Vehicular Technology Society (2019-2021). He received the Institutional Lead Award 2019 from the IEEE ITS Society for the longstanding work of his research group. His research activity has been awarded/recognized with 28 prizes/recognitions related to Robotics and Automotive fields from 2004 to nowadays.  He is Associate Editor of the IEEE Transactions on ITS and habitual reviewer in several journals included in the JCR index. He was Guest Editor of two Special Issues (Sensors and IEEE T ITS)\, member of the Editorial Board of International Journal of Vehicular Technology (2012-2017) and he have served on Program/Organizing Committees in more than 20 conferences. He was Research Visitor at the Computer Vision Research Group of the Trinity College in Dublin (Irland) in 1998\, Visiting Scholar at the Toyota Technological Institute at Chicago (USA) in 2013\, and at the OPTIMAL Center Northwestern Polytechnic University (China) in 2017. He was co-founder of Vision Safety Technologies Ltd\, a spin-off company established to commercialize computer vision systems for road infrastructure inspection (2009-2016). His research interests include driver behaviors and scene understanding using Computer Vision and Deep Learning Techniques for autonomous vehicles applications.\n\n\n\n 
URL:https://mastervisionartificial.es/event/beyond-supervised-deep-learning-for-autonomous-driving
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230308T160000
DTEND;TZID=UTC:20230308T180000
DTSTAMP:20260405T130821
CREATED:20230203T122239Z
LAST-MODIFIED:20230203T122427Z
UID:2652-1678291200-1678298400@mastervisionartificial.es
SUMMARY:¿Navegación en un entorno quirúrgico?
DESCRIPTION:PONENTE\nDra. Verónica García Vázquez\n\n\nAFILIACIÓN\nAyudante doctor en el Área Tecnología Electrónica\, Departamento Matemática Aplicada\, Ciencia e Ingeniería de los Materiales y Tecnología Electrónica\, Universidad Rey Juan Carlos. Medical Image Analysis and Biometry Lab\n\n\nRESUMEN\n¿Sabes que en un quirófano se puede navegar igual que hacemos con el móvil en el coche para llegar a nuestro destino? En el caso del quirófano\, el mapa de carreteras sería la información que tenemos sobre la anatomía del paciente (por ejemplo\, imágenes médicas)\, el móvil que localiza donde está el coche correspondería con el sistema de posicionamiento\, el destino sería la región a tratar en ese procedimiento médico\, el coche sería la herramienta que queremos localizar en el paciente (por ejemplo\, un bisturí) y el conductor sería el médico. Este seminario se centrará primero en explicaros cómo funciona un sistema de posicionamiento óptico y electromagnético para luego contaros varias aplicaciones relacionadas con el guiado de procedimientos médicos en el campo de la oncología y de la cirugía endovascular en las que he empleado estas tecnologías junto con el escaneo 3D\, la impresión 3D y la realidad aumentada.\n\n\nBIO\nVerónica García Vázquez trabajó en el Laboratorio de Imagen Médica del Hospital Gregorio Marañón (Madrid) donde inicialmente participó en varias líneas de investigación como planificación quirúrgica de pacientes con disfunciones oculomotoras\, escáneres comerciales PET/TAC para pequeño animal\, y en neuroimagen con imágenes preclínicas y clínicas. A continuación\, se centró en el guiado de tratamientos con sistemas de posicionamiento\, escáneres 3D e impresión 3D. Obtuvo el doctorado en Multimedia y Comunicaciones por la Universidad Carlos III de Madrid con una tesis sobre navegación e imagen intraoperatoria en radioterapia intraoperatoria con electrones. Realizó un postdoc en University of Luebeck (Alemania) donde trabajó en un proyecto para la navegación de procedimientos de reparación aórtica mediante el uso de sistemas de posicionamiento y realidad aumentada. Antes de unirse a la Universidad Rey Juan Carlos como ayudante doctor estuvo trabajando en la empresa GMV Soluciones Globales Internet\, S.A.U en la navegación de tratamientos de radioterapia intraoperatoria con rayos X de bajo voltaje\, proyecto en el que sigue colaborando con GMV y con University Medical Center Mannheim (Alemania).\n\n\n\n 
URL:https://mastervisionartificial.es/event/navegacion-en-un-entorno-quirurgico
LOCATION:Salon de grados del Departamental 1\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230315T160000
DTEND;TZID=UTC:20230315T180000
DTSTAMP:20260405T130821
CREATED:20230203T122722Z
LAST-MODIFIED:20230203T122736Z
UID:2655-1678896000-1678903200@mastervisionartificial.es
SUMMARY:From physical textiles to digital twins
DESCRIPTION:PONENTE\nDra. Elena Garcés García\n\n\nAFILIACIÓN\nHead of AI & Optics at SEDDI\n\n\nRESUMEN\nVirtual design\, online marketplaces\, product lifecycle workflows\, AR/VR\, videogames\, …\, all require lifelike digital representations of real-world materials (i.e.\, digital twins). Acquiring these digital copies is typically a cumbersome and slow process that requires expensive machines and several manual steps\, creating roadblocks for scalability\, repeatability\, and consistency. Among the many industries requiring digital twins of materials\, the fashion industry is in a critical position; facing the demand to digitize hundreds of samples of textiles in short periods\, which cannot be achieved with current technology. In this context\, casual capture systems for optical digitization provide a promising path for scalability. These systems leverage low cost devices (such as smartphones)\, one or more different illuminations\, and learning-based priors to estimate the material’s diffuse and specular reflection lobes. However\, to train a machine learning-based solution\, data is needed\, which is not easy to obtain for textile materials. In this talk\, I will discuss our end-to-end approach to providing a scalable solution to digitize textiles\, including the design of an optical gonioreflectometer (capable of seeing yarns at the fiber level) for dataset creation and our deep learning-based solution that only requires a single image as input.\n\n\nBIO\nElena es doctora en Informática desde 2016 donde se especializó en técnicas avanzadas de procesamiento de imagen y render inverso para captura de apariencia. Actualmente es investigadora en la URJC además de líder del equipo de IA y óptica de la empresa SEDDI\, donde desarrolla métodos de captura de materiales\, y modelado de humanos y ropa virtual.
URL:https://mastervisionartificial.es/event/from-physical-textiles-to-digital-twins
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230322T160000
DTEND;TZID=UTC:20230322T180000
DTSTAMP:20260405T130821
CREATED:20230203T123127Z
LAST-MODIFIED:20230203T123153Z
UID:2658-1679500800-1679508000@mastervisionartificial.es
SUMMARY:Avatares Digitales con Machine Learning
DESCRIPTION:PONENTE\nDr. Dan Casas Guix\n\n\nAFILIACIÓN\nUniversidad Rey Juan Carlos.\n\n\nRESUMEN\nLa digitalización de humanos mediante técnicas basadas en reconstrucción 3D supone un enorme desafío dentro del campos de la Visión Artificial y la Informática Gráfica. Recientemente\, métodos basados en técnicas de Machine Learning han demostrado ser una buena manera de atacar este problema\, y han permitido avanzar el estado del arte tanto para la reconstrucción 3D de humanos desde una sola imagen\, como para el modelado de la deformación 3D de ropa virtual. En esta charla describiré los avances recientes publicados por nuestro grupo de investigación en esta área\, incluyendo varios artículos aceptados en congresos internacionales de gran prestigio como CVPR\, NeurIPS\, y SIGGRAPH\n\n\nBIO\nDan Casas is Assistant Professor at the Universidad Rey Juan Carlos (URJC)\, Spain. Previosuly he was Marie Sklodowska-Curie Fellow (2016-2018) at MSLab of the URJC\, and postdoc (2015-2016) in the Graphics\, Vision and Video group at the Max Planck Institute in Saarbrucken\, Germany\, led by Prof. Christian Theobalt\, and at the Character Animation group of the University of Southern California Institute for Creative Technology\, in Los Angeles\, USA (2014-2015). Dan received his PhD in Computer Graphics in 2014 from the University of Surrey (UK)\, supervised by Prof. Adrian Hilton. Dan’s dissertation introduced novel methods for character animation from multi-camera capture that allow the synthesis of video-realistic interactive 3D characters. During his PhD\, he was also intern at the R&D department of the Oscar Award-winning visual effects company\, Framestore. Previously\, in 2009\, Dan received his M.Sc. degree from the Universitat Autonoma de Barcelona (Spain). In 2008\, during the last year of his M.Sc. studies\, he joined the Human Sensing Lab at Carnegie Mellon University (PA\, USA) as an invited research scholar\, where he investigated methods for real-time face tracking\, advised by Prof. Fernando de la Torre.
URL:https://mastervisionartificial.es/event/2658
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230329T160000
DTEND;TZID=UTC:20230329T180000
DTSTAMP:20260405T130821
CREATED:20230203T123419Z
LAST-MODIFIED:20230203T123645Z
UID:2661-1680105600-1680112800@mastervisionartificial.es
SUMMARY:Visión Artificial con proyección industrial.
DESCRIPTION:PONENTE\nDr. Gonzalo Pajares Martinsanz\n\n\nAFILIACIÓN\nUniversidad Complutense de Madrid\n\n\nRESUMEN\nLa Visión Artificial constituye una herramienta clave en desarrollos inteligentes integrados en distintos sistemas\, donde los vehículos robotizados autónomos son un claro exponente. La industria ha demandado y demanda actualmente soluciones a sus diversos problemas en este sentido\, solicitando perfiles de ingeniería cada vez más especializados. La charla tiene como objetivo principal proporcionar una panorámica general sobre aplicaciones de la Visión Artificial\, siempre inteligente\, para la solución de problemas de naturaleza empresarial\, materializadas a través de los distintos proyectos de investigación que se describen. Se ofrece una doble perspectiva\, de forma que por una parte se presentan soluciones ofrecidas por iniciativa de los grupos de investigación\, siendo la empresa la receptora de estas. Por otra parte\, es la iniciativa empresarial\, en base a su problemática o perspectiva de crecimiento\, quien demanda el desarrollo de sistemas para abordar su problemática.\n\n\nBIO\nGonzalo Pajares es catedrático en el Dpt. de Ingeniería del Software e Inteligencia Artificial en la Universidad Complutense de Madrid. Durante más de 12 años trabajó en varias empresas destacando Inisel\, ENOSA\, Indra en desarrollo de software aplicado y en INTA en Remote Sensing. Su investigación ha girado en torno a la Visión Artificial muy enfocada a desarrollos industriales. Ha sido investigador principal en varios proyectos competitivos de I+D+i internacionales\, incluyendo el programa FP7 de la UE\, y nacionales dentro del Plan Nacional\, en particular de la convocatoria RETOS de la Sociedad con participación empresarial\, destacando CEPSA. También ha sido investigador principal en varios proyectos de transferencia directa en varias empresas. Todos ellos en el ámbito de los vehículos autónomos robotizados en Agricultura de Precisión\, así como en vehículos submarinos y marinos de superficie. Ha publicado más de una centena de artículos en revistas indexadas y varios libros docentes. Entre 2015-2018 fue Adjunto al Coordinador de la Agencia Estatal de Investigación (antes ANEP) en el Área Científica de Transferencia de Tecnología. Desde 2017 figura en la “World’s Top 2% Scientist List” de la Universidad de Stanford. Ha sido y es editor asociado de varias revistas indexadas.
URL:https://mastervisionartificial.es/event/vision-artificial-con-proyeccion-industrial
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230412T160000
DTEND;TZID=UTC:20230412T180000
DTSTAMP:20260405T130821
CREATED:20230203T123954Z
LAST-MODIFIED:20230203T191506Z
UID:2663-1681315200-1681322400@mastervisionartificial.es
SUMMARY:Plataforma robótica asistencial para la monitorización de las acciones basada en sistemas de reconocimeinto de actividades mediante deep learning y continual learning.
DESCRIPTION:PONENTE\nDra. Nadia Nasri Mohammadshahi\n\n\nAFILIACIÓN\nUniversidad de Alicante y Universidad de Alcalá de Henares\n\n\nRESUMEN\nEn este seminario presentaremos LOLA\, nuestro robot de asistencia de bajo coste. La plataforma fue desarrollada para proporcionar asistencia a personas con trastornos delneurodesarrollo. Su principal objetivo es permitir a los terapeutas medir la capacidad de los usuarios para comprender y ejecutar las tareas cotidianas con la ayuda de plataformasrobóticas de asistencia como LOLA y seguir el proceso de aprendizaje de sus pacientes. Para lograr este objetivo\, la plataforma robótica utiliza una interfaz gráfica de usuario\, así como una aplicación basada en modelos de deep learning para el reconocimiento de acciones de forma online\, que permiten reforzar y aprender las actividades de la vida diaria mediante sesiones interactivas con los usuarios. Las personas con discapacidad han estado probando la funcionalidad de la plataforma\, y en esta sesión analizaremos los resultados de este periodo de validación técnica. Finalmente\, presentaremos los soluciones conocidas como de Continual Learning que se están empleando para mejorar los sistemas de reconocimiento de acciones. Realizaremos una introducción a este paradigma de aprendizaje\, explicando cómo se emplea en modelos de vídeo\, mediante una revisión del estado del arte. Así mismo\, concluiremos con los avances que desde nuestro grupo de investigación se han completado en esta línea.\n\n\nBIO\nNadia Nasri Mohammadshahi es licenciada en Ingeniería Electrónica y tiene un Máster en Automatización y Robótica. Hizo su doctorado en Ciencias de la Computación e Inteligencia Artificial en la Universidad de Alicante y con la ayuda de Margarita Salas (de la universidad de Alicante). Actualmente está haciendo un Postdoc en la Universidad de Alcalá de Henares.
URL:https://mastervisionartificial.es/event/plataforma-robotica-asistencial-para-la-monitorizacion-de-las-acciones-basada-en-sistemas-de-reconocimeinto-de-actividades-mediante-deeplearning-y-continual-learning
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230419T160000
DTEND;TZID=UTC:20230419T180000
DTSTAMP:20260405T130821
CREATED:20230203T192211Z
LAST-MODIFIED:20230203T192719Z
UID:2667-1681920000-1681927200@mastervisionartificial.es
SUMMARY:Visual Semantic Navigation: an introduction to the problem.
DESCRIPTION:PONENTE\nDr. Roberto J. López Sastre\n\n\nAFILIACIÓN\nUniversidad de Alcalá de Henares\n\n\nRESUMEN\nSemantic and goal-oriented visual navigation is one of the most prominent tasks performed by intelligent species in their daily lives. This task is defined as the ability we have to navigate through our environment\, finding targets and enabling interaction with it. Navigation methods used in robotics can be divided into two main categories: geometry-based and learning-based. Semantic visual navigation belongs to the second group\, where there is no need to know the map of the environment a priori\, and where there is no need to build such a map «on the fly». In this talk we will present the problem of semantic visual navigation in detail\, reviewing the state-of-the-art models. We will then describe the main advances that are being made on this problem from a reinforcement-based learning and meta-learning approach.\n\n\nBIO\nI received a Master of Electrical Engineering from the University of Alcalá\, Spain in 2005. I work at GRAM research group within the Department of Signal Theory and Communications\, where I defended my PhD in Electrical Engineering on may 18\, 2010\, entitled «Visual Vocabularies for Category-Level Object Recognition». In 2008\, I spent 6 months in lovely Leuven\, working with Tinne Tuytelaars and the VISICS-PSI research group. Summer 2010\, I visited Silvio Savarese’s group at University of Michigan. Research interests in reverse chronological order: meta-learning\, semantic visual navigation\, AI applied to astrophysics\, unsupervised learning\, activity recognition\, object category pose estimation\, semantic visual vocabularies\, category-level object recognition.
URL:https://mastervisionartificial.es/event/visual-semantic-navigation-an-introduction-to-the-problem
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230426T160000
DTEND;TZID=UTC:20230426T180000
DTSTAMP:20260405T130821
CREATED:20230203T192546Z
LAST-MODIFIED:20230203T192546Z
UID:2669-1682524800-1682532000@mastervisionartificial.es
SUMMARY:Deshojando la margarita. O ¿cuánto podemos enrevesar la más sencilla de las decisiones?
DESCRIPTION:PONENTE\nDr. José Luis Esteban Sánchez-Marín\n\n\nAFILIACIÓN\nGrupo de Visión\, 3DVI (Verisk Analytics)\n\n\nRESUMEN\n¿Sí o no? Eso es todo lo que tiene que decidir nuestro sistema y no queremos que falle. Pero fallará\, mucho o poco.\nExaminaremos las métricas que nos permiten conocer la calidad o utilidad de nuestro sistema de decisión.\nCon un poco de suerte no veremos nada nuevo\, pero trataremos de contraponer y poner en perspectiva muchos conceptos ya conocidos.\n\n\nBIO\nBiólogo e informático. En la UPV/EHU desarrollé sistemas de análisis de imagen y cuantificación mediante microespectrofotometría. En FiloSoft desarrollé sistemas de captura y análisis de datos biomédicos\, incluyendo el primer sistema de análisis de ADN usado por la policía española. En Ipsa desarrollé sistemas de reconocimiento de información en documentos. En relación con la FAI desarrollé sistemas de análisis de registros de vuelo para campeonatos aeronáuticos. En la URJC fui profesor asociado y miembro del grupo Gavab. En 3DVI (antes Geomni) desarrollo sistemas de inferencia de modelos de edificios partir de imágenes aéreas.
URL:https://mastervisionartificial.es/event/deshojando-la-margarita-o-cuanto-podemos-enrevesar-la-mas-sencilla-de-las-decisiones
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230503T160000
DTEND;TZID=UTC:20230503T180000
DTSTAMP:20260405T130821
CREATED:20230203T193047Z
LAST-MODIFIED:20230203T193115Z
UID:2673-1683129600-1683136800@mastervisionartificial.es
SUMMARY:Vision based end-to-end autonomous driving via imitation learning.
DESCRIPTION:PONENTE\nD. Sergio Paniego Blanco\n\n\nAFILIACIÓN\nUniversidad Rey Juan Carlos\n\n\nRESUMEN\nLas soluciones para autonomous driving suelen dividirse en modulares o end-to-end. En este seminario abordaremos la segunda alternativa\, centrándonos en las soluciones basadas en visión que permiten realizar conducción autónoma utilizando imitation learning. Para ello\, abordaremos un problema de conducción basado en simulación\, donde buscaremos realizar la percepción y el control del vehículo utilizando una cámara como sensor principal. A partir de esa información de entrada\, el objetivo de nuestro sistema será generar la salida de control (señal de aceleración\, giro y freno) para manejar el vehículo en situaciones diversas. Exploraremos las ventajas y limitaciones de esta aproximación\, además de la forma de comparar los diferentes sistemas creados de forma objetiva.\n\n\nBIO\nSoy estudiante de doctorado en Visión Artificial en la URJC bajo la supervisión de José María Cañas. Mi línea de investigación se centra en la unión entre robótica\, inteligencia artificial y visión\, concretamente en la conducción autónoma. Además de mi labor de investigación\, colaboro en varias asignaturas dentro de la misma universidad como profesor.
URL:https://mastervisionartificial.es/event/vision-based-end-to-end-autonomous-driving-via-imitation-learning
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20240124T180000
DTEND;TZID=UTC:20240124T200000
DTSTAMP:20260405T130821
CREATED:20240117T132630Z
LAST-MODIFIED:20240117T133019Z
UID:2858-1706119200-1706126400@mastervisionartificial.es
SUMMARY:¿Navegación en un entorno quirúrgico?
DESCRIPTION:Impartido por la Dra. Verónica García Vázquez (URJC). \n¿Sabes que en un quirófano se puede navegar igual que hacemos con el móvil en el coche para llegar a nuestro destino? El mapa de carreteras sería la información que tenemos sobre la anatomía del paciente (por ejemplo\, imágenes médicas)\, el móvil que localiza donde está el coche correspondería con el sistema de posicionamiento\, el destino sería la región a tratar en ese procedimiento médico\, el coche sería la herramienta que queremos localizar en el paciente (por ejemplo\, un bisturí) y el conductor sería el médico. En este seminario os mostraré cómo navegar en este entorno y jugaremos con maniquíes. \n\nVerónica García  es Ingeniera en Telecomunicaciones y doctorado en Multimedia y Comunicaciones\, trabajó en el Laboratorio de Imagen Médica del Hospital Gregorio Marañón (Madrid) donde su investigación se centró en el guiado de tratamientos con sistemas de posicionamiento\, escáneres 3D e impresión 3D. Después\, realizó un postdoc en University of Luebeck (Alemania) donde trabajó en un proyecto para la navegación de procedimientos de reparación aórtica mediante el uso de sistemas de posicionamiento y realidad aumentada. Actualmente es ayudante doctor en el Área Tecnología Electrónica (Universidad Rey Juan Carlos) y pertenece al Grupo de Investigación en Tecnologías de Imagen Médica de la Universidad Rey Juan Carlos (PROMISE).
URL:https://mastervisionartificial.es/event/navegacion-en-un-entorno-quirurgico-2
LOCATION:Madrid
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20240131T180000
DTEND;TZID=UTC:20240131T200000
DTSTAMP:20260405T130821
CREATED:20240117T133325Z
LAST-MODIFIED:20240117T133325Z
UID:2864-1706724000-1706731200@mastervisionartificial.es
SUMMARY:Image matching
DESCRIPTION:Impartido por el Dr. Iago Suárez (Qualcomm) \nDado un elemento de una imagen\, Image Matching se encarga de encontrar ese mismo elemento en otra imagen. Es la piedra angular\, y a la vez el talón de Aquiles de muchos otros métodos como la estimación de pose\, SfM\, SLAM\, etc. Hoy en día tiene especial importancia por su gran impacto sobre en NeRF y Gaussian Splatting. En esta presentación revisaremos desde las técnicas básicas hasta los métodos más avanzados del estado del arte. Los últimos se basan en deep learning (transformers y graph neural networks) y múltiples tipos de características para alcanzar los mejores resultados. \n\nIago Suárez es Ingeniero Informático por Universidade da Coruña y Doctor en Inteligencia Artificial por la Universidad Politécnica de Madrid. A día de hoy trabaja como Senior Machine Learning Engineer en Qualcomm XR Labs Europe\, en Madrid.
URL:https://mastervisionartificial.es/event/image-matching
LOCATION:Madrid
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20240207T180000
DTEND;TZID=UTC:20240207T200000
DTSTAMP:20260405T130821
CREATED:20240117T133559Z
LAST-MODIFIED:20240117T133559Z
UID:2866-1707328800-1707336000@mastervisionartificial.es
SUMMARY:La imagen astronómica: nuestros ojos hacia el Universo.
DESCRIPTION:Impartido por el Dr. Francisco M. Montenegro Montes (UCM) \nLa gran mayoría de la información de que disponemos sobre los cuerpos celestes y\, en general\, de la materia en nuestro Universo procede del análisis de la luz que llega a nuestros telescopios y que normalmente queda registrada en forma de imágenes. En este seminario se presentará la tecnología asociada a la adquisición de la imagen astronómica profesional\, abarcando los procesos de detección\, calibración\, pre-procesado y almacenamiento de imágenes en archivos científicos. Finalmente se hablará sobre el potencial de descubrimiento que surge gracias a la aplicación de las técnicas de aprendizaje automático a los grandes repositorios de imágenes astronómicas. \n\nFrancisco Montenegro es actualmente investigador en el Grupo UCM de Astrofísica Instrumental y Extragaláctica (GUAIX) y docente en el Máster de Astrofísica de la UCM. Se doctoró en la Universidad de La Laguna habiendo desarrollado su trabajo en el Istituto di Radioastronomia\, en Bolonia. Después trabajó por más de 10 años en el Observatorio Europeo Austral (ESO)\, liderando las operaciones científicas del telescopio submilimétrico APEX situado en el desierto de Atacama en Chile.
URL:https://mastervisionartificial.es/event/la-imagen-astronomica-nuestros-ojos-hacia-el-universo
LOCATION:Madrid
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20240214T180000
DTEND;TZID=UTC:20240214T200000
DTSTAMP:20260405T130821
CREATED:20240117T134005Z
LAST-MODIFIED:20240117T134101Z
UID:2868-1707933600-1707940800@mastervisionartificial.es
SUMMARY:Dos soluciones I+D de visión artificial
DESCRIPTION:Impartido por Dña. Beatriz Pacheco y D. Daniel Hernández (Pixelabs) \nComercio inteligente. Se trata de un proyecto real en el que se ha creado un sistema de visión artificial para aplicarlo en tienda. Con este desarrollo es consegue nuevas métricas para la tienda\, las cuales usarán para mejorar la calidad del servicio y la atención ofrecida al cliente. \nClasificación de residuos. Se explicarán algunos trabajos industriales relacionados con imagen hiperespectral para clasificación de diferentes tipos de residuos urbanos. Se detallan las fases de desarrollo del proyecto y las diferentes soluciones que se ofrecen al cliente para visualizar y procesar las imágenes infrarrojas. \n\nBeatriz Pacheco es Ingeniera de Visión artificial\, con conocimientos debidos al máster de Visión Artificial\, y del grado de Audiovisuales y Multimedia. Actualmente\, desarrolladora de proyectos de Visión Artificial. \nDaniel Hernández estudió Ingeniería electrónica y automática y actualmente es investigador y desarrollador de Visión artificial gracias al máster de Visión Artificial y doctorando en el grupo CAPO.
URL:https://mastervisionartificial.es/event/dos-soluciones-id-de-vision-artificial
LOCATION:Madrid
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20240221T180000
DTEND;TZID=UTC:20240221T200000
DTSTAMP:20260405T130821
CREATED:20240117T134400Z
LAST-MODIFIED:20240117T134400Z
UID:2871-1708538400-1708545600@mastervisionartificial.es
SUMMARY:Avatares 3D Fotorrealistas con Inteligencia Artificial
DESCRIPTION:Impartido por el Dr. Dan Casas Guix (URJC) \nLa creación de humanos digitales en 3D es un área activa de investigación debido a la gran cantidad de aplicaciones en muchos campos\, incluido las telecomunicaciones\, el diseño de moda\, el e-commerce\, y los videojuegos. En esta charla hablaré de los recientes avances basados en el aprendizaje automático para la reconstrucción\, modelado\, y síntesis de personas y ropa en 3D directamente a partir de imágenes. \n\nDan Casas es Profesor Titular de la Universidad Rey Juan Carlos (URJC) desde Noviembre de 2023. Sus intereses en investigación se encuentran en la intersección de la Informática Gráfica\, la Visión por Computador y la Inteligencia Artificial\, con especial énfasis en la reconstrucción 3D y el modelado de superficies deformables para crear humanos virtuales. Dan es autor de más de 40 publicaciones de alto impacto (incluyendo ACM SIGGRAPH\, CVPR\, NeurIPS) que acumulan más de 5.000 citas y un h-index de 24\, inventor de 3 patentes internacionales\, y ha sido Investigador Principal de 7 proyectos nacionales y europeos. \nSu trayectoria investigadora ha sido reconocida a través de varios premios y becas muy relevantes\, incluyendo una beca individual Marie Sklodowska-Curie (2015)\, la Certificación i3 del Ministerio de Universidades (2020)\, una beca Leonardo FBBVA (2021)\, y la medalla honorífica del Premio Jóvenes Investigadores de la Real Academia de Ingeniería de España (2023). Además\, sus contribuciones científicas en el campo de la digitalización de humanos 3D le han llevado a recibir invitaciones como ponente (por ej.\, CVPR Workshop keynote speaker) y organizador (por ej.\, Area Chair ICCV 2023\, General Chair ACM I3D 2020) en los principales conferencias internacionales en el campo del Aprendizaje Automático\, los Gráficos y la Visión por Computador. \nDan obtuvo el título de Ingeniero Informático en 2009 por la Universitat Autònoma de Barcelona\, realizando el proyecto de final de carrera en una estancia de investigación de un año (2008-2009) en la Carnegie Mellon University (EEUU). En 2014 se doctoró en Informática Gráfica y Visión Artificial en la University of Surrey (Reino Unido)\, supervisado por el Prof. Adrian Hilton. Su tesis doctoral introdujo novedosos métodos para la animación de personajes a partir de captura multi-cámara\, permitiendo la síntesis de personajes 3D interactivos videorealistas. Realizó un postdoctorado (2014-2015) en el Institute for Creative Technologies de la University of Southern Carlifornia en Los Ángeles (EEUU) y otro postdoctorado (2015-2016) en el Max Planck Institute de Saarbrücken (Alemania). En 2016 obtuvo una beca Marie Sklodowska-Curie que le permite incorporarse a la Universidad Rey Juan Carlos como investigador\, y en 2018 consigue una plaza de Profesor Ayudante Doctor en la misma universidad.
URL:https://mastervisionartificial.es/event/avatares-3d-fotorrealistas-con-inteligencia-artificial
LOCATION:Madrid
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20240228T180000
DTEND;TZID=UTC:20240228T200000
DTSTAMP:20260405T130821
CREATED:20240119T145437Z
LAST-MODIFIED:20240119T145510Z
UID:2874-1709143200-1709150400@mastervisionartificial.es
SUMMARY:Visión Artificial en el ámbito de la industria
DESCRIPTION:Impartido por Dña. María López de Maya (Hexcel) \nEn esta charla se describen 2 aspectos de la visión artificial en la industria. \n\n\n\nEl papel de la Visión Artificial en el control de calidad de un proceso productivo. Es crucial para el ingeniero de visión entender los requerimientos de calidad para traducirlos a lo que el sistema es capaz de capturar e identificar.\nDiseño de los sistemas de visión (elección de iluminación\, ópticas\, sensores…)\, teniendo en cuenta el soporte y mantenimiento de los mismos\, que debe ser procedimentado tanto si se externaliza como si hace internamente.\n\n\n\n\nMaría López es Vision Engineer – European Process Robustness Team\, en Hexcel.
URL:https://mastervisionartificial.es/event/vision-artificial-en-el-ambito-de-la-industria
LOCATION:Madrid
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20240306T180000
DTEND;TZID=UTC:20240306T200000
DTSTAMP:20260405T130821
CREATED:20240119T145841Z
LAST-MODIFIED:20240119T145841Z
UID:2876-1709748000-1709755200@mastervisionartificial.es
SUMMARY:Visión artificial aplicada a la robótica.
DESCRIPTION:Impartido por el Dr. Alejandro Hernández Cordero \nEn este seminario se hablará sobre técnicas de visión artificial que se aplican en la robótica\, como el guiado de vehículos terrestres en entornos exteriores donde nos centraremos en analizar las características extraídas con redes neuronales y cómo integrarlo con el SLAM visual. Además se incluirán algunas nociones de como la simulación puede ayudar a mejorar los resultados de estos algoritmos. También se introducirán herramientas open source que ayudan a generar datos para entrenar las redes neurales\, generación de datasets\, depuración de los resultados y cómo visualizar los datos extraídos de las imágenes. \n\nAlejandro Hernández es Ingeniero Superior en ingeniería de Telecomunicación y Máster en visión artificial por la Universidad Rey Juan Carlos. Con más de 10 años de experiencia desarrollando\, manteniendo y contribuyendo a proyectos open source centrados en la robótica. Alejandro ha fundado varias empresas relacionadas con la robótica y actualmente trabaja como consultor independiente para Intrinsic (empresa del grupo Alphabet) y Bonsai Robotics (startup de agricultura centrada en la recolección de frutos secos).
URL:https://mastervisionartificial.es/event/vision-artificial-aplicada-a-la-robotica
LOCATION:Madrid
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20240313T180000
DTEND;TZID=UTC:20240313T200000
DTSTAMP:20260405T130821
CREATED:20240119T150251Z
LAST-MODIFIED:20240119T150251Z
UID:2878-1710352800-1710360000@mastervisionartificial.es
SUMMARY:From physical textiles to digital twins
DESCRIPTION:Impartido por la Dra. Elena Garcés García (SEDDI). \nVirtual design\, online marketplaces\, product lifecycle workflows\, AR/VR\, videogames\,…\, all require lifelike digital representations of real-world materials (i.e.\, digital twins).\nAcquiring these digital copies is typically a cumbersome and slow process that requires expensive machines and several manual steps\, creating roadblocks for scalability\, repeatability\, and consistency.\nIn this talk\, I will discuss our end-to-end approach to providing a scalable solution to digitize textiles\, including the design of an optical gonioreflectometer (capable of seeing yarns at the fiber level) for dataset creation and our deep learning-based solution that only requires a single image as input. \n\nElena Garcés es doctora en Informática\, experta en técnicas avanzadas de procesamiento de imagen y render inverso para captura de apariencia. Actualmente es investigadora en la URJC además de líder del equipo de IA y óptica de la empresa SEDDI\, donde desarrolla métodos de captura de materiales\, modelado de humanos\, y ropa virtual.
URL:https://mastervisionartificial.es/event/from-physical-textiles-to-digital-twins-2
LOCATION:Madrid
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20240320T180000
DTEND;TZID=UTC:20240320T200000
DTSTAMP:20260405T130821
CREATED:20240119T150359Z
LAST-MODIFIED:20240119T150359Z
UID:2880-1710957600-1710964800@mastervisionartificial.es
SUMMARY:¿Cómo elegir una óptica para un sensor concreto en diferentes aplicaciones de visión industrial optoelectrónica?
DESCRIPTION:Impartido por la Dra. Ana Manzanares (GREENLIGHT)
URL:https://mastervisionartificial.es/event/como-elegir-una-optica-para-un-sensor-concreto-en-diferentes-aplicaciones-de-vision-industrial-optoelectronica
LOCATION:Madrid
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20240403T180000
DTEND;TZID=UTC:20240403T200000
DTSTAMP:20260405T130821
CREATED:20240119T150954Z
LAST-MODIFIED:20240119T150954Z
UID:2882-1712167200-1712174400@mastervisionartificial.es
SUMMARY:Detección de anomalías en imágenes
DESCRIPTION:Impartido por Dña. Natalia Lourdes Pérez García de la Puente  (UPV) \nEste seminario aborda técnicas del estado del arte en inteligencia artificial para la detección de anomalías y realiza un análisis del desarrollo metodológico en diversos casos de uso. Se explorará el aprendizaje no supervisado y semi-supervisado para identificar pixeles anormales en imágenes.\n \n\nNatalia Pérez estudió el Grado en Ingeniería de Tecnologías y Servicios de Telecomunicación en la especialidad de Imagen y Sonido por la Universitat Politècnica de València\, compaginando los estudios con el Grado en Música en la especialidad de Interpretación y Pedagogía del Piano por el Conservatorio Superior de Música Joaquín Rodrigo de Valencia. En el curso 2021-2022 realizó el Máster en Visión Artificial por la Universidad Rey Juan Carlos de Madrid. \nActualmente\, es doctoranda en el grupo de investigación Computer Vision & Behaviour Analysis Lab (CVBLab) dentro del Human-Centered Technology Institute (HUMAN-tech) en de la Universidad Politècnica de València. Participa en diversos proyectos\, tanto de detección de defectos en industria\, como de detección de eventos anómalos en audio y creación de modelos para el diagnóstico en diversos campos de la salud.
URL:https://mastervisionartificial.es/event/deteccion-de-anomalias-en-imagenes
LOCATION:Madrid
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20240410T180000
DTEND;TZID=UTC:20240410T200000
DTSTAMP:20260405T130821
CREATED:20240123T161209Z
LAST-MODIFIED:20240123T161209Z
UID:2885-1712772000-1712779200@mastervisionartificial.es
SUMMARY:Segmentación semántica en imágenes agrícolas.
DESCRIPTION:Impartido por Dña. Esther Gascó Marco (UCM) \nLa complejidad de la percepción en un mundo físico\, dinámico e infinitamente variable dificulta la tarea de la visión por computador. La siguiente presentación afronta esta problemática y se centra en la percepción del contenido de la imagen a nivel de píxel\, conocido computacionalmente como segmentación semántica. Se abordan una serie de experimentos a partir de imágenes agrícolas de exterior donde se asigna una categoría de cobertura de verdor a cada píxel con el objetivo de diferenciar las distintas líneas de cultivo. Comparamos analíticamente distintos modelos encoder – decoder\, tales como U-Net\, DeepLabv3\, FCN y SegNe \n\nEsther Gascó es directora técnica adjunta de la división de Infraestructuras y Redes en Anovo España. Unidad de negocio dedicada al servicio postventa especializado en ingeniería inversa\, robótica\, automática y energías renovables. Es graduada en Ingeniería de Tecnologías y Servicios de Telecomunicación por la Universitat Oberta de Catalunya\, Máster en Ingeniería de Sistemas y de Control por la Universidad Complutense de Madrid y la Universidad Nacional de Educación a Distancia. Área de especialización de conocimiento en Visión por Computador.
URL:https://mastervisionartificial.es/event/segmentacion-semantica-en-imagenes-agricolas
LOCATION:Madrid
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20240417T180000
DTEND;TZID=UTC:20240417T200000
DTSTAMP:20260405T130821
CREATED:20240123T161614Z
LAST-MODIFIED:20240123T161614Z
UID:2887-1713376800-1713384000@mastervisionartificial.es
SUMMARY:Software engineering for computer vision
DESCRIPTION:Impartido por el Dr. Enrique Muñoz Corral (Bookker) \nWriting software for Computer Vision typically differs from the usual frontend/backend development. In this talk we will show how to adapt a sort-of-generic software development life cycle to the idiosyncrasies of Computer Vision algorithms: design and prototyping candidate algorithms\, assessment of the proposed implementations\, management of the validation data\, handling multiple versions of the prototypes\, etc. We will show how to integrate these ideas into a DevOps methodology that can be used to build robust pipelines for either research code or production-ready applications. \n\nEnrique Muñoz es Computer Vision Lead en Bookker Corporate. Lleva más de diez años desarrollando software de manera aplicada\, implementando algoritmos de Visión Artificial en dispositivos Android/iOS\, más concretamente cosas relacionadas con la Realidad Aumentada\, tracking 3D en tiempo real y reconocimiento de caracteres (OCR). Es doctorado en Inteligencia Artificial por la Universidad Politécnica de Madrid.
URL:https://mastervisionartificial.es/event/software-engineering-for-computer-vision
LOCATION:Madrid
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20240424T180000
DTEND;TZID=UTC:20240424T200000
DTSTAMP:20260405T130821
CREATED:20240123T161828Z
LAST-MODIFIED:20240123T161910Z
UID:2889-1713981600-1713988800@mastervisionartificial.es
SUMMARY:Doble workshop
DESCRIPTION:Arquitecturas de Deep Learning para superresolución de imágenes hiperespectrales.\nImpartido por Dña. Alejandra Abalo \nPresentamos unos esquemas de superresolución de imágenes hiperespectrales de microscopía médicas. Utilizando aprendizaje supervisado para superresolución espectral y la técnica no supervisada Deep Image Prior para superresolución espacial\, mostramos la mejora en la calidad de las imágenes para posteriores diagnósticos. \nMás allá de los vóxeles: Radiómica como clave en el análisis de imágenes médicas\nImpartido por Dña. Blanca Rodríguez \n¿Podemos extraer información clínica significativa empleando una simple imagen? A través de un sofisticado análisis matemático\, la radiómica permite extraer características cuantitativas que revelan patrones invisibles al ojo humano\, permitiendo caracterizar diferentes condiciones médicas. En este seminario\, aprenderemos los fundamentos de está técnica y como esta\, combinada con métodos de inteligencia artificial\, abre la puerta a la detección temprana y un tratamiento personalizado.
URL:https://mastervisionartificial.es/event/doble-workshop
LOCATION:Madrid
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20250129T160000
DTEND;TZID=UTC:20250129T180000
DTSTAMP:20260405T130821
CREATED:20250206T221215Z
LAST-MODIFIED:20250206T221215Z
UID:3073-1738166400-1738173600@mastervisionartificial.es
SUMMARY:Visión Artificial e Industria: los ojos del Smart Manufacturing
DESCRIPTION:Dña. Natalia Mira Serna
URL:https://mastervisionartificial.es/event/vision-artificial-e-industria-los-ojos-del-smart-manufacturing
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20250205T160000
DTEND;TZID=UTC:20250205T180000
DTSTAMP:20260405T130821
CREATED:20250203T215101Z
LAST-MODIFIED:20250204T055222Z
UID:3037-1738771200-1738778400@mastervisionartificial.es
SUMMARY:Visión artificial en sistemas autónomos con proyección industrial
DESCRIPTION:Dr. Gonzalo Pajares Martinsanz\, Univ. Complutense de Madrid
URL:https://mastervisionartificial.es/event/vision-artificial-en-sistemas-autonomos-con-proyeccion-industrial
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20250212T160000
DTEND;TZID=UTC:20250212T180000
DTSTAMP:20260405T130821
CREATED:20250203T220019Z
LAST-MODIFIED:20250204T055309Z
UID:3048-1739376000-1739383200@mastervisionartificial.es
SUMMARY:Image processing for cryo-electron microscopy.
DESCRIPTION:Dr. Carlos Óscar Sorzano; Centro Nacional de Biotecnología – CSIC
URL:https://mastervisionartificial.es/event/image-processing-for-cryo-electron-microscopy
LOCATION:Madrid
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20250219T160000
DTEND;TZID=UTC:20250219T180000
DTSTAMP:20260405T130821
CREATED:20250203T221039Z
LAST-MODIFIED:20250204T055333Z
UID:3050-1739980800-1739988000@mastervisionartificial.es
SUMMARY:Visión 3D y captura volumétrica
DESCRIPTION:D. Mario Alfonso Arsuaga; Arquimea
URL:https://mastervisionartificial.es/event/vision-3d-y-captura-volumetrica
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
END:VCALENDAR