BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//Máster Universitario en Visión Artificial - ECPv6.15.18//NONSGML v1.0//EN
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-ORIGINAL-URL:https://mastervisionartificial.es
X-WR-CALDESC:Eventos para Máster Universitario en Visión Artificial
REFRESH-INTERVAL;VALUE=DURATION:PT1H
X-Robots-Tag:noindex
X-PUBLISHED-TTL:PT1H
BEGIN:VTIMEZONE
TZID:UTC
BEGIN:STANDARD
TZOFFSETFROM:+0000
TZOFFSETTO:+0000
TZNAME:UTC
DTSTART:20220101T000000
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
DTSTART;TZID=UTC:20230301T160000
DTEND;TZID=UTC:20230301T180000
DTSTAMP:20260407T082302
CREATED:20230203T121621Z
LAST-MODIFIED:20230203T205923Z
UID:2645-1677686400-1677693600@mastervisionartificial.es
SUMMARY:Beyond supervised Deep Learning for Autonomous Driving.
DESCRIPTION:PONENTE\nDr. Luis Miguel Bergasa Pascual\n\n\nAFILIACIÓN\nUniversidad de Alcalá de Henares\n\n\nRESUMEN\nAutonomous driving is one of the most exciting engineering fields of our era. The benefits that self-driving cars will have in our society are still unmeasurable\, while the associated goals are also growing increasingly complex and challenging. In recent years\, fully supervised Deep Learning (DL) algorithms have seen an unprecedented boom in this field and are progressively being introduced into autonomous vehicle navigation architectures. However\, compared to classical methods\, supervised DL-based techniques face scalability issues as they require huge amounts of labeled data and are unable to generalize to multiple domains. These issues represent a great barrier for the practical application of DL techniques in this field. In this talk\, we will revise the DL developments made by our Research Lab for our Autonomous Vehicle prototype surrounding alternatives to fully supervised learning in the DL context (synthetic data\, transfer learning\, reinforcement learning\, etc.). In addition\, we will present our thoughts on the future of research in this field with the purpose of solving the challenging remaining problems.\n\n\nBIO\nLuis M. Bergasa received the MS degree in Electrical Engineering in 1995 from the Technical University of Madrid and the PhD degree in Electrical Engineering in 1999 from the University of Alcalá (UAH)\, Spain. He is Full Professor at the Department of Electronics of the UAH since 2011. From 2000 he had different research and teaching positions at the UAH. He was Head of the Department of Electronics (2004-2010)\, coordinator of the Doctorate program in Electronics (2005-2010) and Director of Knowledge Transfer at the UAH (2014-2018). He is author of more than 280 refereed papers in journals and international conferences. He was recognized as one of the most productive researcher in Intelligent Transportation Systems (ITS) field during the period 1996-2014\, and as a Distinguished Lecturer of the IEEE Vehicular Technology Society (2019-2021). He received the Institutional Lead Award 2019 from the IEEE ITS Society for the longstanding work of his research group. His research activity has been awarded/recognized with 28 prizes/recognitions related to Robotics and Automotive fields from 2004 to nowadays.  He is Associate Editor of the IEEE Transactions on ITS and habitual reviewer in several journals included in the JCR index. He was Guest Editor of two Special Issues (Sensors and IEEE T ITS)\, member of the Editorial Board of International Journal of Vehicular Technology (2012-2017) and he have served on Program/Organizing Committees in more than 20 conferences. He was Research Visitor at the Computer Vision Research Group of the Trinity College in Dublin (Irland) in 1998\, Visiting Scholar at the Toyota Technological Institute at Chicago (USA) in 2013\, and at the OPTIMAL Center Northwestern Polytechnic University (China) in 2017. He was co-founder of Vision Safety Technologies Ltd\, a spin-off company established to commercialize computer vision systems for road infrastructure inspection (2009-2016). His research interests include driver behaviors and scene understanding using Computer Vision and Deep Learning Techniques for autonomous vehicles applications.\n\n\n\n 
URL:https://mastervisionartificial.es/event/beyond-supervised-deep-learning-for-autonomous-driving
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230308T160000
DTEND;TZID=UTC:20230308T180000
DTSTAMP:20260407T082302
CREATED:20230203T122239Z
LAST-MODIFIED:20230203T122427Z
UID:2652-1678291200-1678298400@mastervisionartificial.es
SUMMARY:¿Navegación en un entorno quirúrgico?
DESCRIPTION:PONENTE\nDra. Verónica García Vázquez\n\n\nAFILIACIÓN\nAyudante doctor en el Área Tecnología Electrónica\, Departamento Matemática Aplicada\, Ciencia e Ingeniería de los Materiales y Tecnología Electrónica\, Universidad Rey Juan Carlos. Medical Image Analysis and Biometry Lab\n\n\nRESUMEN\n¿Sabes que en un quirófano se puede navegar igual que hacemos con el móvil en el coche para llegar a nuestro destino? En el caso del quirófano\, el mapa de carreteras sería la información que tenemos sobre la anatomía del paciente (por ejemplo\, imágenes médicas)\, el móvil que localiza donde está el coche correspondería con el sistema de posicionamiento\, el destino sería la región a tratar en ese procedimiento médico\, el coche sería la herramienta que queremos localizar en el paciente (por ejemplo\, un bisturí) y el conductor sería el médico. Este seminario se centrará primero en explicaros cómo funciona un sistema de posicionamiento óptico y electromagnético para luego contaros varias aplicaciones relacionadas con el guiado de procedimientos médicos en el campo de la oncología y de la cirugía endovascular en las que he empleado estas tecnologías junto con el escaneo 3D\, la impresión 3D y la realidad aumentada.\n\n\nBIO\nVerónica García Vázquez trabajó en el Laboratorio de Imagen Médica del Hospital Gregorio Marañón (Madrid) donde inicialmente participó en varias líneas de investigación como planificación quirúrgica de pacientes con disfunciones oculomotoras\, escáneres comerciales PET/TAC para pequeño animal\, y en neuroimagen con imágenes preclínicas y clínicas. A continuación\, se centró en el guiado de tratamientos con sistemas de posicionamiento\, escáneres 3D e impresión 3D. Obtuvo el doctorado en Multimedia y Comunicaciones por la Universidad Carlos III de Madrid con una tesis sobre navegación e imagen intraoperatoria en radioterapia intraoperatoria con electrones. Realizó un postdoc en University of Luebeck (Alemania) donde trabajó en un proyecto para la navegación de procedimientos de reparación aórtica mediante el uso de sistemas de posicionamiento y realidad aumentada. Antes de unirse a la Universidad Rey Juan Carlos como ayudante doctor estuvo trabajando en la empresa GMV Soluciones Globales Internet\, S.A.U en la navegación de tratamientos de radioterapia intraoperatoria con rayos X de bajo voltaje\, proyecto en el que sigue colaborando con GMV y con University Medical Center Mannheim (Alemania).\n\n\n\n 
URL:https://mastervisionartificial.es/event/navegacion-en-un-entorno-quirurgico
LOCATION:Salon de grados del Departamental 1\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230315T160000
DTEND;TZID=UTC:20230315T180000
DTSTAMP:20260407T082302
CREATED:20230203T122722Z
LAST-MODIFIED:20230203T122736Z
UID:2655-1678896000-1678903200@mastervisionartificial.es
SUMMARY:From physical textiles to digital twins
DESCRIPTION:PONENTE\nDra. Elena Garcés García\n\n\nAFILIACIÓN\nHead of AI & Optics at SEDDI\n\n\nRESUMEN\nVirtual design\, online marketplaces\, product lifecycle workflows\, AR/VR\, videogames\, …\, all require lifelike digital representations of real-world materials (i.e.\, digital twins). Acquiring these digital copies is typically a cumbersome and slow process that requires expensive machines and several manual steps\, creating roadblocks for scalability\, repeatability\, and consistency. Among the many industries requiring digital twins of materials\, the fashion industry is in a critical position; facing the demand to digitize hundreds of samples of textiles in short periods\, which cannot be achieved with current technology. In this context\, casual capture systems for optical digitization provide a promising path for scalability. These systems leverage low cost devices (such as smartphones)\, one or more different illuminations\, and learning-based priors to estimate the material’s diffuse and specular reflection lobes. However\, to train a machine learning-based solution\, data is needed\, which is not easy to obtain for textile materials. In this talk\, I will discuss our end-to-end approach to providing a scalable solution to digitize textiles\, including the design of an optical gonioreflectometer (capable of seeing yarns at the fiber level) for dataset creation and our deep learning-based solution that only requires a single image as input.\n\n\nBIO\nElena es doctora en Informática desde 2016 donde se especializó en técnicas avanzadas de procesamiento de imagen y render inverso para captura de apariencia. Actualmente es investigadora en la URJC además de líder del equipo de IA y óptica de la empresa SEDDI\, donde desarrolla métodos de captura de materiales\, y modelado de humanos y ropa virtual.
URL:https://mastervisionartificial.es/event/from-physical-textiles-to-digital-twins
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230322T160000
DTEND;TZID=UTC:20230322T180000
DTSTAMP:20260407T082302
CREATED:20230203T123127Z
LAST-MODIFIED:20230203T123153Z
UID:2658-1679500800-1679508000@mastervisionartificial.es
SUMMARY:Avatares Digitales con Machine Learning
DESCRIPTION:PONENTE\nDr. Dan Casas Guix\n\n\nAFILIACIÓN\nUniversidad Rey Juan Carlos.\n\n\nRESUMEN\nLa digitalización de humanos mediante técnicas basadas en reconstrucción 3D supone un enorme desafío dentro del campos de la Visión Artificial y la Informática Gráfica. Recientemente\, métodos basados en técnicas de Machine Learning han demostrado ser una buena manera de atacar este problema\, y han permitido avanzar el estado del arte tanto para la reconstrucción 3D de humanos desde una sola imagen\, como para el modelado de la deformación 3D de ropa virtual. En esta charla describiré los avances recientes publicados por nuestro grupo de investigación en esta área\, incluyendo varios artículos aceptados en congresos internacionales de gran prestigio como CVPR\, NeurIPS\, y SIGGRAPH\n\n\nBIO\nDan Casas is Assistant Professor at the Universidad Rey Juan Carlos (URJC)\, Spain. Previosuly he was Marie Sklodowska-Curie Fellow (2016-2018) at MSLab of the URJC\, and postdoc (2015-2016) in the Graphics\, Vision and Video group at the Max Planck Institute in Saarbrucken\, Germany\, led by Prof. Christian Theobalt\, and at the Character Animation group of the University of Southern California Institute for Creative Technology\, in Los Angeles\, USA (2014-2015). Dan received his PhD in Computer Graphics in 2014 from the University of Surrey (UK)\, supervised by Prof. Adrian Hilton. Dan’s dissertation introduced novel methods for character animation from multi-camera capture that allow the synthesis of video-realistic interactive 3D characters. During his PhD\, he was also intern at the R&D department of the Oscar Award-winning visual effects company\, Framestore. Previously\, in 2009\, Dan received his M.Sc. degree from the Universitat Autonoma de Barcelona (Spain). In 2008\, during the last year of his M.Sc. studies\, he joined the Human Sensing Lab at Carnegie Mellon University (PA\, USA) as an invited research scholar\, where he investigated methods for real-time face tracking\, advised by Prof. Fernando de la Torre.
URL:https://mastervisionartificial.es/event/2658
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=UTC:20230329T160000
DTEND;TZID=UTC:20230329T180000
DTSTAMP:20260407T082302
CREATED:20230203T123419Z
LAST-MODIFIED:20230203T123645Z
UID:2661-1680105600-1680112800@mastervisionartificial.es
SUMMARY:Visión Artificial con proyección industrial.
DESCRIPTION:PONENTE\nDr. Gonzalo Pajares Martinsanz\n\n\nAFILIACIÓN\nUniversidad Complutense de Madrid\n\n\nRESUMEN\nLa Visión Artificial constituye una herramienta clave en desarrollos inteligentes integrados en distintos sistemas\, donde los vehículos robotizados autónomos son un claro exponente. La industria ha demandado y demanda actualmente soluciones a sus diversos problemas en este sentido\, solicitando perfiles de ingeniería cada vez más especializados. La charla tiene como objetivo principal proporcionar una panorámica general sobre aplicaciones de la Visión Artificial\, siempre inteligente\, para la solución de problemas de naturaleza empresarial\, materializadas a través de los distintos proyectos de investigación que se describen. Se ofrece una doble perspectiva\, de forma que por una parte se presentan soluciones ofrecidas por iniciativa de los grupos de investigación\, siendo la empresa la receptora de estas. Por otra parte\, es la iniciativa empresarial\, en base a su problemática o perspectiva de crecimiento\, quien demanda el desarrollo de sistemas para abordar su problemática.\n\n\nBIO\nGonzalo Pajares es catedrático en el Dpt. de Ingeniería del Software e Inteligencia Artificial en la Universidad Complutense de Madrid. Durante más de 12 años trabajó en varias empresas destacando Inisel\, ENOSA\, Indra en desarrollo de software aplicado y en INTA en Remote Sensing. Su investigación ha girado en torno a la Visión Artificial muy enfocada a desarrollos industriales. Ha sido investigador principal en varios proyectos competitivos de I+D+i internacionales\, incluyendo el programa FP7 de la UE\, y nacionales dentro del Plan Nacional\, en particular de la convocatoria RETOS de la Sociedad con participación empresarial\, destacando CEPSA. También ha sido investigador principal en varios proyectos de transferencia directa en varias empresas. Todos ellos en el ámbito de los vehículos autónomos robotizados en Agricultura de Precisión\, así como en vehículos submarinos y marinos de superficie. Ha publicado más de una centena de artículos en revistas indexadas y varios libros docentes. Entre 2015-2018 fue Adjunto al Coordinador de la Agencia Estatal de Investigación (antes ANEP) en el Área Científica de Transferencia de Tecnología. Desde 2017 figura en la “World’s Top 2% Scientist List” de la Universidad de Stanford. Ha sido y es editor asociado de varias revistas indexadas.
URL:https://mastervisionartificial.es/event/vision-artificial-con-proyeccion-industrial
LOCATION:Salón de grados del Departamental 2\, Campus de Móstoles de la URJC\, Móstoles\, Madrid\, 28933\, España
CATEGORIES:Seminarios
END:VEVENT
END:VCALENDAR