Listado de TFGs en pdf. Puedes descargar la Solicitud de Adjudicación de Trabajo Fin de Grado en la sección de Modelos Gestión Administrativa

CódigoDepartamentoTítuloTutor/esTipologíaPropuesto por alumno (sí/no)
267-167-2024/2025<p>Consideramos una ecuación en derivadas parciales de tipo dispersivo. En particular, nos centraremos en dos modelos clásicos: la ecuación Korteweg–de Vries y la ecuación de Schrödinger. La primera describe la propagación de las olas en aguas poco profundas, mientras que la segunda, entre otras aplicaciones, modela la propagación de paquetes de olas en la teoría de las ondas de agua.</p><p>El objetivo es discutir la existencia de solución y su regularidad en el caso lineal, siguiendo el Capítulo 4 monográfico [LinPon] así como las diferentes aplicaciones al modelo físico.&nbsp;</p><p><i><strong>Metodología:</strong></i></p><p>El trabajo se desarrollará mediante reuniones semanales con el tutor donde se discutirán los progresos, se resolverán dudas y se proveerá del material bibliográfico necesario.&nbsp;</p><p>En los primeros meses el alumno estudiará la introducción matemática al problema de estudio, respecto a los espacios de Sobolev y la transformada de Fourier.&nbsp;</p>ANÁLISIS MATEMÁTICO
267-59-2024/2025<p><strong>Descripci&oacute;n:</strong><br />En Relatividad General, los espaciotiempos de Friedman-Lemaitre-Robertson-Walker, FLRW, son los modelos cosmol&oacute;gicos b&aacute;sicos del Universo en su conjunto, que se construyen a partir de suposiciones globales sobre la estructura del espaciotiempo (modelos de Robertson-Walker Generalizados, GRW) y simplificaciones en su modelizaci&oacute;n local, suponi&eacute;ndose que se comportan como fluidos perfectos. Sin embargo, muchas de sus propiedades globales, notablemente entre ellas la existencia del Big Bang, son casi independientes de estas propiedades locales, ya que dependen solamente de suposiciones d&eacute;biles sobre el tensor impulso-energ&iacute;a.<br />En el presente TFG se estudiar&aacute; la geometr&iacute;a de los espaciotiempos GRW, con especial atenci&oacute;n a sus geod&eacute;sicas y curvatura, y se discutir&aacute; su aplicabilidad como modelos cosmol&oacute;gicos.</p> <p><strong>Metodolog&iacute;a:<br /></strong>1. El estudiante se pondr&aacute; en contacto a la mayor brevedad con el profesor para planificar el TFG, teniendo en cuenta su formaci&oacute;n en Geometr&iacute;a Diferencial.<br />2. El estudiante asistir&aacute; semanalmente a tutor&iacute;a con el profesor para el seguimiento del trabajo.<br />3. El trabajo se presentar&aacute; usando un procesador de textos matem&aacute;ticos (Latex o alguna de sus variantes).<br /><br /></p>GEOMETRÍA Y TOPOLOGÍA
267-49-2024/2025<p><strong>Descripci&oacute;n</strong>: El trabajo consiste en ordenar los elementos matem&aacute;ticos b&aacute;sicos de Geometr&iacute;a Diferencial elemental para describir el embemiento conforme de R. Penrose del Espacio-tiempo de Minkowski 4-dimensional en el espacio tiempo est&aacute;tico de Einstein R&times; 3. De esta manera, se puede introducir una primera definici&oacute;n del infinito conforme del Espacio-tiempo de Minkowski. En particular, se introducir&aacute;n los famosos elementos Scrib+ y Scrib-, e incluso dibujar el famoso esquema romboidal de Penrose.</p> <p><strong>Metodolog&iacute;a</strong>:<br />- Una primera reuni&oacute;n para concretar fechas y facilitar bibliograf&iacute;a.<br />- Compilaci&oacute;n por la estudiante del material necesario en una memoria, escrita en LaTeX<br />- Reuniones peri&oacute;dicas para resolver dudas y comprobar los progresos.</p>GEOMETRÍA Y TOPOLOGÍA
267-80-2024/2025<p lang="es-ES" class="western" style="line-height: 100%; orphans: 0; widows: 0; margin-bottom: 0cm;"><span style="font-size: small;">El estudio de dispersi&oacute;n el&aacute;stica de neutrinos/antineutrinos con el nucle&oacute;n es fundamental para construir los modelos de interacci&oacute;n de neutrinos con n&uacute;cleos que se emplean en el an&aacute;lisis de los experimentos de oscilaci&oacute;n de neutrinos con aceleradores. En la reacci&oacute;n cuasi-el&aacute;stica con cambio de carga el neutrino se transforma en un lept&oacute;n cargado, que se detecta en los experimentos. La dependencia de la secci&oacute;n eficaz con la cinem&aacute;tica del neutrino y del lept&oacute;n cargado, as&iacute; como la polarizaci&oacute;n del estado final, proporcionan test de los factores de forma hadr&oacute;nicos vector y axial, de las corrientes de segunda clase y de la invariancia SU(3) [1].</span></p> <p lang="es-ES" class="western" style="line-height: 100%; orphans: 0; widows: 0; margin-bottom: 0cm;"><span style="font-size: small;">En este trabajo se pretende que el estudiante entienda la estructura vector-axial de la interacci&oacute;n d&eacute;bil tanto a nivel lept&oacute;nico como nucle&oacute;nico, cuya estructura es m&aacute;s compleja debido a que los nucleones no son part&iacute;culas elementales. Calcular&aacute; anal&iacute;ticamente la secci&oacute;n eficaz diferencial d</span><span style="font-family: Symbol, serif;"><span style="font-size: small;">s</span></span><span style="font-size: small;">/dQ</span><sup><span style="font-size: small;">2</span></sup><span style="font-size: small;"> tanto con neutrinos como con antineutrinos. Finalmente, se integrar&aacute; num&eacute;ricamente sobre el momento transferido Q</span><sup><span style="font-size: small;">2</span></sup><span style="font-size: small;"> para obtener la secci&oacute;n eficaz total de neutrinos/antineutrinos.</span></p>FÍSICA ATÓMICA, MOLECULAR Y NUCLEAR
267-88-2024/2025<p>La pr&aacute;ctica a elaborar se puede incorporar a la asignatura de Electromagnetismo (3&ordm;) o a la de Electrodin&aacute;mica Cl&aacute;sica (4&ordm;). Se trata del estudio num&eacute;rico y experimental de la propagaci&oacute;n de un pulso electromagn&eacute;tico en una l&iacute;nea de transmisi&oacute;n. El montaje experimental est&aacute; constituido por un generador de pulsos, un cable coaxial (tipo cable de antena), diferentes cargas resistivas y capacitivas y un osciloscopio digital. Se puede medir la velocidad de propagaci&oacute;n y la constante de atenuaci&oacute;n.&nbsp;</p> <p>El fundamento te&oacute;rico es la propagaci&oacute;n de ondas planas por un medio disipativo y dispersivo e incluye el concepto de coeficiente de reflexi&oacute;n en la transici&oacute;n l&iacute;nea-carga y el concepto de adaptaci&oacute;n en la transici&oacute;n l&iacute;nea-generador.</p> <p>El estudio num&eacute;rico se aplica a la respuesta del condensador como impedancia de carga. Se hace de dos formas: i) aplicando el m&eacute;todo num&eacute;rico &lsquo;Transmission Line Modeling&rsquo;, que permite obtener, directamente en el Dominio del Tiempo, el voltaje reflejado a partir del voltaje incidente (para ello habr&aacute; que muestrear el pulso incidente con el osciloscopio digital); ii) aplicando DFT y trabajando en el Dominio de la Frecuencia obtener el voltaje reflejado mediante la impedancia del condensador para cada frecuencia del espectro del pulso incidente. Esta parte se desarrollar&aacute; con herramientas de Python y entorno de Jupyter-Lab.</p> <p>La pr&aacute;ctica est&aacute; implementada en el laboratorio de Transmisi&oacute;n de Ondas del grado de Ingenier&iacute;a de Tecnolog&iacute;as de Telecomunicaci&oacute;n y tambi&eacute;n en el de Circuitos El&eacute;ctricos, en el grado de F&iacute;sica, como experiencia de c&aacute;tedra. El montaje experimental seguir&iacute;a el mismo esquema. Mientras que actualmente el an&aacute;lisis del transitorio producido por cargas capacitivas es cualitativo, en este TFG se pretende hacer cuantitativo incorporando las herramientas num&eacute;ricas del m&eacute;todo TLM y del an&aacute;lisis mediante la DFT. Para esta &uacute;ltima herramienta se utilizar&aacute; el material desarrollado en el TFG &ldquo;Dualidad Tiempo-Frecuencia en el estudio del circuito RC&rdquo; realizado en el curso 23-24.&nbsp;</p>ELECTROMAGNETISMO Y FÍSICA DE LA MATERIA
267-129-2024/2025<p>Resumen:&nbsp;</p> <p>A pesar de la progresiva mejora y densificaci&oacute;n de las redes s&iacute;smicas, la estimaci&oacute;n de&nbsp;profundidades hipocentrales sigue siendo dif&iacute;cil en zonas con ausencia de estaciones locales. Esto incluye las zonas&nbsp;oce&aacute;nicas. Para terremotos grandes, se puede subsanar la falta de registros locales usando ondas reflejadas en la superficie&nbsp;encima del terremoto, distinguibles en registros teles&iacute;smicos (a gran distancia). El retraso entre las ondas directas y&nbsp;reflejadas es altamente sensible a la profundidad (ej. Engdahl et al., 1998). En este trabajo se pretende aplicar esa t&eacute;cnica a&nbsp;terremotos de magnitud peque&ntilde;a y moderada (M &lt; 5.5), usando datos de array, que son agrupaciones de sensores a poca&nbsp;distancia que permiten mejorar la raz&oacute;n se&ntilde;al-ruido, y as&iacute; analizar registros menos energ&eacute;ticos. Se pretende aplicar el&nbsp;an&aacute;lisis a terremotos del Oc&eacute;ano Atl&aacute;ntico frente a la Pen&iacute;nsula Ib&eacute;rica, donde terremotos hasta ~50 km se han encontrado&nbsp;en lit&oacute;sfera oce&aacute;nica antigua. Se evaluar&aacute; especialmente la idoneidad de los arrays NORSAR (Noruega) y Gr&auml;fenberg&nbsp;(Alemania), por su largo periodo de operaci&oacute;n, que permitir&iacute;an analizar un cat&aacute;logo extenso de terremotos.</p> <p>Metodolog&iacute;a:</p> <p>Se usa un apilamento de registros de array, corregidos por la direcci&oacute;n de procedencia de las ondas, para&nbsp;mejorar la se&ntilde;al de la P directa y fases de profundidad (Büyükakpinar et al., 2021, Jamalreyhani et al., 2021). Se realiza un&nbsp;modelado de ondas para diferentes profundidades, para buscar el mejor ajuste. Se introducen modelos diferentes para las&nbsp;estructuras terrestre en el lado de la fuente y receptor (Wang, 1999), por las diferencias entre corteza oce&aacute;nica y continental&nbsp;y la presencia de la capa de agua, introduciendo ondas pwP (reflexi&oacute;n de la onda de presi&oacute;n en la superficie del oc&eacute;ano).</p>FÍSICA TEÓRICA Y DEL COSMOS
267-53-2024/2025<p>Los estudios del balance de energía en la superficie terrestre sufren una incapacidad de demostrar conformidad con la conservación de energía. Estos suelen suponer que el flujo de calor al suelo sucede puramente por conducción molecular. Sin embargo, estudios realizados por investigadores de la UGR de flujos de CO2 en ecosistemas, han demostrado que el viento es capaz de penetrar en los poros de los suelos secos y ventilar el subsuelo, produciendo flujos importantes de CO2 (ejm, Moya et al., 2022). Como esto hace pensar que la transferencia no-conductiva de energía también puede ser relevante, investigadores de la UGR han instalado en suelos de Cabo de Gata sensores para el seguimiento térmico en diferentes profundidades, en un ecosistema donde también miden concentraciones de CO2 en el suelo y flujos turbulentos de CO2 y de energía en la capa límite atmosférica.&nbsp;</p><p>Se trabajará con una base de datos de flujos, tanto de CO2 y H2O como energéticos (calor sensible y latente) en la turbulencia atmosférica, y los cuatro componentes de la radiación neta (onda larga incidente y emitida, onda corta incidente y reflejada). Se relacionarán con otros variables atmosféricos como la presión y la velocidad de fricción (intensidad de la turbulencia), así como variables edáficas incluyendo la humedad del suelo, su concentración de CO2 y de radón, y la temperatura en perfil, y los flujos de calor medidos por placas de conducción.&nbsp;</p><p>&nbsp;</p>FÍSICA APLICADA
267-54-2024/2025<p>Se analiza el modelo matemático de un arco y de una cúpula donde las únicas fuerzas que actúan son las fuerzas de compresión. Los centros de gravedad en dichos modelos se encuentran en la posición más baja posible. Se derivará mediante cálculo de variaciones las ecuaciones de Euler-Lagrange y las propiedades más elementales. Se analizará los centros de gravedad entre los modelos y otras superficies candidatas en el caso de cúpulas de formas rotacionales, como son paraboloides y superficies catenarias de revolución.</p>GEOMETRÍA Y TOPOLOGÍA
267-27-2024/2025<p>En este TFG estudiaremos de manera teórica y empírica la computación cuántica en dispositivos superconductores. Para ello, el alumno aprenderá las bases teóricas de estos dispositivos, así como sus fundamentos prácticos. Se familiarizará con el uso de herramientas python para su control y realizará simulaciones numéricas en dispositivos clásicos. Finalmente, se ejecutará el algoritmo de Deutsch-Jozsa en un dispositivo real como el que nos proporciona el Barcelona Supercomputing Center.&nbsp;</p><p>&nbsp;</p><p>Métodos:&nbsp;</p><p>- Revisión bibliográfica.&nbsp;</p><p>- Programación en Python.</p>ELECTROMAGNETISMO Y FÍSICA DE LA MATERIA
267-58-2024/2025<p>En este TFG estudiaremos de manera teórica y empírica la presencia de entrelazamiento en ordenadores cuánticos superconductores. Para ello, el alumno aprenderá las bases teóricas de estos dispositivos, así como sus fundamentos práctico, se familiarizará con el uso de herramientas python para su control y realizará simulaciones numéricas en dispositivos clásicos. Finalmente, se crearán estados máximamente entrelazados entre los distintos qubits que forman el dispositivo. El entrelazamiento se comprobará mediante la violación de desigualdades de Bell de estos qubits.&nbsp;</p><p>&nbsp;</p><p>Métodos:&nbsp;</p><p>- Revisión bibliográfica.&nbsp;</p><p>- Programación en Python.</p>ELECTROMAGNETISMO Y FÍSICA DE LA MATERIA
267-21-2024/2025<p><strong>Introducción y resumen:</strong></p><p>La física de neutrinos de la próxima década estará liderada por el futuro experimentos de neutrinos DUNE.&nbsp;Este experimento estudiará interacciones de un haz de neutrinos producido en el acelerador de Fermilab (EE.UU). Los neutrinos serán medidos dos veces: primero, muy cerca de la fuente, con un detector cercano y después, con un detector lejano, tras un viaje de 1300 km.</p><p>El detector lejano de DUNE estará compuesto de 4 módulos que se basarán en la tecnología criogénica de las cámaras de proyección temporal con argón líquido. En estás cámaras, cuando una partícula interacciona y deposita energía ocurren dos cosas: i) algunos átomos se ionizan y producen electrones libres (señal de carga). ii) Otros átomos simplemente se excitan y al desexitarse emiten fotones (señal de luz o centelleo) en el rango del ultravioleta en el vacío, 128nm. En DUNE se usarán modernos sensores de silicio, denominados SiPMs, para detectar esta señal de luz. Estos nuevos sensores&nbsp;han mostrado ser una alternativa óptima a la tecnología tradicional (PMTs) alcanzando una excelente resolución a sucesos de un solo fotón. Otras características muy ventajosas son su reducido tamaño (~mm2), su precio económico y su pureza.</p><p>Los SiPMs que se instalarán en los primeros dos módulos de DUNE son sensibles a luz en el rango visible (~400 nm). Por ello, para detectar los fotones de 128 nm que emite el argón hay que utilizar una serie de filtros que desplazan esta longitud de onda. Esto se traduce en una eficiencia global de detección de fotones de ~3%. Este valor es suficiente para alcanzar los primeros objetivos de DUNE. Sin embargo, de cara a mejorar las prestaciones del detector con los módulos futuros se ha decidido que los módulos 3 y 4 deben llevar sensores de luz que sean sensibles al rango ultravioleta en el vacío.&nbsp;</p><p>Es por ello que el objetivo de este proyecto sea caracterizar uno de los nuevos SiPMs desarrollados por la empresa japonesa Hamamatsu para detección de longitudes de onda por debajo de los 200 nm. En particular estudiaremos el modelo S13370-6075CN y evaluaremos su idoneidad para ser instalado en DUNE. A lo largo del trabajo se determinará la ganancia, el voltaje de ruptura y las curvas de intensidad y voltaje, así como las cuentas oscuras y el ruido correlacionado. Las medidas se harán tanto a temperatura ambiente como a temperatura criogénica. En el supuesto de que los primeros resultados sean prometedores, pasaremos a una segunda fase de caracterización que incluye iluminación con una fuente ultravioleta. Para esta parte habrá que poner en funcionamiento y pulsar una lámpara de xenon.</p><p><strong>Metodología:</strong></p><p>Para la realización de este proyecto se trabajará en el laboratorio de criogenia del Dpto. de Física Teórica y del Cosmos (situado en el Polígono Tecnológico de los Ogíjares), el cual cuenta con personal de apoyo cualificado para tareas de electrónica y un suministro regular de nitrógeno líquido.&nbsp;</p><p>En la primera fase del proyecto será necesario estudiar los fundamentos teóricos sobre el funcionamiento de los fotosensores de silicio. Tras esto, se pasará a una siguiente fase de trabajo práctico en el laboratorio en el que primeramente será necesario familiarizarse con el correcto uso del instrumental que se encuentra en el mismo.</p><p>El SiPM modelo S13370-6075CN se encuentra disponible en el laboratorio. Para la puesta en funcionamiento de los SiPMs se deberá establecer un pequeño montaje experimental que contará con una fuente de alimentación, un generador de ondas y un osciloscopio. Para las pruebas se usará un soporte en el que se encontrará la electrónica y que también podrá sumergirse en nitrógeno líquido. El SiPM se hará funcionar tanto expuesto a una fuente de luz como en condiciones de extrema oscuridad. Además, para el estudio del comportamiento de dichos sensores a temperaturas criogénicas se sumergirán los mismos en un Dewar lleno con nitrógeno líquido. Los datos adquiridos y las señales registradas durante el transcurso de este proyecto deberán analizarse usando códigos en C++ o Python. Los datos se estudiarán para evaluar la idoneidad del dispositivo para el experimento DUNE en función de su resistividad a la temperatura criogénica y su ruido intrínseco.</p>FÍSICA TEÓRICA Y DEL COSMOS
267-5-2024/2025<p>Las oscilaciones cerebrales han estado asociadas con la enfermedad de Parkinson durante mucho tiempo, debido a la naturaleza oscilatoria del temblor característico de la enfermedad. Con el paso de los años, esta asociación se ha extendido a frecuencias distintas que las del temblor, hasta el punto de que la enfermedad también se conoce como "oscilopatía”. En este trabajo de TFG se propone de estudiar las diferencias entre la propagación de patrones espaciotemporales de actividad neuronal en sujetos con Parkinson y las de sujetos de control.</p><p>Como primer paso, el estudiante aprenderá a simular en el ordenador una red de neuronas acopladas entre sí de manera estocástica, así como a identificar sus posibles regímenes dinámicos. Como segundo paso, el estudiante aprenderá a medir la covarianza con delay de las señales de actividad de las neuronas, y usar esta herramienta para el análisis de los patrones espacio-temporales de actividad neuronal en el modelo. Como tercer paso, el estudiante trabajará con un database publico de datos de Magnetoencefalografía (MEG) en sujetos saludables y con Parkinson y aplicará la herramienta desarrollada para analizar las diferencias entre los dos grupos. Además el estudiante aprenderá a redactar un texto de carácter científico, y a presentar sus resultados con precisión, claridad y consistencia.</p>ELECTROMAGNETISMO Y FÍSICA DE LA MATERIA
267-164-2024/2025<p><strong>Introducción y resumen:</strong></p><p>DUNE es el experimento de oscilaciones de neutrinos de la próxima generación. Su construcción empezará en 2025 y el plan es que tenga dos detectores: uno cercano a la fuente de producción de neutrinos (Fermilab) y otro lejano, que detectará los neutrinos tras un viaje de 1300 km. El detector lejano de DUNE estará compuesto de 4 módulos que se basarán en la tecnología criogénica de las cámaras de proyección temporal con argón líquido. En estás cámaras, cuando una partícula interacciona y deposita energía ocurren dos cosas: i) algunos átomos se ionizan y liberan electrones (señal de carga). ii) Otros átomos simplemente se excitan y al desexitarse emiten fotones (señal de luz o centelleo). Esta señal de luz es crucial en el detector para determinar el tiempo de las interacciones.</p><p>El grupo de neutrinos de la Universidad de Granada es miembro de la colaboración DUNE y está encargado de la compra y caracterización de los 300.000 fotomultiplicadores de silicio (SiPMs)&nbsp;que se instalarán en el primer módulo de DUNE para detectar la señal de luz.&nbsp;150.000 SiPMs&nbsp;han sido producidos por la empresa Hamamatsu y los restantes por FBK. Para garantizar que todos los SiPMs que se han producido están en perfectas condiciones y cumplen&nbsp;los requisitos que demanda el experimento DUNE, es necesario verificar uno a uno sus características. El grupo de Granada, como responsable de la compra de los SiPMs, tiene un papel de liderazgo en esta caracterización: opera una instalación criogénica diseñada por la colaboración DUNE para validar de forma masiva todos estos SiMPs antes de su instalación definitiva en el experimento. Esta instalación criogénica se llama CACTUS (Cryogenic Apparatus for Control Tests Upon SiPMs)&nbsp;y se encuentra en nuestro laboratorio de física de partículas en Granada. Con CACTUS es posible caracterizar 120 SiPMs al día, a los cuales se les mide tanto a temperatura ambiente como criogénica el voltaje de ruptura, la resistencia de extinción y el ruido no correlacionado. CACTUS-Granada empezó a tomar datos a finales de 2023 y se espera que esté en funcionamiento durante los próximos dos años.&nbsp;</p><p>El objetivo de este trabajo es analizar un mes de los datos tomados por la instalación CACTUS-Granada. Un mes de toma de datos se corresponde que la caracterización de 2400 SiPMs. Los resultados asociados a la caracterización de dichos SiPMs habrá que compararlos con las especificaciones del fabricante y evaluar si los valores se encuentran dentro de los rangos que admite como válidos el experimento DUNE. Aunque la toma de datos con CACTUS está automatizada, existe la posibilidad de participar de forma activa en la toma de datos asumiendo turnos de vigilancia junto con el personal técnico del laboratorio.</p><p><strong>Metodología:</strong></p><p>Durante primera fase de este proyecto será necesario estudiar los fundamentos teóricos del funcionamiento de los fotosensores de silicio. Además, habrá que comprender qué uso tendrán estos sensores en el contexto del experimento de neutrinos DUNE y saber identificar qué parámetros son indicativos del buen comportamiento de un SiPM y cuales definen su idoneidad para ser usados en DUNE. Aunque no es imprescindible, para saber cuáles son los datos que toma la instalación criogénica CACTUS y en qué etapas, se recomienda estar presente varios días en la toma de datos y ver como se guardan y almacenan los datos.&nbsp;</p><p>Una vez que se tengan todos los datos de caracterización de los 2400 SiPMs correspondientes a un mes, habrá que:</p><ul><li>Para un sensor individual tomar las curvas I-V, tanto en polarización directa como en polarización inversa, para ilustrar y explicar el método de cálculo del voltaje de ruptura y la resistencia de extinción. Esto se hará para los datos tomados a temperatura ambiente y a temperatura criogénica.</li><li>Procesar los datos de los 2400 SiPMs usando la herramienta ROOT y presentar los datos de voltaje de ruptura y resistencia de extinción para los casos de temperatura ambiente, primer y tercer ciclo térmico. Comparar resultados entre diferentes SiPMs, entre las diferentes situaciones y con los datos proporcionados por el fabricante.</li><li>Procesar los datos de los 2400 SiPMs usando la herramienta ROOT y presentar los datos de cuentas oscuras tomadas durante una ventana de 120s. Presentar los resultados en forma de histograma y ver si se ajustan a los requisitos marcados por la colaboración DUNE. Estudiar eventos outliers y encontrarles una posible explicación.</li><li>Tras es el estudio y comparación de resultados, decidir cuantos de los 2400 SiPMs son válidos para ser instalados en el experimento DUNE y cuantos tienen que ser descartados.</li></ul>FÍSICA TEÓRICA Y DEL COSMOS
267-122-2024/2025<p>El estudio de los neutrinos procedentes del colapso del núcleo de una supernova puede utilizarse para investigar una gran variedad de temas relacionados con los neutrinos, la astrofísica estelar y las teorías más allá del Modelo Estándar [1, 2]. Muchos de los detectores presentes y futuros diseñados para hacer Física de Neutrinos utilizan la tecnología de cámaras de proyección temporal de Argón líquido (LArTPCs) [3, 4]. En estos detectores se usa tanto la carga de ionización como la luz de centelleo para reconstruir imágenes (casi fotográficas) de las interacciones de las partículas. Sin embargo, no fueron diseñados para estudiar sucesos de tan baja energía.<br><br> El argón líquido es particularmente sensible a la interacción de corriente cargada de neutrinos del electrón, que produce un electrón con una energía que llega a varias decenas de MeV, y posiblemente productos de desexcitación nuclear. Para poder reconstruir estos sucesos con deposiciones de energía tan pequeñas se necesitan detectores de alta resolución. Además, estas pequeñas señales pueden ser vulnerables al fondo radiactivo y cosmogénico que también produce sucesos de baja energía de manera mucho más copiosa. Una caracterización eficiente de señal y fondo en este tipo de sucesos requiere el desarrollo de herramientas de análisis precisas, en donde una detección homogénea y abundante de luz de centelleo puede jugar un papel fundamental.<br><br> En este trabajo se pretende estudiar la sensibilidad de la tecnología LArTPCs para detectar y caracterizar sucesos de baja energía. En particular se usará el caso concreto del detector SBND (Short Baseline Near Detector) [5], que tiene el sistema de detección de luz más avanzado jamás construido en un detector de neutrinos.<br><br> </p> <p>Metodología:<br> Motivación (bibliográfica):<br> - Neutrinos de Supernova.<br> - Detectores LArTPC.<br> - Interacciones de baja energía y secciones eficaces de neutrinos.<br> - Fondo radiactivo y cosmogénico.<br> Datos de simulaciones:<br> - Uso de datos procedentes del paquete de simulación LArSoft [7].<br> - Sucesos de neutrinos de supernova en SBND junto con las principales señales de fondo (ruido).<br> Análisis<br> - Caracterizar los sucesos de baja energía en detectores LArTPC y diseñar cortes para la separación entre señal y fondo.</p>FÍSICA TEÓRICA Y DEL COSMOS
267-159-2024/2025<p><i><strong>Breve descripción del trabajo:</strong></i></p><p><i>Por un lado, los materiales conductores (normalmente metales) presentan propiedades ópticas únicas, y comprender su comportamiento en relación con la transmisión de la luz es fundamental para diversos campos, como la óptica, la nanotecnología y la fotónica. En la asignatura “Óptica I” de tercer curso se estudian los medios conductores a través de un modelo matemático que utiliza un índice de refracción complejo.</i></p><p><i>Por otro lado, el modelo electromagnético de propagación de la luz permite calcular los factores de reflexión y transmisión, para la componente paralela y perpendicular al plano de incidencia, en una interfase entre dos medios.</i></p><p><i>Por la dificultad que conlleva, en la literatura no se aborda el cálculo de los factores de transmisión al caso de una interfase entre un medio dieléctrico y un medio conductor.</i></p><p><i><strong>Metodología:</strong></i></p><p><i>Se realizará una revisión bibliográfica para ver y comparar cómo han tratado el tema diferentes autores. También para compilar aplicaciones experimentales del estudio de la transmisión de la luz en los medios metálicos.</i></p><p><i>Con la información recabada y los conocimientos adquiridos en la asignatura Óptica I, se tratará el fenómeno de la refracción en una interfase entre un medio dieléctrico y un medio conductor, proponiendo un método de cálculo para los factores de transmisión de la componente paralela y perpendicular a la interfase.</i></p><p><i>Con los factores de transmisión desarrollados y los factores de reflexión conocidos y la absorción de la luz en los medios conductores, se tratará el principio de conservación de la energía.</i></p>ÓPTICA
267-87-2024/2025<p><i><strong>Breve descripción del trabajo:</strong></i></p><p><i>&nbsp;</i></p><p>El objetivo de este TFG se centra en alcanzar una mejor comprensión de la física que hay detrás de los fluidos y de las complejas ecuaciones que rigen su comportamiento: continuidad, Navier-Stokes, difusión, etc.</p><p>Se plantearán los fundamentos teóricos involucrados en dichos sistemas, para, a continuación, proceder a una somera descripción de los métodos numéricos más habituales en lo que se conoce como dinámica de fluidos computacional (CFD). Tras este breve repaso, el estudiante abordará con mayor profundidad uno de los métodos (diferencias finitas o volúmenes finitos ,…) con el objetivo de generar un programa de ordenador propio con el que abordar diferentes situaciones prácticas sencillas. Se analizará la física involucrada en dichas soluciones y se comparará la calidad y alcance de dichas soluciones con modelados alternativos obtenidos con algún software comercial.</p><p>Tras esta aportación numérica generada por el código del estudiante, se procederá a ampliar las aplicaciones a situaciones más complejas, ya haciendo uso de software comercial. Los casos a tratar se dejan a elección del estudiante de acuerdo con sus preferencias (aerodinámica, transferencia de calor, convección forzada, turbulencias, …) y posibilidades que ofrezca el software elegido.</p><p>&nbsp;</p><p><i><strong>Metodología:</strong></i></p><p>&nbsp;</p><p>Se realizará un estudio de los aspectos teóricos de la física de fluidos y los numéricos centrados en la CFD.&nbsp; Asimilado el esquema general del trabajo inicial de revisión bibliográfica, se planteará una cierta profundización en alguno de los aspectos presentados, principalmente en el método numérico que implementará el estudiante.</p><p>&nbsp;Se estructurará el trabajo de forma que se inicie con los conceptos de fluidos tratados en el grado, de carácter relativamente general, añadiendo los detalles de interés en los problemas canónicos de CFD.</p><p>El estudiante desarrollará un código de ordenador con el que resolverá algunas situaciones sencillas. Estudiará la física involucrada en esos ejemples y comparará los resultados con simulaciones alternativas llevadas a cabo con un software comercial.</p><p>&nbsp;Posteriormente, se estudiarán situaciones más complejas, modeladas ya con el código comercial, eligiendo los ejemplos de manera que tengan una cierta continuidad de contenido y de la que se extraigan conclusiones adecuadas.</p>FÍSICA APLICADA
267-127-2024/2025<p>El trabajo a realizar por el estudiante &nbsp;consistirá en estudiar el PIC (PLATO Input Catalogue) en el que se encuentran todos los objetos que serán observados por la misión espacial PLATO, Esta misión &nbsp;(lanzamiento previsto en 2026) &nbsp;buscará &nbsp;planetas extrasolares para su caracterización precisa. Para ello observará alrededor de un millón de estrellas y analizará sus variaciones en busca de tránsitos planetarios. Pero además de éstos, será capaz de detectar las variaciones debido a las pulsaciones propias de las estrellas y, gracias a la astrosismología, determinar de manera precisa la estructura interna y propiedades globales como masa, radio y edad tanto del planeta como de la estrella anfitriona. Aunque los objetivos principales de la misión son las estrellas como nuestro Sol, PLATO observará estrellas de todo tipo espectral, dentro de las cuales, se encuentran las estrellas brillantes de tipo A-F, especialmente interesantes para el estudio de la estructura y evolución estelar.</p><p>El estudiante aprenderá las nociones básicas de estructura interna y evolución estelar, las características principales de las estrellas A-F, y dentro de estas las principales particularidades de las estrellas pulsantes como gamma Doradus y delta Scuti. &nbsp;Aprenderá a manejar catálogos y extraer información cruzada de ellos, como los catálgos de PLATO (PIC) o Gaia, usando software específico como TOPCAT. Además, aprenderá la importancia de la astrosismología en la caracterización de sistemas planetarios y los principales objetivos de la misión PLATO.</p><p>El resultado de este TFG, además, será de gran utilidad, ya que el estudiante establecerá una primera muestra de estrellas ordenadas por grado de interés astrosismológico para su estudio con los datos del satélite PLATO.<br>&nbsp;</p>FÍSICA TEÓRICA Y DEL COSMOS
267-1-2024/2025<p>La discriminación de estados cuánticos es una tarea fundamental tanto en la comunicación cuántica como en la computación cuántica. Dado un sistema cuántico que se sabe que está preparado en uno de los N estados posibles, el objetivo es identificar el estado del sistema cuántico con el mayor grado de confianza posible. Para los estados que pertenecen a un espacio de Hilbert de dimensión finita, la solución óptima la proporcionaron Helstrom (para el caso N=2) y Holevo (para N arbitrario), quienes derivaron tanto la probabilidad óptima de identificar con éxito el estado como las mediciones cuánticas que es necesario realizar. Para el caso más general, el problema puede plantearse como un programa semidefinido que puede resolverse eficientemente y, en los casos en que los estados en cuestión tienen cierta simetría, incluso son posibles soluciones analíticas.</p><p>En la práctica, sin embargo, existen varias limitaciones que nos impiden alcanzar los valores teóricos óptimos para esta tarea. Por un lado, las implementaciones experimentales están plagadas de todo tipo de ruido, tanto en la etapa de preparación estatal como en la etapa de medición. Otro obstáculo es la limitación de los tipos de operaciones que se pueden realizar. Dependiendo de la arquitectura del dispositivo cuántico (fotónica, atómica o superconductora), no se pueden implementar todas las estrategias de medición posibles.</p><p>Recientemente ha entrado en funcionamiento un dispositivo de computación cuántica superconductor de cinco qubits en el Centro de Supercomputación de Barcelona (BSC). El grupo de Termodinámica y Computación Cuántica de la Universidad de Granda es uno de los 12 grupos de investigación en España que tienen acceso directo a este dispositivo con el fin de probar y comparar sus capacidades. En este proyecto implementaremos el escenario de discriminación de estados cuánticos más simple imaginable (discriminar entre dos estados cuánticos) en la computadora cuántica del BSC. En concreto, abordaremos las capacidades de preparación y medición del estado de este dispositivo entre todos los pares posibles de qubits y estudiaremos cómo el ruido del dispositivo afecta su rendimiento en esta sencilla tarea de discriminación cuántica.</p>ELECTROMAGNETISMO Y FÍSICA DE LA MATERIA
267-22-2024/2025<p>Se teoriza que los dispositivos informáticos que utilizan fenómenos cuánticos, como el entrelazamiento y la coherencia, son capaces de resolver problemas que están mucho más allá del alcance de cualquier dispositivo informático clásico. Sin embargo, a diferencia de las computadoras clásicas, la ampliación de los dispositivos de computación cuántica no es nada trivial. La computación cuántica se encuentra actualmente en su infancia y varias empresas (como Google, IBM, Fujitsu y otras) producen dispositivos ruidosos de escala intermedia cuántica (NISQ) basados en diversas arquitecturas (fotones, átomos o circuitos superconductores). Si bien son demasiado pequeños para implementar grandes cálculos, todavía hay muchas esperanzas de que dichos dispositivos NISQ puedan abordar los problemas de manera más rápida y eficiente que las supercomputadoras clásicas.</p><p>Un problema importante en todos estos dispositivos NISQ es el ruido. Operaciones como la preparación del estado, las puertas y las mediciones nunca son perfectas. Lo que es aún peor es que las características de ruido de los dispositivos NISQ varían de una puerta a otra y de un qubit a otro, lo que hace extremadamente difícil diseñar algoritmos de manera eficiente. Recientemente ha entrado en funcionamiento un dispositivo de computación cuántica superconductor de cinco qubits en el Centro de Supercomputación de Barcelona. El grupo de Termodinámica y Computación Cuántica de la Universidad de Granda es uno de los 12 grupos de investigación en España que tienen acceso directo a este dispositivo con el fin de probar y comparar sus capacidades.</p><p>Este proyecto trata de caracterizar y comparar el ruido del dispositivo de computación cuántica del BSC. Específicamente, implementaremos experimentos cuidadosamente diseñados en el dispositivo cuántico BSC, recopilaremos datos y ajustaremos los modelos de ruido apropiados. La idea es muy simple. Prepararemos un estado cuántico simple y lo someteremos a una serie de puertas que implementan la identidad. Luego realizaremos una tomografía de estado cuántico en el estado de salida y usaremos los datos para ajustarnos al mejor modelo de ruido. Haremos esto utilizando circuitos que incluyan puertas de un solo qubit, de dos qubit o de uno y dos qubits. Finalmente también estudiaremos cómo cambia el ruido con la longitud y/o anchura de un circuito cuántico.</p>ELECTROMAGNETISMO Y FÍSICA DE LA MATERIA
267-64-2024/2025<p><i>A consecuencia del cambio climático se espera que gran parte de la Península Ibérica (PI) sufra aumentos de temperatura y reducciones de precipitación con el consiguiente aumento en la frecuencia y/o duración de los eventos de sequía extrema. Dentro de las medidas de adaptación a estos cambios está la búsqueda de alternativas para suplir la escasez de agua en esta región haciéndose esencial la evaluación del contenido de vapor de agua atmosférico como potencial fuente de recurso tras su condensación.</i></p><p><i>El grupo de Física de la Atmósfera (GFAT) de la Universidad de Granada tiene entre sus objetivos la obtención de proyecciones de cambio climático en la región de la PI. Para ello, una de las metodologías utilizadas es la aplicación de la técnica de regionalización dinámica, o downscaling dinámico, que usa modelos climáticos regionales (RCMs) anidados a las salidas de modelos de circulación general (GCMs) con el objetivo de aumentar la resolución espacial de las simulaciones climáticas. En este contexto el GFAT tiene una amplia experiencia en la implementación de RCMs como el modelo WRF y el RegCM los cuales han sido usados para diferentes tipos de experimentos dentro del grupo.</i></p><p>&nbsp;</p>FÍSICA APLICADA
267-20-2024/2025<p>El impacto de las partículas de aerosol atmosférico en el cambio climático está directamente relacionado tanto con sus propiedades ópticas y microfísicas como con su distribución espacio-temporal (Myhre et al., 2013). Sin embargo, aún existen grandes incertidumbres asociadas a sus efectos radiativos directos e indirectos, debido principalmente al cambio en las propiedades de las partículas de aerosol durante el transporte, a la caracterización incompleta de mezclas complejas y a la falta de información sobre los mecanismos de interacción nube-aerosol (Stevens, 2015). En las últimas décadas se ha realizado un gran esfuerzo para evaluar el efecto de las partículas de aerosol a lo largo de la cuenca mediterránea, centrándose en la distribución vertical de las partículas mediante el uso de sistemas lidar avanzados pertenecientes a EARLINET (European Aerosol Research Lidar NETwork; Pappalardo et al., 2014). Así, se han realizado diversos trabajos relacionados con el estudio de las propiedades ópticas y microfísicas del polvo mineral (e.g. Bravo-Aranda et al., 2015; Granados-Muñoz et al., 2016; Guerrero-Rascado et al., 2009) y su impacto en el forzamiento radiativo (e.g. Valenzuela et al., 2017), así como partículas de quema de biomasa (e.g. Alados-Arboledas et al., 2011) y partículas volcánicas (e.g. Navas-Guzmán et al., 2013). Estudios recientes muestran un aumento de la frecuencia de las intrusiones saharianas sobre Europa en comparación con los registros a largo plazo (Salvador et al., 2022).<br>En el estudio se emplearán las señales lidar obtenidas a partir del sistema lidar ALHAMBRA (3beta+2alfa+2delta+1w+1f) operado regularmente en el Instituto Interuniversitario de Investigación del Sistema Tierra en Andalucía (IISTA-CEAMA) en el marco de la red EARLINET (https://www.earlinet.org/) de ACTRIS (https://www.Actris.eu/). Además, el alumno contribuirá a realizar medidas comprometidas con la red y para el desarrollo específico de este TFG.<br>La metodología para el desarrollo del TFG cubrirá las siguientes etapas:<br>Familiarización con la técnica lidar para determinación de perfiles de partículas de aerosol: hardware y protocolos/tests de calidad.<br>Familiarización con la técnica lidar para determinación de perfiles de partículas de aerosol: métodos de inversión y herramienta ‘Single Calculus Chain’.<br>Adquisición de medidas para aplicación de protocolos/tests de calidad: telecover, zero bin / bin-shift, Rayleigh fit.<br>Adquisición de medidas regulares siguiendo los protocolos de ACTRIS/EARLINET y cálculo mediante la herramienta Single Calculus Chain.<br>Análisis de casos de estudio de diversos tipos de eventos (polvo mineral y partículas antropogénicas, entre otros).<br>Análisis estadístico con la posibilidad de establecer criterios de clasificación del tipo de aerosol en base al conjunto de propiedades ópticas proporcionadas por el sistema lidar ALHAMBRA.</p>FÍSICA APLICADA
267-157-2024/2025<p>La Termodinámica Clásica está basada, entre otras cosas, en procesos que se llevan a cabo de forma "cuasiestática", es decir, de forma tan lenta que se puede aproximar el proceso a una sucesión de estados de equilibrio en donde en ningún punto del sistema hay diferencias (entre sí) de cualquier propiedad intensiva -ya sea temperatura, presión, potencial químico, etc,-.</p><p>Eso se traduce en procesos tan sumamente lentos que el “tiempo” puede considerarse infinito y es por ello que en Termodinámica Clásica el tiempo no es una variable a considerar. Sin embargo, en la realidad, todos los procesos se llevan a cabo en tiempos finitos y los procesos no son realmente cuasiestáticos ni tienen lugar a través de una sucesión infinitamente lenta de estados de equilibrio. Eso se traduce en que, en la realidad, los procesos jamás son reversibles sino que son irreversibles.</p><p>En este trabajo se pretende evaluar lo que sucede cuando el tiempo sí es considerado como variable a tener en cuenta y, a continuación, cuantificar el rendimiento real (que no ideal) de ciertos motores térmicos cuando se tiene en cuenta algunas fuentes de irreversibilidad, como pueden ser la diferencia finita de temperaturas entre un sistema y los focos térmicos que lo rodean, la aceleración y desaceleración de pistones en movimiento, turbulencias de un fluido no ideal, o fuerzas de rozamiento actuando en pistones en movimiento.</p>FÍSICA APLICADA
267-84-2024/2025<p>Desde 2012, uno de los objetivos del Laboratorio de Trampas de Iones y Láseres de la Universidad de Granada [1] ha sido la mejora en la sensibilidad de detección de iones individuales en una trampa Penning, con el fin de llevar a cabo determinados experimentos con mayor precisión y exactitud [2]. En este contexto se ha llegado a realizar recientemente los primeros experimentos con cristales de Coulomb de dos iones (diferentes) enfriando uno de ellos (el isótopo 40Ca+) con radiación láser hasta el límite Doppler [3,4]. Los resultados muestran la necesidad de llegar al estado fundamental en cada uno de los modos del cristal en la trampa, lo que requiere el enfriamiento utilizando la llamada transición “reloj” del 40Ca+, con anchura de línea inferior a 1 Hz. Cada uno de los modos del cristal, o movimientos propios del ion individual, constituye un oscilador armónico cuántico, que permite estudiar un átomo de interés con la misma transición “reloj” del 40Ca+ [6]. Un ion ejemplo, de interés para nuestro grupo, es el isótopo de torio con número másico 229, que tiene un isómero nuclear de energía de solo 8.338(24) eV [7], y que se ha propuesto como reloj nuclear [8]. En el contexto de este trabajo está anticipar el efecto de un campo magnético de 7 teslas en este isótopo de torio, avanzar en la implementación del láser requerido y en el protocolo de medida puramente cuántico, que permita observar alguno de los osciladores.&nbsp;</p><p>&nbsp;</p><p><strong>Metodología:</strong></p><ol><li>Conocimiento de las trampas de iones. Tecnología asociada y elementos necesarios para su funcionamiento.</li><li>Conocimiento del programa experimental con trampas Penning del laboratorio.</li><li>Conocimiento de radiación láser y cavidades de alta fineza y sistemas de detección de fotones.</li><li>Protocolos de medias de naturaleza cuántica e implementación.</li><li>Conocer la importancia de estudiar 229mTh en el contexto de los relojes ópticos.</li><li>Conocimiento de los paquetes informáticos utilizados con trampas de iones para aspectos técnicos: SIMION y MOLFLOW+. Otros programas realizados por el grupo de investigación.&nbsp;</li></ol>FÍSICA ATÓMICA, MOLECULAR Y NUCLEAR
267-4-2024/2025<p>El Telescopio Espacial Kepler de la NASA (2009-2018) marcó el comienzo de lo que podríamos llamar la era “moderna” de la caza de planetas. Kepler estaba esperando captar pequeñas caídas en la cantidad de luz proveniente de estrellas individuales a lo largo de un cierto periodo de tiempo (curva de luz), causadas por planetas que cruzan frente a ellas. Esto se llama "método de tránsito". Una vez detectado, el tamaño orbital del planeta se puede calcular a partir del período (cuánto tiempo tarda el planeta en dar una vuelta alrededor de la estrella) y la masa de la estrella. Una estimación estadística basada en datos del Telescopio&nbsp; Kepler reveló que hay más planetas que estrellas en nuestra galaxia. Eso significa que hay más de un billón de planetas sólo en nuestra galaxia, muchos de ellos del tamaño de la Tierra.&nbsp;</p><p>Debido al gran número de estrellas en nuestra galaxia y la cantidad de datos que estamos tomando usando telescopios espaciales a la caza de exoplanetas, necesitamos desarrollar nuevas técnicas de análisis de las curvas de luz de las estrellas para confirmar la presencia de un planeta y caracterizar sus propiedades. En este TFG se propone crear modelos de tránsitos planetarios y entrenar algoritmos de machine learning para detectar y caracterizar exoplanetas a partir de curvas de luz del telescopio espacial TESS (Transiting Exoplanet Survey Satellite) de la NASA, lanzado en 2018 y diseñado para descubrir miles de exoplanetas alrededor de 200,000 estrellas brillantes cerca del Sol. TESS ya ha completado su misión principal obteniendo imágenes de aproximadamente el 75% del cielo estrellado, encontrando 66 nuevos exoplanetas,&nbsp; así como casi 2.100 candidatos que los astrónomos están trabajando para confirmar. Las curvas de luz son públicas y accesibels a la comunidad cientifica a través del Exoplanet Orbit Database (exoplanets.org).</p>FÍSICA TEÓRICA Y DEL COSMOS
267-152-2024/2025<p>En este trabajo, se pretende realizar un estudio de las propiedades básicas de las superficies en el espacio de Lorentz-Minkowski tridimensional, que no es más que la variedad diferenciable R^3 junto con la métrica de Lorentz usual llana. Como el tema es muy amplio, y a veces realmente anti-intuitivo, nos ceñiremos a las propiedades más sencillas, y solamente en el caso de las superficies espaciales.</p><p>Las actividades a realizar consistirán en la consulta de bibliografía, recopilación y ordenación de los resultados, explicitando las demostraciones. Se elaborará una memoria detallada en LaTeX.&nbsp;<br>&nbsp;</p>GEOMETRÍA Y TOPOLOGÍA
267-139-2024/2025<p>La medida del tiempo con precisión es muy importante en numerosas aplicaciones, como por ejemplo navegación espacial. A lo largo del siglo XX y XXI, se ha ido mejorando la precisión con la que se mide el tiempo, basando dicha medida (y la definición del segundo) en la medida precisa de una transición atómica del átomo de 133Cs, lo que se conoce como reloj atómico. La transición de la estructura hiperfina del átomo de 133Cs está en el rango de microondas y proporciona estabilidades en la medida del orden de 10^-14&nbsp;en la llamada configuración de fuente atómica (cesium fountains). Estas características se pueden mejorar utilizando frecuencias ópticas (del orden de 10^14 Hz) que mejoraría la estabilidad y por tanto la exactitud del dispositivo en varios órdenes de magnitud. Este tipo de dispositivos se conocen como estándares de frecuencias o relojes ópticos y tiene como plataformas experimentales las trampas de iones y las trampas de átomos, en ambos casos enfriados por láser.</p><p>&nbsp;</p><p><strong>Metodología:</strong></p><ol><li>Conocimiento de las trampas de iones. Tecnología asociada y elementos necesarios para su funcionamiento.</li><li>Bibliografía asociada a la los relojes ópticos a partir de [1,2,3] y obtención de la información relevante.</li><li>Mecanismos de producción de radiación láser y control de la anchura de línea de emisión.</li><li>Conocimiento de la regulación láser cuando la radiación láser está acoplada a una cavidad de alta fineza y control de la misma utilizando los dos sistemas del laboratorio.</li><li>Medidas con peine de frecuencias.</li><li>Medida de la frecuencia de Rabi y relación con la anchura de línea.</li></ol>FÍSICA ATÓMICA, MOLECULAR Y NUCLEAR
267-43-2024/2025<p>La inmensa mayoría de los dispositivos móviles a los que tenemos acceso poseen una cámara que nos permite desde hacer fotografías en mayor o menor resolución, y realizar video llamadas. En este trabajo, se propone de diseñar un objetivo relativamente simple, que es la base de todos los que actualmente existen, consistente en cuatro lentes de material plástico con una longitud focal de 5 mm, que trabaja a una apertura f/2,8 y cubre un ángulo de 65 grados. Las superficies serán asféricas estándar hasta cuarto orden, y el sensor BSI tiene un tamaño de 1/2,5 pulgadas y 8M pixeles. El sistema no debe ser más largo de 6 mm, y las lentes no más de 5 mm de diámetro. La calidad de imagen debe ser tal que la MTF (contraste) debe ser mayor de 0,4 a 100 líneas/mm para todo el campo abarcado.</p><ul><li>Prediseño según la óptica paraxial de sistemas de cuatro lentes.</li><li>Evaluación según la aproximación de tercer orden de sus aberraciones, incluyendo superficies asféricas.</li><li>Corrección de las aberraciones del objetivo considerando tamaños reales acorde a la configuración y especificaciones requeridas, usando software de diseño de sistemas ópticos asistido por computador.</li><li>Discusión de las limitaciones y posteriores etapas previas a la ingeniería óptica.</li></ul>ÓPTICA
267-135-2024/2025<p><i><strong>Breve descripción del trabajo:</strong></i></p><p>Los cálculos de precisión de la Cromodinámica Cuántica (QCD), la teoría cuántica de campos que describe las interacciones fuertes, se han convertido en una herramienta fundamental para la interpretación de los datos procedentes de grandes instalaciones experimentales como el LHC en el CERN (Suiza), Belle II en KEKB (Japón) o el experimento para la medida del momento magnético anómalo del muón en Fermilab (EE.UU.). En particular, la interpretación de dichos datos requiere la descripción mediante el régimen no perturbativo de QCD del proceso de hadronización de las partículas elementales en términos de las cuales está formulada la teoría, los quarks, para dar lugar a los estados ligados que se observan experimentalmente, los hadrones.&nbsp;</p><p>La comparación de ciertos observables medidos en dichos experimentos y las correspondientes predicciones teóricas en el marco del Modelo Estándar (ME) de la física de partículas, constituye un test excepcional de la validez del ME. Para muchas de estas cantidades de interés fenomenológico, como secciones eficaces hadrónicas inclusivas o tasas de desintegración no leptónicas, estos procesos de hadronización se pueden describir a través de las llamadas densidades espectrales hadrónicas. El estudio de estas cantidades, especialmente su cálculo a partir de simulaciones numéricas de QCD en una red espacio-temporal finita (lattice QCD), se ha convertido en un campo en auge debido a su potencial para ayudar a entender las tensiones observadas en algunas de las comparaciones citadas anteriormente.&nbsp;</p><p>La extracción de densidades espectrales a partir de datos de lattice QCD es un problema complicado tanto desde el punto de vista teórico como numérico, para el que se están desarrollando diversas técnicas que son aplicables no sólo a este campo, sino a otros campos donde también hay que afrontar los denominados <i>“inverse problems”.</i></p><p>En este trabajo se pretende estudiar alguna/s de dichas técnicas, aplicarlas a datos reales generados en simulaciones de lattice QCD e indagar sobre su potencial para estudiar alguna de las cantidades de interés fenomenológico donde actualmente se observan tensiones en la descripción del ME.&nbsp;<br>&nbsp;</p><p><i><strong>Metodología:</strong></i></p><ul><li>Estudio de la bibliografía relevante sobre el Modelo Estándar y la fenomenología de física de partículas<i>.</i></li><li>Estudio en detalle de uno o varios métodos de reconstrucción espectral.</li><li>Desarrollo de un código propio para la aplicación de los métodos estudiados.</li><li>Aplicación del código desarrollado a datos procedentes de simulaciones de lattice QCD.</li><li><p>Dependiendo de los intereses del alumno y de los resultados obtenidos en los pasos anteriores:</p><p>- Análisis cualitativo del posible impacto del uso de estos métodos en un observable concreto.<br>- Comparación de los resultados obtenidos mediante distintos métodos para espectros conocidos.<br>&nbsp;</p></li></ul>FÍSICA TEÓRICA Y DEL COSMOS
267-41-2024/2025<p><i>El estudiante realizará simulaciones por ordenador para investigar el comportamiento de fluidos complejos de nanopartículas anisótropas (nanorods) que, en presencia de un campo eléctrico, se polarizan y se agregan formando cadenas. Esta modificación estructural del nanomaterial, que pasa a formar una fase nemática, provoca un cambio en sus propiedades termodinámicas, mecánicas y térmicas. Utilizando Dinámica Molecular, el objetivo de este proyecto es investigar la cinética de respuesta de un fluido isótropo de nanorods en presencia de un campo eléctrico externo. Concretamente, calcularemos el tiempo de respuesta del sistema, es decir, el tiempo necesario para observar una transición isótropo-nemática, en función de la intensidad del campo, comparándolo con recientes resultados obtenidos en suspensiones de partículas cuboidales [1]. Además, determinaremos, el comportamiento de la viscosidad con campo apagado y encendido para corroborar el efecto práctico de la formación de las cadenas.&nbsp;</i></p><p><i>El estudio propuesto pretende utilizar conceptos de Física Estadística aplicados a técnicas de simulación numérica. Se utilizarán simulaciones de Dinámica Molecular para (i) comprobar la existencia de la fase nemática en sistemas de nanorods en presencia de un campo eléctrico y (ii) caracterizar los tiempos de respuesta del sistema. Además, se utilizará Dinámica Molecular fuera del equilibrio para calcular la viscosidad del material con y sin campo. A este fin, se utilizará el paquete de simulación Gromacs que permite ejecutar complejos cálculos numéricos en paralelo. Las simulaciones se correrán en Proteus, el clúster del Instituto Carlos I de Física Teórica, y Albaicín/Alhambra, de la UGR. Algunas propiedades se calcularán utilizando programas disponibles en el grupo.&nbsp;</i></p>FÍSICA APLICADA
267-75-2024/2025<p><i>El presente Trabajo Fin de Grado (TFG) se desarrollará en el Grupo de Física de la Atmósfera (GFAT) de la Universidad de Granada, centrándose en el estudio detallado de las características de la precipitación, mediante medidas del microrradar de lluvia MRR-PRO de METEK (Alemania). Además, se utilizarán pluviómetros y disdrómetros para validar las medidas del MRR-PRO y estudiar posibles combinaciones sinérgicas. Cada instrumento ofrece información única sobre la precipitación: el MRR-PRO proporciona perfiles verticales de la intensidad de la lluvia y el tamaño de las gotas, mientras que los pluviómetros y disdrómetros ofrecen mediciones puntuales y detalladas de la cantidad y tipo de precipitación. La combinación de estos instrumentos permitirá un análisis exhaustivo de las características de la precipitación.&nbsp;</i></p><p><i>La metodología propuesta consistirá en las siguientes etapas:</i></p><ol><li><i>Recopilación y análisis de datos de eventos de precipitación registrados en la cuenca del Genil durante los últimos 5 años, utilizando los datos del MRR-PRO disponibles en AGORA.</i></li><li><i>Validación de las medidas del MRR-PRO mediante la comparación con los datos de pluviómetros y disdrómetros ubicados en la misma área de estudio.</i></li><li><i>Desarrollo de un método para combinar sinérgicamente los datos del MRR-PRO, pluviómetros y disdrómetros, con el fin de obtener una visión más completa y precisa de la precipitación.</i></li><li><i>Comparación de los eventos de precipitación detectados por el MRR-PRO en diferentes ubicaciones (Granada capital y Hoya de Pedraza) para evaluar posibles disparidades debido a la orografía.</i></li></ol><p><i>Esta metodología permitirá avanzar en el entendimiento de la precipitación en la cuenca del Genil, así como en el desarrollo de técnicas para mejorar la recopilación y análisis de datos de precipitación mediante la combinación sinérgica de instrumentación in-situ y teledetección.</i></p>FÍSICA APLICADA
267-8-2024/2025<p><i>El presente Trabajo Fin de Grado (TFG) se desarrollará en el seno del Grupo de Física de la Atmósfera (GFAT) de la Universidad de Granada, enfocándose en el análisis tridimensional de la cubierta nubosa mediante técnicas de radar. Este proyecto aprovechará mediciones obtenidas a través del escaneo del radar de nubes, así como imágenes de cámara de cielo. Este trabajo se sitúa en el ámbito de la física atmosférica, destacando la aplicación de conceptos fundamentales de física, como la dispersión electromagnética y la teoría de ondas, en el estudio de fenómenos atmosféricos. Además, se pondrá en práctica el conocimiento adquirido en el Grado de Física para abordar los desafíos asociados con la adquisición, procesamiento y análisis de datos atmosféricos en un contexto real. Actualmente, se está llevando a cabo en el GFAT la implementación de algoritmos en PYTHON con el fin de optimizar el procesamiento de los datos, en el marco de la creación de un nuevo módulo llamado GFATPY. Se espera que el desarrollo de nuevas funcionalidades del submódulo de radar durante la realización de este TFG.</i></p><p><i>La metodología propuesta para el desarrollo de este TFG se dividirá en las siguientes etapas:</i><br><i>(i) Familiarización con la técnica de radar Doppler de nubes de frecuencia dual, centrándose en el funcionamiento y características del instrumento instalado en AGORA (Andalusian Global ObseRvatory of the Atmosphere).</i></p><p><i>(ii) Adquisición de conocimientos sobre los algoritmos de procesamiento de datos de radar, incluyendo el uso del módulo GFATPY.</i></p><p><i>(iii) Desarrollo e implementación de un algoritmo para la representación de una representación tridimensional de la cubierta nubosa a partir de los datos de escaneo del radar y las imágenes de la cámara de cielo.</i></p><p><i>&nbsp;(v) Evaluación de posibles fuentes de incertidumbre en los datos de radar y en el proceso de interpolación. Se explorará la posibilidad de optimizar el algoritmo de interpolación para mejorar su precisión y eficiencia en la representación de la cubierta nubosa.</i></p><p><i>Esta metodología permitirá abordar de manera integral el estudio del radar Doppler de nubes y sus aplicaciones en el análisis tridimensional de la cubierta nubosa, desde su fundamentación teórica hasta su aplicación práctica en la investigación atmosférica. Además, se contempla la posibilidad de realizar medidas adicionales con el radar de AGORA o realizar tests de calidad de medidas para complementar el análisis y garantizar la robustez de los resultados obtenidos.</i></p>FÍSICA APLICADA
267-132-2024/2025<p>How do migratory birds know to fly north? It turns out that birds have an internal biochemical compass based on magnetically sensitive free radical reactions [1,2]. Astonishingly such chemical Magnetoreception appears to be extremely sensitive since as the Earths magnetic field is of the order of tens of micro Tesla, far smaller than ambient magnetic noise due to electromagnetic waves used for telecommunication and radar. To explain this increased sensitivity it has been proposed that biochemical Magnetoreception must exploit quantum mechanical effects—such as quantum entanglement—which are known to yield ultra high sensitivity in magnetic field sensing [3].</p><p>Yet exactly how such quantum effects can come about—particularly in a hot and noisy environment such as a birds brain —is still not well understood. Several phenomenological models have been proposed [4,5]. In this work you will employ a simplified model of the most prominent models for the dynamics of the radical pair mechanism and study their quantum coherence and entanglement generating properties within the context of quantum statistical inference and quantum resource theories&nbsp;</p><p>Metodología:</p><p>The project will make use of both analytical and computational techniques. The analytical techniques involve</p><p>&nbsp; &nbsp; &nbsp; &nbsp; 1. Open Quantum Systems</p><p>&nbsp; &nbsp; &nbsp; &nbsp; 2. Quantum Resource theory of asymmetry and coherence</p><p>Numerical techniques involve implementing the open system dynamics of Magnetoreception (either MATLAB or Python)&nbsp;</p>ELECTROMAGNETISMO Y FÍSICA DE LA MATERIA
267-63-2024/2025<p>El presente Trabajo Fin de Grado (TFG) se llevará a cabo en el Grupo de Física de la Atmósfera (GFAT) de la Universidad de Granada, centrándose en la estimación de las propiedades microfísicas de las nubes a partir de la dependencia espectral de medidas de radar Doppler. Para este fin, se utilizarán principalmente medidas del nuevo radar de frecuencia dual (NEBULA) desarrollado por RPG, Alemania. NEBULA opera a frecuencias de 35 y 94 GHz, lo que proporciona información crucial sobre la microfísica de las nubes, ya que la interacción entre los hidrometeoros y la radiación depende del tamaño de los hidrometeoros y de la frecuencia de la radiación. El estudio de esta interacción permitirá una comprensión más profunda de las propiedades microfísicas de las nubes y su impacto en los procesos atmosféricos.</p>FÍSICA APLICADA
267-18-2024/2025<p><i>Breve descripción del trabajo</i><br>La adecuada caracterización de las propiedades electromagnéticas de los materiales, principalmente su permitividad eléctrica y su permeabilidad magnética, es esencial a la hora de diseñar componentes y realizar simulaciones electromagnéticas de alta precisión. En este sentido, el Grupo de Electromagnetismo de Granada (GEG) en colaboración con el Instituto Nacional de Técnica Aeroespacial (INTA) dispone de resultados experimentales de medidas de parámetros S para distintos tipos de materiales magnéticos: ferritas, láminas delgadas, etc; con distintas composiciones y características físicas, etc (ver referencias 1 y 2 como ejemplo). En este TFG el alumno podrá participar en el desarrollo de nuevas técnicas de análisis que permitan realizar una mejor caracterización de estos materiales.</p><p><i>Metodología</i><br>- Elaboración de programas de Python empleando principalmente librerías de análisis de radiofrecuencia y optimización.<br>- Desarrollo de distintas técnicas de machine learning para la optimización de modelos electromagnéticos.<br>- Desarrollo de modelos electromagnéticos para materiales.</p>ELECTROMAGNETISMO Y FÍSICA DE LA MATERIA
267-45-2024/2025<p>Breve descripción del trabajo:<br>La impresión 3D permite la fabricación de formas complejas que tradicionalmente han sido difíciles de obtener. Los materiales imprimibles conductores son de una calidad demasiado baja para la elaboración de antenas y por lo tanto se recurrirá a una técnica alternativa consistente en la galvanización. Por tanto, se explorará esta técnica para su empleo en la fabricación de antenas de banda ultra ancha. Una vez el prototipo haya sido simulado y fabricado, será enviado al Instituto Nacional de Técnica Aeroespacial (INTA) para realizar medidas experimentales de energía radiada y directividad. Los resultados teóricos y experimentales se compararán para determinar la viabilidad de las técnicas desarrolladas.</p><p>Metodología:<br>- Simulación de antenas mediante técnicas de elementos finitos en el dominio de la frecuencia o en el tiempo (HFSS o Opensemba/DGTD).<br>- Fabricación, postprocesado y galvanizado de modelos impresos en 3D.</p>ELECTROMAGNETISMO Y FÍSICA DE LA MATERIA
267-146-2024/2025<p>En este trabajo, el alumno participará en el desarrollo de urnas de protección planetaria que tienen como objetivo la protección de equipos espaciales frente a contaminación biológica durante ensayos de compatibilidad electromagnética (EMC). Por lo tanto, la urna debe interferir mínimamente con los ensayos EMC y, simultáneamente, aislar el equipo bajo ensayo del entorno mediante una barrera física que impida el paso de material biológico.<br>En este trabajo, se explorarán nuevos materiales que permitan reducir al máximo las interferencias, realizándose simulaciones que puedan ofrecer una alternativa a los mecanismos existentes. Para ello en una primera etapa se intentará reproducir mediante simulaciones los resultados experimentales existentes [1].</p><p>Metodología:<br>- Diseño y modelado de la urna mediante técnicas de simulación basadas en elementos finitos.<br>- Elaboración de programas de Python empleando principalmente librerías de análisis de radiofrecuencia y optimización.</p>ELECTROMAGNETISMO Y FÍSICA DE LA MATERIA
267-55-2024/2025<p>El teorema de categoría de Baire abrió la puerta a múltiples consecuencias, algunas paradójicas y todas interesantes, en distintas áreas de las matemáticas. En este trabajo pretendemos dar una visión general desde varios puntos de vista.</p><p><i><strong>Metodología:</strong></i></p><p>La metodología a desarrollar se corresponde con los puntos descritos en el apartado anterior. En el primer punto presentarán los conceptos básicos necesarios para poder enunciar el teorema de categoría de Baire y para poder situarlo en relación con otros resultados. También se analizarán las relaciones con esos resultados haciendo hincapié en las distintas formas de medir tamaños de conjuntos.</p><p>En el segundo aparatado se demostrará el teorema y sus distintas versiones en y/o equivalencias. Finalmente se presentarán distintas consecuencias. Principalmente nos centraremos en conjuntos de objetos matemáticos, como hemos puntualizado antes, y, dependiendo la extensión del trabajo, se demostrarán sus características más notables o bien se referenciará a ellas utilizando bibliografía.</p>ANÁLISIS MATEMÁTICO
267-90-2024/2025<p>En trabajos previos (J.L. Nieves and J. Romero, Color Research and Application, vol. 43, no 5, p. 713-725 (2018); J.L. Nieves et al., Applied Optics, vol. 59, pp. 1732-1740 (2020)) se han introducido los conceptos de “colores salientes” y “colores relevantes” de una imagen que permiten estimar la cantidad de colores que un observador destacaría de dicha imagen con solo echar un vistazo a la misma. Esos colores relevantes permiten evaluar no sólo aquellos colores discernibles que son colorimétricamente diferentes en la escena, sino también caracterizar la paleta de colores de la misma. Aunque el concepto de color relevante se ha confirmado psicofísicamente en un trabajo reciente (J.L. Nieves, J. Ojeda, L. Gómez‐ Robledo and J. Romero, Journal of Imaging, 7, 72 (2021)), no está aún clara la relación del conjunto de colores relevantes de una escena con parámetros estadísticos que midan la complejidad, en términos matemáticos, de la misma. Por otro lado, aunque está ampliamente estudiada la limitación que tienen observadores con visión defectiva del color en la percepción del color, aún no se ha estudiado si el concepto de color relevante es extrapolable a dichos observadores.</p><p><i><strong>Metodología:</strong></i></p><p>Se utilizará un conjunto de imágenes pictóricas para “daltonizarlas” computacionalmente (es decir, imágenes que simulen cómo serían vistas por observadores con visión defectiva del color). La determinación y análisis de los colores relevantes de estas imágenes nos permitirá comparar la percepción que tienen observadores defectivos al color de la paleta de colores que describe la imagen, con la que tienen observadores con visión normal del color. Se hará una revisión bibliográfica sobre el tema y sobre las diferentes métricas que permitan describir matemáticamente la complejidad de las imágenes en color.</p>ÓPTICA
267-82-2024/2025<p>Un peine de frecuencias (OFC) consiste en la emisión de un láser&nbsp;<i>mode-locked</i> de un conjunto de trenes de pulsos ópticos ultracortos (en el rango de picosegundos a femtosegundos) con una relación de fase fija entre todos sus modos longitudinales. En poco más de dos décadas, el OFC ha revolucionado numerosas investigaciones y desarrollos en distintos campos de la Física donde podemos destacar la espectroscopia de precisión, metrología en dominio temporal y de frecuencias, procesos ultra rápidos en física de semiconductores, calibración de espectrógrafos astronómicos, control de reacciones químicas mediante interferencia cuántica o el desarrollo de relojes atómicos y estándares de frecuencia (o relojes ópticos). Al ser el único dispositivo con capacidad de vincular directamente el dominio óptico con el de radiofrecuencia, el OFC se ha convertido en una herramienta insustituible. Por otro lado, y debido a la presencia de esta tecnología, se están desarrollando nuevos estándares de frecuencia óptica que pueden sustituir el actual estándar de microondas en Cs como base para la definición del segundo en el SI. Se ha demostrado en distintos trabajos que los mejores resultados obtenidos están basados en experimentos con trampas de iones y átomos neutros, mostrando una incertidumbre de frecuencia de 10-16 o incluso mejor, superando así a los mejores relojes de fuente de Cs.&nbsp;</p>ÓPTICA
267-46-2024/2025<p><i><strong>Breve descripción del trabajo:&nbsp;</strong></i></p><p><i><strong>El trabajo empezará con la modelización de distintos procesos físicos (evolución de un fluido, evolución de las ondas o el calor, etc.) mediante Ecuaciones en Derivadas Parciales. Se estudiarán en detalle las ecuaciones de ondas, del calor y de Laplace, haciendo énfasis en sus propiedades cualitativas (regularización, principio del máximo, velocidad de propagación…). Se estudiarán también las fundamentales problemáticas de las Ecuaciones en Derivadas Parciales, como formación de singularidades y falta de regularidad de las soluciones.</strong></i></p><p><i><strong>Se considerarán en particular los problemas de contorno, en los cuales las series de Fourier aparecen de forma natural. Se hará por tanto una breve introducción a las mismas y se aplicarán a los distintos modelos. Se usará este análisis para deducir propiedades de las soluciones, como comportamiento asintótico. Opcionalmente se puede usar algún software de matemáticas para visualizar dichas soluciones en casos concretos.</strong></i></p><p><i><strong>Metodología:</strong></i></p><p><i><strong>El principal método de trabajo consistirá en la lectura y comprensión de la bibliografía relacionada. Se propondrán también problemas concretos en física y se trabajará de forma autónoma en su modelización matemática mediante Ecuaciones en Derivadas Parciales. El alumno deberá también extraer consecuencias de la expresión de soluciones en series de Fourier de forma autónoma. De forma opcional, se usará alguna herramienta de software (Mathematica o MatLab) para la visualización de soluciones en casos concretos.</strong></i></p><p>&nbsp;</p>ANÁLISIS MATEMÁTICO
267-68-2024/2025<p>La radiación ultravioleta que emiten las estrellas masivas es lo suficientemente energética como para ionizar el gas que las rodea, generando así las regiones HII. Tanto el nitrógeno como el oxígeno se forman en el interior de las estrellas, a lo largo de su evolución, y parte de ese material es expulsado al medio interestelar al morir éstas, aumentando la abundancia de estos elementos en el gas de las regiones HII. Pero cada uno de esos elementos se forma en distintas etapas de la evolución estelar, por lo que el estudio de la relación entre ambos elementos nos aporta pistas sobre cómo se han ido formando estrellas en las galaxias que albergan estas regiones HII (lo que se conoce como la historia de la formación estelar). Esta historia de formación estelar puede estar influenciada por el entorno de dichas galaxias, pudiendo presentar variaciones según estén en un vacío (zona del Universo con una baja densidad de galaxias) o en cúmulos de galaxias (zonas con alta densidad de galaxias), ya que procesos externos como pueden ser interacciones o fusiones, afectan de forma más frecuente a galaxias en zonas de mayor densidad. En este TFG se analizará una muestra piloto de galaxias observadas en el proyecto CAVITY (Calar Alto Void Integral-field Treasury surveY).</p><p>&nbsp;</p><p>Metodología:</p><ul><li>Revisión bibliográfica sobre cálculo y análisis de abundancias químicas en galaxias.&nbsp;</li><li>Familiarizarse con la terminología asociada al tipo de observaciones de CAVITY (espectroscopía de campo integral) y con la información que nos aporta.&nbsp;</li><li>Derivar mapas de distribución de N/O en las galaxias estudiadas.&nbsp;</li><li>Analizar dicha distribución.&nbsp;</li></ul><p>El alumno deberá utilizar software astronómico (python con módulos específicos de astronomía) para realizar el análisis e interpretación de los datos.</p>FÍSICA TEÓRICA Y DEL COSMOS
267-166-2024/2025<p><i>Resumen:</i></p><p><i>En este Trabajo Fin de Grado (TFG) se propone un estudio experimental de sistemas magnéticos mediante técnicas de Velocimetría por Imágenes de Partículas (PIV). Forma parte de la línea de investigación sobre sistemas coloidales magnéticos desarrollada en el grupo de investigación “Magnetic Soft Matter” del Departamento de Física Aplicada.</i></p><p><i>La PIV es una técnica de medida empleada en dinámica de fluidos para la visualización del flujo y su análisis cuantitativo. Esta técnica funciona capturando imágenes de partículas trazadoras fluorescentes suspendidas en el fluido de interés y analizando el desplazamiento de estas partículas en un intervalo corto de tiempo. Para tal fin, el flujo se ilumina con un láser pulsado que excita las partículas fluorescentes y provoca su emisión. Esta emisión se captura empleando una cámara de alta velocidad, obteniendo así una serie de imágenes que permiten seguir sus trayectorias y por tanto obtener el perfil de velocidad del flujo.</i></p><p><i>Esta técnica cobra especial interés en el estudio de sistemas coloidales magnéticos. Estos materiales inteligentes son capaces de responder ante la presencia de campos magnéticos externos, modificando sus propiedades fisicoquímicas. Los cambios en las propiedades mecánicas de los coloides magnéticos dan lugar a nuevos comportamientos que resultan de especial interés para numerosas aplicaciones industriales o biosanitarias: Aparición de un esfuerzo umbral, autoensamblado dirigido, o control externo no invasivo, entre otras.</i></p><p><i>En este trabajo experimental se propone el estudio del flujo de coloides magnéticos mediante técnicas de PIV, para obtener información de la dinámica del flujo a través de microcanales en sistemas confinados. Esto permitirá simular la extrusión de estos materiales para sus potenciales aplicaciones: Impresión 3D, bioprinting, o válvulas magnéticas, entre otras.</i></p><p>&nbsp;</p><p><i>Metodología:</i></p><p><i>Para la realización de este TFG se utilizarán todas las técnicas disponibles en los laboratorios del grupo de investigación Magnetic Soft Matter y el Laboratorio Singular Física de Fluidos No Newtonianos (F2N2Lab):</i></p><ol><li><i>Para la síntesis de coloides magnéticos se utilizarán todos los materiales y reactivos disponibles en dichos laboratorios y los dispositivos de operaciones básicas.</i></li><li><i>Para la caracterización de estos materiales se podrán usar técnicas de microscopía, dispersión de luz, caracterización mecánica mediante medidas reológicas, u otras técnicas de caracterización fisicoquímica disponibles en el Centro de Instrumentación Científica de la Universidad de Granada.</i></li><li><i>Para el estudio del flujo de estos coloides, el objetivo principal del trabajo, se empleará un micro-PIV de alta velocidad volumétrico, que permitirá reconstruir el perfil de velocidades tridimensional en el sistema de interés.</i></li><li><i>Para el análisis de los resultados se empleará software de alto rendimiento.</i></li></ol>FÍSICA APLICADA
267-96-2024/2025<p><i><strong>Breve descripción del trabajo:</strong></i></p><p><i>Se propone el estudio de un caso teórico-práctico en el ámbito de la Física de Fluidos, y en particular de los Líquidos Magnéticos. Estos materiales generalmente consisten en dispersiones de partículas magnéticas en un líquido Newtoniano. En ausencia de campos magnéticos las dispersiones se comportan como coloides convencionales. Sin embargo, en presencia de campos magnéticos externos las partículas se magnetizan y agregan en la dirección de las líneas de campo magnético.</i></p><p><i>Recientemente se ha puesto a punto un modelo capaz de explicar la formación de bandas de partículas bajo la superposición de campos de cizalla simple y campos magnéticos uniaxiales DC. El modelo se ha validado con éxito a una fracción de volumen de partículas.</i></p><p><i><strong>Metodología:</strong></i></p><p><i>Se hará uso de magneto-reomicroscopio disponible en el Laboratorio Singular F2N2Lab, así como de los códigos de simulación y análisis de imagen previamente desarrollados por miembros del grupo de investigación FQM400.</i></p>FÍSICA APLICADA
267-106-2024/2025<p>La radiación ultravioleta que emiten las estrellas masivas es lo suficientemente energética como para ionizar el gas que las rodea, generando así las regiones HII. Los espectros de las regiones HII están caracterizados por brillantes líneas de emisión. Estas líneas corresponden a distintas especies químicas (en distintos estados de ionización) que están presentes en la nebulosa. Algunas razones de las líneas de emisión de los espectros de regiones HII permiten inferir abundancias de algunos elementos químicos, usando los llamados ‘métodos empíricos’ o de ‘líneas fuertes’. Un punto clave previo a la estimación de abundancias es el filtrado de los espectros, para asegurar que sólo se aplican los métodos empíricos a regiones con emisión típica de regiones HII, pues sólo son válidos para este tipo de regiones. Existen diferentes diagnósticos basados en líneas de emisión para identificar las zonas ionizadas por formación estelar (regiones HII), y se ha visto que la distribución de abundancias de una galaxia puede variar significativamente en función del diagnóstico usado. En este trabajo el/la estudiante se centrará en la influencia del método utilizado para la selección de las zonas ionizadas por formación estelar en la distribución de la abundancia de oxígeno en relación al hidrógeno (O/H). Se usará para ello una muestra piloto de galaxias del proyecto CAVITY (Calar Alto Void Integral-field Treasury surveY,&nbsp;<a href="https://cavity.caha.es/">https://cavity.caha.es/</a>).</p><p>&nbsp;</p><p><strong>Metodología:</strong></p><ul><li>Revisión bibliográfica para aprender cómo se estiman y analizan abundancias químicas del gas ionizado en galaxias.</li><li>Familiarizarse con la terminología asociada al tipo de observaciones de CAVITY (espectroscopía de campo integral) y con la información que nos aporta.</li><li>Revisar los métodos estándares más usados en la bibliografía para seleccionar las zonas de la galaxia con más probabilidad de corresponder a una zona con emisión dominada por formación estelar.</li><li>Derivar mapas de distribución de O/H en las galaxias estudiadas, teniendo en cuenta los distintos métodos de selección de zonas de formación estelar.</li><li>Obtener los diferentes perfiles de la dependencia de O/H con el radio galactocéntrico.</li><li>Analizar cómo se ve afectada la forma de los perfiles de abundancia obtenidos dependiendo del método de selección de las zonas ionizadas por formación estelar.</li></ul><p>&nbsp;</p><p>El alumno/a deberá utilizar software astronómico (python con módulos específicos de astronomía) para realizar el análisis e interpretación de los datos.</p>FÍSICA TEÓRICA Y DEL COSMOS
267-70-2024/2025<p>La radiación ultravioleta que emiten las estrellas masivas es lo suficientemente energética como para ionizar el gas que las rodea, generando así las regiones HII. Los espectros de las regiones HII están caracterizados por brillantes líneas de emisión. Estas líneas corresponden a distintas especies químicas (en distintos estados de ionización) que están presentes en la nebulosa. Algunas razones de las líneas de emisión de los espectros de regiones HII permiten inferir abundancias de algunos elementos químicos, usando los llamados ‘métodos empíricos’ o de ‘líneas fuertes’. En este trabajo el/la estudiante se centrará en el cálculo de la abundancia de oxígeno (en relación a la de hidrógeno, O/H). Es bien conocido que distintos métodos empíricos resultan en valores de O/H que pueden diferir significativamente. Es por ello importante esclarecer cómo puede depender la distribución de O/H del método elegido para determinar la abundancia de oxígeno. En este trabajo emplearemos una muestra de varias galaxias situadas en vacíos cósmicos, o zonas del Universo con una inusualmente baja densidad de galaxias, lo que permite trabajar en un ambiente menos afectado por procesos externos como pueden ser las interacciones o fusiones de galaxias (procesos que pueden alterar la distribución de O/H de las galaxias). Para ello el/la estudiante usará las observaciones del proyecto CAVITY (Calar Alto Void Integral-field Treasury surveY, <a href="https://cavity.caha.es/">https://cavity.caha.es/</a>).</p><p><strong>Metodología:</strong></p><ul><li>Revisión bibliográfica para aprender cómo se estiman y analizan abundancias<i> </i>químicas del gas en galaxias.</li><li>Familiarizarse con la terminología asociada al tipo de observaciones de CAVITY (espectroscopía de campo integral) y con la información que nos aporta.</li><li>Derivar mapas de distribución de O/H en las galaxias estudiadas, utilizando distintos métodos de líneas fuertes. </li><li>Obtener perfiles de la dependencia de O/H con el radio galactocéntrico para cada galaxia con cada método.</li><li>Analizar las diferencias obtenidas con los distintos métodos, así como las implicaciones en la interpretación de los resultados.</li></ul><p>El alumno/a deberá utilizar software astronómico (python con módulos específicos de astronomía) para realizar el análisis e interpretación de los datos.</p>FÍSICA TEÓRICA Y DEL COSMOS
267-130-2024/2025<p>El polvo interestelar representa tan solo el 1% de la masa total del medio interestelar en las galaxias de nuestro universo local. A pesar de esta pequeña fracción el polvo interestelar tiene un papel fundamental en la formación estelar y, por tanto, en la evolución de las galaxias en general. La superficie de los granos de polvo actúa como catalizador para la formación de hidrógeno molecular que da lugar a las nubes moleculares donde la formación estelar tiene lugar. Además, los granos de polvo, con tamaños entre las 0.1-100nm, son capaces de absorber y dispersar la luz procedente de las estrellas impidiendo cuantificar la tasa de formación estelar en galaxias, y por tanto, predecir otras propiedades intrínsecas de las mismas. La absorción de la radiación de las estrellas por parte de los granos de polvo es re-emitida en el rango del infrarrojo. Así, la distribución espectral de energía nos permite estudiar las propiedades de los diferentes tipos de granos de polvo.&nbsp;</p><p>En este trabajo de fin de grado, el estudiante aplicará modelos de polvo recientemente publicados a datos del infrarrojo en la galaxia NGC 628. Esta galaxia es una galaxia espiral típica que ha sido ampliamente estudiada a diferentes longitudes de onda. Existen datos de archivo que nos permitirán estudiar la formación estelar y el contenido de gas molecular en el disco de la misma a escalas resueltas, donde podremos separar los brazos espirales con formación estelar mas intensa de las zonas del interbrazo con menor formación estelar. &nbsp;</p><p>Con el resultado de los ajustes del modelo a los datos observados se generarán mapas de los parámetros libres y se estudiaran relaciones con otras propiedades físicas de la galaxia: formación estelar y distribución de gas molecular.&nbsp;</p><p>Metodología:&nbsp;</p><p>- Se preparan los datos del infrarrojo, incluídos los datos recientes tomados por el JWST para obtener la distribución espectral de energía en cada elemento de resolución del disco de la galaxia. &nbsp;</p><p>- Se usará un código python ya testeado para ajustar mediante inferencia Bayesiana usando cadenas Markov Monte Carlo (MCMC).&nbsp;</p><p>- Se generarán mapas de los parámetros libres del modelo de polvo para cada elemento de resolución del disco de la galaxia.&nbsp;</p><p>- Se analizará la masa de polvo y la fracción relativa de masas de granos en función de la distribución de gas molecular en el disco de la galaxia.&nbsp;</p>FÍSICA TEÓRICA Y DEL COSMOS
267-125-2024/2025<p>El movimiento de objetos ligados a la Tierra, como sistema de referencia no inercial, siempre es confuso. El péndulo de Foucault revela el giro terrestre y la latitud de observación. El momento angular del péndulo simple es una constante (vectorial) del movimiento que determina el plano de oscilación para un observador inercial. El momento angular del péndulo, según las condiciones iniciales del movimiento, tiene una dirección tangente al suelo. Para un observador terrestre, la esfera del péndulo además de oscilar gira respecto de la dirección vertical local con una velocidad angular ω. En el laboratorio no es posible cambiar la latitud para verificar la expresión teórica anterior. Un giróscopo permite establecer un giro estable en el tiempo alrededor de una dirección invariante en el espacio. Si en una latitud&nbsp;λ el eje del giróscopo se orientara deliberadamente paralelo al meridiano terrestre, el eje giraría (precesión) para un observador terrestre como lo hace el péndulo de Foucault. Sin embargo, el giróscopo debería tener un gran tamaño para observar el efecto (giro lento) antes de que el giróscopo se parase.</p><p>Gracias a la experiencia de Producciones Científicas y Técnicas, se diseñará un planeta a escala usando un aro giratorio motorizado (ver figura) y al que se puede fijar un giróscopo en diferentes posiciones (latitudes) con una cámara cenital solidaria. El aro dispondrá de una escala graduada para medir la latitud&nbsp;λ. El giróscopo se equilibrará respecto de la tangente local al aro y se pondrá en marcha. Inmediatamente se iniciará la rotación del aro, conocida la velocidad nominal&nbsp;Ω, y la grabación de la cámara. Tras varias vueltas del aro, el experimento finalizará. El vídeo grabado se analizará con el software Tracker con el que se medirá la velocidad de giro&nbsp;ω. Se variará la latitud y se repetirá la experiencia. Finalmente, se representará&nbsp;ω en función de senλ para extraer el valor experimental de&nbsp;Ω. Se analizarán las condiciones óptimas de la experiencia y las repeticiones mínimas.</p>FÍSICA APLICADA
267-76-2024/2025<p>La radioterapia externa con aceleradores lineales clínicos (LINACs) usa generalmente haces de fotones y electrones con energías en el rango entre 5 y 20 MeV. Los haces de fotones de estas energías están especialmente indicados para el tratamiento de tumores profundos. Por el contrario, haces de electrones de energía similiar, depositan el mayor porcentaje de su energía en la piel y son usados, por tanto, para tratamiento de tumores superficiales.</p><p>Recientemente se ha demostrado que el uso de haces de electrones de muy alta energía (VHEE, por sus siglas en inglés) podría tener una serie de ventajas en la radioterapia de tumores profundos.&nbsp;</p><p>En este trabajo se realizará un estudio mediante simulación Monte Carlo del problema, analizando el depósito de dosis de estos haces en función de su energía y del tejido irradiado.&nbsp;</p><p>Se usará el código de simulación Monte Carlo PENELOPE para llevar a cabo las simulaciones correspondientes. También se usará el módulo PENH para llevar a cabo las simulaciones con haces de protones y comparar las dosis obtenidas con las correspondientes para haces de electrones. Se empezarán con simulaciones básicas que permitan al alumno comprender las características básicas de la deposición de dosis de haces de electrones en medios materiales, analizando las diferencias en función de la energía. Si fuera necesario, se desarrollarán códigos en FORTRAN o PYTHON para el análisis de los datos obtenidos.</p>FÍSICA ATÓMICA, MOLECULAR Y NUCLEAR
267-86-2024/2025<p>La braquiterapia superficial con radionúclidos (BSR) es un tratamiento basado en la aplicación de radionúclidos en la superficie de la piel para tratar determinados tumores en la misma, distintos al melanoma, como por ejemplo el carcinoma de células basales. Se emplea en este tratamiento principalmente el 188Re, distribuido homogéneamente mediante una crema sobre una lámina protectora plástica para evitar la contaminación en la piel. El objetivo de esta terapia consiste en depositar una dosis de radiación&nbsp; a la profundidad que ha sido prescrita por el médico.</p><p>El tratamiento más usual para este tipo de tumores es la cirugía, pero no está exento de complicaciones o bien problemas estéticos que requieren en ocasiones de una cirugía adicional.</p><p>La ventaja de este tratamiento es que se trata de una técnica altamente efectiva,&nbsp; requiriendo normalmente una sola sesión. Y además, solo se han reportado efectos adversos a corto plazo.</p><p>En este trabajo se pretende estudiar mediante técnicas Monte Carlo,&nbsp; la distribución&nbsp; de la dosis absorbida en piel en el tratamiento con 188Re del carcinoma de células basales.&nbsp; Además, con dicha información, se llevará a cabo un análisis de la concentración de radionúclido así como del tiempo de irradiación necesarios&nbsp; para que el correspondiente tratamiento esté de acuerdo con las prescipciones realizadas por el médido. Además, también se estudiará la dosis absorbida por el tejido sano circundante.&nbsp;</p><p>Por último, se hará un estudio de otros posibles radionúclidos que podría ser también interesantes para este tipo de tratamiento, así como de otras posibles terapias para tratar estos tumores. Por ejemplo,&nbsp; la braquiterapia de alta tasa con una fuente de 192&nbsp;Ir, empleando diferentes aplicadores.</p><p>Se hará uso del código Monte Carlo PENELOPE para realizar las simulaciones correspondientes. Se estudiará cómo están implementados los procesos básicos de interacción de los electrones y fotones con la materia en dicho código. Se empezará con alguna simulación más sencilla para adquirir destreza en el manejo del código. A partir de la geometría diseñada para describir el tratamiento, se hará el estudio completo para el 188Re y se irán realizando otras simulaciones para diferentes radioisótopos. Se generarán usando el código PENELOPE los diferentes materiales que se necesitarán para llevar a cabo las simulaciones: piel, aire, mylar, etc.</p>FÍSICA ATÓMICA, MOLECULAR Y NUCLEAR
267-140-2024/2025<p>Las tecnologías de aprovechamiento del recurso solar, como la fotovoltaica o la térmica de concentración, han demostrado ser eficaces y económicamente competitivas en el mercado energético. La producción eléctrica mediante estas tecnologías depende de la disponibilidad de recurso solar en los lugares de interés, de las condiciones atmosféricas y del ciclo día-noche. Sin embargo, la eficiencia de dichas tecnologías puede verse fuertemente afectada por el estado de ensuciamiento de las superficies colectoras. El ensuciamiento deteriora la capacidad de captación de la radiación solar, provocando pérdidas de generación y económicas. Por otro lado, las tareas de limpieza conllevan un gasto económico, tanto en materiales, como en recurso humano. Una mala gestión de las tareas de operación y mantenimiento puede hacer fracasar un proyecto de planta solar. Medir las pérdidas generadas por la suciedad en las superficies colectoras es crucial para determinar el momento de la limpieza.&nbsp;</p><p>Este trabajo pretende dar los primeros pasos en el desarrollo de un sensor óptico capaz de determinar los niveles de ensuciamiento de las superficies captadoras.</p><p>Para ello, se plantea la siguiente metodología:</p><ol><li>Revisión bibliográfica de los diferentes métodos de evaluación de la suciedad en captadores solares existentes</li><li>Revisión de emisores y receptores disponibles en el mercado</li><li>Medida de propiedades ópticas de vidrios fotovoltaicos</li><li>Diseño y construcción del primer prototipo de sensor óptico</li><li>Prueba de la fiabilidad del prototipo sensor planteado&nbsp;</li></ol>ÓPTICA
267-24-2024/2025<p>La correcta detección y análisis de nubes y aerosoles en la atmósfera es crucial para la comprensión de diversos fenómenos meteorológicos y climáticos. Los ceilómetros son instrumentos que miden la retrodispersión de la luz en la atmósfera a una longitud de onda y detectan múltiples capas de nubes y aerosoles (Cazorla et al., 2017). La interpretación y análisis de los datos generados por los ceilómetros presentan grandes desafíos, debido a la necesidad de identificar de forma precisa y automática la altura de las nubes y capas de aerosol. La señal de los ceilómetros puede representarse en mapas de color que a su vez pueden convertirse a imágenes. El ceilómetro mide de forma automática las 24 horas del día y genera una cantidad ingente de información. La inteligencia artificial ha demostrado su potencial para abordar problemas de big data. En este trabajo se abordará la clasificación y segmentación de las imágenes del ceilómetro con Deep Learning (DL), mediante Redes Neuronales Convolucionales (CNN) entrenadas bajo el paradigma de aprendizaje supervisado (He et al., 2017). Sin embargo, uno de los mayores retos asociados a estos modelos es la necesidad de disponer de grandes conjuntos de datos anotados para alcanzar altas precisiones en sus predicciones.&nbsp;</p><p>Este trabajo tiene como objetivo principal optimizar el proceso de etiquetado y entrenamiento, mejorando la eficiencia y precisión en la identificación de nubes y aerosoles a partir de las imágenes generadas por los ceilómetros (Herrero del Barrio et al., 2024). La implementación de esta metodología no solo facilitará el análisis de datos atmosféricos, sino que también contribuirá al avance en el uso de tecnologías de inteligencia artificial en meteorología y climatología. Al automatizar y perfeccionar el proceso de segmentación y clasificación de imágenes de ceilómetros, se espera que los resultados obtenidos puedan ser utilizados para mejorar modelos predictivos y estudios atmosféricos a gran escala.</p><p>En&nbsp;el presente estudio se propone generar una base de datos de imágenes basadas en el instrumento de teledetección ceilómetro Lufft CHM15k Nimbus. Este instrumento mide 24/7 a 1064 nm, por lo que se pueden generar mapas de color para cada día, que posteriormente se convertirían en imágenes para ser procesadas por diferentes técnicas de DL. Por tanto, se hará uso de bases extensas de datos (más de 10 años) con medidas del ceilómetro localizado en el Instituto Interuniversitario de Investigación del Sistema Tierra en Andalucía (IISTA), en el entorno urbano de Granada.</p>FÍSICA APLICADA
267-115-2024/2025<p>RESUMEN:<br>La industria automotriz está experimentando algunas revoluciones tecnológicas y sociales que están dando forma a la mayor revolución en el transporte. Estas fuerzas están dando lugar a tres tendencias tecnológicas disruptivas: electrificación, vehículos autónomos y movilidad digital. En el marco de estas revoluciones, se espera que la nanotecnología juegue un papel importante.<br><br>El objetivo a conseguir en este proyecto consiste en trabajar con un simulador basado en un modelo de transporte electrónico para un sistema QLED, es decir, ánodo-ETL-QD-HTL-cátodo, mediante la simulación de la característica I-V, la distribución de carga y el diagrama de bandas del dispositivo QLED para correlacionar el comportamiento eléctrico del QLED diseñado y fabricado. El simulador se basa en el Transfer Hamiltonian Approach.<br><br>METODOLOGÍA:<br>El alumno seguirá los siguientes pasos propuestos (tentativos)<br>1) Revisión bibliográfica sobre el tema propuesto<br>2) Comprender Transfer Hamiltonian Approach y el simulador ya desarrollado en código Matlab<br>3) Seleccionar dispositivos QLED específicos e identificar la heteroestructura detrás del dispositivo<br>4) Simular el dispositivo para obtener las curvas J-V e I-V junto con el diagrama de bandas del sistema<br>5) Correlacionar los resultados con dispositivos experimentales<br>6) Proponer nuevas funcionalidades para ser añadidas al simulador con el objetivo de mejorar la precisión del modelado<br>7) Reportar los resultados obtenidos y definir los próximos pasos<br><br><br>Propuesto en el marco de la Cátedra VALEO-UGR.</p>ELECTRÓNICA Y TECNOLOGÍA DE COMPUTADORES
267-111-2024/2025<p>RESUMEN:<br>La hoja de datos de LED del proveedor solo muestra el funcionamiento del LED en condiciones nominales. Curvas como<br>- I/V a temperatura ambiente (RT)<br>- V/T1 @ Corriente nominal.<br>Cubre solo su caracterización en Inom y/o RT. No existe una caracterización completa y/o modelo matemático cuando el LED funciona con corriente nominal y/o RT. La propuesta de este proyecto parte de diferentes tipos de LEDs, (AlInGaP, GaN), diferentes tamaños de chip, diferentes proveedores, etc. para hacer una caracterización completa de I/V en el rango completo de temperatura automotriz y V/T1 en el rango completo de corriente operativa para el LED. Con soporte adicional, se puede incluir la caracterización de flujo junto con la caracterización eléctrica.<br><br>METODOLOGÍA:<br>El alumno seguirá los siguientes pasos propuestos (tentativos)<br>1) Investigar diferentes tipos de LED. Tecnología. Tamaño del chip. Proveedores.<br>2) Comprender diferentes tecnologías de sustratos y modelos térmicos<br>3) Seleccionar productos candidatos para la caracterización que cubran un tipo de LED lo suficientemente alto.<br>4) Realizar las curvas I/V vs temperatura en la cámara climática. Si hay un luxómetro disponible, incluya también el flujo luminoso (lumen) versus I/V y la temperatura.<br>5) Extraer datos.<br>6) Preparar gráficos y compararlos con hojas de datos.<br>7) Elaborar modelos matemáticos.<br><br><br>Propuesto en el marco de la Cátedra VALEO-UGR.</p>ELECTRÓNICA Y TECNOLOGÍA DE COMPUTADORES
267-142-2024/2025<p>Se trata de un trabajo bibliográfico sobre las simetrías relativistas, tanto continuas como discretas, y de sus extensiones como la simetría conforme.&nbsp;</p>MATEMÁTICA APLICADA
267-67-2024/2025<p>En el contexto de la Agenda 2030 y los objetivos de desarrollo sostenible, la gestión y control del ruido urbano se realiza afrontando el problema desde dos puntos de vista. Uno, negativo, considerando el ruido como una forma de contaminación que necesita de medidas de prevención y control, mediante la realización de mapas estratégicos de ruido y la elaboración de planes de acción, tal y como establece la normativa vigente. Otra, positiva, que pone en valor la contribución del ambiente acústico urbano adecuado en la calidad de vida de la ciudadanía y en la identidad de la ciudad, incluso desde el punto de vista patrimonial. Bajo este segundo enfoque, la participación ciudadana, resulta fundamental. Se estudia la percepción en contexto para intentar determinar qué elementos de diseño y qué circunstancias de la actividad diaria hacen que el sonido urbano deje ser ruido. Porque el sonido urbano puede llegar a ser un recurso y no una forma de contaminación si además de gestionarse adecuadamente, se promueve el desarrollo de espacios tranquilos caracterizados no por sus bajos niveles acústicos sino por sus adecuados niveles sonoros. El paisaje sonoro (soundscape) urbano agradable y no necesariamente silencioso adquiere, por tanto, una dimensión extraordinaria como figura clave en el urbanismo sostenible del siglo XXI. Una figura fundamental tanto para técnicos como para responsables políticos que deben tener en cuenta, en el contexto de las Smart City, tanto los usos del territorio como la forma en la que el ambiente acústico es percibido e interpretado por la población. Sólo así será posible diseñar espacios acústicos urbanos tranquilos, caracterizados por niveles adecuados de sonido y por su capacidad para contribuir al bienestar social, la mejora de la calidad de vida y la prevención y control de la contaminación acústica.&nbsp;</p><p>&nbsp;</p><p>Teniendo en cuenta lo anterior, la norma ISO 12913 establece el procedimiento estandarizado para realizar la evaluación del paisaje sonoro. La norma incluye de momento tres partes: el marco conceptual de la evaluación en contexto, parte 1, los requisitos necesarios para la realización de las medidas, parte 2 y la forma de analizar esas medidas, parte 3. Tanto la ISO 12913-2 como la ISO 12913-3 son normas TS (Technical Specification), lo cual significa que se trata de documentos que pueden incorporar en el futuro el resultado de la investigación actualmente en desarrollo. Estamos hablando de normalización en torno a una ciencia emergente y, como tal, se entiende que puede experimentar cambios antes de convertirse en una norma ISO definitiva. Este trabajo centra su atención en la parte 2 y en la incertidumbre que existe sobre qué método es más conveniente, incluso si llegan a ser complementarios, para la realización de paseos sonoros. Estamos hablando del Método A y el Método B para la elaboración de la encuesta de percepción que debe emplearse en un paseo sonoro. De momento la información que existe, muy escasa, se limita a casos de estudio. Este TFG quiere aportar una nueva experiencia en este sentido y obtener datos en la ciudad de Granada con ambos métodos.</p>FÍSICA APLICADA
267-29-2024/2025<p>En el contexto de la Agenda 2030 y los objetivos de desarrollo sostenible, la gestión y control del ruido urbano se realiza afrontando el problema desde dos puntos de vista. Uno, negativo, considerando el ruido como una forma de contaminación que necesita de medidas de prevención y control, mediante la realización de mapas estratégicos de ruido y la elaboración de planes de acción, tal y como establece la normativa vigente. Otra, positiva, que pone en valor la contribución del ambiente acústico urbano adecuado en la calidad de vida de la ciudadanía y en la identidad de la ciudad, incluso desde el punto de vista patrimonial. Bajo este segundo enfoque, la participación ciudadana, resulta fundamental. Se estudia la percepción en contexto para intentar determinar qué elementos de diseño y qué circunstancias de la actividad diaria hacen que el sonido urbano deje ser ruido. Porque el sonido urbano puede llegar a ser un recurso y no una forma de contaminación si además de gestionarse adecuadamente, se promueve el desarrollo de espacios tranquilos caracterizados no por sus bajos niveles acústicos sino por sus adecuados niveles sonoros. El paisaje sonoro (soundscape) urbano agradable y no necesariamente silencioso adquiere, por tanto, una dimensión extraordinaria como figura clave en el urbanismo sostenible del siglo XXI. Una figura fundamental tanto para técnicos como para responsables políticos que deben tener en cuenta, en el contexto de las Smart City, tanto los usos del territorio como la forma en la que el ambiente acústico es percibido e interpretado por la población. Sólo así será posible diseñar espacios acústicos urbanos tranquilos, caracterizados por niveles adecuados de sonido y por su capacidad para contribuir al bienestar social, la mejora de la calidad de vida y la prevención y control de la contaminación acústica.&nbsp;</p><p>Teniendo en cuenta lo anterior, la norma ISO 12913 establece el procedimiento estandarizado para realizar la evaluación del paisaje sonoro. La norma incluye de momento tres partes: el marco conceptual de la evaluación en contexto, parte 1, los requisitos necesarios para la realización de las medidas, parte 2 y la forma de analizar esas medidas, parte 3. Tanto la ISO 12913-2 como la ISO 12913-3 son normas TS (Technical Specification), lo cual significa que se trata de documentos que pueden incorporar en el futuro el resultado de la investigación actualmente en desarrollo. Estamos hablando de normalización en torno a una ciencia emergente y, como tal, se entiende que puede experimentar cambios antes de convertirse en una norma ISO definitiva. Este trabajo centra su atención en la parte 3 y el problema que existe, para el que aún no se dispone de suficiente evidencia científica, cuando se realizan medidas conforme a la parte 2 en diferentes períodos de tiempo. Si bien se ha regulado la forma de hacer las evaluaciones, existe aún incertidumbre sobre qué elementos condicionan que evaluaciones realizadas en diferentes momentos del día puedan llegar a ser combinadas para obtener, de esta forma, la necesaria variedad de respuestas que permita la caracterización objetiva de los diferentes espacios urbanos.</p>FÍSICA APLICADA
267-28-2024/2025<p>La gestión y control del ruido urbano se apoya, tradicionalmente, en la realización de mapas estratégicos de ruido y la elaboración de planes de acción, tal y como establece la normativa vigente. En este contexto puramente técnico, la participación ciudadana, aunque regulada, no deja de ser testimonial y la prevención y lucha contra la contaminación acústica en nuestras ciudades rara vez recoge la percepción e interpretación de la ciudadanía de los espacios urbanos. Esta percepción acústica resulta fundamental en el diseño urbano sostenible, que genera calidad de vida y reduce los efectos del ruido en la salud de las personas. El sonido urbano puede llegar a ser un recurso y no una forma de contaminación si además de gestionarse adecuadamente, se promueve el desarrollo de espacios tranquilos caracterizados no por sus bajos niveles acústicos sino por sus adecuados niveles sonoros.&nbsp;</p><p>El paisaje sonoro (soundscape) urbano agradable y no necesariamente silencioso adquiere, por tanto, una dimensión extraordinaria como figura clave en el urbanismo sostenible del siglo XXI. Una figura fundamental tanto para técnicos como para responsables políticos que deben tener en cuenta, en el contexto de las Smart City, tanto los usos del territorio como la forma en la que el ambiente acústico es percibido e interpretado por la población. Sólo así será posible diseñar espacios acústicos urbanos tranquilos, caracterizados por niveles adecuados de sonido y por su capacidad para contribuir al bienestar social, la mejora de la calidad de vida y la prevención y control de la contaminación acústica.&nbsp;</p><p>Teniendo en cuenta lo anterior, este trabajo persigue profundizar en el conocimiento del ruido ambiental urbano en Granada a partir del estudio y caracterización de su paisaje sonoro. Dado que este tipo de evaluaciones requieren la participación ciudadana mediante encuestas y dicha participación no siempre es posible, el trabajo se centra en la revisión de índices de calidad SQI (<i>Soundscape Quality Index</i>) asociado a la percepción humana en contexto o, en última instancia, al diseño de un índice propio que pueda estimarse fácilmente a partir de medidas acústicas y/o características del entorno donde se evalúa.&nbsp;</p>FÍSICA APLICADA
267-17-2024/2025En los últimos años se ha popularizado la idea de que la mayoría de las galaxias pasan por unas pocas fases activas, pero breves, durante su vida. Estas fases activas, debidas al agujero negro supermasivo en el núcleo de las galaxias, juegan un papel crucial en su evolución. La evolución de las galaxias en las regiones menos densas del Universo, los vacíos cósmicos, puede haber sido diferente al de las galaxias que residen en estructuras densas (filamentos y cúmulos), lo que podría influir en el crecimiento del agujero negro supermasivo, así como en el ensamblaje de masa de las galaxias. La masa y el entorno de las galaxias desempeñan un papel importante en la evolución de las galaxias. En la transición de galaxias con formación estelar a galaxias extinguidas, los núcleos galácticos activos (AGN) también desempeñan allí una acción principal. Sin embargo, las conexiones entre estos tres actores aún son inciertas. En este trabajo investigamos los efectos de la masa estelar y el entorno de la estructura a gran escala (LSS) sobre la fracción de actividad nuclear en una población de galaxias en vacíos, en términos de morfología (tipo temprano y tardío), color (rojo y azul) y actividad de formación estelar (apagado y en formación de estrellas). Para explorar dónde la actividad AGN se ve afectada por el LSS, separaremos las galaxias en dos grupos, de baja y alta masa, respectivamente, y utilizaremos el parámetro de fuerza de marea para cuantificar los efectos. Por último, se compararán los resultados con los obtenidos para galaxias que residen en estructuras más densas a gran escala (es decir, en filamentos y en cúmulos). Este trabajo se propone en el marco del proyecto CAVITY (Calar Alto Void Integral-field Treasury surveY), un proyecto Legado del Observatorio de Calar Alto y liderado por la UGR, que está generando el primer conjunto de datos estadísticamente completo de galaxias en vacíos. FÍSICA TEÓRICA Y DEL COSMOS
267-83-2024/2025Es conocida la gran utilidad de la aplicación de la ciencia de sistemas complejos en la compresión y modelado de los sistemas energéticos. Se propone aquí la aplicación de sus métodos de análisis y modelado al estudio de la realidad actual del sector del hidrógeno, principalmente en España, evaluando la viabilidad de su tecnología para ser un factor importante en los objetivos de lucha contra el cambio climático, reindustrialización e incremento de la autonomía energética en España y Europa. Para la realización de este trabajo se utilizarán datos de núcleos del sector en el país, costes de producción, costes de la competencia, etc., desde la densa bibliografía sobre el tema. Asimismo, se recurrirá al empleo de diferentes modelos existentes que proyectan la evolución tecnológica del sector en costes, que comparan la posible evolución del sistema en competición con otros, etc. (Vehículos eléctricos, en el caso de automoción; baterías y otras tecnologías aplicables en diversas escalas temporales en caso de almacenamiento energético…). Todo esto sin dejar de lado las hojas de ruta ya establecidas por las administraciones europea, estatal y autonómicas, y el estudio de posibles técnicas que pudiesen aplicarse en este sector para hacerlo más competitivo, como en el caso del uso de amoniaco o metanol para el almacenamiento energético a largo plazo. ELECTRÓNICA Y TECNOLOGÍA DE COMPUTADORES
267-57-2024/2025<p>Los resonadores de cuarzo se han propuesto y demostrado en el Laboratorio de Trampas de Iones y Láseres de la Universidad de Granada para la detección de corrientes inducidas por iones atrapados [1,2], ofreciendo una funcionalidad que no ofrecen las bobinas superconductoras [3], consistente en la posibilidad de detectar iones en condiciones de no equilibrio [4]. Sin embargo, aún no ha sido posible reducir la sensibilidad hasta llegar a detectar un solo ion, lo que requiere de desarrollos para mejorar las condiciones del ion atrapado, como por ejemplo reducir la energía/temperatura de éstos. En 2022 se consiguieron formar cristales de Coulomb de iones en la trampa Penning del laboratorio utilizando láseres [5], abriendo la posibilidad de estudiar la interacción de estos cristales (iones enfriados) con el oscilador a temperatura ambiente.&nbsp;</p><p>&nbsp;</p><p><strong>Metodología</strong>:&nbsp;</p><ol><li>Conocimiento de las trampas de iones. Tecnología asociada y elementos necesarios para su funcionamiento: fuentes de iones, láseres y detección de fotones.&nbsp;</li><li>Bibliografía del grupo de investigación en los aspectos relacionados con la detección electrónica y resonante.&nbsp;</li><li>Comparativa de bobinas superconductoras y resonadores de cuarzo.&nbsp;</li><li>Conocimiento del programa experimental con trampas Penning e importancia del trabajo a realizar.&nbsp;</li><li>Introducción al sistema de control ARTIQ y al análisis de datos.&nbsp;</li><li>Toma de medidas y análisis de datos.</li></ol>FÍSICA ATÓMICA, MOLECULAR Y NUCLEAR
267-44-2024/2025Se cree que las expresiones faciales de emoción en los humanos son generadas por la contracción de los músculos faciales. Sin embargo, la superficie de la cara también cuenta con una extensa red de vasos sanguíneos. Las variaciones en el flujo sanguíneo en estos vasos producen cambios de color visibles en el rostro. Estudios recientes sugieren la existencia de un mecanismo importante y no explorado en la producción de expresiones faciales de emoción por parte del emisor y su interpretación visual por parte del observador. De este modo, las personas podrían decodificar con éxito las emociones utilizando características de color, incluso en ausencia de cualquier activación muscular facial. Sin embargo, no está suficientemente analizado qué ocurre si los observadores son daltónicos, y si para ellos el color facial se presenta como un mecanismo efectivo para transmitir y decodificar visualmente las emociones.ÓPTICA
267-114-2024/2025BREVE DESCIPCIÓN DEL TRABAJO Se dice que un material es dispersivo cuando sus propiedades dependen de la frecuencia. En el ámbito del electromagnetismo, la dependencia con la frecuencia de la permitividad eléctrica, la permeabilidad magnética o la conductividad hace que la velocidad de fase dependa a su vez de la frecuencia y abra la puerta a nuevos e interesantes fenómenos y aplicaciones. No obstante, esta dependencia en frecuencia dificulta su resolución tanto teórica como numérica cuando el tratamiento se lleva a cabo en el dominio del tiempo. En este TFG se aborda el tratamiento numérico de la propagación electromagnética en el seno de materiales con propiedades dependientes de la frecuencia mediante el método numérico de diferencias finitas en el dominio del tiempo (FDTD). Muy básicamente, el método FDTD resuelve las ecuaciones de Maxwell por ecuaciones en diferencias finitas, mediante la sustitución de un volumen del medio original por un cubo equivalente en el que se disponen adecuadamente las diferentes componentes del campo eléctrico y magnético. Esta distribución espacio-temporal del campo consigue una aproximación de segundo orden relativamente fácil de implementar cuando las propiedades del medio no dependen de la frecuencia, pero que se complica al abordar medios dispersivos. El tratamiento teórico o numérico más directo de estos medios en el dominio del tiempo involucra una convolución temporal lo que dificulta el estudio y justifica que habitualmente se traten situaciones armónicas, es decir, para una frecuencia concreta y, a posteriori, se recurra a una transformación inversa de Fourier para reproducir fenómenos en el dominio del tiempo. Pero el tratamiento directamente en el demonio del tiempo tiene sus ventajas, especialmente para el estudio de situaciones transitorias. Este TFG plantea la resolución numérica de fenómenos electromagnéticos en medios dispersivos directamente en el dominio del tiempo mediante la técnica FDTD. Tras un estudio inicial de medios no dispersivos, se amplía la capacidad de modelado a sistemas con propiedades dependientes de la frecuencia. La primera aproximación considera los trabajos iniciales que implementaban numéricamente la convolución en el propio esquema numérico. A continuación, se consideran métodos más recientes en los que la utilización de la transformada Z y la transformación bilineal permiten un tratamiento numérico más adecuado. Esta transformada, reduce el cálculo al conocimiento de la situación en unos pocos instantes anteriores, lo que optimiza el uso de memoria y tiempo de cálculo en comparación con la versión que utiliza convoluciones. Tras presentar aspectos teórico-numéricos, se propone aplicar dichas técnicas para el estudio de diferentes sistemas dispersos, como, por ejemplo, pueden ser plasmas no magnetizados, materiales dieléctricos o magnéticos siguiendo modelos de Debye o de Lorentz. FÍSICA APLICADA
267-163-2024/2025Aristóteles comienza su Metafísica con el célebre alegato "todos los hombres por naturaleza desean saber". Ese deseo de saber ha hecho que los seres humanos adopten diferentes estrategias de racionalización de la percepción de su entorno, y en última instancia de sí mismos, que han ido desde el mito a la ciencia, pasando por la religión y el arte. En ese conocimiento, ya un siglo antes de Aristóteles, presuntamente, Demócrito de Abdera había distinguido dos aparentes extremos: "todo cuanto existe es fruto del azar y la necesidad". Aunque el sentido que quiso dar Demócrito permanece oscuro, podemos aventurar por azar todo aquello que no sabemos predecir (al menos no con certeza absoluta) y por necesidad todo aquello que no podemos evitar. Este trabajo de fin de grado se ocupará de estudiar el uso que la física ha dado a la idea de azar a lo largo de la historia y, en particular, al modo en que esa idea ha sido entendida funcionalmente mediante el concepto de probabilidad. El trabajo abordará diferentes etapas en la evolución de esta idea. Comenzaremos en los albores, y el uso del azar en rituales arcaicos, para detenernos después en la Grecia del mito y el logos. Discutiremos además las primeras sistematizaciones matemáticas del uso del concepto de probabilidad en Occidente, donde a partir del siglo XVI, Cardano, y más tarde Fermat y Pascal, serán los primeros en asociar los distintos resultados obtenidos en un determinado juego (o experimento) de azar a una predicción numérica vinculada a cada posible resultado. Más adelante, serán grandes matemáticos como De Moivre, Jakob Bernoulli, Laplace, Gauss, o Poisson los que formalizarán y extenderán el uso de este concepto. Una parte significativa de este trabajo se dedicará a estudiar la influencia esencial que la consolidación de la hipótesis atómica, a finales del siglo XIX y comienzos del XX, tuvo en la aplicación del uso de probabilidad en física. En esta influencia discutiremos dos usos distintos: la probabilidad usada en modelos deterministas, debido a nuestra ignorancia del estado mecánico del sistema modelado, y la probabilidad usada en modelos cuánticos, intrínsecamente no deterministas. Para el desarrollo metodológico del trabajo, se usarán las fuentes bibliográficas disponibles, prestando especial atención a la discusión de textos originales. Junto con una extensa revisión bibliográfica, se utilizarán herramientas de simulación con las que ilustrar de forma clara el tratamiento probabilístico, que emerge a partir del siglo XX, de diversos sistemas complejos canónicos. En este sentido, se usarán desde modelos estocásticos hasta sofisticadas simulaciones de dinámica molecular. FÍSICA APLICADA
267-48-2024/2025BREVE RESUMEN DE LA PROPUESTA: Cuando un sistema relaja a un estado de equilibrio después de un cambio súbito en algún parámetro de control, la dinámica de la relajación está determinada por la separación entre el estado inicial y final [1]. Si esta separación es lo suficientemente pequeña, se puede asumir que la relajación tiene lugar a través una sucesión de estados de equilibrio intermedios que aseguran la ergodicidad. Por otro lado, si el estado inicial está lejos del final, el camino de la relajación al nuevo estado depende fuertemente de la historia previa y puede acelerarse mediante protocolos más o menos elaborados [2,3]. Sin embargo, en ocasiones ocurren efectos de memoria que limitan la aceleración, como es el caso del efecto Kovacs (EK) [4]. Si bien existen predicciones teóricas mediante diversos modelos, las observaciones experimentales son escasas [5]. En este trabajo se realizará un estudio experimental de estos protocolos aplicados a la electro-orientación de nanopartículas no esféricas dispersas en agua. En presencia de un campo eléctrico, estas partículas están parcialmente alineadas con el campo, siendo el grado de alineamiento el resultado de un balance entre el torque aleatorio producto de la agitación browniana y que tiende a desordenar el sistema y el torque eléctrico generado por el campo externo que tiende a ordenarlo. Al estar el sistema parcialmente ordenado, se vuelve birrefringente, de modo que con un dispositivo óptico se tiene acceso experimental al grado de orientación. Si aumenta la intensidad del campo, el sistema evoluciona a un nuevo estado en el que el grado de alineamiento y, en consecuencia, la birrefringencia son mayores, siendo la respuesta transitoria más rápida cuanto mayor es el campo aplicado [5]. Por tanto, el efecto Kovacs también se produce en la evolución de la birrefringencia de la muestra. En la presente propuesta, se realizará un estudio teórico y experimental de estos efectos de memoria. METODOLOGÍA: Se realizará una revisión bibliográfica de los efectos de memoria en sistemas brownianos. Las medidas experimentales se obtendrán en el laboratorio con: 1. Microscopía tanto óptica como electrónica para caracterizar la geometría y composición de las partículas. 2. Birrefringencia eléctrica en campos alternos. FÍSICA APLICADA
267-65-2024/2025Breve descripción del trabajo: Se define materia activa como aquella capaz de reaccionar a estímulos externos, produciendo una ruptura de la simetría del sistema o la autopropulsión. Ejemplos son el movimiento inducido por gradientes de luz o campos eléctricos, permitiendo imaginar sistemas microrrobóticos (1). La manipulación de estos sistemas a escala micrométrica y en medios acuosos presenta un gran número de aplicaciones, pero es a la vez un gran reto experimental, debido a la dificultad que añade la agitación térmica. En este trabajo se propone un estudio experimental de la difusión de estas partículas. En particular, estudiaremos el comportamiento de estos sistemas al aplicar un campo eléctrico (2). Metodología: Se realizará una revisión bibliográfica de las partículas que pueden usarse para estos objetivos. Las medidas experimentales se obtendrán en el laboratorio con: 1. Microscopía tanto óptica como electrónica para caracterizar la geometría y composición de las partículas. 2. Birrefringencia eléctrica en campos alternos.FÍSICA APLICADA
267-77-2024/2025<p><i><strong>Breve descripción del trabajo:</strong></i></p><p><i>Se propone el estudio del fenómeno de la turbulencia en el ámbito de la Física de Fluidos. Se partirá de las ecuaciones de movimiento de un Fluido Newtoniano a bajo número de Reynolds (ecuaciones de Navier-Stokes) para a continuación incorporar la turbulencia al modelo usando la descomposición de Reynolds. Se hará un estudio teórico inicial para conocer el estado del arte y seguidamente una simulación por Computational Fluid Dynamics (CFD) incluyendo el modelo kappa-epsilon.</i></p><p><i><strong>Metodología:</strong></i></p><p><i>El trabajo se dividirá en dos partes:</i></p><p><i>● Una primera parte, de carácter bibliográfico, en la cual se estudiarán las condiciones matemáticas para las cuales las ecuaciones de Navier-Stokes definen un régimen turbulento. Se estudiará el método de descomposición de Reynolds y se revisar el estado del arte.</i></p><p><i>● Una segunda parte que aplicará los conocimientos adquiridos en la primera mediante el uso de simulaciones CFD y donde se resuelva el flujo turbulento de un fluido en flujo interno.</i></p>FÍSICA APLICADA
267-40-2024/2025<p><i><strong>Breve descripción del trabajo:</strong></i></p><p style="text-align:justify;">En las etapas finales de su evolución, las estrellas de masa baja e intermedia se convierten en nebulosas planetarias (PNe). Con las capacidades de observación actuales, podemos detectar PNe extragalácticas a distancias de hasta ~100 Mpc a través de la línea de emisión fuerte [OIII]5007. Las PNe son trazadores esenciales de la cinemática estelar en las zonas periféricas de las galaxias, donde la espectroscopía directa y otras mediciones son dificiles de llevar a cabo debido a la baja densidad y brillo estelar. También son cruciales para estudiar la estructura del halo estelar de las galaxias y evaluar su contenido de materia oscura (por ejemplo, Romanowsky et al. 2003). La llegada de los espectrógrafos de unidad de campo integral (IFUs) de alta resolución ha permitido numerosos estudios que utilizan estos trazadores para investigar las poblaciones estelares y la cinemática de los halos exteriores de galaxias masivas de tipo temprano. Estos esfuerzos han producido varios catálogos de PNe para galaxias masivas en los cúmulos de Fornax y Virgo (por ejemplo, Sarzi et al. 2011). Sin embargo, hay una falta de estudios sistemáticos sobre la población de PNe en galaxias de tipo temprano de baja masa, también conocidas como galaxias enanas</p>FÍSICA TEÓRICA Y DEL COSMOS
267-34-2024/2025<p><i><strong>Breve descripción del trabajo:</strong></i></p><p style="text-align:justify;">El proyecto a realizar por el estudiante se vería enmarcado en el proyecto internacional CAVITY (<a href="https://cavity.caha.es/">https://cavity.caha.es</a>) cuyo objetivo es el estudio de las galaxias en los vacios cósmicos. Es un proyecto internacional iniciado en 2021 y liderado por investigadores de la UGR. El cartografiado CAVITY analiza en detalle las galaxias que residen en las zonas menos densas del Universo. Estas zonas casi vacías, llamadas 'voids', representan un 60% del volumen del universo pero solo un 10% de la masa del mismo. Las galaxias que se formaron en estas regiones presentan la clave para entender cómo la estructura a gran escala del universo determina las propiedades que observamos en las galaxias, incluidas la Vía Láctea. En particular, la masa de los halos de materia oscura de las galaxias en vacíos es de gran interés. Para poder determinar en detalle el ensamblaje de masa de las galaxias en los vacíos cosmológicos, necesitamos determinar la contribución de la materia oscura al potencial total de la galaxia. En este proyecto se planea determinar la contribución de la materia oscura al potencial total de una muestra de 3 galaxias espirales masivas que habitan las zonas menos densas del universo. Para ello vamos a utlizar el código ‘DYNAMITE’ (Thater et al. 2022) que analiza la cinemática observada de los cubos de datos de las galaxias de CAVITY usando una herramienta que explora superposiciones de orbitas estelares para modelar la cinemática (van den Bosch 2008).</p>FÍSICA TEÓRICA Y DEL COSMOS
267-16-2024/2025<p><i>Los microgeles son partículas blandas compuestas de redes poliméricas entrecruzadas e hidratadas de tamaño coloidal. Los microgeles tienen la capacidad de hincharse/deshinchase como respuesta a estímulos (pH, temperatura, electrolito…), lo cual les dota de interés en el diseño de sistemas de encapsulación de compuestos bioactivos que se pueden liberar al medio como respuesta a un estímulo. La estructura química de la red polimérica, así como la cantidad/naturaleza del entrecruzante usado, determinan la deformabilidad de los microgeles y su capacidad de respuesta a estímulos externos. Recientemente se han desarrollado nuevos microgeles poliméricos basados en oligoetilenglicol (OEG) como una alternativa biocompatible a microgeles tradicionales basados en polímeros sintéticos. Las propiedades de estos nuevos microgeles aún presentan numerosos interrogantes de cara a su aplicación biotecnológica y biomédica como sistemas de encapsulación de fármacos. Estas propiedades se deben estudiar tanto en disolución como en superficie de cara a su posible aplicación en emulsiones/espumas.&nbsp;</i></p><p>&nbsp;</p>FÍSICA APLICADA
267-42-2024/2025<p style="margin-left:0cm;text-align:justify;">Experimentalmente se utilizan pulsos láseres no-resonantes para controlar y manipular la dinámica rotacional de moléculas. Esto permite fijar su eje intermolecular en el sistema de referencia del laboratorio, fenómeno que se conoce como alineación, y realizar medidas experimentales con una gran precisión. Si la duración de los pulsos láseres ser mucho más cortos que el periodo rotacional molecular, su aplicación induce una dinámica no adiabática. Así, tras su aplicación la molécula se alinea de forma significativa cada periodo o medio periodo rotacional incluso en ausencia del campo láser. El objetivo de este trabajo fin de grado es investigar la interacción de diferentes pulsos láseres con una molécula polar descrita como un rotor rígido.</p><p style="margin-left:0cm;text-align:justify;">Para describir la molécula se usarán las aproximaciones de Born-Oppenheimer y del rotor rígido, suponiendo que los acoplamientos entre los grados de libertad electrónico y vibracional y entre los grados de libertad rotacional y vibracional son despreciables. Además, se promediará temporalmente en la frecuencia de los pulsos láseres, de esta forma la interacción del campo láser con el momento dipolar permanente de la molécula se anula quedando solamente la interacción con la polarizabilidad. Las ecuaciones de Schrödinger dependientes e independientes del tiempo se resolverán numéricamente. Para ello se utilizarán métodos computacionales híbridos que combinarán el desarrollo en serie en la base formada por los armónicos esféricos para las coordenadas angulares, y el método de Lanczos para la propagación temporal.</p>FÍSICA ATÓMICA, MOLECULAR Y NUCLEAR
267-15-2024/2025<p>El modelo de campo medio permite explicar un buen número de propiedades nucleares, tanto del estado fundamental como de los estados excitados. En los libros de texto, se suelen analizar potenciales nucleares como el pozo cuadrado infinito, el potencial de oscilador armónico o el potencial de Woods-Saxon. En este trabajo se estudiará el pozo cuadrado finito, incluyendo el término central, el término spin-órbita y el término coulombiano.</p><p><i><strong>Metodología:</strong></i></p><p>En primer lugar se estudiarán los potenciales de campo medio usuales y se formulará la ecuación de Schrödinger para el potencial tipo pozo cuadrado finito, identificando la forma de los términos de spin-órbita y colombiano y los parámetros libres del modelo.</p><p>Seguidamente, se obtendrán los datos experimentales necesarios para fijar estos parámetros con el fin de estudiar distintos núcleos de capa cerrada; es decir, las energías monoparticulares de los niveles alrededor del nivel de Fermi, tanto para neutrones como para protones, a partir de los excesos de masa de los núcleos vecinos del núcleo objeto de estudio.</p><p>Se desarrollará un programa computacional para resolver la ecuación de Schrödinger numéricamente para el potencial establecido y se ajustarán los parámetros del mismo para reproducir la información experimental recabada. Las funciones de onda monoparticulares obtenidas se compararán con las que resultan de un potencial de Woods-Saxon.&nbsp;</p><p>También se compararán las distribuciones de carga y de materia y los radios nucleares obtenidos para el potencial cuadrado finito con la información experimental disponible y con los resultados que se obtienen a partir del potencial de Woods-Saxon ajustado al núcleo analizado.</p><p>Por último se estudiarán otras propiedades como la <i>skin</i> nuclear.</p>FÍSICA ATÓMICA, MOLECULAR Y NUCLEAR
267-78-2024/2025<p style="text-align:justify;">El estudio de las características dinámicas de las señales que producen los sistemas biológicos es hoy día un campo de investigación multidisciplinar de creciente interés [1]. En este TFG se propone analizar <i>estabilogramas</i>, que son señales que dan cuenta de la evolución temporal del centro de presión de un individuo que se encuentra de pie sobre una plataforma de estabilometría. Los estabilogramas constituyen una herramienta fundamental en el estudio del sistema de control postural humano, que resulta ser un sistema de balance complejo entre varios mecanismos fisiológicos que aseguran el equilibrio de las personas tanto en condiciones estáticas como cuando se encuentran en movimiento [2].</p><p>Existen distintas metodologías para llevar a cabo el estudio de las señales temporales, en general, y de los estabilogramas, en particular. Entre ellas cabe destacar DFA (<i>detrended fluctuation analysis</i>) [3], R/S (<i>rescaled range analysis</i>) [4], EST (<i>evolutionary spectrum theory</i>) [5], PE (<i>permutation entropy</i>) [6] o WT (<i>wavelet techniques</i>) [7]. En este trabajo se plantea utilizar algunas de estas técnicas para llevar a cabo el análisis de las características fractales y las propiedades temporales no estacionarias de los estabilogramas.</p><p><i><strong>Metodología:</strong></i></p><p style="text-align:justify;">En primer lugar se analizarán las características básicas de los estabilogramas disponibles, obtenidos tanto en condiciones estáticas como dinámicas.</p><p>Seguidamente, se estudiarán las técnicas de análisis fractal que se van a utilizar (R/S y PE) prestando atención a las propiedades de las señales que esas técnicas permiten obtener.</p><p>A continuación se escribirán los programas de ordenador necesarios para llevar a cabo los distintos procedimientos necesarios y se aplicarán a los conjuntos de datos disponibles.</p><p>Finalmente, se compararán los resultados obtenidos con ambas técnicas y con resultados de DFA, estableciendo las diferencias o similitudes resultantes y sus posibles dependencias con el tipo de las señales (estáticas o dinámicas) y la longitud de las mismas.</p>FÍSICA ATÓMICA, MOLECULAR Y NUCLEAR
267-147-2024/2025<p style="text-align:justify;">Las cámaras de ionización son los dispositivos más utilizados en la caracterización&nbsp;dosimétrica de haces de radiación ionizante. Uno de los campos de mayor aplicación de las mismas es la dosimetría física de haces clínicos utilizados en terapia.</p><p style="text-align:justify;">En estas cámaras, la irradiación con cualquier tipo de haz produce la ionización de los átomos del gas (aire en muchos casos) que contienen en su interior. La aplicación de una diferencia de potencial eléctrico entre sus electrodos permite recolectar las cargas y realizar la determinación de la correspondiente dosis absorbida.</p><p>Uno de los aspectos fundamentales en todo el proceso es la denominada <i>eficiencia de recolección</i> de las cargas generadas en el interior de las cámaras, una cantidad que tiene en cuenta que dichas cargas pueden recombinarse en su camino hacia los electrodos, dando lugar a una diferencia, que puede llegar a ser significativa, entre la que origina la radiación y la que finalmente es cuantificada en el detector. Esa eficiencia de recolección puede obtenerse resolviendo un sistema de ecuaciones parciales diferenciales acopladas [1,2]. Sin embargo, esto sólo puede llevarse a cabo analíticamente en el caso de geometrías ideales simples, bajo determinadas condiciones, siendo una de las aproximaciones más popular la de Boag [3,4,5]. También es posible resolver el problema numéricamente, utilizando el método de diferencia finitas [6] o la simulación Monte Carlo [7].</p><p style="text-align:justify;"><i><strong>Metodología:</strong></i></p><p style="text-align:justify;">En primer lugar se estudiará el problema de la recolección de la carga en cámaras de ionización, planteando el sistema de ecuaciones diferenciales que debe resolverse para su cálculo. Seguidamente se impondrán las condiciones conducentes a la aproximación de Boag para la resolución del problema. Se obtendrán las soluciones analíticas para el caso de la cámara plano-paralela para distintas diferencias de potencial entre los electrodos y se analizarán los efectos asociados a las dimensiones de la cámara. A continuación se formulará el esquema de simulación Monte Carlo que permite resolver el problema y se aplicará a los mismos casos analizados bajo la aproximación de Boag, comparando los resultados.</p>FÍSICA ATÓMICA, MOLECULAR Y NUCLEAR
267-6-2024/2025<p><i><strong>Breve descripción del trabajo:</strong></i></p><p>Los espectrómetros de neutrones basados en esferas de Bonner o detectores similares, incorporan dispositivos diseñados para la detección de neutrones que emplean un elemento activo altamente sensible a la captura de neutrones térmicos. Mediante la combinación adecuada de materiales moderadores y multiplicadores, se puede construir un conjunto de detectores que, en principio, permite reconstruir, mediante técnicas de deconvolución, el espectro del campo de neutrones en el que se encuentran los detectores a partir de los contajes obtenidos en cada uno de ellos. La aplicación de estas técnicas puede ser complicada debido a la influencia que distintos parámetros característicos pueden tener sobre los espectros reconstruidos.</p><p>En este trabajo se prestará atención a los efectos que, sobre los espectros reconstruidos, producen los distintos parámetros queconforman la información que se tiene a priori sobre el proceso de detección y el propio campo neutrónico.</p><p><i><strong>Metodología:</strong></i></p><p>La ejecución del trabajo se estructura en tres fases:</p><p>1) Aprendizaje teórico: Se le aportará al alumno el material bibliográfico necesario para que pueda aprender los aspectos&nbsp;teóricos básicos relacionados con la espectrometría de neutrones y las técnicas de deconvolución.</p><p>2) Aprendizaje práctico: Partiendo de una base de datos de respuestas de un cierto número de detectores de neutrones con&nbsp;distintas características geométricas, el alumno aprenderá los procedimientos necesarios para llevar a cabo la deconvolución y&nbsp;el análisis de sensibilidad.</p><p>3) Aplicación práctica: En esta última fase, el alumno deberá llevar a cabo el análisis de sensibilidad para los parámetros&nbsp;asociados a la información a priori en la deconvolución con espectrómetros de neutrones.</p>FÍSICA ATÓMICA, MOLECULAR Y NUCLEAR
267-118-2024/2025<p>El problema del compromiso unitario (Unit Commitment Problem, UCP) es un desafío crucial en la planificación y operación de sistemas eléctricos de potencia. Se refiere a la determinación óptima de un conjunto de decisiones sobre qué unidades de generación eléctrica deben estar operativas y cuándo, para satisfacer la demanda de energía de manera eficiente y económica, mientras se cumplen diversas restricciones técnicas y operativas. El problema del unit commitment se puede formular en formulación QUBO (Quadratic Unconstraint Binary Optimization problem) y ser resuelto usando un Quantum Annealer.</p><p>El primer paso será fundamentar, a nivel introductorio,<span style="background-color:rgb(255,255,255);color:rgb(0,0,0);"> las bases teóricas del funcionamiento de los Quantum Annealers, para después formular y resolver el problema del Unit Commitement problem.</span></p><p>&nbsp;Para la resolución del problema se usarán recursos gratuitos en el cloud y un dataset sintético o un dataset real gratuito en caso de ser posible.</p>FÍSICA ATÓMICA, MOLECULAR Y NUCLEAR
267-32-2024/2025<p>Se han llevado a cabo diferentes estudios cuantitativos en sistemas multielectrónicos para analizar el nivel de correlación y de ‘información mutua’ existente entre los electrones que componen un sistema dado. Tales estudios se han basado usualmente en un análisis comparativo entre la densidad de pares de electrones (dependiente de dos variables) y la distribución producto de las respectivas densidades marginales a un cuerpo. La mayor o menor discrepancia entre dichas magnitudes constituye una medida del grado de correlación entre los electrones constituyentes. &nbsp;&nbsp;<br>&nbsp; Más allá de un análisis comparativo visual, se persigue un estudio metodológicamente preciso y riguroso, empleando para ello una diversidad de funcionales que pone a nuestro alcance la bien conocida Teoría de la Información. En muchos casos tales funcionales actúan como ‘medidas de distancia’ entre distribuciones probabilísticas, considerando las propiedades de las que gozan gracias a sus respectivas definiciones, así como los espacios de distribuciones sobre los que se definen.<br>&nbsp; Cabe destacar que dos distribuciones pueden considerarse más o menos ‘distantes’ atendiendo a según qué aspectos de sus propiedades estructurales, por ejemplo el nivel de dispersión sobre su dominio o su posible carácter oscilatorio, entre otras.<br>&nbsp; Asimismo, dada la amplitud de aplicabilidad de las herramientas teórico-informacionales, es de interés considerar los estudios paralelos en los espacios conjugados de posiciones y momentos. Además del enriquecedor aporte de información al incluir ambos espacios (y en ocasiones el ‘espacio producto’), es notable destacar la eventual existencia de relaciones de incertidumbre asociadas a los funcionales considerados, análogas a la notable relación de Heisenberg expresada en términos de las respectivas varianzas.&nbsp;<br>&nbsp; En fechas recientes nuestro grupo ha desarrollado con éxito algunos trabajos en las líneas mencionadas, con aplicaciones en sistemas atómicos neutros (carga total cero) o iones de carga unidad (cationes y aniones).&nbsp;<br>&nbsp; En este trabajo se pretende extender tales estudios sobre las densidades a dos cuerpos mediante el uso de ‘funcionales generalizados’, con carácter monoparamétrico, y que permiten dar un mayor/menor peso a diferentes regiones del dominio de la distribución, tales como la región de valencia o el entorno del origen. La modificación de los pesos relativos, tanto en el espacio de posiciones como en el de momentos, pone de manifiesto la interconexión entre las características estructurales de la densidad en el espacio considerado y las propiedades físico-químicas más relevantes del sistema al que corresponde.&nbsp;</p><p><br>1.&nbsp;&nbsp;&nbsp;&nbsp;Diseñar los códigos computacionales necesarios para la obtención de las correspondientes densidades a dos cuerpos.<br>2.&nbsp;&nbsp;&nbsp;&nbsp;Calcular la divergencia y similitud entre la densidad a dos cuerpos y el producto de las densidades a un cuerpo, para diferentes rangos de q, como medidas de correlación y de ‘información mutua’ entre los electrones que constituyen el sistema.<br>3.&nbsp;&nbsp;&nbsp;&nbsp;Interpretar los resultados en términos de las principales propiedades físicas de los átomos, y atendiendo a las propiedades estructurales de la nube electrónica.<br>4.&nbsp;&nbsp;&nbsp;&nbsp;Comparar los resultados con los obtenidos previamente mediante el uso de densidades a un cuerpo, y que no incluyen información en términos de correlación.</p><p>&nbsp;</p>FÍSICA ATÓMICA, MOLECULAR Y NUCLEAR
267-160-2024/2025<p>La teoría de cuerdas es, posiblemente, la mejor (si no la única) candidata a describir todas las interacciones físicas fundamentales, incluída la gravedad, de una manera unificada y compatible con los postulados de la relatividad y la mecánica cuántica. Asimismo, su estudio ofrece nuevas relaciones entre matemáticas y física, así como nuevas perspectivas desde las que entender la física ya conocida.</p><p>La motivación de este trabajo es que la/el estudiante se familiarice con los elementos más fundamentales de esta teoría. Estos son: la acción de la cuerda clásica y sus simetrías, y el espectro de masas al que da lugar en la versión cuántica.<br>&nbsp;</p>FÍSICA TEÓRICA Y DEL COSMOS
267-47-2024/2025<p>Uno de los resultados más celebrados en la física teórica moderna es el fenómeno demostrado por Hawking sobre el hecho de que los agujeros negros en realidad emiten radiación, y por tanto, se evaporan. Para ello, es necesario tener en cuenta campos cuánticos que se propagan en la cercanía del horizonte [1]. Este fenómeno se puede entender de una forma simple y análoga si uno considera observadores en el espaciotiempo de Minkowski que se mueven siguiendo trayectorias aceleradas, lo que se conoce como el efecto Unruh [2]. Estos observadores viven en un subespacio del espaciotiempo de Minkowski, conocido como espaciotiempo de Rindler. Estos observadores no perciben los campos cuánticos en el estado de vacío de Minkowski, si no en un estado térmico totalmente caracterizado por un espectro planckiano cuya temperatura está determinada por la aceleración del observado</p><p>Metodologia: Se aplicarían conocimientos básicos de geometría diferencial avanzada y teoría cuántica de campos.</p>FÍSICA TEÓRICA Y DEL COSMOS
267-161-2024/2025<p>La métrica de Kasner es una solución exacta de las ecuaciones de Einstein, que describe un universo que, en contraste con la métrica de Friedmann-Robertson-Walker, no es isótropo. La principal diferencia con los modelos cosmológicos habituales es que cada dirección espacial expande a un ritmo distinto. La solución original fue derivado por Kasner en 1921 para las ecuaciones del vacío. En este proyecto derivaremos esa solución del vacío y la generalizaremos incluyendo tensores de energía-momento no triviales (por ejemplo fluidos perfectos, campos electromagnéticos, campos escalares o una constante cosmológica). En particular estudiaremos la relación entre la anisotropía de las fuentes y la anisotropía de la solución.</p>FÍSICA TEÓRICA Y DEL COSMOS
267-51-2024/2025<p>El formalismo de Newman-Penrose, introducido por Ezra Newman y Roger Penrose [1,2], es una herramienta poderosa en la teoría de la relatividad general que permite un tratamiento elegante y compacto de las ecuaciones de campo de Einstein. Este formalismo es particularmente útil para el estudio de soluciones de gravedad en vacío, donde las ecuaciones de Einstein se simplifican considerablemente. Sin embargo, a pesar de su utilidad, el formalismo de Newman-Penrose sigue siendo menos conocido y utilizado en comparación con los enfoques más tradicionales basados en tensores. En este trabajo, se propone un estudio detallado del formalismo de Newman-Penrose y sus aplicaciones al estudio de la gravedad en vacío.</p><p>Metodología: Se utilizarán técnicas de geometría diferencial y relatividad general para estudiar el formalismo de Newman-Penrose. Se realizarán cálculos específicos para demostrar la utilidad de este formalismo en el estudio de la gravedad en vacío. Se podrían necesitar métodos numéricos para la manipulación abstracta de tensores.</p>FÍSICA TEÓRICA Y DEL COSMOS
267-158-2024/2025<p>A día de hoy existe un amplio conjunto de evidencias que indican que el Universo comenzó abruptamente hace aproximadamente 13.750 millones de años en un evento singular que conocemos con el nombre de <i>Big Bang</i>. La termodinámica y la física estadística juegan un papel crucial en la comprensión de la secuencia de transiciones que el Universo temprano sufrió poco después de este <i>Big Bang</i>. Estas transiciones dejaron diferentes huellas que la astrofísica ha explotado para estudiar las propiedades del Universo en sus primeros momentos de vida.&nbsp;</p><p>&nbsp;</p><p>El objetivo de este trabajo consiste en realizar una revisión bibliográfica de la física estadística y la termodinámica del Universo primigenio y sus predicciones para los estadios iniciales de la evolución del Universo. Para ello se usaran diferentes herramientas, tales como la teoría del gas ideal clásico, así como de los gases ideales cuánticos de fermiones y bosones, junto con la teoría del equilibrio químico. Con esto se pretende entender mejor desde un punto de vista mecano-estadístico la física del Universo temprano.</p>ELECTROMAGNETISMO Y FÍSICA DE LA MATERIA
267-95-2024/2025<p><i><strong>Breve descripción del trabajo:</strong></i></p><p>En la naturaleza, la interacción entre los sistemas y su entorno es siempre importante, lo que hace que la noción de sistemas cuánticos aislados sea más un ideal teórico que una descripción precisa de la realidad. Esta premisa fundamental conduce a explorar la física de los sistemas cuánticos abiertos, en los cuales la interacción (incoherente) con el entorno circundante desempeña un papel crucial en su dinámica y evolución. El estudio de estos sistemas y del papel que sus simetrías puedan jugar en su evolución y propiedades no solo es esencial para avanzar en la comprensión fundamental de la física cuántica, sino que también ofrece nuevas perspectivas para el desarrollo de tecnologías avanzadas en áreas como la óptica o la computación cuántica.&nbsp;</p><p>&nbsp;</p><p>El objetivo de este trabajo consiste en realizar una revisión bibliográfica de la física estadística, la termodinámica y el transporte de los sistemas cuánticos abiertos. Para ello se emplearán herramientas y técnicas de teoría cuántica, centrándose en el estudio de las ecuaciones maestras de Lindblad y la teoría de sistemas abiertos. Además, se explorará el papel crucial de las simetrías y las fluctuaciones cuánticas en la evolución de estos sistemas, con el fin de obtener una comprensión más profunda de sus propiedades.</p><p>&nbsp;</p><p><i><strong>Metodología:</strong></i></p><p>En una primera fase, se llevará a cabo una búsqueda exhaustiva de la literatura científica relacionada con sistemas cuánticos abiertos, incluyendo artículos científicos, libros, tesis doctorales y otros recursos académicos. Asimismo, se realizará una revisión de los fundamentos teóricos de la física cuántica, física estadística y termodinámica, incluyendo conceptos clave de sistemas abiertos. Tras esta primera etapa, se profundizará en la comprensión de las ecuaciones maestras de Lindblad y su aplicación en la descripción de la dinámica de sistemas cuánticos abiertos. Finalmente, se procederá a revisar el papel de las simetrías y las fluctuaciones cuánticas en la evolución de los sistemas estudiados. Se examinará cómo estas propiedades pueden influir en su comportamiento y cómo pueden ser aprovechadas para conocer su dinámica y propiedades.</p>ELECTROMAGNETISMO Y FÍSICA DE LA MATERIA
267-141-2024/2025<p style="text-align:justify;"><span style="background-color:transparent;color:#000000;">Una de las aplicaciones más destacadas de fotónica en los últimos años son los sensores portátiles biomédicos para uso personal. Estos sensores, también conocidos como sensores portátiles (wearable sensors), juegan un papel crucial en el monitoreo de la salud y el bienestar. Estos dispositivos permiten la recolección continua de datos fisiológicos en tiempo real, facilitando la detección temprana de enfermedades, el seguimiento de condiciones crónicas y la mejora del rendimiento deportivo.</span></p><p style="text-align:justify;"><span style="background-color:transparent;color:#000000;">Existen varios tipos de sensores biomédicos personales. Los monitores de actividad, como los pedómetros y acelerómetros, rastrean el movimiento y la actividad física. Los sensores de frecuencia cardíaca miden el ritmo cardíaco, proporcionando información sobre la salud cardiovascular. Los oxímetros de pulso evalúan los niveles de oxígeno en sangre, cruciales para pacientes con problemas respiratorios. Los glucómetros continuos controlan los niveles de glucosa en pacientes diabéticos. También existen sensores de electrocardiograma (ECG) y electromiograma (EMG) que registran la actividad eléctrica del corazón y los músculos, respectivamente.</span></p><p style="text-align:justify;"><span style="background-color:transparent;color:#000000;">Estos dispositivos no solo mejoran la calidad de vida al ofrecer una vigilancia de la salud más accesible, sino que también empoderan a los usuarios al proporcionarles información detallada sobre su estado físico.&nbsp;</span></p><p style="text-align:justify;"><span style="background-color:transparent;color:#000000;">El TFG se centrará en realizar una revisión bibliográfica de las tecnologías fotónicas utilizadas en este tipo de sensores, detallando los desarrollos recientes en este campo y las perspectivas de futuro.&nbsp;</span></p>ÓPTICA
267-153-2024/2025<p style="text-align:justify;"><span style="background-color:transparent;color:#000000;">Las técnicas de abrasión de vidrio basadas en láser son esenciales para la construcción de dispositivos fotónicos avanzados. Estas técnicas utilizan pulsos láser de alta intensidad para modificar o eliminar material de una superficie de vidrio con gran precisión. La interacción luz-materia es fundamental en este proceso, ya que los pulsos láser inducen una absorción localizada de energía que causa la vaporización o fusión del vidrio en áreas específicas.</span></p><p style="text-align:justify;"><span style="background-color:transparent;color:#000000;">Una de las principales técnicas es la ablación láser, donde se utilizan pulsos ultracortos para evitar la propagación del calor, permitiendo la creación de estructuras microscópicas con alta resolución. Otra técnica es la escritura directa con láser, que modifica el índice de refracción del vidrio, formando guías de onda y otros componentes fotónicos.</span></p><p style="text-align:justify;"><span style="background-color:transparent;color:#000000;">Estas técnicas permiten la fabricación de circuitos fotónicos integrados, sensores ópticos y dispositivos de comunicación avanzados, mejorando la precisión y la miniaturización. La capacidad de manipular el vidrio a nivel microscópico mediante la interacción precisa de la luz con la materia abre nuevas posibilidades en la investigación y desarrollo de tecnologías fotónicas.</span></p><p style="text-align:justify;"><span style="background-color:transparent;color:#000000;">El TFG se centrará en realizar una revisión bibliográfica de las tecnologías fotónicas basadas en láser utilizadas para la abrasión del vidrio, incluyendo los tipos de láseres utilizados, los requisitos que deben cumplir, los principales aspectos de la interacción luz-materia en este contexto, y las principales aplicaciones de la tecnología como la construcción de nano-estructuras. Se detallarán los desarrollos recientes en este campo y las perspectivas de futuro.&nbsp;</span></p>ÓPTICA
267-119-2024/2025<p style="text-align:justify;">El Modelo Estándar de Partículas es muy exitoso en la descripción de los procesos físicos hasta energías de unos cuantos Tera-electronvoltios, que es la energía máxima alcanzada en los colisionadores de partículas actuales. No obstante, existen problemas tanto a nivel experimental como teórico (materia oscura, problema de las jerarquías) que indican que el Modelo Estándar es en realidad una teoría efectiva que debe completarse a energías más altas.&nbsp;</p><p style="text-align:justify;">En este trabajo estudiaremos un modelo con dimensiones extra, en el marco de las teorías que tratan de explicar la Física más allá del Modelo Estándar de Partículas. El modelo constituirá una generalización del modelo de Randall-Sundrum [1]. Para cada tipo de campo, esta clase de modelos predice estados nuevos con masas más grandes que las masas de las partículas conocidas hasta la fecha, y son los llamados modos de Kaluza-Klein. Este trabajo estará centrado en el estudio de un modelo que da lugar a modos de Kaluza-Klein con espectro continuo. En particular, se estudiar<span style="color:#000000;">án las funciones de Green de varios tipos de campos, así como sus propiedades espectrales.</span></p><p style="text-align:justify;">&nbsp;</p><p><br>&nbsp;</p>FÍSICA ATÓMICA, MOLECULAR Y NUCLEAR
267-131-2024/2025<p style="margin-left:0cm;text-align:justify;">Recientemente se ha demostrado el procesamiento de información cuántica usando átomos neutros atrapados en redes ópticas o pinzas ópticas. La interacción con átomos Rydberg son de largo alcance y permiten crear entrelazamiento y puertas cuánticas entre pares de átomos. En este trabajo se quiere estudiar la implementación física de esas puertas cuánticas. La idea es empezar describiendo algunos conceptos básicos relacionadas con información cuántica, como entrelazamiento, superposición, qubits, puertas lógicas, etc. usando átomos Rydberg. Se estudiará la interacción entre el átomo Rydberg y los átomos en el estado fundamental, así como el uso de campos láseres para crear las excitaciones. A continuación, se analizará la creación de una puerta cuántica usando átomos Rydberg , se comparará con otras implementaciones sistemas atómicos, y las fuentes de error.&nbsp;</p><p style="margin-left:0cm;text-align:justify;">Metodología: Se hará uso de la bibliografía existente [1,2]&nbsp;para comprender los fundamentos básicos de la Información Cuántica y las plataformas físicas donde se implementa y crea el entrelazamiento y las puertas cuánticas. Después, se estudiará las propiedades más importantes de sistemas Rydberg [3], su interacción con átomos en el estado fundamental, y la creación de puertas cuánticas con ellos [4-7].</p><p style="margin-left:0cm;">&nbsp;</p>FÍSICA ATÓMICA, MOLECULAR Y NUCLEAR
267-10-2024/2025<p style="text-align:justify;">El presente Trabajo Fin de Grado (TFG) se desarrollará en el Grupo de Física de la Atmósfera (GFAT) de la Universidad de Granada. Este trabajo se centrará en la aplicación de técnicas de inversión Raman (Ansmann et al., 1990) y Klett (Klett, 1981) al lidar multiespectral llamado ALHAMBRA, y ubicado en el Instituto Interuniversitario de Investigación del Sistema Tierra en Andalucía (IISTA). Además, sSe evaluará&nbsp;la altura de referencia utilizada para el ajuste de Rayleigh, que afecta los resultados de estas inversiones. El uso del lidar multiespectral permite obtener información detallada de las propiedades ópticas de los aerosoles en la atmósfera. Las inversiones permiten la determinación de parámetros importantes como la extinción y la retrodispersión del aerosol. Sin embargo, la elección de la altura de referencia para el ajuste de Rayleigh es crítica y puede influir significativamente en los resultados obtenidos. Este trabajo busca optimizar y comprender mejor este proceso.</p><p>La metodología propuesta consistirá en las siguientes etapas:</p><ol><li><strong>Recopilación de datos lidar multiespectral&nbsp;</strong>de&nbsp;la base de datos existentes o de campañas de medición específicas.</li><li>Manejar librería GFATPY en Python para realizar las inversiones de las señales lidar.</li><li><strong>Aplicación de inversiones Raman y Klett a&nbsp;</strong>las señales Lidar para obtener las propiedades ópticas de los aerosoles.</li><li>Realización de ajustes de Rayleigh utilizando diferentes alturas de referencia para evaluar su influencia en los resultados de las inversiones.</li><li>Comparación de los resultados obtenidos con diferentes alturas de referencia, evaluando las diferencias y determinando la altura óptima.</li><li>Análisis de los resultados y desarrollar una herramienta para seleccionar automáticamente la altura de referencia de las inversiones.</li></ol>FÍSICA APLICADA
267-120-2024/2025<p style="text-align:justify;">&nbsp; &nbsp; &nbsp;Los modelos con m<span style="color:#000000;">ás de 4 dimensiones espacio-temporales constituyen una de las líneas de investigación más fructíferas en el estudio de la Física más allá del Modelo Estándar de Partículas. Desde el modelo en espacio de AdS en 5-dim propuesto por Randall y Sundrum en [1], numerosos estudios han postulado diversos escenarios que incluyen el acoplamiento de un campo escalar con gravedad, lo que ha dado lugar a numerosos resultados teóricos con implicaciones en Física de Partículas [2, 3, 4] y Cosmología [5]. Un tipo particular de modelo con campo escalar conocido como “modelo de dilatón lineal”, da lugar a propiedades termodinámicas y espectrales peculiares [6, 7].</span></p><p style="text-align:justify;"><span style="color:#000000;">&nbsp; &nbsp; &nbsp;En los últimos años, diversas teorías con dimensiones extra se han usado en el marco de los estudios de la cosmología de branas [8], en la que se considera que la materia ordinaria (materia del Modelo Estándar) está confinada en un espacio de 3 dimensiones espaciales (brana) que se mueve en un espacio de dimensión mayor. La cosmología de estos modelos se puede estudiar mediante la resolución de las ecuaciones de Friedmann para la brana, lo que permite describir la expansión de un universo homogéneo e isótropo en el contexto de la relatividad general. Por tanto, es necesario encontrar las ecuaciones de Friedmann para un observador situado en la brana, lo que requiere del uso de técnicas de proyección [9].</span></p><p style="text-align:justify;">&nbsp; &nbsp; &nbsp;En este trabajo estudiaremos el modelo de dilat<span style="color:#000000;">ón lineal, así como algunas variantes del mismo, en el marco de la cosmología de branas. Se obtendrán las ecuaciones de Friedmann, así como la ecuación de conservación del tensor energía-momento proyectado en la brana. Las soluciones de estas ecuaciones permitirán caracterizar la evolución del universo en sus 3 regímenes característicos: universo dominado por materia, por radiación, o por la constante cosmológica. El comportamiento de tipo materia estará relacionado con una posible contribución a la Materia Oscura a nivel cosmológico.</span></p>FÍSICA ATÓMICA, MOLECULAR Y NUCLEAR
267-113-2024/2025<p><span style="color:#202124;">En los últimos años se ha prestado una atención considerable al uso de radares de penetración terrestre (GPR) o georradares para detectar &nbsp;diversos problemas en el pavimento. &nbsp;</span>Este trabajo propone realizar un modelo del pavimento considerándolo <span style="color:#202124;">un medio multicapa formado por capas planas paralelas de distintos materiales con permeabilidad igual a la del vacío y permitividad en general compleja. A partir de dicho modelo se deberán sacar conclusiones sobre la frecuencia de operación que debe elegirse en el georradar para que la señal reflejada por la multicapa tenga una amplitud mínima previamente especificada que permita su detección.</span></p><p><span style="color:#202124;">Metodología:</span></p><ol><li>Explicar el fundamento electromagnético del georradar.</li><li>Obtener la expresión analítica de la señal reflejada por una multicapa de N capas de las que se conoce su permitividad, conductividad y permeabilidad.</li><li><span style="color:#202124;">Búsqueda de los parámetros electromagnéticos típicos para el pavimento teniendo en cuenta que dependen del grado de humedad y temperatura.</span></li><li><span style="color:#202124;">Realizar un programa de ordenador utilizando matlab o software similar para modelar la incidencia de una onda plana sobre el modelo multicapa del pavimento.</span></li></ol><p>&nbsp;</p>ELECTROMAGNETISMO Y FÍSICA DE LA MATERIA
267-50-2024/2025<p>El espaciotiempo de de Sitter es una solución exacta a las ecuaciones de campo de Einstein para una constante cosmológica positiva y es de interés en cosmología debido a su similitud con el universo en expansión acelerada. A pesar de su aparente simplicidad, presenta una rica estructura geométrica y ha sido estudiado en diferentes sistemas de coordenadas, cada uno con sus propias ventajas y desventajas [1]. En este trabajo, nos proponemos realizar un estudio detallado de las propiedades geométricas del espaciotiempo de de Sitter y los diferentes sistemas de coordenadas utilizados en la literatura. Además, vamos a incluir la cuantización de un campo escalar en este espaciotiempo como una aplicación práctica de nuestro estudio [2].</p><p>Metodología: Aplicaremos técnicas de geometría diferencial y relatividad general para estudiar el espaciotiempo de de Sitter. También utilizaremos técnicas de cuantización de campos para estudiar un campo escalar en este espaciotiempo. Nuestro enfoque será tanto teórico como práctico, con el objetivo de obtener una comprensión más profunda de este importante espaciotiempo y sus aplicaciones en la física cuántica.</p><p>&nbsp;</p>FÍSICA TEÓRICA Y DEL COSMOS
267-60-2024/2025<p><span style="color:black;"><strong>Breve descripción del trabajo:</strong></span></p><p><span style="color:black;">La comprensión de la física de los sistemas fuera del equilibrio constituye unos de los retos principales de la física teórica actual. La solución a este problema está codificada en las fluctuaciones presentes en estos sistemas. Así, entender su estadística, las estructuras asociadas a estas fluctuaciones y su origen microscópico permitirá resolver este problema fundamental. La complejidad abrumadora de este reto ha dificultado históricamente el avance en esta línea de investigación. Sin embargo, durante los últimos años han aparecido un conjunto de herramientas novedosas para investigar el comportamiento fluctuante de sistemas de muchos cuerpos fuera del equilibrio, que prometen cambiar radicalmente nuestra comprensión de la física del no equilibrio. Estas herramientas incluyen una teoría macroscópica de fluctuaciones (MFT, por sus siglas en inglés) basada en las ecuaciones de la hidrodinámica fluctuante, y diferentes técnicas computacionales avanzadas para simular y medir eventos raros en sistemas de muchos cuerpos.</span></p><p>&nbsp;</p><p><span style="color:black;">El objetivo de este trabajo consiste en realizar una revisión bibliográfica de estas herramientas teóricas y computacionales avanzadas, aplicadas al estudio de las fluctuaciones de la corriente en sisemas difusivos. En particular, en este trabajo se estudiarán las predicciones de la teoría macroscópica de fluctuaciones para la estadística de corrientes en sistemas difusivos de muchos cuerpos fuera del equilibrio. También se revisarán los métodos computacionales avanzados, basados en algoritmos Monte Carlo de clonado, para medir y caracterizar estos eventos raros en simulaciones de gases reticulares estocásticos.</span></p><p>&nbsp;</p><p><span style="color:black;"><strong>Metodología:</strong></span></p><p>En una primera fase, se llevará a cabo una búsqueda exhaustiva de la literatura científica relacionada con sistemas de muchos cuerpos fuera del&nbsp;equilibrio, incluyendo artículos científicos, libros, tesis doctorales y otros recursos académicos. Asimismo, se realizará una revisión de los fundamentos teóricos de la física estadística de equilibrio y, diferencias fundamentales con la física estadística de los sistemas fuera del equilibrio. Tras esta primera etapa, se profundizará en la teoría macroscópica de fluctuaciones y su aplicación para comprender la estadística de corrientes en sistemas difusivos de muchos cuerpos. Finalmente, se procederá a revisar la bibliografía reciente sobre las nuevas técnicas computacionales para simular eventos raros en sistemas de muchos grados de libertad.</p>ELECTROMAGNETISMO Y FÍSICA DE LA MATERIA
267-133-2024/2025<p style="margin-left:0cm;text-align:justify;">La radioterapia es el uso médico de radiaciones ionizantes para tratar el cáncer. En la radioterapia convencional, se producen haces de rayos X (fotones de alta energía) mediante electrones acelerados que se hacen incidir sobre el paciente para destruir las células tumorales. Utilizando haces desde distintas direcciones, se irradia el tumor procurando preservar los tejidos normales circundantes. Inevitablemente, siempre se deposita alguna dosis de radiación en los tejidos sanos.</p><p style="margin-left:0cm;text-align:justify;">Cuando los haces de radiación son partículas cargadas (protones y otros iones, como el helio o el carbono), la radioterapia se denomina hadronterapia. El interés de la hadronterapia reside en las propiedades físicas y radiobiológicas únicas de estas partículas; pueden penetrar en los tejidos con poca difusión y depositar la energía máxima justo antes de detenerse. Esto permite definir con precisión la región específica que debe irradiarse. La deposición de energía de los hadrones, tiene una forma característica, que se denomina pico de Bragg, y esto hace que el uso de hadrones permita irradiar el tumor mientras que el daño a los tejidos sanos se minimiza.</p><p style="margin-left:0cm;text-align:justify;">La idea de utilizar protones para el tratamiento del cáncer fue propuesta por primera vez en 1946 por el físico Robert Wilson, siendo tratados los primeros pacientes en la década de 1950 en instalaciones de investigación de física nuclear mediante aceleradores no dedicados.&nbsp;</p><p style="margin-left:0cm;text-align:justify;">En este trabajo se pretende hacer un estudio del proceso de interacción de hadrones (protones e iones de 4He) con medios materiales de interés clínico. Además, se analizará mediante expresiones analíticas sencillas y simulación Monte Carlo cómo es la deposición de dosis de estos haces, en función de la energía. Se analizarán las características que debería tener el haz de radiación en función de la forma y profundidad del tumor, y se estudiará el modo de obtener lo que se conoce como “picos de Bragg extendidos” (SOBP por sus siglas en inglés) para poder irradiar el tumor en toda su extensión.</p><p style="margin-left:0cm;text-align:justify;">Se hará uso del código Monte Carlo PENELOPE para realizar las simulaciones correspondientes. Se estudiará cómo están implementados los procesos básicos de interacción de protones e iones con la materia en dicho código. Se empezará con alguna simulación más sencilla para adquirir destreza en el manejo del código. Se estudiará el algoritmo analítico que permite generar SOBPs, se implementará construyendo un código mediante Python o FORTRAN y se estudiarán métodos alternativos para obtenerlos de forma automática.&nbsp;</p>FÍSICA ATÓMICA, MOLECULAR Y NUCLEAR
267-144-2024/2025<p style="margin-left:0cm;text-align:justify;">En Radiología, cuando se va a poner en funcionamiento una nueva instalación de rayos X, es necesario hacer el diseño de dicha sala para proporcionar un entorno seguro en general y, sobre todo, para el personal de radiología. En esta fase, hay que tener en cuenta varios factores, como la superficie, el material que se va a utilizar, el coste, etc. En radiología diagnóstica, se debe de minimizar la dosis que recibe el paciente, sin llegar a comprometer la calidad de la imagen. Pero por otro lado, hay que tener en cuenta también los problemas que puedan surgir en relación con la radiación dispersa o las fugas, de forma que el entorno sea lo suficientemente seguro para el personal. Normalmente, el plomo es el material que se suele usar con mayor frecuencia como blindaje. Sin embargo, debido a la toxicidad del plomo y su alto coste, se está llevando a cabo el desarrollo de materiales que atenúan esta radiación y que no contienen plomo. Por ejemplo, materiales que incorporan polvos metálicos u otros compuestos atenuadores dentro de láminas de materiales poliméricos en la cantidad suficiente para lograr una atenuación efectiva, pero a la vez suficientemente robusta para evitar que estos materiales se rompan o deterioren fácilmente.</p><p style="margin-left:0cm;text-align:justify;">En este trabajo se pretende analizar el procedimiento de determinación de blindajes para una sala de rayos X mediante simulación Monte Carlo. Se analizarán diferentes espectros de rayos X, desde 20 hasta 150 kVp, de diferentes calidades y anchuras. También se estudiará cómo se comportan en cada caso los diferentes materiales que se pretender analizar como posibles elementos del blindaje.</p><p style="margin-left:0cm;text-align:justify;">Se comenzará estudiando los procesos básicos de interacción de los fotones con la materia. Posteriormente, se utilizará el código Monte Carlo PENELOPE para generar los diferentes materiales, así como las geometrías a emplear. Se estudiará el proceso de atenuación para los distintos espectros y materiales y se analizará cuáles serían las condiciones óptimas para el diseño del blindaje en cada situación.</p><p style="margin-left:0cm;">&nbsp;</p>FÍSICA ATÓMICA, MOLECULAR Y NUCLEAR
267-104-2024/2025<p style="margin-left:0cm;text-align:justify;">En este trabajo fin de grado se pretenden exponer los hitos que han marcado el desarrollo de la radioterapia desde sus inicios. En particular, se describirá cómo se pusieron en práctica algunas de las diferentes técnicas que se han desarrollado y utilizado en más de 100 años de historia: desde las múltiples aplicaciones con rayos X, que comenzaron a utilizarse sólo unos meses después de su descubrimiento y marcaron el inicio del uso de la radiación ionizante en la terapia del cáncer, hasta las recientes instalaciones de terapia de hadrones. Se pondrá el foco especialmente en las personas que hicieron posible todos estos avances y en el desarrollo científico y tecnológico desde entonces hasta la actualidad. También se discutirán con detalle los avances más actuales en el campo de la radioterapia y en qué aspectos se espera que haya un desarrollo mayor en los próximos años.</p><p style="margin-left:0cm;text-align:justify;">Se comenzará estudiando la documentación existente relacionada con las primeras aplicaciones de las radiaciones ionizantes en la cura del cáncer y otras enfermedades dermatológicas, a principios del siglo XX. A partir de aquí, se analizarán los sucesivos avances que se produjeron a partir de entonces en las diferentes técnicas, y se irán relacionando los diferentes avances científicos que se fueron produciendo en la primera mitad del siglo XX con el desarrollo tecnológico que permitieron el avance en las técnicas de aplicación de la Radioterapia.&nbsp; Posteriormente, se hará un estudio bibliográfica acerca de la situación actual de la radioterapia, para finalizar discutiendo los últimos avances en la misma, y cómo estos pueden dar lugar a una revolución en este campo.&nbsp;</p>FÍSICA ATÓMICA, MOLECULAR Y NUCLEAR
267-56-2024/2025<p style="margin-left:0cm;text-align:justify;">La terapia dirigida con radionucleidos (TRT) y la braquiterapia con semillas emisoras beta (BSBT) son ejemplos de técnicas que aprovechan la deposición de energía característica de este tipo de partículas. La TRT utiliza portadores de alta afinidad para administrar radionúclidos de forma selectiva a las células tumorales. Se han utilizado varios tipos de portadores, entre ellos: anticuerpos, antígenos, liposomas, nanotubos de carbono, aptámeros, microesferas, moléculas específicas y nanopartículas. En algunos casos, el propio radionúclido tiene afinidad por los tejidos tumorales, como es el caso del yodo y la glándula tiroides. Entre los emisores beta más utilizados, se encuentran el 89Sr, 90Y, 131I, 153Sm, 166Ho y 177Lu, cubriendo un rango de energía de unos pocos keV hasta unos 2 MeV. La dosimetría es muy importante en la TRT para determinar la deposición de dosis dentro del volumen tumoral y los órganos en riesgo, es decir, la planificación y el seguimiento del tratamiento. Además, tiene un papel muy importante en estudios microdosimétricos para evaluar la eficacia de un grupo radionucleido/portador basándose en el patrón de acumulación de dosis dentro de la célula. Por otro lado, la técnica BSBT, introducida en el año 2000, se basa en el hecho de que se pueden depositar grandes cantidades de energía en la proximidad (pocos milímetros) de la fuente de radiación mediante partículas beta de alta energía en comparación con los emisores de fotones utilizados normalmente en braquiterapia. De este modo, se pueden depositar dosis elevadas en el interior de los tumores y preservar los tejidos sanos. Inicialmente, se propuso el uso de 153Sm. Desde entonces, se ha evaluado el uso de diferentes emisores beta de alta energía como el 142Pr, 90Y, 188Re, 166Ho y 89Sr.</p><p style="margin-left:0cm;text-align:justify;"><span style="color:rgb(0,0,0);">Para estimar de forma precisa la dosis absorbida se recurre a simulaciones Monte Carlo. En particular, en Medicina Nuclear se suele usar el llamado&nbsp;</span><i>dose point kernel&nbsp;</i><span style="color:rgb(0,0,0);">(DPK</span><i>)&nbsp;</i><span style="color:rgb(0,0,0);">para verificar la exactitud de los cálculos dosimétricos realizados. En este trabajo se pretender determinar el DPK para los diferentes </span>radionúclidos de interés, haciendo uso del código Monte Carlo PENELOPE. En los casos en los que sea posible, se comparará con otros códigos como FLUKA o TOPAS.</p><p style="margin-left:0cm;">Se comenzará analizando el proceso de interacción de electrones con la materia. Posteriormente se estudiarán los radionúclidos de interés, analizando con detalle su esquema de desintegración en cada caso. Una vez que se haya adquirido suficiente destreza con el código Monte Carlo PENELOPE, se procederá a diseñar la geometría necesaria para determinar las curvas de DPKs, y se realizarán los cálculos para cada uno de los radioisótopos de interés, así como para fuentes monoenergéticas de electrones, hasta unos 3 MeV. Se estudiará la posibilidad de realizar los cálculos con otros códigos Monte Carlo existentes, como FLUKA o TOPAS.Estudio de la interacción de los electrones con la materia.</p><ol><li>Estudio del esquema de desintegración de los diferentes radionúclidos de interés.</li><li>Diseño de la geometría necesaria para el cálculo del&nbsp;<i>dose point kernel&nbsp;</i>(DPK).</li><li>Comparación de las curvas de DPKs obtenidas para cada radionúclido y para fuentes de electrones monoenergéticas, desde 50 keV hasta 3 MeV.</li><li>Comparación, en los casos en que sea posible, con otros códigos Monte Carlo.</li></ol><p style="margin-left:0cm;text-align:justify;">&nbsp;</p>FÍSICA ATÓMICA, MOLECULAR Y NUCLEAR
267-73-2024/2025<p style="text-align:justify;">Los sistemas de materia activa han llamado la atención de la comunidad científica en el campo de la materia blanda en los últimos años debido a su complejo comportamiento. Están compuestos por partículas individuales, cada una de las cuales consume energía (fuel) para moverse, reaccionar o producir fuerzas mecánicas. Los ejemplos destacados de sistemas activos de materia blanda son aquellos formados por partículas autopropulsados, biopolímeros como proteínas o filamentos de actina dentro del citoesqueleto capaces de contraerse, bacterias, hidrogeles activos sintéticos y vesículas. En este trabajo pretendemos investigar las propiedades físicas de un sistema activo: el formado por partículas que son capaces de fluctuar entre dos estados con distinta conformación espacial.</p><p style="text-align:justify;">Existen muchos sistemas como proteínas, cadenas de polímero y biomoléculas que son capaces de fluctuar activamente entre dos estados (uno expandido de mayor tamaño y otro colapsado en menor tamaño) si se suministra energía al sistema.. Las fluctuaciones activas entre ambos estados han demostrado tener un efecto bastante importante en la estructura, estabilidad y dinámica de este tipo de sistemas, especialmente en sistemas biológicos, que se encuentran además en condiciones de confinamiento. En este trabajo se pretende estudiar este tipo de sistemas fuera del equilibrio modelándolos como partículas coloidales blandas activas que fluctúan entre dos estados discretos de distinto tamaño, aplicando para ello herramientas físico-estadísticas basadas en la teoría del funcional dinámico de densidad, y extendiéndolo para incluir el efecto de las fluctuaciones activas entre ambos estados.</p><p>Para la consecución de los objetivos planteados, seguiremos la siguiente <strong>metodología</strong>:</p><ol><li><p style="text-align:justify;">Se realizará una revisión bibliografía reciente sobre sistemas coloidales activos.</p></li><li><p style="text-align:justify;">Se implementará un código numérico en lenguaje C para implementar el método R-DDFT.</p></li><li><p style="text-align:justify;">Los resultados numéricos se analizarán para presentar los resultados y predicciones teóricas.</p></li></ol>FÍSICA APLICADA
267-121-2024/2025<p style="margin-left:0cm;text-align:justify;">Las moléculas Rydberg de largo alcance se forman a partir de un átomo Rydberg y un átomo en el estado fundamental. La interacción entre ambos sistemas se produce por la colisión a baja energía del electrón Rydberg con el átomo en el estado fundamental. Esta interacción se puede describir en términos del pseudo-potencial de Fermi, que viene dado un desarrollo en ondas parciales. Este tipo de moléculas Rydberg heredan las características de los átomos Rydberg, y sus pozos de potencial aparecen para distancias nucleares proporcionales a n2 siendo n el número cuántico principal del átomo Rydberg. El objetivo de este trabajo fin de grado es entender la interacción que da lugar a este tipo de moléculas Rydberg, y e investigar la importancia de ondas parciales más altas en su estructura electrónica, así como explorar y caracterizar sus propiedades más importantes de estos sistemas.&nbsp;</p><p style="margin-left:0cm;"><i><strong>Metodología:</strong></i></p><ul><li>Estudiar los conceptos y propiedades de átomos Rydberg.</li><li>Derivar analíticamente el pseudo-potencial de Fermi&nbsp;</li><li>Resolver numéricamente la ecuación de Schrödinger independiente del tiempo dentro de la aproximación de Born-Oppenheimer.</li><li>Analizar los potenciales adiabáticos de estas moléculas Rydberg y sus propiedades.</li></ul>FÍSICA ATÓMICA, MOLECULAR Y NUCLEAR
267-143-2024/2025<p style="margin-left:0cm;text-align:justify;">En este trabajo se quiere profundizar en aspectos relacionados con la Simulación Cuántica. La idea es empezar describiendo algunos conceptos básicos relacionadas con la Computación Cuántica, como el formalismo de la matriz densidad, entrelazamiento, superposición, qubits, puertas lógicas, etc. A continuación, se estudiarán las propiedades más importantes de la simulación cuántica, y como esta utiliza las propiedades cuánticas de los sistemas para resolver problemas que no se podrían resolver en un ordenador clásico. Como ejemplo, se estudiará la ecuación de Schrödinger en una dimensión, usando alguno de los simuladores existentes y que son de uso libre [3-5], se considerará algún potencial o sistema <span style="color:black;">sencillo</span><span style="color:red;">&nbsp;</span>que permita entender las ventajas y los problemas que puedan aparecer.</p><p style="margin-left:0cm;"><i><strong>Metodología:</strong></i></p><p style="margin-left:0cm;text-align:justify;">Se hará uso de la bibliografía existente [1,2]&nbsp;para comprender los fundamentos básicos de la Información Cuántica, entrelazamiento y las puertas cuánticas. Después, estudiará las propiedades más importantes de la simulación cuántica, y su implementación para resolver la ecuación de Schrödinger.&nbsp;</p>FÍSICA ATÓMICA, MOLECULAR Y NUCLEAR
267-108-2024/2025<p>Nuestra comprensión de la evolución cosmológica del Universo, basada en las ecuaciones de Einstein y un contenido determinado de radiación, materia (bariónica y oscura) y constante cosmológica, encuentra una serie de graves problemas de condiciones iniciales. Estos problemas son resueltos de forma elegante mediante un período de inflación, o expansión acelerada. En estre trabajo comenzaremos explicando los problemas de condiciones de contorno y la idea general de cómo inflación los resuelve. A continuación estudiaremos el efecto que tiene ese periodo de expansión acelerada en la historia del Universo temprano, así como los efectos observables de inflación en los datos experimentales actuales. Por último estudiaremos algunos ejemplos concretos de modelos de física de partículas que realizan el paradigma de inflación y cómo poder distinguir entre unos modelos y otros.&nbsp;<br><br>La metodología se basará en el estudio de notas de escuelas internacionales y capítulos de libros avanzados, así como del estudio y reproducción de algunos cálculos de artículos de investigación especializados.</p>FÍSICA TEÓRICA Y DEL COSMOS
267-23-2024/2025<p>Los hidrogeles son materiales blandos constituidos por redes poliméricas tridimensionales capaces de retener una gran cantidad de agua. Desde el punto de vista mecánico se caracterizan por poseer una elevada elasticidad, que les permite alcanzar grandes deformaciones cuando se les somete a esfuerzos mecánicos. El alginato de sodio es un carbohidrato muy abundante, soluble en agua y que se puede entrecruzar por interacciones electrostáticas entre cadenas mediante adición de iones de calcio dando lugar a los llamados geles blandos o geles físicos, por contraposición a los geles con entrecruzamiento por enlaces covalentes (geles químicos o fuertes). Debido a la facilidad de preparación y su biocompatibilidad, son objeto de un elevado número de estudios tanto fundamentales como aplicados.</p>FÍSICA APLICADA
267-101-2024/2025<p>Tal y como &nbsp;se dice en [1] “Caracterizar el espacio de estados de las álgebras de operadores entre todos los conjuntos convexos es equivalente a caracterizar (la parte autoadjunta de) algebras entre todos los espacios lineales ordenados”.</p><p>En el citado monográfico se presentan un conjunto de axiomas geométricos que caracterizan el espacio de los estados y dada su interpretación en términos de la física se pueden interpretar como un conjunto de axiomas de la mecánica cuántica. En [2] y [3] se pueden encontrar algunas axiomatizaciones clásicas de la mecánica cuántica aunque el carácter de dichos postulados es eminentemente algebraico. &nbsp;</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p>ANÁLISIS MATEMÁTICO
267-11-2024/2025<p>Recientemente se ha demostrado que el uso de metodologías de Teoría de la Información sobre sismogramas, como la Entropía de Shannon, permiten caracterizar la evolución pre-eruptiva de diferentes sistemas volcánicos, incluido ser usado como alerta temprana de erupciones volcánicas. El objetivo de este TFG es identificar al menos dos erupciones volcánicas ocurridas en el pasado, con una cierta relevancia por su energía o afectación a la población. Una vez identificadas se buscará a través d ela base de datos sísmicos IRIS las señales sísmicas asociadas a las mismas. Este proceso puede requerir un método de prueba y error porque no siempre los datos sísmicos estarán disponibles en dicha base de datos. Una vez asegurada la calidad y cantidad de datos se procederá a analizar un periodo pre-eruptivo de alrededor de un mes previo a la erupción y dos semanas post-erupción. El proceso se realiza en el dominio del tiempo y en una serie de bandas de frecuencias, iniciando en (1-2 Hz) y terminando en la de (12-24 Hz). Se usarán diferentes ventanas temporales, desde desde 1 h hasta la menor de 10 m y se representará el valor de la Entropía de Shannon frente al tiempo para ver su evolución temporal. En paralelo se usarán otros dos parámetros derivados de Procesado de Señales sísmicas, como son la Kurtosis y el Índice de Frecuencia. Estos parámetros permiten distinguir la naturaleza de la fuente sismo-volcánica. La combinación de los tres parámetros permitirán caracterizar la evolución de los sistemas volcánicos y si fuese posible determinar si las erupciones seleccionadas pudieron tener elementos que se consideraran como de alerta temprana, y por tanto se pudieron haber advertido a las autoridades y a la población de su inminencia.</p>FÍSICA TEÓRICA Y DEL COSMOS
267-74-2024/2025<p>Hoy día son muchas las colaboraciones que surgen entre aficionados a la astronomía y astrónomos profesionales. Esto es así porque, para multitud de proyectos, el factor determinante es el tiempo de telescopio, tiempo que es difícil de conseguir a nivel profesional, pero que aficionados a la astronomía están poniendo cada vez más a disposición de la ciencia. Además, si algo define al aficionado a la astronomía es su constancia, entrega, y ganas de conocimiento. Esto no sólo se traduce en un aumento en las colaboraciones Pro-Am, sino que también hace que cada vez sean más los aficionados que construyen sus propios instrumentos con la mente puesta en la ciencia que se puede hacer con ellos.</p><p>En este trabajo se plantea, no sólo la construcción de un telescopio desde cero (incluyendo pulido de espejos, diseño de montura, etc), sino también la evaluación de su calidad así como de los efectos que en la observación de cuerpos celestes pueden tener la geometría y defectos ópticos del mismo.</p><p>En concreto, el estudio se desarrollaría siguiendo el modelo que se describe a continuación. Primero se tallaría el espejo con diversas geometrías (esférica y parabólica), de focal corta, donde más notablemente se manisfestarán cambios en la topografía del espejo. Conviene mencionar aquí que el alumno ya tiene experiencia en la construcción de telescopios, y que este TFG sería un paso adelante, incluyendo, además de la construcción, una presentación detallada de los diversos tests que se realizan a la hora de evaluar la topografía del espejo así como un estudio del posible efecto de imperfecciones de tallado en la observación astronómica. El pulido del espejo lleva asociado un continuo análisis óptico del mismo conforme se va tallando con el fin de acabar con la forma deseada. Este análisis óptico se basa en una serie de tests con una gran carga física que serán explicados durante este trabajo. Una vez se hayan alcanzado las distintas geometrías a estudiar, se capturarará la imagen que a su través podemos obtener de distintos cuerpos celestes. Este proceso se repetirá para las distintas geometrías así como introduciendo deliberadamente defectos en el espejo para ver cuál es su efecto en la imagen astronómica obtenida. Así se tendría una batería de fotos de los mismos cuerpos celestes entre las que un análisis comparativo.</p><p>El mero estudio del efecto de la geometría del espejo en la observación astronómica, así como la presentación de los diversos tests, ya es, de por sí, un trabajo de mucho interés. La expansión al estudio del efecto de imperfecciones ópticas será algo opcional que se evaluará conforme vaya transcurriendo el desarrollo del trabajo.</p>FÍSICA TEÓRICA Y DEL COSMOS
267-93-2024/2025<p style="margin-left:0.0px;">Este TFG buscará aplicar los conocimientos teórico-prácticos adquiridos durante el Grado en Física a través de una serie de experimentos enfocados a Bachillerato. Se plantearán diversas prácticas que se adaptarán al currículo de la asignatura de Física de Bachillerato.</p>FÍSICA APLICADA
267-165-2024/2025<p>La banda intermedia es una estrecha banda de energía que se sitúa en el interior de la banda prohibida de la estructura de bandas de un material. Dicha banda se sitúa a unas distancias concretas de la banda de conducción y valencia, permitiendo la absorción de fotones de más rangos de energía que los materiales usados en las células solares tradicionales, pudiéndose alcanzar una eficiencia máxima teórica de <span style="color:#000000;">63,1%. </span>Por el momento los materiales que dan lugar a dicha banda intermedia son teóricos, habiéndose encontrado algunas evidencias experimentales en algunas investigaciones<span style="color:#000000;">, </span>pero lejos de una aplicación real. Además de ser un reto encontrar estos materiales experimentalmente, también lo es ver cómo se comportarían dentro de un dispositivo electrónico real. Toda la información de la que se pueda disponer en este campo será muy valorada.</p><p>Este trabajo que se propone se realizará a partir de un simulador que se encuentra actualmente en desarrollo y que está implementado en lenguaje Python. Este simulador es capaz ya de proporcionar algunos resultados relevantes, pero existen aspectos de la resolución numérica y modelado físico que han de ser resueltos aún. Se plantea que el alumno se inicie en el uso de simuladores ya validados, como PC1D, establezca comparaciones entre los resultados de estos simuladores y el indicado y se modele la física necesaria para obtener resultados comparables. El objetivo es avanzar un paso más hacia un modelado adecuado y simulación de la física de las células solares de banda intermedia.</p><p>&nbsp;</p>ELECTRÓNICA Y TECNOLOGÍA DE COMPUTADORES
267-145-2024/2025<p>En una teoría de campos, los solitones topológicos son configuraciones no-triviales de los campos cuya estructura topológica hace que sean estables [1]. En gran parte de los sistemas en los que aparecen, se encuentran en un baño térmico que afecta a su comportamiento [2,3]. Una de las técnicas principales para su estudio en este régimen es el uso de simulaciones de Monte Carlo [4]. Estas son muy costosas computacionalmente, pero el uso de aceleradores de hardware como tarjetas gráficas (GPUs), permite paralelizar el cálculo y disminuir el tiempo de simulación en órdenes de magnitud [5]. En este trabajo, se realizarán este tipo de simulaciones para una teoría de campos bi-dimensional, que capture las propiedades más importantes que se observan en sistemas reales.</p><p>En primer lugar, se estudiará la teoría básica de solitones mediante libros de texto y artículos de investigación. A continuación, usando esta información, se determinará el sistema concreto a estudiar, de entre varias teorías de campos en dos dimensiones que contienen solitones. Una vez determinado el sistema, se escribirá el código para su simulación en paralelo en GPUs. Por último, se realizarán las simulaciones y se obtendrán algunas de las propiedades de los solitones del sistema en cuestión.</p>FÍSICA TEÓRICA Y DEL COSMOS
267-97-2024/2025<p style="text-align:justify;">Resumen y Metodología</p><p style="text-align:justify;">Una de las posibilidades realistas de la aplicación de las nanopartículas NPs (o, más generalmente, nanoestructuras) en el diagnóstico y tratamiento de enfermedades (especialmente el cáncer) es su potencial como fuente de efectos físicos sobre los tejidos diana, si se les somete a un estímulo externo adecuado al lugar de acción y las características de las NPs. Así, si la partícula es magnética y anisotrópica, un campo magnético externo rotante producirá la rotación de aquella y en consecuencia eventualmente daño al tejido tumoral. También para partículas de la naturaleza citadas, un gradiente de campo magnético ejercerá fuerza sobre ellas y permitirá desplazarlas magnéticamente al sitio de acción. De creciente interés es el caso en que las NPs magnéticas se someten a un campo magnético alterno de frecuencia adecuada (típicamente en el rango de los cientos de kHz): Como se trata de partí culas muy pequeñas -en el entorno de los 10-20 nm-, no presentarán ciclo de histéresis por desplazamiento de dominios, pero siempre ocurrirá que la imanación del sistema sufre un desfase respecto del campo, lo que equivale finalmente a un ciclo de histéresis. Como tal, cada oscilación supone una pérdida de energía que se transfiere a los alrededores (el tejido tumoral, por ejemplo) en forma de calor. El fenómeno se conoce como <i>hipertermia magnética&nbsp;</i>y puede producir muerte celular localmente; se puede así hablar de una herramienta terapéutica local, aplicable sola o en combinación con otras [1, 2].&nbsp;</p><p style="text-align:justify;">Otra posibilidad de lograr el calentamiento mencionado es someter a las NPs a radiación (visible o infrarroja) de la longitud de onda adecuada. Si la composición de las partículas se elige adecuadamente, serán capaces de absorber parte de dicha radiación incidente y reemitirla en forma de calor. El proceso se conoce como <i>fototermia</i>, y se ha asociado principalmente a NPs plasmónicas (conductoras con elevada densidad de electrones libres; el oro es el material más utilizado), que absorben energía mediante la interacción de los electrones con la luz incidente, dado que la frecuencia del plasmón superficial suele estar en la región IR o visible del espectro [3]. En el laboratorio en que el TFG se desarrollará se ha demostrado que incluso las partículas magnéticas sin tratar (es decir, sin recubrimiento metálico) son excelentes agentes de calentamiento por fototermia [4].&nbsp;</p><p style="text-align:justify;">Una de las dificultades de la terapia fototérmica es la limitada capacidad de penetración de la radiación UV-Vis a través de la piel y los tejidos. Esta dificultad puede soslayarse usando fibra óptica para transmitir la luz desde la fuente hasta la localización de las partículas. Se trata de un enfoque novedoso que podría suponer una considerable mejora en la aplicabilidad de la técnica. Con ello, la metodología propuesta consistirá en:</p><p style="text-align:justify;">1. Síntesis de nanopartículas de oro. Control de la geometría (esférica/alargada) [5]</p><p style="text-align:justify;">2. Síntesis de maghemita (gamma-Fe2O3) nanométrica</p><p style="text-align:justify;">3. Preparación de partículas mixtas maghemita/oro</p><p style="text-align:justify;">4. Respuesta fototérmica en UV-Vis de los cuatro tipos de partículas. Incidencia directa del láser</p><p style="text-align:justify;">5. Uso de fibra óptica para transmitir la luz láser a las muestras</p><p style="text-align:justify;">6. Comparación de la eficiencia de los sistemas y métodos mencionados a través de la magnitud SAR (<i>specific absorption rate</i>)</p>FÍSICA APLICADA
267-69-2024/2025<p>&nbsp;</p><p>El estudiante investigará la formación de patrones espaciotemporales en redes de neuronas binarias con interacciones no-locales imitando tanto las sinapsis químicas como las eléctricas. El marco teórico a utilizar serán modelos tipo Hopfield. El trabajo será básicamente computacional aunque se intentará derivar aproximaciones de campo medio que se comparan con las simulaciones realizadas. Se pretende caracterizar el sistema en base a &nbsp;diferentes comportamiento emergentes dependiendo de los parámetros relevantes como pueden ser el rango de la interacción no local, el balance entre excitación e inhibición y la abundancia relativa entre sinapsis químicas y eléctricas en el medio neuronal.</p>ELECTROMAGNETISMO Y FÍSICA DE LA MATERIA
267-9-2024/2025<p><span style="background-color:transparent;color:#000000;">El grupo de renormalización por semejanza para hamiltonianos se ha utilizado en una variedad de problemas en física nuclear y de partículas. Su extensión a problemas en teoría cuántica de campos ha dado lugar al procedimiento del grupo de renormalización para partículas efectivas (conocido como RGPEP, por su siglas en inglés, <i>renormalization group procedure for effective particles</i>).</span></p><p><span style="background-color:transparent;color:#000000;">Este método permite transformar un hamiltoniano inicial mediante un operador unitario dependiente de un parámetro de escala, definiendo un nuevo hamiltoniano efectivo cuyas características dependen de dicha escala. En una teoría cuántica de campos, este procedimiento define el concepto de <i>partículas efectivas</i> de tamaño <i>s</i>. En ambos casos, el método permite seleccionar las interacciones más relevantes a distintas escalas.&nbsp;</span></p><p><span style="background-color:transparent;color:#000000;">El objetivo de este trabajo es realizar un análisis ilustrativo del efecto de dicha transformación de semejanza en hamiltonianos, mostrando gráficamente los cambios en la forma del potencial, así como en las partículas efectivas.&nbsp;</span></p><p><span style="background-color:transparent;color:#000000;">Consideraremos algunos casos concretos disponibles en la literatura y elegiremos un caso de nuestra conveniencia para mostrar un análisis en más detalle del efecto de esta transformación y sus aplicaciones.&nbsp;</span></p><p><span style="background-color:transparent;color:#000000;">Entre los casos a elegir se encuentran hamiltonianos en el contexto de mecánica cuántica relativista y no relativista, teoría cuántica de campos, física nuclear, computación cuántica.&nbsp;</span></p><p>&nbsp;</p><p>&nbsp;</p>FÍSICA ATÓMICA, MOLECULAR Y NUCLEAR
267-102-2024/2025<p>El método del grupo de renormalización por semejanza permite construir hamiltonianos efectivos a partir de un hamiltoniano inicial y una transformación unitaria dependiente de una escala.&nbsp;</p><p>Aunque existen teorías sencillas para las cuales la ecuación del flujo que satisface el hamiltoniano efectivo puede resolverse de forma no perturbativa, la mayoría de los problemas en física de partículas requiere un tratamiento perturbativo de la ecuación. Estos cálculos son muy tediosos e involucran muchos productos de potencias de términos de interacción de hamiltonianos y suelen representarse mediante diagramas análogos a los de Feynman.</p><p>Por este motivo, es conveniente e interesante automatizar dichos cálculos computacionalmente, facilitando ampliar el desarrollo a órdenes mayores de tres, e idealmente, arbitrarios.&nbsp;</p>FÍSICA ATÓMICA, MOLECULAR Y NUCLEAR
267-156-2024/2025<p>En 1949, Dirac formuló tres formas de representar la dinámica hamiltoniana relativista. Cada una de estas formas corresponde a establecer las condiciones iniciales en una hipersuperficie del espacio-tiempo. En el caso cuántico, ésta se identifica con la superficie de cuantización.&nbsp;</p><p>La primera forma, <i>instant form</i>, está asociada con la superficie <i>t = 0 </i>(donde <i>t</i> es el tiempo).&nbsp;<br>La segunda forma, <i>front form</i>, está asociada con la superficie <i>t + x = 0 </i>(donde <i>t</i> es el tiempo y <i>x</i> es la primera coordenada espacial).&nbsp;<br>La tercera forma, <i>point form</i>, está asociada con el hiperboloide centrado en el eje temporal.&nbsp;</p><p>La forma punto de Dirac (point form) es la menos conocida, y la bibliografía disponible en el contexto de Teorías Cuánticas de Campos es muy escasa. Sin embargo, se espera que algunas de sus características resulten ventajosas a la hora de utilizarla para la descripción de sistemas relativistas compuestos. Por este motivo, es conveniente estudiar las posibles direcciones de desarrollo que se presentan actualmente.&nbsp;</p>FÍSICA ATÓMICA, MOLECULAR Y NUCLEAR
267-62-2024/2025<p><span style="color:#0d0d0d;">Este trabajo de fin de grado tiene como objetivo principal desarrollar y establecer un protocolo estandarizado para la medición de imágenes hiperespectrales. Se propone comparar las medidas espectrales obtenidas de cerámicas de calibración de diferentes colores utilizando un espectroradiómetro, con las medidas hiperespectrales obtenidas mediante una cámara hiperespectral. Adicionalmente, se evaluará la efectividad de distintos filtros polarizadores para minimizar la aparición de reflejos en las imágenes, con el fin de mejorar la precisión y calidad de las mediciones hiperespectrales.</span></p><p>Metodología:</p><ul><li>Selección de Muestras de Cerámicas de Calibración:Se utilizarán cerámicas de calibración de diversos colores y características espectrales.</li><li>Mediciones con Espectroradiómetro: Se realizarán mediciones espectrales precisas de cada muestra de cerámica utilizando un espectroradiómetro. Las condiciones de iluminación y distancia serán controladas para garantizar la reproducibilidad de las mediciones.</li><li>Captura de Imágenes Hiperespectrales: Se obtendrán imágenes hiperespectrales de las mismas muestras de cerámicas usando una cámara hiperespectral, utilizando configuraciones de iluminación y distancia similares a las empleadas en las mediciones con el espectroradiómetro.</li><li>Aplicación de Filtros Polarizadores: Se emplearán distintos tipos de filtros polarizadores durante la captura de las imágenes hiperespectrales, evaluándose la capacidad de estos filtros para reducir los reflejos y mejorar la calidad de las imágenes.</li><li>Análisis y Comparación de Datos: Se compararán los datos obtenidos del espectroradiómetro con los datos hiperespectrales. Se realizará un análisis cuantitativo y se intentará determinar la correlación entre ambos tipos de medidas. Se evaluará el impacto de los filtros polarizadores en la calidad de las imágenes hiperespectrales mediante análisis estadístico y visual.</li></ul><p>&nbsp;</p>INGENIERÍA DE COMPUTADORES, AUTOMÁTICA Y ROBÓTICA
267-12-2024/2025<p>Este TFG explorará el análisis y diseño de sistemas radiantes mediante técnicas de aprendizaje profundo e inteligencia artificial. Para ello, a través de programación de alto nivel (Matlab/Python) se establecerán pasarelas software con programas comerciales de diseño y análisis de sistemas radiantes (FEKO/CST) y su análisis numérico mediante técnicas asociadas a la Electrodinámica.</p>ELECTROMAGNETISMO Y FÍSICA DE LA MATERIA
267-117-2024/2025<p style="text-align:justify;"><span style="background-color:transparent;color:#000000;">El estudio del proceso de envejecimiento de tintas depositadas sobre papel o pergamino es de gran importancia para poder predecir el nivel de deterioro en documentos de interés histórico, así como para poder aplicar técnicas de rejuvenecimiento digital o incluso en la datación del documento [1,2].&nbsp;</span></p><p style="text-align:justify;"><span style="background-color:transparent;color:#000000;">En el laboratorio Color Imaging Lab, en el marco del proyecto Hyperdoc, contamos con una amplia serie de muestras de tintas elaboradas según recetas tradicionales y depositadas en diferentes sustratos (papel y pergamino). Estas muestras han sido capturadas en su estado original con cámaras hiperespectrales en los rangos visible e infrarrojo cercano, y se envejecerán en cámara artificial próximamente en condiciones controladas de exposición a calor, humedad y radiación UV extremas. Aproximadamente se considera que unas 244 h en la cámara equivalen a 100 años de envejecimiento en condiciones naturales. El proceso de envejecimiento es gradual, con lo que se capturarán imágenes espectrales en diferentes etapas del mismo.&nbsp;</span></p><p style="text-align:justify;"><span style="background-color:transparent;color:#000000;">Estas imágenes servirán de base para la elaboración de un modelo de envejecimiento que permita predecir el espectro de las muestras tras un intervalo amplio de tiempo en condiciones naturales. También contamos con imágenes de muestras reales de documentos históricos&nbsp; de los ss. XV-XVII envejecidas naturalmente, y se puede intentar aplicar el modelo inverso de envejecimiento sobre estas imágenes para ver si resulta factible rejuvenecerlas digitalmente.&nbsp;&nbsp;</span></p>ÓPTICA
267-52-2024/2025<p>El momento magnético anómalo del muón es una propiedad esencial de esta partícula elemental que nos permite indagar en las interacciones fundamentales y las simetrías del universo. El muón, una partícula con características parecidas al electrón pero con una masa aproximadamente 200 veces superior, tiene un momento magnético intrínseco. Dada el gran poder predictivo del Modelo Estándar de la física de partículas, la medición exacta del momento magnético del muón se convierte en una herramienta crucial en la detección de nueva física.</p><p>Este trabajo fin de grado se enfocará en una revisión bibliográfica de los experimentos y predicciones teóricas más significativos que han aportado a nuestro entendimiento del momento magnético del muón. Además, el estudiante llevará a cabo cálculos explícitos para comprender cómo las correcciones cuánticas influyen en este observable y su potencial para revelar nueva física más allá del Modelo Estándar.</p><p>Este trabajo no solo permitirá al estudiante adquirir una sólida comprensión teórica, sino también desarrollar habilidades prácticas en el cálculo y análisis de fenómenos físicos complejos, preparándolo para futuras investigaciones en el campo de la física de partículas.</p>FÍSICA TEÓRICA Y DEL COSMOS
267-33-2024/2025<p>The nature and origin of dark matter still remains a mystery. A number of recent mechanisms propose an inflationary origin for dark matter and in particular for spin-1 vector dark matter. While these mechanisms show how vector dark matter can be produced during inflation, they do not explicitly show how the vector dark matter mass is generated. In this thesis we explicitly construct a `dark Higgs mechanism' to generate a mass for the vector dark matter and compute the cosmic evolution of the vector dark matter before and after the dark Higgs phase transition.</p>FÍSICA TEÓRICA Y DEL COSMOS
267-30-2024/2025<p>La mezcla y el bombeo eficientes de líquidos a microescala es una tecnología aún por optimizar [1]. La combinación de un campo eléctrico de corriente alterna con un pequeño gradiente de temperatura da lugar a un potente flujo electrotérmico que puede utilizarse para múltiples fines [2]. Combinando simulaciones y experimentos, se propone realizar un análisis del rendimiento del flujo electrotérmico cuando el gradiente de temperatura se genera utilizando un haz láser que ilumina un sustrato o un líquido absorbente [3,4].&nbsp;</p><p>&nbsp;</p><p><strong>Tareas</strong></p><p>Estudio teórico de los fundamentos de generación de flujo electrotérmico</p><p>Realización de experimentos sencillos que permitan el estudio futuro del transporte anómalo de calor y/o procesos de relajación</p>FÍSICA APLICADA
267-128-2024/2025<p><span style="font-family:Verdana, Geneva, sans-serif;">Los hidrogeles son materiales formados por polímeros hidrófilos entrecruzados que se caracterizan, entre otras cosas, por su gran capacidad para retener agua.&nbsp; En la actualidad son el objeto de numerosos estudios debido a sus posibles aplicaciones en biomedicina en campos como la ingeniería tisular y el transporte de fármacos o células. Las propiedades (biocompatibilidad, biodegradabilidad, reología, etc) de un hidrogel dependen del polímero utilizado.</span></p><p><span style="font-family:Verdana, Geneva, sans-serif;">Los<strong>&nbsp;</strong><u>hidrogeles magnéticos</u> son hidrogeles cargados con nanopartículas magnéticas. Estos materiales han surgido más recientemente como materiales híbridos, con respuesta a estímulos y con importantes aplicaciones en la biotecnología. A la versatilidad de los hidrogeles hay que añadir la posibilidad de actuar sobre ellos de forma no invasiva con campos magnéticos.&nbsp; Si el hidrogel magnético se utiliza como andamio tisular, por ejemplo, para favorecer el crecimiento celular y la reparación de un tejido, un campo magnético externo puede inducir torques o fuerzas sobre el hidrogel, lo que se puede utilizar para estimular células mecánicamente2. Además, la aplicación de campos alternos puede provocar calentamiento del hidrogel magnético, y la presencia de gradientes en el entorno del hidrogel puede inducir la captura de partículas magnéticas que a su vez pueden transportar fármacos u otros principios activos.&nbsp;</span></p><p><span style="font-family:Verdana, Geneva, sans-serif;">El principal <strong>objetivo&nbsp;</strong>de este TFG es la preparación de diferentes formas de hidrogeles magnéticos (macrogeles, microgeles) de interés biomédico, su caracterización y posiblemente la utilización de autoensamblado en presencia de campos magnéticos para obtener estructuras más complejas.</span></p><p>&nbsp;</p><p><span style="font-family:Verdana, Geneva, sans-serif;"><strong>Metodología:</strong></span></p><ol><li><span style="font-family:Verdana, Geneva, sans-serif;">Se prepararán partículas de óxido de hierro mediante el método de coprecipitación u otro método de los denominados ‘sol-gel’.</span></li><li><span style="font-family:Verdana, Geneva, sans-serif;">Las partículas magnéticas se incorporarán a hidrogeles biocompatibles, como la agarosa, la gelatina o el alginato. Se observará si las partículas quedan bien ligadas al polímero y la respuesta magnética.</span></li><li><span style="font-family:Verdana, Geneva, sans-serif;">Se prepararán microgeles magnéticos mediante emulsión en aceite o mediante técnicas de microfluídica.</span></li><li><span style="font-family:Verdana, Geneva, sans-serif;">La caracterización de las partículas y de los hidrogeles se realizará principalmente mediante microscopia (visible, confocal, SEM). Se utilizarán otras técnicas para confirmar la funcionalización de partículas (movilidad electroforética, espectroscopía de infrarrojo). Las propiedades mecánicas se estudiarán en un reómetro, mediante ensayos de deformación oscilatoria de pequeña amplitud.</span></li><li><span style="font-family:Verdana, Geneva, sans-serif;">Se explorará la formación de hidrogeles con diferentes morfologías y/o estructura mediante el ensamblado en presencia de campos magnéticos. Se utilizarán campos magnéticos uniaxiales y, si el tiempo lo permite, campos más complejos.</span></li></ol>FÍSICA APLICADA
267-7-2024/2025<p>En este trabajo se estudiará la actividad cerebral desde el marco de la física estadística, los sistemas complejos, y la física computacional. En concreto, se considerarán medidas de complejidad en la organización espacio-temporal de la actividad cerebral, basadas por ejemplo en la teoría de información, teoría de redes, o la mecánica estadística. Se estudiarán datos reales de actividad cerebral, obtenidos mediante electro-encefalograma (EEG), magnetoencefalograma (MEG) o resonancia magnética funcional (fMRI). Se considerarán en concreto los fenómenos emergentes debidos a la interacción no-trivial entre distintas regiones cerebrales, y su relación con distintos estados de consciencia (como puede ser el estado de reposo frente al de actividad, o el estado sano frente al de enfermedad).&nbsp;</p>ELECTROMAGNETISMO Y FÍSICA DE LA MATERIA
267-66-2024/2025<p>Muchos sistemas complejos como el cerebro, los sistemas de transporte, o la sociedad, se pueden describir en términos de su estructura de interacciones subyacente: una red compleja de elementos interconectados. Ciertas propiedades de las redes complejas aparecen de forma ubicua en multitud de sistemas muy diferentes, como la existencia de “hubs” o nodos centrales, o la propiedad de “mundo pequeño”. En este trabajo se estudiarán las características generales de las redes complejas, así como su efecto en la dinámica emergente del sistema (considerando, por ejemplo, las dinámicas de sincronización, percolación o magnetización).</p>ELECTROMAGNETISMO Y FÍSICA DE LA MATERIA
267-149-2024/2025<p>La sincronización de osciladores acoplados es un fenómeno fundamental en física estadística, con implicaciones en diversas áreas del conocimiento como la neurociencia, donde los modelos de osciladores se utilizan para representar de forma abstracta la actividad cerebral. Un fenómeno emergente que permiten estudiar estos modelos es la aparición de estados “quimera”, en los que aparecen subgrupos diferenciados de osciladores (por ejemplo, un grupo sincronizado y otro no sincronizado) en sistemas de osciladores idénticos.&nbsp;</p><p>&nbsp;</p>ELECTROMAGNETISMO Y FÍSICA DE LA MATERIA
267-150-2024/2025<p style="text-align:justify;"><strong>Breve descripción del trabajo:</strong></p><p style="text-align:justify;">La litografía coloidal blanda es una técnica de bajo coste y escalable que se basa en el autoensamblaje de microgeles en interfaces fluidas para formar monocapas ordenadas que pueden transferirse a sustratos sólidos [1]. Estas monocapas las podemos transferir a un sustrato de silicio y usarlas como máscaras para litografía coloidal blanda, de modo que allá donde tengamos un microgel, terminaremos por tener un nanopilar de silicio, que podrán usarse en el desarrollo de paneles solares autolimpiantes. La compresión controlada de las monocapas de microgeles en la interfase agua/aire permite obtener presiones superficiales deseadas, lo que se traduce en un control de la distancia entre núcleos de la monocapa. Sin embargo, la separación máxima viene restringida por el tamaño de los microgeles, y las rutas de síntesis actuales, como la polimerización por precipitación, producen microgeles con diámetros de hasta ~1 μm. Por lo tanto, para aumentar la separación entre microgeles es necesario explorar nuevas rutas de síntesis que permitan la fabricación de microgeles más grandes. En este trabajo se estudiará la síntetisis de microgeles de hasta 100 μm mediante dispositivos de microfluídica. Se inyectará una solución de pre-gel que contenga el monómero, el entrectruzante y el iniciador UV, usando aceite mineral como fase continua para producir microgotas monodispersas de tamaño ajustable en el interior del dispositivo microfluídico. Estas microgotas se polimerizarán mediante irradiación UV.</p><p><br><strong>Metodología:</strong></p><p>1. Replicado de dispositivos de microfluídica desde un chip a un sello de PDMS.</p><p>2. Ensamblaje del dispositivo de microfluídica.</p><p>3. Puesta a punto de la síntesis mediante microfluídica.</p><p>4. Controlar el tamaño de microgel mediante los caudales de ambas fases (pre-gel y aceite mineral) y mediante el tiempo de exposición UV.</p><p>5. Caracterización de los microgeles sintetizados mediante microscopía óptica.</p>FÍSICA APLICADA
267-109-2024/2025<p>Muchos sistemas complejos como el cerebro, los sistemas ecológicos o el clima, se pueden describir en términos de su estructura de interacciones subyacente: una red compleja de elementos interconectados. Recientemente se ha puesto de manifiesto la existencia de interacciones “de orden superior”, en las que varios (más de dos) elementos del sistema interaccionan conjuntamente. Uno de estos tipos de interacciones son las interacciones triádicas, en las que un nodo regula el estado de la interacción (o el enlace) entre otros dos elementos del sistema. Este tipo de interacciones regulatorias puede ser tanto excitatorio (interacción positiva) como inhibitorio (interacción negativa). Dependiendo de las características de las conexiones estructurales y regulatorias, las interacciones triádicas pueden dar lugar a una gran variedad de patrones de actividad con complejidad espacial y temporal.</p>ELECTROMAGNETISMO Y FÍSICA DE LA MATERIA
267-134-2024/2025<p>Descripción del trabajo: Cuando un sustrato se enfría de forma natural y pasiva por el déficit de radiación nocturna entre la atmósfera y el sustrato de forma que se alcance la temperatura de rocío, se produce la condensación del agua sobre él. La mayoría de las plantas (aéreas) en ambientes secos o desérticos son buenas recolectoras de rocío, incluso con mejor rendimiento que los animales, debido a sus particulares estructuras superficiales y su composición. &nbsp;El sureste de la Península Ibérica se encuentra en una situación privilegiada para explorar los efectos de retención de agua en su flora silvestre autóctona.<br>La recogida de agua de rocío, aprovechando la especial mojabilidad de las superficies de los materiales, es de gran importancia debido a sus propiedades de sencillez, bajo coste y fácil manejo. La nucleación de las gotas se ve favorecida en las superficies superhidrófobas (efecto loto), aunque el crecimiento/coalescencia se ve dificultado por su propiedad hidrófuga (movilidad de las gotas). En las superficies parahidrófobas (efecto pétalo), las gotas de agua se nuclean en los picos de rugosidad o en los dominios hidrofílicos (siembra), luego crecen con formas perladas pero con líneas de contacto fijas (aumentando su tamaño), y cuando llegan a ser lo suficientemente grandes, se fusionan con las gotas vecinas y comienzan a deslizarse hacia abajo o a desprenderse hacia el depósito (recolección). &nbsp;</p><p>Existe otro tipo de mecanismos para la recolección de agua del ambiente: la recolección de niebla. Este fenómeno es especialmente interesante en ambientes con elevada humedad atmosférica pero escasez de lluvias, como son las zonas costeras especialmente del sur peninsular o las islas canarias. El mecanismo es diferente. Los aerosoles formados por particulas de agua líquida suspendida en la atmósfera&nbsp;</p><p><br>El rendimiento óptimo de las superficies recolectoras de agua tras la condensación o captación de niebla requiere dos capacidades aparentemente opuestas: maximizar tanto la retención como la recogida de agua. Dado que la pérdida de agua por evaporación es indeseable y que la nucleación de las gotas depende de una superficie no cubierta, se debe reducir el tiempo de permanencia de las gotas de agua formadas en las superficies. Por encima de un tamaño de gota crítico, se requiere producir un movimiento en el plano de las grandes gotas sésiles guiadas por la gravedad hacia el depósito. Este movimiento lateral de las gotas se ve limitado además por las fuerzas adhesivas (ángulo de contacto fijo). Este trabajo pretende diseñar superficies que aprovechen la funcionalidad de recogida de agua observada en la naturaleza.</p>FÍSICA APLICADA
267-91-2024/2025<p style="margin-left:0cm;text-align:justify;">EarthCARE (Earth Clouds, Aerosols and Radiation Explorer) es una misión conjunta de la Agencia Espacial Europea (ESA) y la Agencia de Exploración Aeroespacial de Japón (JAXA). Su objetivo principal es mejorar la comprensión del papel de las nubes y los aerosoles en el sistema climático y en el balance de radiación de la Tierra (Illingworth et al., 2015). EarthCARE busca proporcionar datos precisos sobre las propiedades de las nubes y los aerosoles, así como sobre la radiación que entra y sale de la atmósfera terrestre. La misión EarthCARE está equipada con cuatro instrumentos avanzados que trabajan en conjunto para proporcionar una visión integral de las propiedades de las nubes y los aerosoles: ATLID (Atmospheric Lidar), CPR (Cloud Profiling Radar), MSI (Multi-Spectral Imager), BBR (BroadBand Radiometer). La misión EarthCARE contribuirá significativamente a la comprensión de los procesos atmosféricos y climáticos mediante la provisión de datos detallados y de alta resolución sobre la distribución vertical de nubes y aerosoles, sus propiedades ópticas, y su interacción con la radiación. Estos datos son esenciales para mejorar la precisión de los modelos climáticos y para abordar las incertidumbres relacionadas con el impacto de las nubes y aerosoles en el clima global.</p><p style="margin-left:0cm;text-align:justify;">El objetivo de este Trabajo Fin de Grado es validar varios productos de aerosol obtenidos de la misión EarthCARE (Earth Clouds, Aerosols and Radiation Explorer) de ESA-JAXA mediante la comparación con datos recogidos desde instrumentos terrestres, específicamente utilizando la red europea de ceilómetros E-PROFILE y la red de fotómetros solares AERONET (Aerosol Robotic Network) (Holben et al., 1998). La red E-PROFILE tiene más de 400 estaciones en 22 países europeos, y permite proporcionar en casi tiempo real propiedades de aerosoles con resolución vertical a escala continental. Además, la sinergia con fotómetros solares (AERONET) permitirá la obtención de propiedades óptica y microfísicas del aerosol en la vertical mediante el uso de sofisticados algoritmos de inversión. Los productos de aerosol a validar incluyen la altura de la capa límite, el exponente de Angstrom y el perfil de aerosol de retrodispersión (Welton et al., 2001). La validación de estos productos es crucial para mejorar la precisión de los modelos atmosféricos y la comprensión de los procesos climáticos y meteorológicos.</p><p style="margin-left:0cm;text-align:justify;">Para alcanzar los objetivos de este estudio, se comenzará con una revisión de la literatura existente sobre la validación de productos de aerosol y el uso de ceilómetros y fotómetros solares, con el fin de comprender los principios teóricos detrás de los instrumentos y las técnicas de medición de aerosoles. Se seleccionarán los productos de EarthCARE a utilizar en la validación para las estaciones de estudio y se prepararán los datos del ceilómetro y del fotómetro solar para su uso con el algoritmo de inversión GRASP (Román et al., 2018), el cual proporcionará perfiles verticales de propiedades microfísicas del aerosol. El procesamiento de datos incluirá la extracción de productos de aerosol de los datos satelitales, la obtención de la altura de la capa límite y el perfil de retrodispersión del aerosol a partir de los datos de los ceilómetros, y el cálculo del exponente de Angstrom y otras propiedades ópticas del aerosol a partir de las inversiones GRASP. Posteriormente, se compararán los diferentes productos obtenidos en superficie con los productos de EarthCARE. Se realizará un análisis estadístico de las diferencias y se evaluará la precisión de los productos satelitales. Finalmente, se discutirán las discrepancias encontradas entre las mediciones satelitales y terrestres, evaluando posibles causas como errores instrumentales o variabilidad atmosférica, y se extraerán conclusiones sobre la validez de los productos de aerosol satelitales, junto con recomendaciones para futuras investigaciones y mejoras en la metodología de validación.</p><p style="margin-left:0cm;text-align:justify;">&nbsp;</p>FÍSICA APLICADA
267-13-2024/2025<p>En la teoría de nudos, los nudos son encajes de la circunferencia a R3. El principal objetivo en la teoría de nudos es la clasificación completa de todos los tipos de nudos, siendo dos nudos equivalentes si lo son bajo isotopía ambiental (deformaciones que no permiten que el nudo se atraviese a sí mismo). Para esta tarea los matemáticos han encontrado diversos invariantes, cantidades u otros objetos asociados a cada nudo, que permanecen idénticos para nudos equivalentes. Muchos de estos invariantes están relacionados con diversas ramas matemáticas, como la teoría de grafos o la teoría de grupos.</p><p>La clasificación de los nudos también puede tratarse desde un enfoque más físico, asignándole a cada nudo una energía mediante un funcional, y buscando los mínimos de ese funcional energético. A estos funcionales se les exige que cumplan una serie de condiciones, como que la energía sea infinita cuando un nudo se atraviesa a sí mismo, para que haya una barrera de potencial infinita entre cada tipo de nudo.</p><p>El TFG consistiría en la búsqueda de mínimos locales para diferentes funcionales energéticos (ya conocidos o nuevos) de los nudos, realizándose de forma analítica si es posible o computacionalmente, partiendo de ciertas configuraciones iniciales para los nudos y realizando un descenso del gradiente hasta detectar un mínimo. Para realizar los cálculos numéricamente, será necesario discretizar el nudo, usando por ejemplo “self-avoiding random walks” adaptadas a la forma de cada nudo. Muchos de los funcionales energéticos conocidos involucran integrales sobre todos los puntos del nudo, por lo que se usarán algoritmos de integración numérica para calcular la energía en cada paso del descenso del gradiente.</p>FÍSICA TEÓRICA Y DEL COSMOS
267-110-2024/2025<p>El campo magnético terrestre se origina en la compleja dinámica del núcleo externo de la Tierra. Este campo envuelve a nuestro planeta, y da lugar a una región conocida como magnetosfera, en la que la influencia del campo magnético terrestre domina sobre el efecto de campos magnéticos externos. La magnetosfera es una estructura asimétrica y muy dinámica, que se ve continuamente afectada por la actividad solar. En particular, los fenómenos violentos que ocurren en el Sol pueden dar lugar a variaciones rápidas y globales del campo magnético terrestre, denominadas tormentas geomagnéticas.</p><p>El trabajo propuesto consiste en el estudio de las causas, el desarrollo y los efectos de la reciente tormenta magnética que tuvo lugar el 10-12 de mayo de 2024, una de las mayores registradas en las últimas décadas. En primer lugar, se realizará una caracterización de los cambios en la actividad solar que constituyen el origen de este fenómeno. En segundo lugar, se planteará un análisis de los registros magnéticos obtenidos en observatorios situados en distintas regiones de la Tierra durante ese periodo. Finalmente, se utilizarán fuentes de información adicionales para describir los efectos y las consecuencias de la tormenta magnética.</p>FÍSICA TEÓRICA Y DEL COSMOS
267-35-2024/2025<p>El desarrollo incorpora la parte de RF y la parte de diseño digital con FPGA/micro.</p>ÓPTICA
267-38-2024/2025<p>Se parte de diseños existentes y prototipos y se utilizan software de diseño óptico para el estudio de lentes y espejos.<br>El trabajo consistirá en el manejo de las citadas herramientas, el modelado de un prototipo inicial y una documentación de especificaciones para diseño y fabricación.</p>ÓPTICA
267-39-2024/2025<p>Se parte de diseños existentes y prototipos y se utilizan software de diseño óptico para el estudio de lentes y espejos.<br>El trabajo consistirá en el manejo de las citadas herramientas, el modelado de un prototipo inicial y una documentación de especificaciones para diseño y fabricación</p>ÓPTICA
267-37-2024/2025<p>Se parte de diseños existentes y prototipos y se utilizan software de diseño óptico para el estudio de lentes y espejos.<br>El trabajo consistirá en el manejo de las citadas herramientas, el modelado de un prototipo inicial y una documentación de especificaciones para diseño y fabricación.</p>ÓPTICA
267-123-2024/2025<p>¿Cómo suena un color?&nbsp;Esta pregunta parece muy extraña a cualquiera que sepa que el color es un fenómeno luminoso que nada tiene que ver con el oído. Podemos preguntarnos, de otra forma, ¿Qué sonido podría asociarse a un color?<br>Para responder a esta pregunta, el alumno deberá comprender qué es el color y estudiar los métodos físicos existentes para medirlo. A continuación, podrá diseñar un dispositivo experimental que emita un sonido diferente para cada color medido. El alumno podrá crear una correspondencia color↔sonido basada en la naturaleza física de estas señales y/o en la forma en que nuestro cuerpo las interpreta.</p>ÓPTICA
267-2-2024/2025<p><i><strong>Breve descripción del trabajo:</strong></i></p><p><i>La adaptación cromática es uno de los mecanismos del sistema visual humano que permiten percibir la apariencia de los objetos casi independientemente de la fuente de luz que los ilumina. Funciona mediante una adaptación del sistema visual a la fuente de iluminación y logra que la apariencia de los objetos sea estable cuando son iluminados bajo una gran variedad de fuentes de luz, como ocurre en nuestro día a día. Podemos observar una manzana roja bajo la luz día, luz interior incandescente o de LED y siempre percibiremos la manzana del mismo color. La adaptación cromática es el mecanismo principal que proporciona, junto con otros, la constancia del color al sistema visual humano.</i></p><p><i>Los modelos matemáticos que predicen la adaptación del sistema visual a las fuentes de luz se denominan Chromatic Adaptation Transform (CAT), y desde la propuesta histórica de Von Kries, son muchos los CATs que se han propuesto. De hecho, el CAT es el núcleo de cualquier Modelo de Apariencia del Color (CAM). El Comité Internacional de Iluminación (CIE) recomienda actualmente el uso del modelo CAM02, cuyo modelo de adaptación cromática se denomina CAT02.</i></p><p><i>Por otro lado, la iluminación mediante tecnología LED ha sufrido una evolución espectacular en los últimos años, debido al buen rendimiento energético de esta tecnología. Cada vez es más usual que la iluminación artificial se realice mediante lámparas LED. Tradicionalmente en los modelos de adaptación cromática se ha considerado principalmente dos fuentes de iluminación, luz día y lámparas incandescentes.</i></p><p><i>Procede analizar cómo es la adaptación cromática bajo iluminación con diferentes tipos de lámparas LED. Para ellos es necesario realizar experimentos psicofísicos con observadores.</i></p><p><i><strong>Metodología:</strong></i></p><p><i>Como en todo trabajo, será necesaria una revisión bibliográfica sobre el estado del arte en este tema, pues son muchas las publicaciones relacionadas con iluminación LED.</i></p><p><i>El estudiante deberá conocer e implementar el cálculo de la adaptación cromática de diferentes modelos, incluyendo los que se encuentren en la revisión bibliográfica. Como referencias habrá que considerar el modelo básico de Von Kries y el último recomendado por la CIE, CAT02.</i></p><p><i>Han de diseñarse y desarrollarse experiencias psicofísicas con observadores para obtener datos experimentales relativos a la adaptación cromática bajo diferentes iluminaciones, especialmente LED. Se realizarán experimentos para buscar muestras de color correspondientes bajo dos iluminantes. Estos resultados han de analizarse convenientemente, utilizado las técnicas estadísticas apropiadas.</i></p><p><i>Con los resultados obtenidos se testearán los modelos CATs implementados, analizando su validez para el uso con fuentes de iluminación LED.</i></p>ÓPTICA
267-26-2024/2025<p>En Colorimetría, el concepto de “Colores Óptimos” proviene de MacAdam, basándose en trabajos de Schrödinger. Colores óptimos hace referencia al conjunto de colores con la máxima pureza colorimétrica bajo un cierto iluminante. Se obtienen para reflectancias espectrales con valores sólo de 0 y 1 (funciones tipo escalón), del tipo filtros paso banda o notch. Este tipo de reflectancias espectrales no son realistas, pues ningún material puede tener esa reflectancia. Entonces, podemos considerar los colores óptimos como el límite, no alcanzable, para calcular el gamut máximo de colores que podemos obtener para un iluminante. Los colores óptimos son los colores situados en el borde de este gamut, cuya estructura 3D se denomina “sólido de color”, que encierra a todos los colores perceptibles por el sistema visual humano. También se ha desarrollado el concepto de colores pseudo-óptimos, donde se calcula la máxima pureza colorimétrica, pero considerando reflectancias espectrales suavizadas con forma de curva, que son mucho más realistas, aunque no siempre es fácil conseguir materiales que las reproduzcan.</p><p>Los colores óptimos han sido empleados para el estudio de diferentes temas. Por un lado, se han utilizado para el estudio del índice de rendimiento en color (CRI) de fuentes de luz, mediante un nuevo índice basado en el volumen del sólido de color. Con la misma técnica se han evaluado las diferencias en la visión del color entre observadores con visión normal y anómala. También para valorar la superficie real de colores con la comparación con los límites de MacAdam (colores óptimos) en planos de claridad y tono constante. Otra de las aplicaciones es obtener una estimación del número máximo de colores percibidos por el sistema visual humano.</p><p>Por otro lado, el daltonismo o visión defectiva del color (CVD) es una condición visual en la que una persona tiene dificultad para distinguir o percibir ciertos colores. La causa más común del daltonismo es una mutación en los genes responsables de los fotopigmentos en los conos de la retina, que son las células responsables de percibir los colores. Existen diferentes tipos de daltonismo, siendo los más comunes el deuteranómalo (dificultad para distinguir el verde del rojo) y el protanómalo (dificultad para distinguir el rojo del verde). También existe un tipo menos común llamado tritanómalo, que afecta la percepción del color azul y amarillo. Cada uno de estos tres tipos puede presentarse con distintas severidades desde leve a máxima. Actualmente el daltonismo no tiene tratamiento, pero en la mayoría de los casos no representa una limitación significativa en la vida diaria. Tan solo en ciertas profesiones que requieren una distinción precisa de colores, como pilotos, electricistas o artistas, puede ser necesario realizar pruebas específicas para determinar la capacidad de percepción de colores de una persona.</p><p>En la actualidad hay disponibles numerosos métodos para simular la percepción del color de cualquier tipo de daltónico. En nuestro grupo de investigación hemos desarrollado alguno de los algoritmos con mejores resultados.</p><p>En una primera fase el estudiante tendrá que realizar una revisión bibliográfica sobre colores óptimos, su origen, así como propuestas recientes de métodos de cálculo. También sobre aplicaciones de los colores óptimos.</p><p>Paralelamente el alumno ha de introducirse, por un lado, en conceptos de visión del color, daltonismo, espacios de color, etc., y, por otro lado, en el manejo de Matlab.</p><p>Dependiendo de los resultados de la revisión bibliográfica implementará los métodos más recientes para el cálculo de colores óptimos. También tendrá que comprender y manejar los métodos ya implementados en nuestro laboratorio para la simulación de CVD.</p><p>Calculará los colores óptimos para los diferentes tipos y grados de daltonismo, utilizando diferentes métodos de simulación y comparará los resultados obtenidos para observadores con los diferentes tipos de CVD.</p>ÓPTICA
267-136-2024/2025<p><span style="background-color:rgb(255,255,255);color:rgb(44,54,58);">Actualmente, los sistemas empleados para la filtración y purificación de aire contaminado con productos químicos altamente tóxicos, entre ellos, agentes de guerra química, se basan principalmente en el empleo de carbones activos hidrofóbicos como agentes adsorbentes. Sin embargo, estos procesos de adsorción no impiden que dichos materiales se comporten como emisores secundarios una vez contaminados. En este contexto, es necesario desarrollar nuevos materiales que no sean solo eficientes en la captura de dichos agentes de guerra química sino que también sean capaces de degradar dichas moléculas a especies inocuas y que, por tanto, se comporten como sistemas autolimpiables. Las redes metalorgánicas de Zr(IV), con propiedades catalíticas de tipo fosfotriesterasa, representan una alternativa interesante para desarrollar nuevos adsorbentes autodesintoxicantes avanzados de agentes de guerra química que contienen P-F, P-O hidrolizables.</span></p>QUÍMICA INORGÁNICA
267-92-2024/2025<p style="text-align:justify;"><i><strong>Breve descripción del trabajo:</strong></i></p><p style="text-align:justify;">El objetivo principal del trabajo de fin de grado (TFG) aquí propuesto, es la evaluación del impacto del aerosol atmosférico sobre la radiación solar global y sus componentes, el cual se desarrollará en el Grupo de Física de la Atmósfera (GFAT) de la Universidad de Granada. En concreto, la variable que se usará para caracterizar el aerosol atmosférico es la profundidad óptica de aerosoles (AOD) y las variables para determinar la radiación solar serán la radiación global y el desglose en sus componentes: directa y difusa. Para ello, se hará uso de dos bases de datos distintas, por un lado, los datos del satélite Moderate-Resolution Imaging Spectroradiometer (MODIS), con resolución de 1 km, y por otro, los datos in-situ de radiación solar, disponibles en el observatorio global Andaluz de la atmósfera (ÁGORA) ubicado en Granada (Foyo-Moreno et al., 2023). El uso de estos datos permitirá obtener información detallada sobre la relación existente entre la presencia de aerosoles atmosféricos en la atmósfera y la variación de la radiación solar y sus componentes. Se espera que este TFG contribuya a una mejor comprensión de estos procesos en el balance radiativo del sistema Tierra-Atmósfera, que es determinante en el cambio climático.</p><p><i><strong>Metodología:</strong></i></p><p>La metodología propuesta está desglosada en las siguientes etapas:</p><ol><li><strong>Recopilación de datos&nbsp;</strong>de radiación solar global y sus componentes: directa y difusa, así como de AOD del satélite MODIS con una resolución de 1 km e in-situ de radiación solar de la estación ÁGORA.</li><li>Comparación y validación de las medidas de radiación solar obtenidas de MODIS y de la estación ÁGORA.</li><li><p style="text-align:justify;">Utilización de herramientas de procesamiento de datos como Python para evaluar la influencia del AOD en las distintas componentes de la radiación solar global.</p></li><li><p style="text-align:justify;">Análisis y evaluación de los resultados obtenidos para estimar la influencia del AOD en la radiación solar en Granada, contrastando el uso de diferentes metodologías y bases de datos.</p></li></ol><p style="text-align:justify;">Este trabajo contribuirá al conocimiento de la influencia del AOD en la radiación solar, permitiendo establecer una base de datos para futuros estudios utilizando sinergias de instrumentos y medidas de satélite de la radiación solar, con lo que se podrá establecer el importante papel que tienen los aerosoles atmosféricos en el balance energético y su impacto en el cambio climático.</p>FÍSICA APLICADA
267-25-2024/2025<p>La Computación Cuántica tiene numerosas aplicaciones en ámbitos tan dispares como el descubrimiento de nuevos medicamentos y de nuevos materiales, la gestión eficiente de los recursos energéticos o la optimización de rutas. A pesar de que ya se han identificado una gran cantidad de aplicaciones que podrían ser de gran interés para el conjunto de la sociedad, gran parte de los expertos coinciden en que probablemente muchas de las aplicaciones más interesantes de la Computación Cuántica están todavía por descubrir.</p><p>Uno de los ámbitos en los que más ha crecido el interés de forma reciente es el del Quantum Machine Learning o Aprendizaje Automático Cuántico. Los límites en las capacidades de las soluciones de inteligencia artificial están definidos en gran medida por el hardware de la máquina en el que se ejecutan los algoritmos; por ejemplo, el éxito del Deep Learning con redes neuronales es posible gracias a la potencia de cálculo proporcionadas por las GPUs. El Quantum Machine Learning consiste en la utilización de las capacidades de cálculo que nos proporcionan los ordenadores cuánticos para mejorar la eficiencia y el rendimiento de los algoritmos de inteligencia artificial.</p><p>A pesar de que el estado del arte de los ordenadores cuánticos es todavía prematuro, ha surgido recientemente una generación de algoritmos cuánticos de aprendizaje automático con menos requerimientos a nivel de hardware que permiten trabajar con los ordenadores cuánticos actuales. En esta segunda generación los algoritmos no tienen ventaja teórica demostrada frente a su contrapartida clásica, pero se apoyan en métodos heurísticos y en la mayor capacidad computacional del hardware cuántico para tratar de buscar una ventaja en algunos de las dimensiones que nos permiten medir el rendimiento de un algoritmo de inteligencia artificial. Esta evolución recuerda en gran medida al proceso seguido por el aprendizaje automático clásico, evolucionado hacia el Deep Learning con la llegada de nuevas capacidades computacionales. Esta segunda generación de algoritmos se basa principalmente en circuitos cuánticos parametrizados (PQC) o redes neuronales cuánticas (QNN). El funcionamiento de los PQC o QNN tiene múltiples analogías con el Deep learning clásicos, ya que los parámetros también se ajustan con respecto a una función de coste a través de métodos basados en gradientes y un conjunto de heurísticas de optimización.</p><p>En este trabajo se pondrá el foco especialmente en redes neuronales convolucionales cuánticas y en aproximaciones que combinen redes cuánticas con redes clásicas.</p>ÓPTICA
267-148-2024/2025<p>El daño por irradiación es uno de los mayores retos que se presentan en el desarrollo de la fusión nuclear. Actualmente, se desconoce de qué manera cambia la estructura atómica de los materiales a someterse a una irradiación neutrónica de alta energía. Una de las formas de resolver esta incógnita es mediante el uso de técnicas avanzadas para el cálculo de estructuras electrónicas, como la Teoría del Funcional de la Densidad (DFT).<br>La DFT se basa en la aplicación de la mecánica cuántica a sistemas de muchas partículas, combinando la precisión en los cálculos con su facilidad de aplicación para el estudio de sistemas complejos.<br>El material propuesto para la construcción de ITER, DEMO y, también, uno de los que será más estudiado en IFMIF-DONES, los EUROFER97, es un acero formado, principalmente, por Fe, C y Cr, además de otros muchos compuestos disueltos en menor cantidad. Otro de los materiales más prometedores y que también se está estudiando intensamente es el tungsteno.</p><p>&nbsp;&nbsp;<br>En este Trabajo de Fin de Grado se estudiarán las propiedades electrónicas y cristalinas (bandas, densidad de estados, efecto del spin, geometría de la red) de alguno de estos materiales (Fe o W) como material ideal (sin desorden ni solutos) para, a partir de ahí, estudiar la influencia de las impurezas más comunes en sus propiedades (energías de formación de defectos tales como vacantes, defectos intersticiales y sustitucionales.) En función del interés del alumno o alumna se elegirán los materiales y defectos a estudiar.</p><p>&nbsp;</p><p><i><strong>Metodología:&nbsp;</strong></i></p><p>− Selección de materiales y defectos a estudiar. Estudio de sus propiedades a partir de bibliografía básica facilitada por la tutora.&nbsp;</p><p>− Simulación de ejemplos/tutoriales mediante el código de simulación elegido.&nbsp;</p><p>− Simulación de material y defecto(s) elegidos mediante el código de simulación elegido. &nbsp;</p><p>− Análisis de las propiedades estructurales y electrónicas del material y defecto(s) seleccionados. Comparación con el caso ideal. Comparación con otros materiales y defectos (si el tiempo lo permite).&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p>FÍSICA ATÓMICA, MOLECULAR Y NUCLEAR
267-72-2024/2025<p style="margin-left:0cm;"><i><strong>Breve descripción del trabajo:</strong></i></p><p style="margin-left:0cm;text-align:justify;">En este trabajo se propone resolver la ecuación de Schrödinger dependiente del tiempo para diferentes condiciones iniciales. Esto nos permitirá analizar el comportamiento físico de la función de onda en presencia de diferentes potenciales, por lo que podremos estudiar una multitud de fenómenos tales como el efecto túnel, los coeficientes de reflexión y transmisión o la regeneración de la función de onda. Para ello haremos uso del llamado algoritmo de Crank-Nicolson en el que&nbsp;el operador de evolución es unitario (a diferencia del simple truncamiento del operador exponencial a segundo orden). Como objetivo más ambicioso intentaremos extender nuestros resultados a dos dimensiones, generalizando por tanto el algoritmo ya mencionado al caso bidimensional. De esta manera podremos estudiar fenómenos muy interesantes y pedagógicos tales como el famoso experimento de la doble rendija. Por último, y si el tiempo disponible lo permite, intentaremos conectar estas ideas con la teoría de grandes desviaciones, donde se ha demostrado que el cálculo de la probabilidad de grandes fluctuaciones o eventos raros (así como las trayectorias que dan lugar a los mismos) en sistemas gobernados por una ecuación de tipo Langevin, se pueden reducir al problema de encontrar la energía del estado fundamental en sistemas cuánticos.</p><p style="margin-left:0cm;"><i><strong>Metodología:</strong></i></p><p style="margin-left:0cm;text-align:justify;">Para abordar el estudio que aquí se propone, se hará uso tanto de simulaciones por ordenador como de herramientas analíticas. Desde el punto de vista de simulación, se hará uso –como ya hemos mencionado-- del algoritmo de Crank-Nicolson, dado que presenta un operador de evolución que conserva la propiedad de unitariedad. Además, nosotros pretendemos extender dicho algoritmo a dos dimensiones. Esto implica la inversión de grandes matrices tridiagonales en cada paso temporal, lo que constituirá un reto computacional para llevarlo a cabo de manera eficiente. Desde el punto de vista analítico haremos uso de las herramientas habituales para abordar el estudio del problema desde un punto de vista espectral.</p>ELECTROMAGNETISMO Y FÍSICA DE LA MATERIA
267-81-2024/2025<p style="margin-left:0cm;"><i><strong>Breve descripción del trabajo:</strong></i></p><p style="margin-left:0cm;text-align:justify;">Las redes complejas describen una amplia gama de sistemas en la naturaleza y la sociedad. Ejemplos paradigmáticos incluyen la célula, una red de sustancias químicas unidas por reacciones químicas, o Internet, una red de routers y ordenadores conectados por enlaces físicos. Aunque estos sistemas se modelaban como grafos aleatorios, desde hace más de veinte años se sabe que la topología y evolución de las redes reales están gobernadas por principios organizativos robustos. En este TFG revisaremos los avances recientes en el campo de las redes complejas, enfocándonos en la mecánica estadística de la topología y la dinámica de las redes. Tras revisar los datos empíricos que motivaron el interés, aún en boga, en las redes, analizaremos los principales modelos y herramientas analíticas, incluyendo grafos aleatorios, redes de pequeño mundo y libres de escala, la teoría de la evolución de las redes, así como la interacción entre la topología y la robustez de las redes contra fallas y ataques.</p><p style="margin-left:0cm;"><i><strong>Metodología:</strong></i></p><p style="margin-left:0cm;text-align:justify;">Para abordar el estudio que aquí se propone, se hará uso tanto de simulaciones por ordenador como de herramientas analíticas proporcionadas por la mecánica estadística. Las simulaciones de los diferentes tipos de redes se realizarán a partir de métodos Monte Carlo. Desde el punto de vista analítico, se hará uso especialmente de la teoría de grafos con el fin de modelar las relaciones y estructuras dentro de las redes, incluyendo el análisis de caminos, centralidad, y la detección de comunidades.</p><p style="margin-left:0cm;">&nbsp;</p>ELECTROMAGNETISMO Y FÍSICA DE LA MATERIA
267-36-2024/2025<p>El desarrollo incorpora la parte de RF y la parte de diseño digital con FPGA/micro.</p>ÓPTICA
267-116-2024/2025<h3>Resumen</h3><p>Este trabajo tiene como objetivo utilizar modelos computacionales de grano grueso (coarse-grained) para estudiar polímeros de origen natural y evaluar su potencial para aplicaciones sostenibles.</p><h3>Metodología</h3><p>Al inicio del proyecto, se llevará a cabo una revisión bibliográfica exhaustiva para comprender el estado actual en el campo de la simulación de polímeros y sus diversas aplicaciones, con un énfasis particular en aquellos estudios enfocados en la sostenibilidad de productos poliméricos.</p><p>Se realizarán simulaciones de dinámica molecular con solvente implícito utilizando el software HOOMD-blue, implementado como una librería de Python, para analizar la disolución de polímeros naturales y caracterizarlos. Posteriormente, se incorporará una superficie en las simulaciones para investigar la dinámica de adsorción de los polímeros.</p><p>Se desarrollarán códigos específicos para analizar distintas propiedades de los polímeros, tales como el radio de giro y los perfiles de densidad, con el propósito de caracterizarlos y evaluar su potencial para formar recubrimientos poliméricos.<br>&nbsp;</p>FÍSICA APLICADA
267-19-2024/2025<p style="text-align:justify;"><i>Las partículas de aerosol atmosférico son partículas sólidas y/o líquidas en suspensión en la atmósfera, excluyendo las nubes (Horvath, 1998). Pueden tener origen natural, como polvo desértico, emisiones volcánicas, partículas de sal marina y polen, o ser antropogénicas, como emisiones industriales, hollín y quemas de biomasa. La composición química y propiedades ópticas de estas partículas son muy diversas (Seinfeld and Pandis, 2006). Las partículas de aerosol atmosférico modifican el balance radiativo del sistema Tierra-atmósfera al dispersar y absorber la radiación solar y térmica (efecto directo) y al actuar como núcleos de condensación y glaciación, alterando las propiedades de las nubes (efecto indirecto). Principalmente las partículas de aerosol se encuentran en la troposfera, aunque pueden llegar a la estratosfera por erupciones volcánicas. Dentro de la troposfera, predominan las partículas dentro de la capa límite atmosférica, principalmente emitidas por actividad antropogénica, y se caracterizan por grandes variaciones temporales y espaciales (Baklanov et al., 2007). En determinadas circunstancias, estas partículas pueden inyectarse en la troposfera libre y transportarse grandes distancias.</i></p><p style="text-align:justify;"><i>La gran variabilidad en la distribución vertical del aerosol es uno de los mayores desafíos para reducir las incertidumbres sobre sus efectos directos e indirectos. El uso de la técnica lidar (Light Detecting And Ranging) es esencial para estudiar el aerosol atmosférico con resolución vertical. Desde los años 60, esta técnica ha expandido su uso globalmente gracias a la reducción de costes y el desarrollo de sistemas ópticos y detectores. Redes de medida como EARLINET, LALINET y MPLNET operan incluso sistemas lidar Raman, capaces de proporcionar perfiles independientes de coeficiente de extinción y retrodispersión de partículas a varias longitudes de onda. La principal limitación de los sistemas lidar es que no operan de manera continua debido a la complejidad de los instrumentos. Para superar esta limitación, se han desarrollado ceilómetros, que operan de manera continua emitiendo en una longitud de onda en el infrarrojo (generalmente 1064 nm). Iniciativas como ICENET (Cazorla et al., 2017) buscan mejorar la cobertura espacial, instalando instrumentación cada 100 km para disponer de medidas en tiempo casi real. Combinando información vertical de ceilómetros y datos integrados de fotómetros solares mediante el algoritmo GRASP (Generalized Retrieval of Atmosphere and Surface Properties) (Román et al., 2018), se puede mejorar la caracterización atmosférica. Además, la incorporación de modelos atmosféricos como HYSPLIT (Hybrid Single-Particle Lagrangian Integrated Trajectory) (Stein et al., 2015) puede mejorar significativamente la caracterización de diferentes escenarios de aerosol atmosférico.</i></p><p style="margin-left:0cm;text-align:justify;"><span style="color:black;"><i>En el estudio se emplearán las señales lidar obtenidas a partir de un ceilómetro y datos columnares generados por un fotómetro solar operados regularmente en estaciones de tierras secas en el marco del proyecto nacional INTEGRATYON3 (</i></span><span style="background-color:white;color:black;"><i><strong>I</strong>ntegrated mo<strong>n</strong>i<strong>t</strong>oring of the compl<strong>e</strong>x&nbsp;<strong>g</strong>reenhouse gases and ae<strong>r</strong>osol particle exch<strong>a</strong>nges between a<strong>t</strong>mosphere, ecos<strong>y</strong>stem and vad<strong>o</strong>se zo<strong>n</strong>e i<strong>n</strong>&nbsp;dryla<strong>n</strong>ds</i></span><span style="color:black;"><i>). Además, el alumno contribuirá al mantenimiento de dichos instrumentos.</i></span></p><p style="margin-left:0cm;text-align:justify;"><span style="color:black;"><i>La metodología para el desarrollo del TFG cubrirá las siguientes etapas:</i></span></p><ol><li><p style="text-align:justify;"><span style="color:black;"><i>Familiarización con la técnica ceilometría para determinación de perfiles de partículas de aerosol y técnica de fotometría solar para caracterización integrada en columna.</i></span></p></li><li><p style="text-align:justify;"><span style="color:black;"><i>Familiarización con el algoritmo GRASP para determinación de perfiles avanzados de partículas de aerosol.</i></span></p></li><li><p style="text-align:justify;"><span style="color:black;"><i>Análisis de perfiles bajo diversos escenarios de aerosol atmosférico presentes en las zonas de estudio (polvo mineral y partículas antropogénicas, entre otros).</i></span></p></li><li><p style="text-align:justify;"><span style="color:black;"><i>Familiarización con modelo HYSPLIT para identificación de procedencia de masas de aire.</i></span></p></li><li><p style="text-align:justify;"><span style="color:black;"><i>Implementación de un software para atribución de fuentes de masas de aire con resolución vertical, combinando con una versión simplificada de clasificación de cobertura terrestre de MODIS.</i></span></p></li><li><p style="text-align:justify;"><span style="color:black;"><i>Análisis estadístico de escenarios atmosféricos.</i></span></p></li></ol>FÍSICA APLICADA
267-31-2024/2025<p style="text-align:justify;">El progreso hacia un futuro sostenible está principalmente limitado por nuestra capacidad para cambiar los modelos energéticos e industriales incorporando recursos renovables y reduciendo la contaminación derivada, tarea en la que la investigación química juega un papel fundamental.</p><p style="text-align:justify;">La conversión de energía solar para la generación de combustibles renovables y productos de alto valor añadido es una de las alternativas al uso de recursos fósiles más prometedoras para abastecer nuestras necesidades de energía, materias primas y productos químicos.&nbsp; En particular, la utilización de luz como fuente de energía para la transferencia de protones y electrones a substratos insaturados, tanto orgánicos (p.ej. alquenos o alquinos) o inorgánicos (p.ej, CO2 o N2) por medio de fotocatalísis es un campo en crecimiento exponencial ya que permite la síntesis sostenible de productos industrialmente relevantes (p.ej. etileno o amoniaco) y el almacenamiento de la energía solar en combustibles verdes (p.ej. metanol).&nbsp;</p><p style="text-align:justify;">Para dicho fin, un fotocatalizador debe de (1) absorber luz visible, (2) generar estados excitados de alta energía capaces de transferir electrones y protones a los substratos deseados y (3) regenerar su estado inicial mediante la oxidación de un donador de electrones sacrificial, idealmente agua. Las cajas metalorgánicas, compuestos moleculares formados por nodos metálicos y ligandos orgánicos puente, han demostrado propiedades prometedoras en los tres aspectos mencionados, convirtiéndolas en excelentes candidatos para desarrollar sistemas fotocatalíticos. La absorción de luz visible por parte de los ligandos orgánicos, típicamente anillos aromáticos, induce un salto electrónico hacia los nodos metálicos generando una especie excitada con separación de cargas que es altamente reactiva en procesos redox: el nodo metálico adquiere un elevado carácter reductor, capaz de transferir electrones hacia un substrato, mientras que el ligando oxidado resultante tiene un fuerte carácter oxidante, capaz de extraer un electrón regenerando así el catalizador.</p><p style="text-align:justify;">Este proyecto tiene como objetivo el estudio teórico/computacional de la actividad fotocatalítica de cajas metalorgánicas de relevancia en los procesos de conversión y almacenamiento de energía solar.</p><p><i><strong>Metodología:</strong></i></p><p style="margin-left:0cm;text-align:justify;">El estudiante estará inicialmente involucrado en el modelado de cajas metalorgánicas utilizando mecánica cuántica donde se familiarizará con la metodología DFT y los programas de cálculo (Gaussian) y visualización (GaussView y Chemcraft) de resultados. Aprovechando este conocimiento, el estudiante profundizará en la evaluación de las propiedades termodinámicas de estos sistemas, especialmente aquellas relacionadas con los procesos redox presentes y las características ácido-base en los diferentes estados de reacción.&nbsp;</p><p style="margin-left:0cm;text-align:justify;">Para obtener información de los estados excitados de estos sistemas, el estudiante abordará su estudio mediante TD-DFT para explorar las diferentes excitaciones posibles con luz visible, los estados más estables, y sus correspondientes propiedades termodinámicas relevantes a la reactividad fotocatalítica.</p><p style="margin-left:0cm;text-align:justify;">Por último, el estudiante explorará el mecanismo de reacción de estos sistemas metalorgánicos para la reducción de substratos orgánicos modelos, lo que incluye identificar los estados reactivos, los pasos de reacción incluyendo transferencia de electrones y protones, la regeneración del catalizador, y los productos e intermedios más favorables.</p><p style="margin-left:0cm;text-align:justify;">El estudiante participará tanto de los procesos creativos del proyecto como la proposición de mecanismos viables de reacción, como en los de análisis de datos y discusión de resultados, lo que dará lugar a una experiencia completa de la actividad científica en el campo de la investigación computacional.</p>QUÍMICA INORGÁNICA
267-94-2024/2025<p style="text-align:justify;"><span style="background-color:transparent;color:rgb(0,0,0);">En los últimos años, el diseño de sistemas en la microescala ha atraído la atención científica debido a sus potenciales aplicaciones como las industrias farmacéutica y alimentarias, así como su uso como microreactores, aplicaciones medioambientales (bioremediación, obtención de energía), o como sensores, etc. Entre estos sistemas, uno de los que mayor versatilidad han demostrado son las <strong>microgotas</strong>, ya que puede manipularse la interacción entre sus diversos componentes mediante la aplicación de campos externos, y ello permite la formación de estructuras jerárquicas y su funcionalización. Esto en parte se debe al tremendo avance de las <strong>técnicas microfluídicas</strong>, que permiten preparar microgotas de morfología controlada con gran precisión, gracias al uso de canales de tamaño submilimétrico [1-2]. Por otra parte, la inclusión de <strong>nanopartículas sensibles a campos electromagnéticos </strong>en la formulación de las gotas permite <strong>controlar estas últimas de forma remota </strong>y así, por ejemplo, guiarlas hasta localizaciones específicas, ordenarlas espacialmente, manipular su forma y su permeabilidad, etc [3]. Estos comportamientos serían interesantes en algunas de las aplicaciones mencionadas anteriormente.</span></p><p style="text-align:justify;"><span style="background-color:transparent;color:rgb(0,0,0);">En este TFG nos planteamos preparar microgotas mediante técnicas microfluídicas de acuerdo con la siguiente <strong>metodología</strong>:</span></p><ol><li><span style="background-color:transparent;color:rgb(0,0,0);">Preparación de microgotas mediante técnicas de microfluídica. Se explorará la formación de gotas de emulsión agua-en-aceite, así como la posibilidad de preparar gotas formadas por varias fases (por ejemplo, gotas bifásicas basadas en disoluciones inmiscibles de polímeros o gotas de emulsión múltiple).</span></li><li><span style="background-color:transparent;color:rgb(0,0,0);">Caracterización de las microgotas. Su morfología (tamaño y forma) y estabilidad se caracterizarán mediante microscopía óptica, mientras que su capacidad de encapsular sustancias se evaluará mediante técnicas de microscopía de fluorescencia.</span></li><li><span style="background-color:transparent;color:rgb(0,0,0);">Inclusión de nanopartículas en las gotas, como por ejemplo, nanopartículas magnéticas o de oro, o partículas de látex (comerciales o preparadas por el/la estudiante). Para conseguir dicha inclusión las nanopartículas deberán estar adecuadamente funcionalizadas.</span></li><li><span style="background-color:transparent;color:rgb(0,0,0);">Evaluación del comportamiento de las nanopartículas (y/o las gotas) mediante la aplicación de campos electromagnéticos externos. Las microgotas se depositarán sobre sustratos adecuadamente funcionalizados y se someterán a campos electromagnéticos (por ejemplo, campos magnéticos o irradiación con luz láser). Para la visualización de las mismas se empleará un microscopio óptico en el que se acoplarán los sistemas de generación de campos.</span></li></ol>FÍSICA APLICADA
267-162-2024/2025<p><i>Las interfases sólido/disolución son especialmente relevantes cuando las dimensiones características son del orden de los nanómetros. Si consideramos, además, que en la mayoría de esas interfases adquieren carga eléctrica, se abre toda una rama de estudios de los fenómenos que tienen lugar cerca de la misma. Sin embargo, el interés de sistemas nanométricos en contacto con disoluciones acuosas no es únicamente fundamental, sino que en los últimos años han surgido aplicaciones con un gran interés social [1].</i></p><p><i>Pensemos en dos electrodos porosos (con poros del tamaño de los nanómetros) entre los que se establece una diferencia de potencial y que están sumergidos en una disolución con iones. Al polarizar los electrodos, se produce el desplazamiento de los iones desde el seno de la disolución hacia la superficie de los electrodos: los cationes migran hacia el electrodo negativo y los aniones hacia el positivo [2-3] y forman la Doble Capa Eléctrica (EDL), una suerte de condensador con una altísima capacidad por la gran superficie disponible, capacidad que puede ser aprovechada para remover iones de la disolución. Este es uno de los aspectos claves de la desionización capacitiva, ya que en ciclos consecutivos se permite retirar iones del interior de la disolución y eliminarlos en un siguiente paso.&nbsp;</i></p><p><i>El eje de la propuesta de este trabajo es el estudio experimental de las condiciones óptimas para alcanzar una máxima eficiencia en el proceso y determinar los parámetros requeridos para desalinizar aguas con un alto contenido de sal.</i></p><p>&nbsp;</p><p><i><strong>Metodología:</strong></i></p><ul><li><i>Se pretende emplear carbón activado como material para los electrodos que ya se usa en supercondensadores. Se pondrán a punto una celda para la desalinización. &nbsp;</i></li><li><i>Se estudiarán e interpretarán los parámetros que afectan a la eficiencia del ciclo.&nbsp;</i></li><li><i>Elaboración de un modelo simple que sustente los resultados obtenidos.</i></li><li><i>Se estudiarán los parámetros necesarios para un nuevo diseño de la celda que optimice la migración de iones hacia los electrodos para agua con alto contenido de sal.&nbsp;</i></li></ul>FÍSICA APLICADA
267-151-2024/2025<p>En este trabajo fin de grado se pretende que el estudiante obtenga conocimientos avanzados sobre las nuevas tecnologías en el uso de los materiales semiconductores. En concreto se pretende con el llevar a cabo la fabricación y caracterización experimental de materiales semiconductores de espesor atómico (2D) que suponen una gran revolución para los dispositivos electrónicos de nueva generación.&nbsp;</p><p><span style="color:black;">Este trabajo fin de grado se enmarca dentro de la cátedra +QCHIP de la Universidad de Granada en colaboración con las empresas colaboradoras en el campo de los semiconductores. El trabajo permite al estudiante desarrollar una investigación teórica/experimental de acuerdo con la finalidad última de la cátedra, que el estudiante complemente su formación obteniendo conceptos y experiencia clave en el ámbito de la electrónica y los semiconductores.</span></p><p>Este trabajo se lleva a cabo en las instalaciones de investigación ubicadas en Centro de Investigación en Tecnologías de Información y las Comunicaciones (CITIC-UGR) donde el grupo de investigación/departamento disponen de una sala blanca para fabricación y laboratorios para caracterización de materiales 2D.&nbsp;</p><p>La metodología se puede dividir en:&nbsp;</p><ul><li>Revisión bibiliografica de materiales 2D</li><li>Síntesis de materiales 2D (MoS2, WS2 o grafeno) mediante las técnicas empleadas en el laboratorio (CVD, ALD)</li><li>Procesado de las muestras para la fabricación de dispositivos</li><li>Evaluación de las aplicaciones disruptivas en las que estos materiales ultradelagados pueden suponer una ventaja cualitativa frente a la tecnología estandard de silicio</li></ul>ELECTRÓNICA Y TECNOLOGÍA DE COMPUTADORES
267-79-2024/2025<p style="margin-left:0cm;text-align:justify;">Se conoce como nube a una masa de vapor de agua condensada – bien en forma de agua líquida ó de hielo – suspendida en la atmósfera. Al formarse por la condensación de vapor de agua en la atmósfera, las nubes son fundamentales para comprender el ciclo hidrológico en nuestro planeta. Las nubes están formadas por pequeñas partículas de agua conocidas como gotas de nube, las cuáles se forman a partir de partículas pre-existentes, típicamente conocidas como partículas del aerosol atmosférico. El tamaño de esas gotas puede variar en función del número de partículas de aerosol pre-existentes así como de las condiciones termodinámicas y de la cantidad de vapor de agua. Bajo ciertas condiciones, dichas gotas pueden llegar a formar núcleos de hielo. Por lo tanto, las nubes pueden presentarse en formas muy diversas lo que hace que su estudio sea complejo. Debido a que las nubes también pueden reflejan radiación, también juegan un papel fundamental sobre el balance de energía tierra-atmósfera, y por lo tanto son un factor clave para conocer y estudiar el clima sobre nuestro planeta.</p><p style="margin-left:0cm;text-align:justify;">&nbsp;</p><p style="margin-left:0cm;text-align:justify;">Las medidas mediante sensores de teledetección pasiva a bordo de plataformas satelitales permiten obtener cobertura global de las distintas variables atmosféricas a estudiar. Entre estos sensores, destaca el espectoradiométro Moderate Resolution&nbsp; Imaging Spectrometer (MODIS -&nbsp;<a href="https://modis.gsfc.nasa.gov/"><u>https://modis.gsfc.nasa.gov/</u></a> ) a bordo de los satélites TERRA y AQUA, y que incluye un conjunto de canales en el visible e infrarrojo a partir de los cuales se pueden obtener las propiedades de las nubes. En este sentido, NASA ha llevado a cabo un desarrollo exhaustivo de algoritmos para la obtención de las propiedades de las nubes. La resolución espacial a la cuál se pueden obtener propiedades de las nubes&nbsp; son de 1 x 1 km2&nbsp;y de 5 x 5 km2, dependiendo del producto en cuestión. En particular, el fundamento físico para la obtención de las propiedades de las nubes a partir de la radiación reflejada por la mismas y recogida por el sensor se basa en el cociente entre canales absorbentes y no-absorbentes de dicha radiación, los cuales están disponibles en el sensor MODIS. Esta técnica es especialmente útil sobre superficies oscuras como los océanos, pues evita problemas añadidos de reflexiones desde superficies más brillantes. Futuros desarrollos con polarímetros tenderán a resolver estas limitaciones.</p><p style="margin-left:0cm;text-align:justify;">&nbsp;</p><p style="margin-left:0cm;text-align:justify;">En la Península Ibérica, y particularmente en la zona sudeste donde se encuentra la ciudad de Granada, nos encontramos con distintos tipos de nubes. Por un lado las nubes tipo cirrus que son nubes altas formadas principalmente por partículas de hielo,&nbsp; y por otro lado nubes de tipo cúmulo de alturas intermedias que pueden llevar asociada precipitación. En una situación cambiante donde las intrusiones de masas de aire norteafricanas son cada vez más frecuentes, es importante ver como se ven afectadas la frecuencia y tipo de las nubes.</p>FÍSICA APLICADA
267-137-2024/2025<p>Los procesos de separación son responsables de casi el 50% del consumo industrial de energía a escala global. Uno de los procesos que requieren un mayor aporte energético es la separación de gases/vapores mediante destilación y/o crio-destilación. Por consiguiente, el desarrollo de procesos de separación alternativos capaces de discriminar la forma, tamaño y/o otras pequeñas diferencias fisicoquímicas en una mezcla multicomponente es de un gran interés tecnológico. Entre las tecnologías alternativas se pueden destacar tanto los procesos de adsorción selectiva en materiales porosos como la permeación selectiva en membranas. Este tipo de procesos implican un coste energético mucho menor que la destilación, pero requieren de un compromiso adecuado entre selectividad y difusividad (permeabilidad) de las moléculas de adsorbato en la matriz porosa.</p><p>Metodología</p><p>En este trabajo el estudiante se familiarizará con la sintesis y caracterización de materiales porosos.</p><p>Se emplearán técnicas de cromatografía de gases en fase inversa a temperatura variable y de septaración de gases (curvas de ruptura) empleando un espectrometro de masas.</p><p>Asimismo, los datos obtenidos se emplearán en la determinación del equilibrio termodinámico de la interacción adsorbato-adsorbente.</p>QUÍMICA INORGÁNICA
267-155-2024/2025<p>Desde la publicación a mediados de los años 50 del siglo pasado la posibilidad de que en ciertos sistemas se pueda definir una temperatura absoluta negativa, en la comunidad científica se abrió un debate, que ha llegado hasta nuestros días sobre el sentido de la misma, o más concretamente su posible consistencia o no con la Termodinámica y/o Mecánica Estadística. La publicación de resultados experimentales en la última década ha reavivado el debate. En este trabajo se pretende abordar las interpretaciones más recientes analizando sus puntos fuertes y débiles.&nbsp;</p><p>Metodología:</p><p>Revison bibliográfica que incluya los siguientes aspectos:</p><ol><li>Desarrollos matemáticos y métodos experimentales utilizados para la definición y medida de la temperatura</li><li>Sistemas en los que se define la temperatura absoluta negativa.</li><li>Compatibilidad con la Segunda Ley</li></ol>FÍSICA APLICADA
267-105-2024/2025<p style="text-align:justify;"><i><strong>Breve descripción del trabajo:</strong></i></p><p style="text-align:justify;">El grupo de Física de la Atmósfera (GFAT) de la Universidad de Granada cuenta con una base de datos muy amplia de la estructura vertical de la atmósfera medida con lidar multiespectral. El Trabajo Fin de Grado (TFG) propuesto se enmarca en la explotación y análisis de esta base de datos para identificar y caracterizar capas de aerosol atmosférico en Granada. La idea principal es caracterizar las capas de aerosol presentes en los perfiles atmosféricos verticales y tipificarlas mediante diferentes métodos, como el método del gradiente (Belegante et al., 2014), aplicados a distintas propiedades ópticas (extensivas e intensivas). Se realizará una revisión bibliográfica, para identificar los rangos de valores de las propiedades ópticas, obtenidas mediante lidar multiespectral, de los diferentes tipos de aerosol con el fin de establecer las bases de la clasificación. Los resultados de la identificación y tipificación de capas de aerosol en la base de datos del GFAT se contrastarán con los análisis de casos de estudio analizados en estudios previos (e.g. Ortiz-Amezcua, et al., 2017), y con los resultados de aplicación del software NATALI (Nicolae et al., 2018), que, basado en redes neuronales, proporciona la altura de las capas y el tipo de aerosol presentes en los perfiles atmosféricos.</p><p style="text-align:justify;">El objetivo principal de este TFG será estudiar la distribución y características de las capas de aerosol mediante el uso de datos de lidar multiespectral y comparar los resultados obtenidos utilizando diferentes métodos y herramientas disponibles. Se espera que este trabajo sirva de base para el desarrollo e implementación de futuros algoritmos basados en redes neuronales, mejorando así la precisión y eficiencia en la detección y clasificación de aerosoles atmosféricos.</p><p><i><strong>Metodología:</strong></i></p><p style="text-align:justify;">Para alcanzar los objetivos planteados en este TFG se llevará a cabo la recopilación de datos de propiedades verticales del lidar multiespectral. Se complementará con una revisión bibliográfica para determinar los rangos de valores de las propiedades ópticas correspondientes a los tipos de aerosoles atmosféricos. La identificación y caracterización de capas de aerosol se realizará utilizando el método del gradiente y otros métodos complementarios, con el fin de aplicar diferentes técnicas a distintas propiedades ópticas y así evaluar la sensibilidad del tipo de aerosol en la identificación de capas. Además, se compararán los resultados obtenidos de los límites de las capas con casos previamente documentados en la bibliografía y con los identificados utilizando el software NATALI, para evaluar el grado de acuerdo de las capas identificadas. Finalmente, se procederá al análisis y discusión de los resultados para determinar la influencia de las propiedades ópticas en la identificación y caracterización de las capas de aerosol atmosférico, así como la evaluación de las diferencias y consistencias entre los diversos métodos y herramientas utilizados.</p>FÍSICA APLICADA
267-89-2024/2025<p>Los computadores cuánticos son una realidad desde hace unos años, si bien su alto coste impide que estén aún muy extendidos y que estén disponibles para la mayor parte de los investigadores.</p><p>Actualmente, existen computadores cuánticos de más de 120 cúbits disponibles comercialmente y, algunos centros de investigación como el de IBM, ceden su uso gratuitamente a quienes quieran probarlos o ejecutar algoritmos sobre ellos.</p><p>Además, es posible simular la computación cuántica sobre un computador o supercomputador clásico, hasta un cierto número de cúbits.</p><p>En este trabajo se pretende estudiar las bases de la computación cuántica, cuáles son sus campos de aplicación y comparar la resolución de ciertos problemas de forma clásica frente a la cuántica.&nbsp;</p>INGENIERÍA DE COMPUTADORES, AUTOMÁTICA Y ROBÓTICA
267-154-2024/2025<p>Las técnicas Variational Mode Decomposition (VMD), son una generalización de la transformada de Fourier, pero que funcionan bien hasta para sistemas no lineales y no estacionarios. Ello permite tratar sistemas físicos complicados como es el caso de datos de frecuencia extremadamente baja (ELF).</p><p>Las Resonancias Schumann (SR) responden a un fenómeno electromagnético natural que consiste en la resonancia del campo EM propagándose dentro de la cavidad delimitada por la superficie de la Tierra y la parte inferior de la ionosfera, excitada principalmente por la actividad de los rayos. las SR aparecen en frecuencias extremadamente baja (ELF) del espectro electromagnético, del orden de los hertzios o decenas de hertzios.</p><p>Estos datos se pueden simular y también disponer de ellos mediante el uso de magnetómetros terrestres en estaciones especialmente diseñadas para ello.&nbsp;</p><p>Se plantea la aplicación de las técnicas VMD, que son bastante recientes, a datos simulados y posteriormente a datos reales de la estación de medida ELF situada en el Barranco de Poqueira en la cara sur de Sierra Nevada.&nbsp;</p>FÍSICA APLICADA
267-107-2024/2025<p>La computación cuántica está demostrando ser especialmente útil en ciertos campos de la Ciencia. No es una mejora general de la computación clásica, sino una alternativa que, por sus bases y propiedades, la convierten en un paradigma computacional altamente atractivo y potente para ciertos tipos de problemas.</p><p>Uno de los problemas donde la computación cuántica resulta de gran interés, es el relacionado con las redes neuronales artificiales. En la última década, la implementación de redes neuronales artificiales sobre computadores cuánticos ha generado numerosos estudios y publicaciones científicas.</p><p>En este trabajo se pretende estudiar el potencial de la computación cuántica para resolver diversos problemas mediante redes neuronales artificiales, y poder comparar los resultados con los que se obtienen mediante la implementación de dichas redes mediante un algoritmo convencional. &nbsp;</p>INGENIERÍA DE COMPUTADORES, AUTOMÁTICA Y ROBÓTICA
267-138-2024/2025<p>La descripción de las interacciones electrodébiles de partículas hadrónicas requieren del conocimiento de la estructura interna de estos, que puede describirse a través de diversos factores de forma. No obstante, a bajas energías, la naturaleza no perturbativa de la cromodinámica cuántica (QCD), que describen la dinámica de los constituyentes de los distintos hadrones, hace inaccesible una descripción detallada de los mismos en base a primeros principios (excepto en el caso de lattice QCD). Por esta razón, son necesarias otras técnicas a la hora de describir las propiedades hadrónicas.&nbsp;<br>En este trabajo se pretende estudiar la distribución de carga eléctrica de los kaones (formados por un quark extraño s y otro ligero (up o down). La transformada de Fourier de dicha distribución de carga se denomina factor de forma de carga eléctrica, que puede demostrarse que es una función de variable compleja analítica en el plano complejo excluyendo la recta real positiva.&nbsp;A tal fin se pretenden usar propiedades analíticas de dichos factores de forma basadas en analiticidad y conservación de probabilidad, que se materializan en ecuaciones integrales&nbsp;entre las partes real e imaginaria de dicho factor de forma. A dichas ecuaciones se les denominan relaciones de dispersión.&nbsp;<br>En particular, en el caso de la ausencia de ceros del factor de forma, es posible formular una relación de dispersión mixta [1] que involucra el desfasaje de colisiones entre piones en onda P (que es bien conocido), así como las medidas del factor de forma del Kaón más allá del umbral inelástico. Dicha relación de dispersión permite predecir el módulo y la fase del factor de forma en cualquier región del plano complejo en base a los inputs mencionados.&nbsp;<br><br>[1] Yu. P. Shcherbin, Electromagnetic Pion Radius and Dispersion Sum Rules, Nucl.Phys.B 112 (1976) 470-482<br>[2]&nbsp;</p>FÍSICA ATÓMICA, MOLECULAR Y NUCLEAR
267-85-2024/2025<p><i><strong>Breve descripción del trabajo:</strong></i></p><p>Los microgeles son un híbrido entre un sistema coloidal y uno polimérico con propiedades que cambian según estímulos externos (temperatura, luz, campo eléctrico…). Así, por ejemplo, los microgeles termosensibles expulsan el agua y colapsan cuando la temperatura supera la denominada temperatura crítica de transición. Este comportamiento responsivo hace que sean sistemas ideales para la fabricación de materiales inteligentes con múltiples aplicaciones comerciales, que requieren entender cómo es la microestructura y la dinámica de estos sistemas en diferentes escalas temporales. Supongamos que insertamos una partícula prueba en una muestra de microgeles, es lógico pensar que el movimiento de la partícula se verá afectado por la microestructura de la muestra, tal que la partícula exhibirá una dinámica rápida si la viscoelasticidad es baja y difundirá más lentamente a medida que la viscoelasticidad aumenta. Por tanto, el análisis de estas dinámicas puede proporcionar información sobre la microestructura y la viscoelásticidad de la disolución de microgeles. Es esta la idea sobre la que se desarrolla la microreología pasiva, que estudia las propiedades viscoelásticas de un sistema analizando el desplazamiento cuadrático medio (MSD) de partículas trazadoras insertadas en dicho sistema. En este trabajo se estudiarán cómo se modifica la viscoelasticidad de una muestra de microgel cuando aumenta la concentración de partículas en el sistema y también en función de la temperatura del medio. El estudio se realizará usando técnicas complementarias de dispersión de luz que permiten obtener datos en un amplio intervalo de frecuencias (diferentes escalas temporales): Nanoparticle Tracking Analysis (NTA), Dynamic Light Scattering (DLS) y Diffusing Wave Spectroscopy (DWS). Los datos de MSD obtenidos serán tratados para poder obtener los módulos elásticos y viscosos que caracterizan las propiedades viscoelásticas del microgel.</p><p>&nbsp;</p><p><i><strong>Metodología:</strong></i></p><p>En primer lugar, se realizará una búsqueda bibliográfica para establecer el estado del arte sobre el tema de estudio. Es fundamental que el estudiante conozca las propiedades fundamentales de los microgeles termosensibles, así como el fundamento físico de la dispersión de luz en sistemas coloidales. A continuación, se iniciará el trabajo de laboratorio con el manejo de las diferentes técnicas de dispersión de luz (NTA, DLS y DWS), qué funciones se miden experimentalmente con cada técnica y cómo obtener el desplazamiento cuadrático medio a partir de cada una de ellas. El siguiente paso y bloque principal del trabajo será medir la dinámica del microgel termosensible en función de parámetros como la concentración de partículas y la temperatura del medio. A partir de los resultados obtenidos se calcularán los módulos elásticos cuya interpretación permitirá establecer las propiedades viscoelásticas del microgel en las diferentes situaciones estudiadas. Los resultados se discutirán y compararán con los existentes en la bibliografía. Finalmente, se realizará una memoria científica (redacción de objetivos, estado actual de la investigación relacionada con el trabajo descrito, metodología, comparación de resultados y discusión, conclusiones y bibliografía).</p><p>&nbsp;</p><p>&nbsp;</p>FÍSICA APLICADA
267-112-2024/2025<p style="text-align:justify;">El HDAS es un sensor acústico distribuido de alta fidelidad basado en la sensibilidad que presenta la fibra óptica ante cambios de temperatura y tensión. Este tipo de sensor distribuido aprovecha la fibra óptica que transcurre en paralelo a los cables eléctricos por lo que es un sistema de detección que no necesita una infraestructura adicional dándole un carácter versátil y adaptable al sistema. La tecnología HDAS permite prevenir daños en el cable mediante la alerta temprana de actividades potencialmente dañinas por lo que se ha revelado como una aliada para la detección de los movimientos sísmicos y actividades volcánicas, monitorización de grandes estructuras, detección de depósitos en gaseoductos y oleoductos, monitorización de tráfico urbano o monitorización de cables submarinos que sostienen el 98% del tráfico internacional de Internet., entre otras aplicaciones. Para llevar a cabo la monitorización, la tecnología HDAS se basa en la propagación de un pulso linealmente modulado en frecuencia por la fibra y la posterior adquisición y procesado de las trazas retrodispersadas por el efecto Rayleigh. La modulación lineal de la frecuencia del pulso hace que cualquier perturbación de temperatura o vibración sobre la fibra se transfiera a la traza como un desplazamiento temporal local y proporcional a la perturbación. De esta manera, mediante una medida de estimación de retardo puede cuantificarse la perturbación. El procesado típico de las trazas recibidas se basa en realizar ventanas móviles de correlación entre la traza actual y una traza de referencia a lo largo de toda la fibra. Este proceso es muy pesado computacionalmente, para lo cual HDAS comerciales necesitan procesado en paralelo de trazas mediante GPU.&nbsp;</p><p style="text-align:justify;">&nbsp;</p>ÓPTICA
267-103-2024/2025<p><i><strong>Breve descripción del trabajo:</strong></i></p><p>&nbsp;</p><p>Los hidrogeles son materiales blandos constituidos por redes poliméricas tridimensionales capaces de retener una gran cantidad de agua. Curiosamente, algunos hidrogeles responden a estímulos externos, como el pH, la temperatura, la luz, el calor o el campo magnético. Nos referimos a estos hidrogeles como hidrogeles sensibles a estímulos. Por ejemplo, algunos de estos hidrogeles pueden experimentar cambios en sus dimensiones y/o forma en respuesta a los estímulos, convirtiendo la energía externa en movimiento mecánico, que es la base de los actuadores blandos con control remoto. Algunos de estos sistemas poseen la propiedad de responder a más de un estímulo, es decir, son hidrogeles que responden a múltiples estímulos, o simplemente hidrogeles multiestímulo.&nbsp;</p><p><i><strong>Metodología:</strong></i></p><p>&nbsp;</p><p>Para la consecución de los objetivos que se plantean, seguiremos la siguiente metodología:</p><ol><li><p style="text-align:justify;">Se realizará una revisión bibliografía reciente sobre hidrogeles que responden a múltiples estímulos.</p></li><li><p style="text-align:justify;">Se prepararán hidrogeles que respondan a múltiples estímulos, centrándonos en la temperatura, el pH y los campos magnéticos. Para que sea posible la respuesta a campos magnéticos es necesaria la inclusión de partículas magnéticas en la red polimérica. Para lograr la respuesta a cambios de temperatura usaremos polímeros termosensibles, como la agarosa. La respuesta a cambios de pH se logrará usando polímeros sensibles al pH, como por ejemplo la poliacrilamida.</p></li><li><p style="text-align:justify;">Se realizará una caracterización de las propiedades mecánicas bajo esfuerzos uniaxiales usando los reómetros disponibles en los laboratorios del Departamento de Física Aplicada.</p></li><li><p style="text-align:justify;">Se estudiará el comportamiento del hidrogel ante estímulos externos: temperatura, pH y campo magnético, o una combinación de estos.</p></li></ol><p>&nbsp;</p>FÍSICA APLICADA
267-98-2024/2025<p>Este trabajo tiene como objetivo estudiar y comprender el método de las funciones de Green, una técnica matemática muy<br>potente y reconocida para resolver ecuaciones diferenciales con condiciones de contorno.<br>Este método se aplicará para la resolución de problemas en diferentes áreas de la física (mecánica clásica, cuántica) [1], pero<br>principalmente se centrará en la resolución de problemas en el ámbito del electromagnetismo [2,3,4], tanto en estática como<br>en dinámica. Se trata, por tanto, de un trabajo principalmente teórico con una contribución a aplicaciones numéricas (Método<br>de los Momentos).</p>ELECTROMAGNETISMO Y FÍSICA DE LA MATERIA
267-99-2024/2025<p>Este trabajo consiste en estudiar y comprender los distintos términos de las ecuaciones clásicas de la magnetodinámica a nivel microscópico, estas se conocen como el modelo de Landau–Lifshitz–Gilbert (LLG) [1-3]. Las ecuaciones LLG son las que describen el movimiento de precesión y atenuación de un dipolo magnético ante un campo magnético externo. En segundo lugar los conceptos anteriores se extenderán a una colección de dipolos donde se podrá incluir el potencial de interacción entre dipolos (según distintos modelos) y fluctuaciones térmicas, y estudiar el comportamiento de la magnetización frente a la variación del campo externo. Finalmente el estudiante debe de realizar un programa sencillo que implemente las ecuaciones anteriores junto con las ecuaciones de Maxwell, usando el método de diferencias finitas en el dominio del tiempo (FDTD).</p>ELECTROMAGNETISMO Y FÍSICA DE LA MATERIA
267-100-2024/2025<p style="text-align:justify;">En este trabajo se estudiarán y analizarán las propiedades electromagnéticas de los medios anisótropos y bianisótropos, enfocándose en su comportamiento en diferentes escenarios.</p><p style="text-align:justify;">Los medios anisótropos son aquellos cuyas propiedades físicas, como la permitividad y la permeabilidad, varían según la dirección. Esto provoca que la velocidad de propagación de las ondas electromagnéticas difiera dependiendo de la dirección, afectando fenómenos como la birrefringencia y la polarización de la luz. Los medios bianisótropos van más allá al incluir acoplamiento entre los campos eléctricos y magnéticos. Esto significa que, además de ser anisótropos, presentan interacciones cruzadas entre los componentes eléctricos y magnéticos, lo que puede dar lugar a fenómenos aún más complejos, como respuestas no recíprocas.</p><p style="text-align:justify;">Se implementará un código de programación (preferentemente en Python o C++) como prueba de concepto, utilizando el método de Diferencias Finitas en el Dominio del Tiempo (FDTD). Este código incluirá modelos numéricos tanto para medios anisótropos como bianisótropos, con el fin de simular y comprender cómo las propiedades de estos medios afectan la propagación de una onda electromagnética.</p><p><br>&nbsp;</p>ELECTROMAGNETISMO Y FÍSICA DE LA MATERIA
267-126-2024/2025<p style="text-align:justify;"><span style="background-color:transparent;color:rgb(0,0,0);">En los últimos años, el diseño de microcompartimentos capaces de responder a campos de fuerzas externas ha atraído mucho interés. Estos microcompartimentos, formados por autoensamblaje, y de composiciones muy diversas (gotas de emulsión, liposomas, vesículas, etc.) pueden variar sus propiedades bajo la aplicación de dichos campos, con la ventaja añadida de que, dadas sus reducidas dimensiones, permiten una <strong>modulación de su comportamiento bajo campo en la microescala</strong> [1-2].&nbsp;</span></p><p style="text-align:justify;"><span style="background-color:transparent;color:rgb(0,0,0);">En este TFG nos planteamos preparar <strong>microesferas constituidas por partículas magnéticas </strong>(lo que permite respuesta a estímulos magnéticos, estímulo #1) <strong>dispersas en una matriz polimérica sensible a un segundo estímulo</strong> (estímulo #2, por ejemplo, cambios de temperatura). En particular, variando el estímulo #2 seremos capaces de gelificar la matriz polimérica, lo que a su vez resultará en un aumento de la viscosidad del medio en el que estén incorporadas las partículas. Por ejemplo, si las partículas se incorporan en una matriz de agarosa (sensible a la temperatura), cuando la temperatura de la mezcla sea inferior a unos 60 ºC, el interior de la microesfera se comportará como un hidrogel, de modo que la movilidad de las partículas estará impedida. Sin embargo, al calentar a temperaturas cercanas a los 60ºC se provocará una transición gel-sol, la viscosidad se reducirá drásticamente, y las partículas podrán estructurarse y formar cadenas en presencia de campos magnéticos externos (estímulo #1).&nbsp;</span></p><p style="text-align:justify;"><span style="background-color:transparent;color:rgb(0,0,0);">La metodología a seguir será la siguiente:</span></p><ol><li><span style="background-color:transparent;color:rgb(0,0,0);"><strong>Preparación de microesferas de una matriz polimérica.</strong> Se ensayarán técnicas de emulsificación o microfluídica para tal fin. Se podrán explorar polímeros sensibles a diferentes estímulos tales como agarosa, alginato, etc.</span></li><li><span style="background-color:transparent;color:rgb(0,0,0);"><strong>Encapsulación de partículas magnéticas en microesferas como las formadas en 1. </strong>Se adicionarán partículas magnéticas comerciales (o sintetizadas por el/la estudiante) en concentraciones variables.</span></li><li><span style="background-color:transparent;color:rgb(0,0,0);"><strong>Caracterización de las microesferas. </strong>Su morfología (tamaño y forma), estabilidad y eficiencia de encapsulación se caracterizarán mediante microscopía óptica.</span></li><li><span style="background-color:transparent;color:rgb(0,0,0);"><strong>Estudio del comportamiento de las partículas cuando se sometan a cambios del estímulo #2 con aplicación simultánea de campos magnéticos. </strong>Así por ejemplo, se evaluará si las partículas pueden estructurarse bajo campo cuando la temperatura del medio externo aumente en el caso de matrices de agarosa. Asimismo se determinará si dicha estructuración da lugar a cambios adicionales en las propiedades de las gotas, como por ejemplo, a cambios de su transparencia.&nbsp;</span></li></ol>FÍSICA APLICADA
267-3-2024/2025<p>El estudio de las representaciones de los distintos grupos de Lie juega un papel fundamental en física teórica. Así por ejemplo, en teoría cuántica de campos, las diferentes partículas se expresan como representaciones irreducibles del grupo de Poincaré y los diferentes grupos de simetría internos de la teoría en consideración. Por otro lado, el estudio de los distintos grupos espinoriales y sus representaciones son cruciales para la descripción de los fermiones, constituyentes últimos de la materia. Para ello, es de gran utilidad el estudio del álgebra de Clifford. En este trabajo de fin de grado se propone realizar un estudio sobre las álgebras de Clifford en diferentes espacios-tiempos, sus representaciones, así como algunas de las implicaciones prácticas de las mismas.</p>FÍSICA TEÓRICA Y DEL COSMOS
267-71-2024/2025<p style="margin-left:0cm;"><span style="color:black;">Actualmente muchos dispositivos móviles, como teléfonos o relojes inteligentes poseen conectividad GPS, y están provistos de software que les permite seguir la trayectoria en desplazamientos y medir distancia recorrida.</span></p><p style="margin-left:0cm;"><span style="color:black;">En este TFM se pretende estudiar la precisión y exactitud de estos sistemas para la medición de distancia en desplazamientos.</span></p><p style="margin-left:0cm;"><span style="color:black;">Este estudio se hará desde un punto de vista teórico y experimental, tratando cuestiones como la obtención de la posición en el sistema GPS, la estimación de distancia a partir de la posición GPS y el efecto que las herramientas de suavizado de muchas aplicaciones tiene en la estimación.</span></p>FÍSICA APLICADA
267-61-2024/2025<p>Un ordenador cuántico utiliza el principio de superposición para realizar tareas de manera potencialmente más eficiente que un ordenador clásico, por el denominado paralelismo cuántico. Sin embargo hay severas limitaciones en su construcción por efectos de pérdida de coherencia cuántica y la consiguiente propagación de errores, y también por la dificultad en crear algoritmos compartimentados para realizar distintas cálculos.<br>&nbsp;</p>FÍSICA ATÓMICA, MOLECULAR Y NUCLEAR
267-14-2024/2025<p><i>La resolución analítica de las ecuaciones de Maxwell mediante la teoría de Mie permite evaluar la dispersión, absorción y extinción de luz por partículas. Esta resolución es posible cuando trabajamos con radiación monocromática, plana y cuando las partículas tienen geometría esférica y composición y distribución homogénea. La velocidad de la luz en el interior de la partícula se verá modificada en comparación con su valor en el vacío. Este efecto se recoge en el índice de refracción siendo el cociente entre la velocidad de la luz en el vacío (c) y aquella que posee en el medio material (v). Este parámetro óptico es sensible a la composición química de la partícula y la podemos cuantificar mediante la teoría de Mie. El rango de aplicabilidad de dicha teoría está condicionado por el tamaño de las partículas a evaluar siendo óptimo aquel donde el tamaño de la partícula/s es del orden de la longitud de onda de la luz. No obstante, con objeto de estudiar su validez desde partículas inmersas en fluidos hasta partículas suspendidas en aire y vacío con tamaños de partícula muy diferentes, pretendemos explorar aplicaciones en distintas áreas de la Física como son la Física de la atmósfera y la ciencia coloidal. Además, de gran interés será evaluar el campo de aplicabilidad del modelo de Mie a sistemas de partículas con diferencias de tamaño mayor o igual a un orden de magnitud.&nbsp;</i></p>FÍSICA APLICADA
267-124-2024/2025<p>La Programación es una materia básica para el estudiante de Física o Matemáticas. Los estudiantes han de realizar ejercicios consistentes en programas que son evaluados por sus profesores, y estos programas a menudo han de realizarse por escrito debido a las restricciones de las aulas y la dificultad de poder usar ordenadores en los laboratorios, así como la imposibilidad de poder cigilar los mismos para evitar fraudes académicos.</p><p>Para este trabajo se pretende crear una plataforma que pueda ser usada por los estudiantes y que facilite la subida de código fuente de los ejercicios, la comprobación de errores y evaluación automática de los mismos.</p><p>Así mismo, se pretende dotar a la plataforma de mecanismos para detectar el fraude o plagio de los ejercicios presentados.&nbsp;</p>INGENIERÍA DE COMPUTADORES, AUTOMÁTICA Y ROBÓTICA

La programación y mantenimiento de las páginas web albergadas en este sitio se han realizado con Software Libre por Ruvic. Soluciones Informáticas

Logo de Ruvic. Soluciones informáticas

The programming and maintenance of web pages hosted on this site were made with Free Software by Ruvic. Soluciones Informáticas

Logo de Ruvic. Soluciones informáticas