Ciencia e innovación

Nanocelulosa: El material del futuro que es más fuerte y liviano que el acero

“Es un material renovable, biodegradable y con un amplio rango de usos. Está presente en el papel de nuestros cuadernos y es indispensable en la producción de papeles higiénicos y de limpieza”. Así describe la profesora Consuelo Fritz, académica del Departamento de Desarrollo en Productos Forestales de la Facultad de Ciencias Forestales y de la Conservación de la Naturaleza de la U. de Chile a la celulosa. Este recurso, además, puede convertirse en nanocelulosa, un tejido que muchos consideran el material del futuro por ser incluso más fuerte y liviano que el acero.

Este material y sus propiedades son objeto de estudio de la profesora Fritz, quien se adjudicó el proyecto Fondecyt Iniciación 2023 “Effect of Cellulose Nanoparticles (CNPs) on adhesive properties in heterogeneous emulsion-based polymer nanocomposites for wood adhesives”. A través de esta iniciativa, la investigadora busca evaluar el uso de las nanopartículas de celulosa para producir adhesivos de base biológica que puedan ser usados en la fabricación de productos de ingeniería en madera. Para esto, se obtendrán nanocristales y nanofibras desde pulpa de celulosa blanqueada.

En concreto, la celulosa se trata de un biopolímero que puede ser extraído de un amplio rango de plantas, animales y bacterias. “A través de la nanotecnología, es posible obtener un polímero de menor tamaño, conocido como nanocelulosa o nanopartículas de celulosa, cuyas dimensiones se encuentran en la nanoescala, es decir, es celulosa que presenta dimensiones de 100 nm o menos”, explica la académica de la U. de Chile.

El material también es utilizado como aditivo en las industrias de alimentos y farmacéutica, donde es aplicado como un modificador reológico y estabilizador, por lo que tiene un gran impacto en diversas industrias de la economía.

De acuerdo a la forma en que se obtiene este “super material”, es posible definir tres tipos de nanocelulosa. “El primero de ellos es conocido como nanofibras de celulosa o celulosa nanofibrilada, el segundo corresponde a nanocristales de celulosa y el último es conocido como nanocelulosa bacteriana, cada una de ellos con diferentes propiedades químicas superficiales, grados de cristalinidad y propiedades mecánicas”, detalla la experta.

En cuanto a su resistencia mecánica (capacidad de un material de resistir una fuerza sin romperse), “se ha reportado una amplia gama de valores. Sin embargo, se establece un valor de módulo elástico promedio de 130 GPa para nanocristales de celulosa, mucho más alto que el de las fibras de vidrio (70 GPa), similar al Kevlar (60-125 GPa) y que podría competir con el acero (200-220 GPa)”,

Todo esto se combina con características únicas que lo hacen un material sumamente capacitado para la industria del mañana. De acuerdo a la académica, sus características de baja densidad (menos peso), biodegradabilidad, no toxicidad, sostenibilidad y una alta relación de aspecto, cristalinidad y área superficial han convertido a la nanocelulosa en un biopolímero atractivo para desarrollar una novedosa plataforma de bioproductos híbridos funcionales que pueden ser útiles y entregar grandes beneficios como materia prima para el reemplazo de polímeros y materiales de origen sintético o fósil.

La profesora Fritz cuenta que en la última década se han expandido los usos de la nanocelulosa a sectores como packaging, alimentos, medicina, sector automotriz, construcción, componentes electrónicos, adhesivos, recubrimientos, textiles, biocompuestos para tratamiento y purificación de agua y biosensores. Todo esto debido a que desafíos tales como la sensibilidad a la humedad, la incompatibilidad con polímeros oleofílicos, el alto consumo de energía necesario para producirla y su costo se han ido superando a través de I+D.

“Actualmente, Chile se encuentra en un camino auspicioso para el desarrollo de biomateriales de alto valor, ya que se están generando las instancias para potenciar la investigación en la industria forestal y maderera. Por lo tanto, no cabe duda de que la madera será el material propulsor de la bioeconomía del siglo XXI”, cierra la académica de la Universidad de Chile respecto a los impactos y el valor que tiene el desarrollo de este “super material” del futuro y que puede ser una vuelta de tuerca para la industria del país.

Presentan plataforma informática para predecir adherencia a tratamientos contra el VIH

“Plataforma informática basada en inteligencia artificial para la caracterización e identificación del grado de adherencia al tratamiento para la población con VIH” es el nombre de este proyecto FONDEF impulsado por investigadores de la Universidad de Chile que culminó el pasado 17 de mayo. La presentación de sus resultados se realizó en dependencias del Departamento de Ingeniería Industrial de la Facultad de Ciencias Físicas y Matemáticas y contó con la participación del investigador del Instituto Sistemas Complejos de Ingeniería (ISCI), director del Web Intelligence Centre (WIC) y académico de dicho departamento, Juan Velásquez; de la directora alterna de la iniciativa y miembro del WIC, Flavia Guiñazú, y de la investigadora principal del estudio, doctora Claudia Cortés, infectóloga y académica del Departamento de Medicina Interna Centro de la Facultad de Medicina.

Cerca de 79,3 millones de personas ha infectado la pandemia de VIH, afirma la doctora Cortés respecto a la magnitud de este problema. Frente a ello, el programa ONU-SIDA estableció el llamado Plan 90-90-90; que plantea como meta al 2020 que un 90% de la población contagiada tuviera conocimiento de su diagnóstico, que el 90 % de ellos estuviera en tratamiento, y que el 90% de esas personas tratadas contaran con supresión viral, es decir, que el virus se mantenga indetectable en su sangre. Por otra parte, advierte que “para el 2030 la meta es 95-95-95 y Chile como Estado adhiere a este mandato o recomendación de ONUSIDA. Por lo tanto, es obligación del Estado hacer todo lo posible para que lleguemos a ese 95-95-95, que implica -entre otras cosas- que los pacientes tengan una buena adhesión a los tratamientos”.

Debido a que esa meta no se ha cumplido, un grupo interdisciplinario de expertos de la Universidad de Chile se abocó al desarrollo del primer predictor de adherencia al tratamiento del VIH en nuestro país, un proyecto realizado en la Fundación Arriarán, policlínico de infectología del Hospital San Borja Arriarán y principal centro de pacientes con VIH en el país. La herramienta fue elaborada por investigadores del WIC, quienes estuvieron a cargo de la confección, desarrollo y puesta en marcha del sistema predictivo.

La doctora Cortés dio a conocer que para construir este predictor utilizaron, en una primera etapa, la base de datos de más de 5 mil pacientes de la Fundación Arriarán (centro de referencia a nivel nacional) en forma retrospectiva, es decir, considerando desde el ingreso de cada uno hasta el 2019, excluyendo todo cambio posible debido a la influencia del COVID-19. “En ella, junto a los ingenieros analizamos retrospectivamente la información de estos pacientes, cuáles eran adherentes y cuáles no, y qué factores tenían unos u otros. Así, se determinaron en primer término 450 variables, que es una cifra inmanejable, por lo que la redujimos a 34, de las cuales la mayoría se obtienen a partir de las preguntas habituales que ya hacíamos en el ingreso de los pacientes. A ellas, agregamos otras preguntas para ahondar en los ámbitos de salud mental –del tipo ¿Sientes que alguien te entiende? ¿Sientes que tienes a alguien que te muestre afecto? o ¿Sientes que tienes ayuda si la necesitas?– y de consumo de alcohol y drogas, y que añaden solo dos o tres minutos a la entrevista de ingreso”, indica.

Esta labor permitió agrupar los motivos por los cuales los pacientes pueden dejar de seguir su tratamiento, los cuales se categorizan en cinco ámbitos: uso de alcohol y drogas, salud mental, consumo de distintos fármacos o medicamentos, ecología del paciente (datos personales, grado educacional, entorno familiar, trabajo y otros) y, por último, la suma de todos ellos. Cada una de estas variables, y la suma de ellas, otorga un puntaje que predice la posibilidad de que una persona adhiera o no al tratamiento antirretroviral, en base a su procesamiento por parte del algoritmo creado para ello mediante una super-vector machine, o SVM, conjunto de algoritmos de aprendizaje supervisado que toma un conjunto de puntos y construye un modelo capaz de predecir si un punto nuevo pertenece a una categoría determinada o a otra.

Luego, aplicaron esta encuesta en los pacientes de nuevo ingreso entre el 2020 y 2021 e ingresaron los datos en el software diseñado para el procesamiento de esta información, clasificando a cada uno de ellos según el grado de adherencia por cada subpredictor, de 1 –de adherencia total- a 5, es decir no adherente. “Y a quienes aparecieron como posibles malos adherentes les aplicamos una intervención diseñada para evitar que dejaran los tratamientos”, señala la doctora Cortés.

La académica de la Facultad de Medicina sostiene que esta herramienta puede ser un aporte fundamental a las políticas públicas en torno al VIH, tanto para la optimización de recursos como para mantener la calidad de vida de los pacientes y sus contactos, especialmente por el riesgo de transmisión de la enfermedad. “Si una persona viviendo con VIH deja de tomarse los remedios de forma correcta, no solo se va a enfermar él y deteriorará su calidad de vida, va a generar un gasto no menor porque hay que usar terapias de rescate, que son mucho más caras, y va a necesitar hospitalizarse probablemente. Pero, además, va a ser un potencial transmisor del VIH a otras personas. Entonces, puede incidir en que el número de personas viviendo con VIH aumente, porque es una enfermedad infectocontagiosa”, explica.

De esta manera, la doctora Cortés plantea que contar con este modelo predictivo de pacientes que puedan tener problemas para mantener los tratamientos contra el VIH, así como modelos de intervención derivados que permitan abordar las causas que influyen en las dificultades que experimenta cada paciente, es una inversión en cuanto a esfuerzo, tiempo y recursos “porque tiene un doble beneficio. Un beneficio individual para que esa persona esté en buen estado de salud, pueda trabajar, ser productiva y hacer su vida, pero también tiene un beneficio colectivo. Hoy sabemos que una persona que está correctamente tratada y que se toma sus remedios correctamente tiene una carga viral, que es la cantidad de virus que circula en la sangre, muy baja o indetectable, y no transmite el VIH por vía sexual. Entonces, cuando alguien está bien tratado logramos cortar la cadena de transmisión, mientras que alguien que está mal tratado puede significar que el número de potenciales casos nuevos aumente. Por eso, hay un tema de salud pública tan importante detrás de esto”, asegura.

De acuerdo a la especialista, el factor que destacó como más importante fue el de la salud mental. “Depresión, ansiedad, negación del diagnóstico, miedo a revelar este tema a la familia, gente que no venía a buscar los remedios para que no los descubran en la casa. Pero también encontramos factores sumamente fáciles de resolver. Hay quienes tienen problemas para venir mensualmente a buscar sus medicamentos porque no pueden salir de su trabajo, y es cosa de ver cómo mandárselos o entregárselos para períodos más largos, como se hizo durante la pandemia”, comenta sobre estos resultados. 

La intervención a los pacientes, añade la académica, fue creada por la psicóloga Stefanella Costa-Cordella, experta en el manejo de enfermedades crónicas y estudiante de postdoctorado integrada al proyecto, quien trabajó en ello junto a un equipo de investigadores de la Universidad Diego Portales, para luego capacitar al personal de la Fundación Arriarán en lo que serían tres sesiones de consejería que ofrecieron a los pacientes que potencialmente podrían dejar sus tratamientos.

“Esta capacitación no nos convierte en psicólogos, pero nos ayuda con herramientas probadas a apoyar al paciente para que siga sus tratamientos y, en caso contrario, junto con la información que arroja el predictor, orienta su derivación con especialistas en salud mental o asistentes sociales, por ejemplo”, explica la doctora Cortés sobre esa formación como consejeros de adherencia. “Entonces, cuando el problema era de salud mental, uno hacía una consejería en base a salud mental. Esto es bien individualizado, te da distintas herramientas para que uno se enfoque de acuerdo a los requerimientos de cada paciente”, agrega.

Por ello, finaliza la doctora Cortés, “el modelo predictivo funcionó. Nos capacitamos en modelos de intervención e intervenimos a un grupo de pacientes a los cuales estamos haciendo seguimiento y viendo si es necesario reforzarles en esta consejería. Por eso, ahora estamos postulando a un nuevo proyecto Fondef que liderará Flavia Guiñazú, que es ingeniera y médica, para desarrollar una nueva etapa para la que nos aliaremos con la Universidad de Magallanes, porque en base a lo que hicimos con los datos de la Fundación Arriarán ya sabemos qué información sirve para establecer los predictores y cuál no.

En esta segunda parte, detalla, “los ingenieros tienen que ver si es que en otras poblaciones hay otros factores determinantes, porque la idea es crear un producto que se pueda adaptar y usar en diferentes realidades del país y eventualmente en otros países también. Además, porque las 34 variables a las que llegamos sirven para que si un centro de atención de pacientes no tiene bases de datos, utilizando estas variables puede construirla”.

Expertos son convocados por el Ministerio de Ciencias para abordar desafíos en Inteligencia Artificial

Los académicos y expertos en Inteligencia Artificial de la Universidad de Chile que formaron parte del comité que creó la Política Nacional de Inteligencia Artificial (IA) en 2021 fueron nuevamente convocados por el Ministerio de Ciencia, Tecnología, Conocimiento e Innovación de Chile, esta vez encabezados por la ministra Aisén Etcheverry, para avanzar en la discusión sobre los avances y desafíos asociados al desarrollo de la Inteligencia Artificial.

Los académicos del Departamento de Ingeniería Industrial de la Universidad de Chile, Rafael Bergoeing y Juan Domingo Velásquez; el académico de Ingeniería Eléctrica, Néstor Becerra; y el académico del Programa Tecnología y Sociedad de la Facultad de Derecho, Alberto Cerda, son los representantes de la Casa de Bello en esta instancia. El espacio lo integran, además, Andrea Rodríguez, vicerrectora de Investigación y Desarrollo de la Universidad de Concepción; Martín Tironi, director del Instituto Milenio Futures of Artificial Intelligence; María Paz Hermosilla, directora del GobLab de la Escuela de Gobierno de la Universidad Adolfo Ibáñez; Cuki Pérez, data scientist; y Kathya Araujo, investigadora del Núcleo Interuniversitario Multidisciplinar de Investigación en Individuos, Lazo Social y Asimetrías de Poder (NIUMAP).

El profesor Juan Domingo Velásquez explica que esta reunión se realizó para “volver a echar a andar justamente este trabajo con miras a comenzar ciertas implementaciones de lo que se dijo en su momento de la Política Nacional”. Por otra parte, el director del Laboratorio de Procesamiento y Transmisión de Voz de la U. de Chile, Néstor Becerra, añade que “el resultado final (redactado en 2021) fue una política de Estado sin color político. Sin embargo, el Ministerio de Ciencia y Tecnología tiene interés en profundizar respecto al impacto en la sociedad que pueden tener o están teniendo las tecnologías de IA”.

Por su parte, Rafael Bergoeing, que también es presidente de la Comisión Nacional de Productividad, detalla que “los ejes principales de esta política son factores habilitantes, relacionados con el desarrollo de talentos, los datos y la infraestructura tecnológica; su adopción y los aspectos éticos, regulatorios y socioeconómicos, entre los que destacan sus implicancias en el mercado laboral, los peligros en materia de ciberseguridad y el resguardo de la propiedad intelectual”.

Velásquez agrega que esta nueva reunión fue “para recibir varias impresiones. Estuvimos discutiendo varias aristas, porque hoy en día hay una suerte de temor, un poco desatado, respecto de la implicancia que puede tener la Inteligencia Artificial” y porque “cuando se planteó la Política Nacional, se plantearon los desafíos, pero no se planteó esto del bueno, el malo y el feo”. Esta analogía, explica el académico, hace referencia a que en el caso de la IA no se puede permitir que “ocurra el feo”, dando como ejemplo que “si queremos analizar tu ADN porque queremos ver si tienes alguna afección para ayudarte, hasta ahí estamos súper bien, pero qué pasa si con tu ADN me doy cuenta que tú vas a tener a los cuarenta y tantos años diabetes y digo ‘no me conviene contratarte’, entonces, ahí estoy siendo súper feo, estoy usando los datos de manera fea y eso no tiene que ocurrir”.

“En esta triada siempre aparece el malo. Bueno, al malo hay que regularlo, entonces qué significa regular al malo, muchas veces ese malo es necesario para que ciertas cosas puedan ocurrir. Por ejemplo, si yo dijera ‘mira, empezar a soltar datos de carácter personal tiene implicancias malas porque me van a tapar de spam’, bueno, entonces regulemos, ahora no puedes llamar después de las 8 de la noche”, dice el profesor Velásquez.

Finalmente, indica el académico, “está el bueno. A ese bueno no le puedes cortar las alas, hay que potenciarlo. Qué tal si estamos creando un predictor de cáncer mamario, si potenciamos esa investigación, la solidaridad que puedan tener las mujeres aumenta, pero estrambóticamente, porque ese es un cáncer súper jodido ya, pero con una detección temprana es una extirpación de nódulos, entonces, ahí aparece el bueno”. Por eso, sostiene, hay que “regular al malo” y no “detener al bueno”, o sea, no detener los avances tecnológicos, porque “la historia humana nos ha mostrado que cuando uno restringe al bueno, la verdad de las cosas es que se detiene el avance científico y tecnológico”.

En esta misma línea, el profesor Néstor Becerra destaca que “en un artículo del New York Times, Sam Altman, uno de los fundadores de OpenAI, comparó el impacto de su emprendimiento con aquel del proyecto Manhattan. Este proyecto derivó en la primera bomba atómica, pero no por eso se tendría que haber prohibido la investigación en física nuclear. Casi 80 años después se puede vislumbrar un horizonte para la fusión nuclear como fuente energía prácticamente inagotable y limpia”.

“Chile y América Latina no se pueden abstraer de participar del desarrollo de la I.A., principalmente porque hay condiciones para formar talentos en números competitivos. Pero esto no excluye la necesidad de discutir regulaciones para ciertas aplicaciones de IA que puedan causar perturbaciones negativas para la sociedad o que requieran de mucho esfuerzo para ser contrarrestadas”, señala Becerra.

El académico Rafael Bergoeing asegura que “lo principal es estar atento a cómo evoluciona esta tecnología y a los desafíos de política pública asociados. La aproximación exige una mirada interdisciplinaria, por lo que una mesa de expertos con distintas experiencias profesionales debiera permitir diagnosticar en tiempo real la necesidad de nuevas y mejores regulaciones y el diseño de políticas que resguarden el interés común y aporten al desarrollo del país”.

El profesor Becerra añade que “en el proceso anterior que dio origen a la Política Nacional de Inteligencia Artificial de Chile, el comité de expertos tuvo un rol bien amplio, desde plantear los temas importantes a cómo estructurar la discusión en el ámbito nacional, pasando por proponer o sugerir propuestas sobre temas específicos”. Ahora, indica, “el Ministerio de Ciencia y Tecnología actual tiene interés en profundizar respecto al impacto en la sociedad que pueden tener o están teniendo las tecnologías de I.A. Sin embargo, desconozco cómo se organizarán los equipos de trabajo”.

Respecto a los desafíos en torno a esta materia, Velásquez plantea que la principal pregunta es dónde queremos estar en 10 años más. En esta línea, afirma que el tema de la Inteligencia Artificial es gravitante y que “no podemos hacer la medicina del futuro sin Inteligencia Artificial, no podemos. Pero hay que pensarla como algo positivo, no con este pánico que anda rondando a la sociedad”.

Tecnología permite evaluar nuevos fármacos contra enfermedades neurodegenerativas

nvestigadores de la Facultad de Ciencias Químicas y Farmacéuticas de la Universidad de Chile y del Centro Avanzado de Enfermedades Crónicas (ACCDiS), junto a científicos del Instituto de Bioingeniería de Cataluña, en Barcelona, crearon un dispositivo que simula la barrera hematoencefálica del cerebro. El sistema, desarrollado en base a una tecnología de nanopartículas de oro formulada en la U. de Chile, permitirá probar y estudiar la efectividad y seguridad de fármacos contra enfermedades neurodegenerativas como el Alzheimer.

La titulada de la carrera de Química y Farmacia de la Universidad de Chile, Sujey Palma, que realizó su tesis en nanopartículas de oro encapsuladas en exosomas como agentes de “drug delivery”, fue a especializarse a España, donde se unió a un proyecto colaborativo entre el profesor Marcelo Kogan, de la Universidad de Chile, y el profesor Josep Samitier, de la Universidad de Barcelona.

La profesional comenzó a colaborar en el equipo de nano-bioingeniería, dirigido por las doctoras Mònica Mir y Anna Lagunas y con ellas, detalla, “comenzamos a trabajar en un dispositivo para simular la barrera hematoencefálica, el cual consiste en un microchip con una plataforma 3D compuesta por un hidrogel, tanto con astrocitos y pericitos humanos, que son células propias que se pueden encontrar en el cerebro, como también con células endoteliales, que serían las que forman el vaso sanguíneo en el cerebro y las que son responsables del paso de fármacos desde el torrente sanguíneo al cerebro”.

“Continuamos el proyecto anterior poniendo a prueba las nanopartículas de oro que se desarrollan en el laboratorio del profesor Marcelo Kogan, que consiste en un nanosistema de nanopartículas de oro recubiertos por dos péptidos, uno que estaría ayudando al paso de fármacos a través de la barrera hematoencefálica, el cual es el gran obstáculo que enfrentan las terapias actuales para enfermedades neurodegenerativas, y otro péptido que estaría ayudando a evitar la agregación de beta amiloide, el cual es uno de los hallmarks que hay en enfermedad de Alzheimer”, detalla

Sujey Palma añade que, como parte del doctorado que ahora realiza en la Universidad de Barcelona, en el programa de Biomedicina, “inyectamos estas nanopartículas de oro y evaluamos su permeabilidad a través del dispositivo para ver si efectivamente las estrategias que se están usando para aumentar la llegada al cerebro son efectivas, como también poder evaluar, gracias a algunos sensores que hemos desarrollado en el grupo, ver si estos nano sistemas podrían estar también generando algún efecto positivo o negativo sobre la barrera hematoencefálica”.

El profesor del Departamento de Química Farmacológica y Toxicológica de la Facultad de Ciencias Químicas y Farmacéuticas de la Universidad de Chile, Marcelo Kogan, explica que su trabajo es parte de un proyecto Fondecyt con el que buscan desarrollar un sistema que permita la detección y el tratamiento de la enfermedad de Alzheimer. El especialista explica que “este sistema está basado en el uso de nanopartículas de oro que nos permiten, de alguna manera, detectar la presencia de agregados amiloides que se forman en etapas tempranas de la enfermedad y también deshacer estos agregados”.

“Es muy importante, cuando uno desarrolla estos sistemas, poder probar previamente a hacer estudios en animales y estudios en pacientes, evaluar si estos sistemas pueden ingresar al sistema nervioso, al cerebro, donde se produce la agregación de los amiloides. Entonces, para eso nos asociamos a un grupo del Instituto de Bioingeniería de Cataluña, con el profesor Samitier y con las investigadoras Mónica Mir y Anna Lagunas, en un proyecto que tiene que ver con el desarrollo de un dispositivo que permite simular lo que es la barrera hematoencefálica”, la principal muralla protectora que tiene el cerebro.

Kogan destaca, además, la participación de Sujey Palma en esta colaboración, que “viajó a Barcelona a hacer su magíster y producto de su magíster surge esta publicación en la que un dispositivo se utilizó para probar si nuestro sistema puede atravesar la barrera hematoencefálica”. Por lo mismo, enfatiza que “esto es muy importante porque nos permite evaluar distintos sistemas antes de pasar a los estudios preclínicos y clínicos”.

Este nuevo avance se suma a los hallazgos encabezados por el equipo de la Universidad de Chile, a cargo del profesor Kogan, que el año 2021 dio a conocer, en la revista Biomaterials Science, esta fórmula basada en nanopartículas de oro para la detección y tratamiento del Alzheimer. La tecnología busca generar en un sistema de diagnóstico y tratamiento de esta enfermedad y contrarrestar el desarrollo de las placas amiloides, proteínas secretadas por el cerebro que se asocian al surgimiento del Alzheimer y otras enfermedades neurodegenerativas.

Paleontología: la ciencia detrás de los grandes descubrimientos de dinosaurios en Chile

La paleontología es definida como una ciencia interdisciplinaria, entre biología y geología, caracterizada por estudiar las distintas evidencias de los organismos del pasado de manera directa o indirecta. En otras palabras, su especialidad es el estudio de huesos, desechos metabólicos e integumentos (Pelo, uñas, piel, etc). Comúnmente confundida con la arqueología, disciplina especializada en el estudio de las civilizaciones humanas del pasado, Alexander Vargas, académico del Departamento de Biología y director de la Red Paleontológica de la Universidad de Chile, explica que la paleontología se adentra en una historia mucho más antigua.

“La paleontología es el pasado de la vida. Somos biólogos del pasado. Nos interesan los dinosaurios, los mastodontes, las criaturas prehistóricas, plantas fósiles, insectos. Todo esto es una historia mucho más larga y mucho más profunda que la historia de la humanidad”, describe el investigador.

La Red Paleontológica de la Universidad de Chile ha sido protagonista de algunos de los descubrimientos paleontológicos más importantes de la última década en nuestro país, trabajo que ha permitido una mejor comprensión de la historia prehistórica de este rincón del mundo.

Uno de los hallazgos más recientes corresponde a la identificación de una nueva especie de macrauquénido, un mamífero similar al guanaco que habitó la Región de Atacama hace unos 7 millones de años. Esta investigación fue liderada por Hans Püschel, quien destaca que una de las particularidades de los mamíferos es la perfecta conservación de sus dientes, dado que el esmalte que los recubre y protege los puede conservar incluso por millones de años después de su muerte. “Se preservan mejor que otros animales que tengan dientes, por ejemplo, sin esmalte o los fragmentos duros (…) Es una cosa a veces de suerte y abundancia igual en general. Los animales terrestres tienden a haber menos fósiles de ellos que de animales marinos”, señala Püschel.

Estos descubrimientos no solo se han realizado en el norte de Chile. Uno de los más importantes yacimientos fósiles hoy está situado en la Patagonia, territorio donde fue encontrado el Stegouros elengassen, un nuevo tipo de dinosaurio acorazado que vivió hace 74 millones de años en una zona cercana a las Torres del Paine. La identificación de esta nueva especie, cuyo estudio estuvo a cargo de Sergio Soto, paleontólogo de vertebrados de la Red Paleontológica de la Universidad de Chile, marcó un hito para la paleontología nacional y fue portada de la prestigiosa revista Nature.

“Aproveché la pandemia para trabajar durante un año haciendo análisis filogenético. Y es ahí donde yo digo que se produce el tercer Eureka, porque ahí descubrimos que era un anquilosaurio de una divergencia muy temprana respecto a todos los otros dinosaurios acorazados, y eso ya nos dice que era un dinosaurio de alta importancia. Por eso, decidimos someterlo a una revista de alto impacto, que en este caso fue Nature”, indica Sergio Soto.

El proceso para llegar a estos descubrimientos de alto impacto es largo y extenso, llegando a pasar incluso décadas desde el primer hallazgo hasta que finalmente se publica y revela un estudio al público. En gran parte, esto se debe a lo complejo que es la extracción de estos ejemplares, que se hace a través de un proceso llamado bochón, una técnica que se utiliza hace más de un siglo y que consiste en -básicamente- envolver la pieza de roca con el fósil en yeso o en arpillera.

“Es una suerte de estabilización del objeto porque, a pesar de que están convertido en roca, son muy frágiles, se suelen quebrar fácilmente y esto se lleva al laboratorio. En el laboratorio se destapan y ahí uno empieza la preparación, que puede ser con martillo neumático o con puntas bajo lupa, dependiendo del tamaño del objeto”, explica Sergio Soto.

En el caso del Stegouros elengassen, debido a las bajas temperaturas de la zona, este proceso para hacer el bochón fue más complejo de lo habitual. Así lo relata Soto, quien destaca que solo tuvieron cinco días para realizar todo este trabajo, dado que el hallazgo fue hecho al final de la campaña. “Tuvimos que utilizar una moto para transportarlo. Fue una especie de odisea bajarlo desde la montaña con el frío, porque también el yeso no fragua en esa temperatura. Era muy complejo”, recuerda el joven investigador.

En general, plantean desde la Red Paleontológica de la U. de Chile, esta clase de hallazgos responden en gran medida a un grado de azar, dado que en las fases iniciales no se poseen muchos indicadores sobre el tipo de fósil que puede surgir desde una roca. Solo cuando los bochones llegan al laboratorio es cuando se revela la magnitud de un hallazgo. Según cuenta Sergio Soto, algo así paso con el Stegouros, inicialmente evaluado como un ornitópodo. “En el laboratorio se produce el segundo Eureka, que es cuando abrimos los bochones y nos damos cuenta de que en realidad no era ornitópodo, sino que era un dinosaurio acorazado”, relata.

Si bien la paleontología en Chile ha tenido un considerable crecimiento durante la última década, el país sigue siendo considerado una de las piezas faltantes en el mundo de esta disciplina. Así lo destaca Alexander Vargas, quien afirma que si bien Chile posee episodios únicos en la evolución del planeta dada su geografía, estos todavía permanecen sin ser del todo revelados. “Aquí estamos hablando de que a la comprensión de la historia de la evolución del planeta Tierra le falta un trozo gigante de información”, sostiene.

Vargas no atribuye este aún restringido desarrollo a una falta de motivación profesional, sino a la ausencia de un apoyo estatal y financiero a un área que todavía sigue luchando por establecerse en Chile. “La paleontología no está inserta dentro del sistema de evaluación de algunos de los mecanismos que se utilizan en este país para asignar los fondos. Es muy nueva, entonces no tiene representantes en los ámbitos donde se toman las decisiones”, lamenta el investigador.

Aquello repercute en que pese a los excelentes resultados que esta disciplina ha logrado en cuanto a publicaciones científicas de alto impacto, esta sigue enfrentando enormes dificultades para obtener fondos. De acuerdo al director de la Red Paleontológica de la U. de Chile, esto termina afectando el desarrollo de la disciplina en el país, dado que las enormes dificultades para investigar han provocado que muchos investigadores e investigadoras decidan migrar a trabajos de consultoría o divulgación. “Aunque uno rinda de manera excelente, puede no recibir los fondos. Es una pena, porque en realidad sin investigación no hay nada que divulgar. Sin investigación no hay nada que proteger”, advirtió.

Investigador publica estudio sobre cómo comienzan los terremotos

Observar el inicio temprano de un terremoto fue el objetivo de la investigación “A Struggled Rupture Initiation of the Mw 6.1 2009 L’Aquila Earthquake”, cuyos autores son el graduado del Magíster en Ciencias con mención en Geofísica de la Universidad de Chile, Leoncio Cabrera, y el investigador del Departamento de Geociencia de la Università Degli Studi Di Padova (Italia), Piero Poli.

El trabajo, publicado por Geophysical Research Letters, indaga en la llamada “iniciación de ruptura sísmica”, una pequeña señal que, según explicó el también investigador postdoctoral del Programa Riesgo Sísmico (PRS) de la U. de Chile, Leoncio Cabrera, es muy difícil de registrar y se ha estudiado en pocos terremotos en el mundo, entre ellos, algunos ocurridos en California y Asia Central; y ahora, con este estudio, el ocurrido en la ciudad italiana de L’Aquila, en 2009, con una magnitud de 6.1 y una profundidad aproximada de ocho kilómetros.

Leoncio Cabrera explicó que la motivación por estudiar el sismo de L’Aquila surgió a raíz de las numerosas víctimas y daños que ocasionó, la gran cantidad de datos existentes sobre sus características y la manera anómala en la cual se manifestó el inicio de su ruptura. “La pregunta sobre ‘cómo se inicia un terremoto’ es una de las interrogantes abiertas más grandes en Ciencias de la Tierra y fue uno de los temas que investigué durante mi doctorado en el Instituto de Ciencias, ISTerre, de la Universidad de Grenoble Alpes”, explicó Leoncio Cabrera.

El autor de “A Struggled Rupture Initiation of the Mw 6.1 2009 L’Aquila Earthquake” agregó que el inicio de la ruptura es una pequeña señal muy difícil de observar y “cuando vimos que estaba registrada para el terremoto de L’Aquila, nos pusimos rápidamente a analizarla para ver qué aprendíamos sobre su inicio”. En esta etapa, Leoncio Cabrera y Piero Poli observaron, en términos simples, que al “terremoto le costó iniciar”. De hecho, su trabajo de observación y modelamiento, les permitió constatar que el terremoto de L’Aquila comenzó con una ruptura lenta de aproximadamente 0.9 kilómetros por segundo y una gran disipación de energía para, posteriormente, aumentar en forma drástica su velocidad y potencial destructivo.

“Nuestra contribución es importante porque constituye una observación que se ajusta a un modelo físico cuantitativo, pero no aplica para la generalidad de los terremotos, porque lo usual es que comiencen repentinamente, sin ningún tipo de señal de pequeña amplitud”, precisó el investigador de la Università Degli Studi Di Padova, Piero Poli. Sobre este punto, Leoncio Cabrera destacó que la gran cantidad de sensores ubicados donde ocurrió el sismo de L’Aquila permitió que tanto él como Piero Poli pudieran observar, por primera vez, con tanto detalle, cómo se inicia un terremoto. Un acierto para el que la metodología utilizada en la investigación fue determinante, porque permitió analizar el evento desde todos los ángulos posibles, gracias a la calidad de los datos a los cuales se accedió.

“Con la observación que hicimos, demostramos que muchos de los resultados que se ven en el laboratorio, en el modelamiento numérico y la teoría, aparentemente también pueden ocurrir en la naturaleza, por lo cual es posible establecer un vínculo entre ambas formas de estudiar los terremotos y lograr entender mejor este proceso”, aseguró Leoncio Cabrera.

Finalmente, al ser consultados sobre el estudio del inicio de terremotos en Chile, ambos investigadores manifestaron su voluntad de continuar investigando en esta línea. “Conocer más sobre este tema es importante, porque contribuye a evaluar de mejor forma el peligro y nos permite prepararnos mejor para futuros terremotos. Sin embargo, estamos conscientes de que aún falta bastante por avanzar”, afirmó el investigador postdoctoral del PRS de la U. de Chile.

Por su parte, el investigador de la Università Degli Studi Di Padova, Piero Poli, recalcó que, si bien ya cuenta con una larga e interesante trayectoria de colaboración científica con el Departamento de Geofísica de la Universidad de Chile, “sin duda, la presencia de Leoncio como investigador ayudará a fortalecer este vínculo para seguir estudiando terremotos en América del Sur y en todas partes del mundo”.

Descubren peculiar cráneo de pingüino pequeño que vivió hace 6 a 9 millones de años en la costa de Atacama

Un pequeño cráneo hallado en la Formación Bahía Inglesa fue identificado como perteneciente a un diminuto pingüino que habitó esta zona costera de la Región de Atacama en el Mioceno tardío, entre 6 a 9 millones de años atrás. El descubrimiento, uno de los registros más pequeños de este grupo a la fecha, fue realizado por los investigadores Sergio Soto, de la Red Paleontológica de la Universidad de Chile, y Carolina Acosta, del Museo de La Plata de la Universidad Nacional de La Plata.

El estudio, publicado en la prestigiosa revista Comptes Rendus Palevol, editada por la Academia de Ciencias y el Museo Nacional de Historia Natural de Francia, da cuenta de un especimen de pingüino que llama la atención por su tamaño, mucho menor que los cráneos de esta ave que ya se han encontrado en la zona. El investigador de la Facultad de Ciencias de la U. de Chile explica que la Formación Bahía Inglesa “es una formación rocosa muy fosilífera, donde ya se conocen muchos hallazgos de pingüinos, pero la mayoría de ellos son todos de cráneos grandes y, en general, de tamaño corporal grande. Por eso resalta este, porque es pequeño, no es que sea extremadamente pequeño en comparación a los actuales, pero está en el rango de los más pequeños vivientes”.

Sobre las similitudes con las especies encontradas previamente en Chile o con los pingüinos actuales, agrega que “es un cráneo sin el pico de unos cinco centímetros, aproximadamente, que se asemeja un poco a los actuales pingüinos azules (Eudyptula minor), que si bien son australianos, a veces son visitantes ocasionales de nuestras costas. O un poco menor quizás que el tamaño de un pingüino de Humboldt (Spheniscus humboldti), que es el pingüino más común de las costas chilenas. Este registro es distinto a las formas fósiles que conocemos de Bahía Inglesa que son más grandes, que son diferentes. Entonces, puede que este permita conectar de alguna manera filogenética con especies modernas, pero no lo sabemos por el momento”.

“Lo que más nos falta ahora es hacer trabajo de campo en Bahía Inglesa, porque, a pesar de que se han encontrado muchos especímenes, no sabemos de dónde vienen exactamente, no conocemos su posición geográfica, y eso es un problema porque no sabemos exactamente su edad y cuál era el ambiente en el cual vivían. Entonces, hay que hacer excavaciones sistemáticas durante años, encontrar ejemplares más completos, ojalá que encontremos un cráneo, el post cráneo y por fin podamos decir ‘ya, sí, esto sí es una nueva especie’ o en realidad pertenece a algo que ya conocíamos y, bueno, finalmente poner todos estos datos y ver cómo son afectados por cambios a nivel regional o global, como son los cambios de temperatura que seguramente los afectaban”, plantea sobre el trabajo que aún queda por delante para conocer más sobre la comunidad de pingüinos que habitó este lugar hace millones de años.


Físicos chilenos anuncian inminente geotormenta capaz de apagar redes eléctricas y telecomunicaciones

Pasar días sin luz, Internet, televisión, celular, ni teléfono son algunas de las consecuencias del fenómeno climático espacial llamado geotormenta o tormenta geomagnética, una reacción de nuestro planeta al impacto de una poderosa eyección de energía que sale desde el Sol hacia el espacio. Si el evento es muy intenso, podría tener efecto en las comunicaciones, en distintas tecnologías y en las redes de transmisión de electricidad. Estamos en el ciclo solar número 25 y el próximo evento es inminente, a fin de año, revela el estudio desarrollado por investigadores de la U. de Chile. 

“Un evento grande podría ser potencialmente muy perjudicial”, dice el profesor Pablo Moya, académico del Departamento de Física de la Facultad de Ciencias de la Universidad de Chile, quien se especializó en clima espacial trabajando en la NASA. El investigador es uno de los autores del artículo que anuncia una inminente geotormenta tan intensa que provocaría un apagón comunicacional de varios días de extensión. 

La investigación, titulada “Ocurrencia de Tormentas Geomagnéticas y su Relación con las Fases de los Ciclos Solares”, publicada por la prestigiosa revista Space Weather, una de las más importantes del área, fue destacada recientemente por ser el artículo científico más leído y descargado durante el 2021. La publicación fue realizada por el profesor Pablo Moya junto a la investigadora de la U. de Chile, Paula Reyes, egresada de la Facultad de Ciencias, quien cursó el magíster en la misma unidad, y Víctor Pinto, egresado de la Casa de Bello y hoy profesor de la U. de Santiago de Chile. 

“Las llamaradas solares, popularmente conocidas como tsunamis o tormentas solares, producen una radiación que se propaga desde el Sol hacia el espacio y golpea el campo magnético terrestre, el que reacciona provocando una tormenta geomagnética o geotormenta, que son eyecciones poderosas de energía. Si el evento es muy intenso podría tener efecto en las comunicaciones, en distintas tecnologías de comunicación, de transmisión de electricidad, etcétera”, explica el Dr. Moya. 

En el paper, los físicos chilenos muestran los resultados de un estudio sobre una serie de tormentas geomagnéticas ocurridas entre 1957 y 2019, a partir del cual identifican la probabilidad de ocurrencia de estos eventos y saber si serán moderados, intensos o severos. Su ocurrencia depende de la fuerza del ciclo solar (de aproximadamente 11 años de duración) y de las diferentes fases de este. “Nuestros resultados sugieren que el ciclo solar 25, que acaba de comenzar y que terminaría en 2034, aproximadamente, debería ser más fuerte que el ciclo actual. El máximo debería ocurrir entre este año y el próximo. El peak debería venir pronto”, advierte el investigador. 

Una tormenta grande dura aproximadamente una semana desde que comienza hasta que termina. Podríamos tener problemas de comunicación durante varios días. Este impacto en la vida cotidiana fue una de las inspiraciones de Paula Reyes. “Está relacionado con fenómenos que ocurren en los alrededores de nuestro planeta, cuya fuente proviene del Sol, y que impactan directamente a nuestro diario vivir, principalmente por nuestra dependencia al uso de tecnologías”, dice. 

En el mundo exterior, en tanto, también hay consecuencias, pues dañan los satélites, afectando así la exploración espacial y la tecnología que periódicamente lanzamos al espacio. “Este tipo de investigación también ayuda a tener una estimación de la obsolescencia de los satélites, e implementar mejoras en sus materiales de fabricación, ya que tormentas severas pueden producir sobrecargas y daños en ellos que sean irreversibles”, agrega la investigadora. 

Por ejemplo, a principios del año pasado, SpaceX lanzó una flota de satélites a la alta atmósfera y una eyección de masa coronal que ocurrió días antes, al alcanzar la Tierra, desencadenó una tormenta geomagnética que produjo cambios en la atmósfera y resultó en una pérdida de alrededor del 80% de los satélites de la flota. “Además, dependiendo de la intensidad de la tormenta, pueden producirse sobrecargas en nuestros sistemas eléctricos, problemas en las órbitas de los satélites y -en general. en los sistemas de comunicación”, detalla la científica chilena. 

Astrónomos chilenos dan un nuevo paso hacia la comprensión de la misteriosa energía oscura

Empleando resultados de observaciones astronómicas y software computacional, científicos chilenos y griegos crearon una propuesta que les permitió examinar los comportamientos posibles de la energía oscura desde el origen del universo, ocurrido hace 13.800 millones de años. La investigación fue publicada en el último número de la revista científica internacional Journal of Modern Physics D.

“La energía oscura es una propiedad del espacio que los científicos pensamos está impulsando la expansión del universo, haciéndola acelerada. Sabemos que la energía oscura está ahí por la forma en que se comporta el cosmos. Hasta antes de nuestra investigación se proponían ‘cuatro tipos’ de energía oscura variables en el espacio y en el tiempo. Hoy, gracias a este trabajo, solo dos siguen en pie: el modelo fantasma y el modelo fantasma-quintaesencia número 1”, explicó Grigoris Panotopoulos, físico e investigador del Departamento de Ciencias Físicas de la Universidad de la Frontera y ex postdoctorado de la Universidad de Chile.

Una de las formas propuestas para esta energía oscura es la llamada energía fantasma, la cual predice una aceleración mayor que la producida por la constante cosmológica de Einstein. En tanto, la quintaesencia podría inducir al universo una aceleración menor que la predicha”, sostiene Luis Campusano, académico del Departamento de Astronomía de la Facultad de Ciencias Físicas y Matemáticas (FCFM) de la Universidad de Chile y coautor de este trabajo. 

Los científicos de ambas instituciones, además, constataron algo inesperado. “Notamos que las curvas que representan estos comportamientos se intersectan en un cierto momento de la evolución del universo. No sabemos aún el por qué”, indicó Gerald Barnert, estudiante del Magíster en Ciencias, mención física de la FCFM, U. de Chile.

El estudio de la energía oscura es algo reciente y fundamental para entender la evolución del universo. Sin embargo, fue Einstein quién en 1917 introdujo la noción de una fuerza gravitatoria repulsiva en el espacio, representada por una constante cosmológica en las ecuaciones de su Teoría de Relatividad General. Lo hizo para ajustar sus predicciones al universo estático revelado por las observaciones de la época. Cuándo Einstein se enteró años más tarde, en 1929, que Edwin Hubble había descubierto que el universo estaba en expansión, calificó el haber introducido ese término como el mayor error de su vida. No sabemos, si viviera aún, qué habría pensado del descubrimiento de un universo acelerado.

Los resultados se publicaron en la última edición de la revista científica Journal of Modern Physics D bajo el título: Correlation of structure growth index with current cosmic acceleration: constraints on dark energy models (Correlación del índice de crecimiento de estructura con la aceleración cósmica actual: límites para modelos de energía oscura, en español). 

 

Lanzan programa que busca hacer frente a la crisis climática desde el sector construcción

Con una invitación a sumarse al cambio del modelo productivo en la industria de la construcción nacional, el Centro Tecnológico para la Innovación en la Construcción (CTEC) lanzó es el Programa Tecnológico Construye Zero. La presentación, realizada en el Parque Carén de la Universidad de Chile, contó con la participación de más de 450 asistentes en ambas jornadas. 

Chile es un país altamente vulnerable a la crisis climática, lo que está desencadenando un proceso de cambios importantes en nuestro modo de vivir en sociedad y a nuestra relación e interacción con el medioambiente. En este contexto surge Construye Zero, programa liderado por CTEC y co-financiado por Corfo que busca impulsar el desarrollo y transferencia de soluciones tecnológicas y sustentables que permitan acortar brechas asociadas a la productividad y eficiencia de recursos, con el objetivo de contribuir a enfrentar la crisis climática. 

En palabras de Carolina Briones, directora ejecutiva de CTEC, “Construye Zero busca ser una punta de lanza, una flecha movilizadora de energía que nos saque de la inercia y nos abra caminos. Caminos con ejemplos concretos, que aceleren el cambio cultural, el modo de pensar y actuar, y no solo de las próximas generaciones, por qué no, iniciando con todos nosotros los presentes”.

La iniciativa contempla un portafolio de 10 proyectos sobre tecnologías de adaptación ante el cambio climático denominados TACC. Cuenta con la participación de empresas, universidades y asociaciones gremiales como la Corporación de Desarrollo Tecnológico (CDT) de la Cámara Chilena de la Construcción (CChC), el Centro de Investigación, Desarrollo e Innovación de Estructuras y Materiales (IDIEM) de la Universidad de Chile, la Universidad de Santiago de Chile (USACH), la multinacional española ACCIONA y el Grupo Echeverría Izquierdo, Melón, INVES, CINTAC, Revaloriza, Recylink, VerdeActivo, WatGen y Kaptus.

La directora de Innovación de la U. de Chile, Anahí Urquiza, una de las expositoras del lanzamiento, destacó la importancia de esta iniciativa para la Casa de Bello. “Este proyecto es tremendamente importante para nosotros como Universidad porque nos permite acoger una colaboración entre diferentes instituciones de educación superior, el sector privado y el sector público para abordar uno de los grandes desafíos que tenemos hoy día: cómo avanzar y dar un salto significativo en la construcción para lograr que sea sustentable, para reducir las emisiones, para avanzar en economía circular y, al mismo tiempo, para lograr que podamos solucionar los problemas y las necesidades que tiene nuestra población”. 

En tanto, Paul Urenda, gerente general de la Cámara Chilena de la Construcción indicó durante la primera jornada que “el cambio climático, sin duda, está modificando la manera en que estamos habitando nuestras ciudades y representa un enorme desafío a escala global. Satisfacer las necesidades de acceso a la vivienda y aportar al logro de ciudades más sostenibles, y a su vez responder al cambio climático, claramente son desafíos muy importantes para el sector de la construcción. Necesitamos avanzar en productividad y sostenibilidad ambiental, y la construcción tiene una oportunidad de protagonizar tanto los procesos de adaptación y resiliencia de las ciudades como también la mitigación de las emisiones”. 

Construye Zero, con una mirada a tres años, busca generar un impacto en el sector, como elevar los estándares que se requieren para dar cumplimiento al compromiso de carbono neutralidad al 2050, con foco en el desarrollo y masificación de nuevas metodologías colaborativas y tecnologías digitales; además de la reconfiguración de nuevos modelos de negocio, todo esto con el potencial de dar un nuevo impulso al rubro, que ha perdido dinamismo.

“Quiero destacar el tipo de instituciones que este programa ha logrado convocar. Hay una pluralidad de empresas que suelen competir, sin embargo, acá se juntaron para abordar una problemática en común. Y esta problemática es la que originó el Programa Tecnológico de Transformación Productiva ante el Cambio Climático del cual Construye Zero es parte”, señaló durante la jornada Fernando Hentzchel, gerente de Capacidades Tecnológicas de Corfo.

“El programa contempla proyectos que permiten medir y monitorear las distintas soluciones que forman parte de Construye Zero, como es el caso de las plataformas que permiten la integración y gestión de información, tales como el Pasaporte de Materiales P+, el Gemelo Digital y la Plataforma de optimización en eficiencia energética. Por otro lado, se desarrollará un laboratorio de resiliencia de los materiales de construcción, así como también un módulo sin emisiones, fachadas prefabricadas industrializadas, impresión 3D con mezclas que consideran reutilización de productos locales, además de testeo y aprendizaje relativos a soluciones constructivas prefabricadas de hormigón y madera. Finalmente, con el objetivo de lograr autonomía energética en viviendas, existe un proyecto que considera el prototipado y validación de un módulo de generación fotovoltaica off-grid”, señaló Daniela Vásquez, gerente general de Construye Zero.