Ciencia e innovación

Modelo actualizado de la subducción advierte acumulación de energía sísmica en Antofagasta

Un nuevo método para estimar el grado de acoplamiento o potencial sísmico a lo largo de la interfaz de las placas tectónicas de Nazca y Sudamericana, entre las ciudades de Antofagasta y La Serena, desarrollaron los investigadores del Departamento de Geofísica (DGF) de la Universidad de Chile, Francisco Ortega Culaciati y Vicente Yáñez Cuadra. El trabajo, publicado por la revista Geophysical Research Letters, busca contribuir a un estudio más detallado del peligro sísmico en Chile.

“Calcular el acoplamiento entre placas tectónicas es un desafío que se aborda como un problema inverso porque, pese a ocurrir a decenas de kilómetros de profundidad, se debe estimar a partir de mediciones de movimientos en la superficie de la tierra”, explicó el académico de la Facultad de Ciencias Físicas y Matemáticas y coautor del estudio, Francisco Ortega Culaciati, sobre esta propuesta que plantea un cálculo conjunto de un nuevo modelo de acoplamiento del margen de subducción chileno y de la deformación y rotación de la placa continental Sudamericana.

El profesor de la Universidad de Chile argumentó que esta tarea suele ser especialmente compleja, no solo porque las observaciones contienen ruido, sino también porque su análisis debe considerar los efectos de los movimientos de los grandes terremotos y de procesos tectónicos y geológicos, como el acoplamiento entre placas tectónicas, la rotación y traslación de microplacas tectónicas, las deformaciones en el manto terrestre; y el alzamiento de la cordillera de Los Andes.

“Si bien investigaciones anteriores habían modelado el acoplamiento entre placas tectónicas en conjunto con la microplaca tectónica de los Andes como macizo rígido, estudios posteriores comenzaron a plantear ciertas limitaciones en esta hipótesis”, afirmó el profesor Ortega Culaciati. De esta manera, a través de herramientas matemáticas y computacionales de última generación, los investigadores se propusieron abordar el problema mediante un análisis del grado de acoplamiento de las placas de Nazca y Sudamericana que considerara una componente de deformación sumada al movimiento rígido continental.

“Durante este proceso fue necesario realizar numerosas pruebas y comparar los resultados que íbamos obteniendo con los de otras metodologías para poder respaldar con argumentos físicos y matemáticos que, efectivamente, nuestra propuesta era mejor”, sostuvo el investigador del DGF y del proyecto PRECURSOR, Vicente Yáñez Cuadra. Como resultado, se obtuvo un modelo de acoplamiento de la zona de estudio “estadísticamente significativo y bastante más robusto que los obtenidos hasta ahora, ya que permite interpretar de mejor manera cómo se acumula la energía que eventualmente se libera durante un gran terremoto”, añadió el egresado del Magíster en Ciencias con mención Geofísica, Vicente Yáñez Cuadra.

Entre los hallazgos más importantes del estudio, ambos investigadores destacaron la alta acumulación de energía sísmica que existiría en la zona más somera del contacto entre placas tectónicas frente a las costas de Antofagasta (sobre el área que rompió el terremoto de magnitud 8.0 ocurrido en 1995) y dos áreas de alto acoplamiento entre placas tectónicas: la primera ubicada entre Taltal y Copiapó; y la segunda, entre Vallenar y La Serena.

Sobre este último punto, el profesor Francisco Ortega Culaciati recordó que “la laguna sísmica de Atacama ha sido afectada por los terremotos de 1819 y 1922, ambos separados por un rango de tiempo de casi 100 años”. Por esta razón, agregó el académico, “si bien no es posible predecir cuándo será el próximo gran terremoto en la zona, es razonable esperar que la energía acumulada desde 1922 sea liberada en algún momento en el futuro”.

La investigación para la tesis de magíster “Deformación intersísmica y acoplamiento interplaca a partir de datos GNSS en la brecha sísmica de la Región de Atacama” fue financiada por los proyectos Núcleo Milenio CYCLO y Fondecyt Regular 1181479. La segunda parte de este trabajo, que permitió elaborar el artículo “Interplate Coupling and Seismic Potential in the Atacama Seismic Gap (Chile): Dismissing a Rigid Andean Sliver”, contó además con el financiamiento del Proyecto Anillo PRECURSOR ACT-192168.

Estrellas masivas podrían no ser tan “gigantes” como se pensaba

Lo que se creía era una enorme estrella en el corazón de la nebulosa de la Tarántula, también conocida como 30 Doradus, son en realidad varias estrellas. Así lo señala una nueva investigación que analizó la estrella llamada R136, una de las que conforman la gran Nube de Magallanes, región que contiene las estrellas de mayor masa descubiertas hasta la actualidad y cuya luminosidad es tal, que se pueden apreciar a simple vista.

Mónica Rubio, Premio Nacional de Ciencias Exactas 2021, astrónoma y académica de la Universidad de Chile, fue parte del estudio publicado en la última edición de la revista Astrophysical Journal. “Las estrellas de mayor masa no son tan masivas como pensábamos”, sostiene la también integrante del Centro de Astrofísica y Tecnologías Afines (CATA) respecto a este trabajo, que podría hacer replantear los modelos de formación estelar y sus etapas finales.

La académica agregó que para llegar a estos resultados se requirió más de un año de investigación utilizando el Telescopio Gemini Sur, ubicado en Cerro Pachón, en la Región de Coquimbo, en el cual Chile participa a través de los tiempos de observación para astrónomas y astrónomos nacionales que administra la Agencia Nacional de Investigación y Desarrollo (ANID). “Fue el gran espejo de 8.1m y el instrumento llamado ‘Zorro’ el que nos permitió tomar las imágenes ópticas más nítidas que se pueden tomar desde tierra actualmente, revelando que donde se creía había solo una estrella en realidad son varias”, señaló.

Rubio explicó que el siguiente paso será continuar con esta investigación y determinar las propiedades de estas estrellas, ya que al no ser tan masivas como se pensaba, “podría implicar que quizás las primeras estrellas en el universo tampoco fueron tan masivas como los modelos requieren”, dice la astrónoma. “Esto se podrá dilucidar con futuras observaciones solo posibles con el telescopio James Webb”, añadió.

En este trabajo, junto a Mónica Rubio, participaron Venu Kalari, autor principal que estuvo como investigador asociado en el Departamento de Astrofìsica de la Universidad de Chile (DAS) y Ricardo Salinas, astrónomo del observatorio Gemini Sur en la Región de Coquimbo, además de la colaboración de ingenieros chilenos del observatorio, junto a un equipo de la NASA.

Los resultados fueron publicados en la revista Astrophysical Journalcon el título “Resolving the core of R136 in the optical”.

Realizan técnica quirúrgica que brinda una nueva voz a personas trans

“Para una persona trans, sonar de acuerdo a su género y que en el teléfono la escuchen y le digan ‘señora’ o ‘señorita’ es casi tanto o más importante que hacerse una mamoplastia u otro procedimiento quirúrgico parecido”, explicó el Dr. Christian Olavarría, jefe de la Unidad de Voz del Servicio de Otorrinolaringología del Hospital Clínico de la Universidad de Chile.

“Nosotros fuimos probablemente los primeros en hacer esta técnica quirúrgica en Chile. Partimos en 2014, porque comenzamos a notar que llegaban personas que nos pedían este tipo de procedimientos. La cirugía de reasignación vocal es un cambio que permite que las personas trans se sientan mucho más a gusto con su voz y, por lo tanto, logran ser más sociables y sentirse más seguras frente a otros”, complementó el profesional.

La importancia de la voz en las personas generó una nueva perspectiva terapéutica que implica un manejo integral y específico de la condición vocal de ellas. La primera recomendación del equipo médico para las personas que desean reasignar su voz es una terapia fonoaudiológica, la que bien lograda puede hacer que ellas adquieran una voz más acorde a su identidad de género sin la necesidad de ningún tipo de procedimiento quirúrgico.

Esta intervención brinda una nueva voz a una persona que no se siente identificada con el tono, de acuerdo a su género. ¿En qué consiste esta intervención y por qué no es tan conocida en Chile? La voz tiene distintas características, aparte de la intensidad (volumen) y la frecuencia (tono), por lo que no necesariamente una voz aguda es femenina o una voz grave es masculina.

“Hay una serie de otros factores que hacen que la voz pueda sonar más masculina o más femenina según los cánones sociales, como la forma en que se habla, se pronuncia o se hace énfasis a las palabras”, señaló el otorrinolaringólogo.

Por otro lado, en el caso de las personas que tuvieron poca motivación para la terapia fonoaudiológica, que no tuvieron una buena respuesta a la terapia o que tienen el tono de voz muy grave, el equipo médico sugiere un procedimiento quirúrgico que modifique el tono de la voz para darle el carácter deseado. La cirugía consiste en modificar las cuerdas vocales en su grosor, tensión o longitud para disminuir la masa, aumentar la tensión o acortar las cuerdas vocales, lo que agudiza la voz.

El especialista de nuestro Hospital Clínico indicó que existen varias cirugías para la reasignación: las más comunes son las cirugías abiertas o tiroplastia de feminización y las cirugías endoscópicas o laringoplastia de feminización.

“Estos dos tipos de cirugías tienen pros y contras. Por un lado, la cirugía abierta (tiroplastia de feminización), si bien puede ser un poco más invasiva, tiene la ventaja de aprovechar el procedimiento quirúrgico para operar el cartílago de tiroide, que es conocida como la manzana de Adán, y de estetizar el cuello. Por otra parte, la cirugía endoscópica (laringoplastia de reasignación vocal en personas trans) es bastante menos agresiva porque no implica una incisión en el cuello, ya que se realiza a través de una endoscopía por la boca. No deja cicatrices externas y la recuperación es más rápida”, enfatizó.

A pesar de las diferencias, ambas cirugías tienen resultados semejantes, pero “la cirugía endoscópica nos ha permitido modificaciones del tono un poco más significativas, por lo que somos mucho más asiduos a su realización”, detalló el Dr. Olavarría.

El Dr. Olavarría contó que las 25 personas que se han operado en los últimos años en el Hospital Clínico de la Universidad de Chile han quedado contentas y han mejorado significativamente su calidad de vida. “No tenemos ninguna persona que se haya arrepentido. Esto nos motiva a seguir con esta cirugía que no es tan conocida y que no se realiza en todos los centros hospitalarios”.

Respecto a la cirugía de reasignación de voz, el Dr. Olavarría aclaró que no es posible revertir ni predecir los resultados de la cirugía (cuánto cambio tendrá la voz, aunque en ningún caso será más grave), por lo que la persona tiene que estar totalmente convencida del procedimiento quirúrgico.

Puerto Valparaíso publica su IX Reporte de Sostenibilidad

Con un importante acento en el proceso Valparaíso Dialoga y sobre las acciones realizadas producto de la pandemia, Puerto Valparaíso (EPV) publicó su IX Reporte de Sostenibilidad, documento que, desde el año 2013, se ha desarrollado anualmente, dando cuenta del cumplimiento y de los compromisos de la Empresa con el entorno y el medio ambiente.

El Reporte, que destaca los principales hitos y cifras del año 2021, también hace referencia a los temas de desarrollo económico y crecimiento del puerto, a los aspectos vinculados con el cuidado del medioambiente y la protección del entorno, la calidad de vida y desarrollo de la comunidad, la gestión de gobierno corporativo, y el bienestar laboral.

Franco Gandolfo, gerente general de EPV, manifestó que “en este IX Reporte de Sostenibilidad reafirmamos el compromiso con nuestro entorno, dando cuenta de las acciones que realizamos como Puerto Valparaíso en este ámbito. Si bien estos últimos años nos han obligado a hacer cosas nuevas y distintas, principalmente debido a los efectos de la pandemia, el afán de velar por nuestro entorno no ha cesado, es por eso que, en el año 2021 actualizamos nuestro Plan de Sostenibilidad que tendrá vigencia hasta el año 2024, en el que, además de buscar reconocer, respetar y considerar los intereses de la comunidad, hacemos parte de esta tarea a toda la organización”.

El ejecutivo, además, destacó que “en relación con nuestro trabajo, este Reporte recoge el proceso de conversación con la ciudad denominado Valparaíso Dialoga,  que hemos llevado a cabo los últimos dos años. En este sentido, el 2021 fue de suma relevancia para fortalecer la relación entre la ciudad y el puerto. Esta iniciativa ha sido, y continuará siendo, un proceso que nos permite tener una conversación transparente, constructiva y honesta con la ciudad y sus autoridades locales con miras a logar un desarrollo y una relación armónica entre el puerto la ciudad y sus diversas vocaciones”.

Cabe señalar, que este Reporte es un instrumento que entrega Empresa Portuaria Valparaíso a sus grupos de interés y a la comunidad en particular, con el objeto de comunicar sobre el desempeño alcanzado en materia económica, social, ambiental e institucional constituyéndose en una herramienta de transparencia única.

El contenido cumple con las exigencias establecidas en el estándar GRI (Global Report Iniciative) y cada capítulo del documento está basado en los seis compromisos con la sostenibilidad asumidos por Puerto Valparaíso e incorporados en la Política de Sostenibilidad, asociados al Buen Gobierno Corporativo; Respeto y Protección del Medio Ambiente; Desarrollo Económico y Competitividad; Calidad de Vida y Desarrollo de la Comunidad; Ser un Muy Buen Lugar para Trabajar; y el compromiso de Difusión.

Además, en el texto se refleja y explica la integración de los Objetivos de Desarrollo Sostenible (ODS) al quehacer de la organización, los cuales fueron priorizados utilizando la metodología “Integrando los ODS en los informes Corporativos: Una guía práctica”, elaborado por las Naciones Unidas (ONU).

Respecto a las futuras publicaciones del Reporte de Sostenibilidad, se prevé que para el año 2023 se realice una Memoria Integrada, es decir, un único documento que contenga la Memoria de Gestión Anual y el Reporte de Sostenibilidad, cumpliendo con los estándares actuales.

Científico chileno encabeza equipo detrás de hallazgo que cambiaría el tratamiento de las alergias a futuro

Según la Organización Mundial de Alergias, entre el 30 y el 40% de la población mundial sufriría algún tipo de alergia. Los especialistas estiman que estas cifras crecerán a futuro por factores como el cambio climático, la polución, la mala alimentación y el uso inadecuado de medicamentos, entre otros. En este contexto, el desarrollo de nuevos tratamientos para combatirlas es una línea de investigación prioritaria para numerosos científicos en distintas partes del planeta.

Uno de estos equipos es encabezado por el bioquímico de la Universidad de Chile e investigador del Instituto Imagine de Enfermedades Genéticas del Hospital Necker-Enfants Malades, Fernando Sepúlveda, junto a la investigadora Gaël Ménasché, quienes encabezaron un estudio que identificó el rol clave del gen Rab44 en las reacciones alérgicas.

“Lo que se hizo en este trabajo fue investigar el rol de este gen, de esta proteína, en la función de la degranulación mastositaria, un proceso que ocurre en etapas tempranas de las alergias y que conduce a la liberación de mediadores inmunes inflamatorios, lo que activa el estado de alergia en las personas. El estudio nos permitió ver que al inhibir la expresión de este gen los mastocitos eran menos capaces de liberar estos mediadores inflamatorios y, por lo tanto, disminuir el fenotipo de alergias”, explicó sobre la investigación Fernando Sepúlveda, quien llegó al Instituto Imagine, luego de realizar su doctorado en el Instituto Curie, para investigar enfermedades inmunes que tengan principalmente una componente genética en sus causas.

El bioquímico de la Universidad de Chile detalla que el estudio sobre esta función del gen Rab44, publicado en la revista The Journal of Allergy and Clinical Immunology, se realizó mediante la utilización de tijeras moleculares CrispR-Cas9 en modelos animales. De esta manera, el equipo logró inactivar el gen y reducir de forma considerable el proceso de degranulación de mastocitos que desencadena todo tipo de alergias, desde las cutáneas, respiratorias y digestivas, hasta las generalizadas, como la anafilaxia. En este sentido, el hallazgo abre un camino a nuevas investigaciones para identificar las mejores fórmulas farmacológicas enfocadas en este promisorio blanco terapéutico.

Las alergias son un trastorno del sistema inmunológico, que reacciona de forma desproporcionada ante sustancias que identifica como potencialmente dañinas, incluso si no lo son. De acuerdo a la Clínica Mayo, “la gravedad de las alergias varía según la persona y puede ir desde una irritación menor hasta anafilaxis (una situación de emergencia potencialmente mortal). Si bien la mayoría de las alergias no tienen cura, los tratamientos pueden ayudarte a aliviar los síntomas de alergia”.

Al respecto, el científico chileno señala que los diversos fármacos contra las alergias que existen en la actualidad “inhiben la acción de los mediadores inflamatorios o inhiben eventos que vienen después de la liberación. Inhibir la expresión de Rab44 permitiría actuar en etapas más tempranas que eso”. Destacó, además, que “eventualmente habría pocos efectos secundarios porque es una proteína que se expresa principalmente en mastocitos”.

Por esta razón, el equipo encabezado por Sepúlveda y Ménasché continuará estudiando los mecanismos moleculares involucrados en el proceso de degranulación mastositaria. En lo inmediato, plantea el bioquímico de la U. de Chile, el objetivo es encontrar “moléculas inhibidoras que permitan modular la actividad de esta proteina [Rab44]. En este caso, se podría pensar en dar con una molécula química que inhiba la acción de la proteína en los pacientes. A eso conducen los trabajos que se están desarrollando actualmente”.

El trabajo en torno a la inhibición de Rab44 dio origen a una proyecto de patente en el Instituto Imagine, relata el científico chileno. No obstante, “luego de descubrir que la proteína sirve para esto a diseñar alguna droga pueden pasar muchos años, la investigación es muy lenta en ese sentido”, aclaró. Asimismo, destaca que estos análisis y estudios preliminares son fundamentales para avanzar en fórmulas terapéuticas que puedan ser probadas en modelos experimentales antes de concretar ensayos clínicos en humanos.

Desarrolla biopulsera que proporciona datos para medir las emociones

El rol de la información, los datos y la inteligencia artificial está cada vez más entrelazado con el progreso económico, social y político de los países. El desarrollo de este campo ofrece un gran potencial para mejorar la calidad de vida y hacer análisis de mayor precisión sobre distintos ámbitos de nuestra cotidianidad. Esta cualidad representa una ventaja evidente frente a la información de carácter cualitativo proveniente de instrumentos como las encuestas, pero muchas veces la obtención de datos objetivos enfrenta el obstáculo de depender de aparatos con cables, voluminosos e invasivos para los participantes de una muestra.

Entonces, ¿cómo obtener información “real” sin irrumpir en la vida normal del usuario? Este problema llevó a un grupo de investigadores del Instituto Sistemas Complejos de Ingeniería (ISCI), del Departamento de Ingeniería Civil (DIC) y del Departamento de Ingeniería Industrial (DII) de la Facultad de Ciencias Físicas y Matemáticas de la Universidad de Chile, en colaboración con el FabLab U. de Chile, a embarcarse en el desarrollo de una tecnología amigable, capaz de obtener datos vinculados a las emociones humanas y analizarlos con inteligencia artificial.

Así lo explica Ángelo Guevara, investigador del ISCI y académico del DIC, quien destaca que esta innovación “ha sido un diseño iterativo, desde prototipos que cumplían con los requisitos tecnológicos básicos hasta el diseño actual que incorpora aspectos de portabilidad y análisis de datos. En el caso de transporte público, permitirá, por ejemplo, contar con medidas insesgadas de la calidad de servicio, las que luego pueden relacionarse con variables de diseño del sistema y, por lo tanto, ayudar a la elaboración de políticas públicas informadas en esta área”.

Por otro lado, Ángel Jiménez, investigador del ISCI y académico del DII, explica que “en general, el uso del enfoque psicofisiológico permite superar las limitaciones que tienen los métodos basados en respuestas subjetivas y en análisis ex-post para evaluar diversos estados psicofisiológicos de las personas en diversos escenarios, como los mencionados anteriormente. La pulsera Biomonitor V3.0 permite capturar las señales indicadas de manera poco invasiva, sin interrumpir a la persona, como sí lo haría el enfoque subjetivo. Basándose en la correlación que estas señales tienen con las respuestas del sistema nervioso central, y analizándolas con cierto propósito, se puede obtener una visión más objetiva de lo que realmente le está pasando a la persona desde el punto de vista cognitivo y afectivo, mientras sea posible aislar diversas variables confundentes”.

“La pulsera, bautizada ‘Biomonitor V3.0’, contiene una tecnología que, al ser conectada por bluetooth a un computador, microcontrolador o dispositivo móvil, puede obtener y recolectar señales fisiológicas como el pulso cardíaco, temperatura superficial de la piel, variabilidad del pulso, conductividad eléctrica de la piel y medidas inerciales calculadas con acelerómetro y giroscopio”, explica Cristian Retamal, jefe de rediseño del dispositivo y ayudante de investigación.

Esto significa un gran avance para los experimentos enfocados en la experiencia afectiva de las personas, especialmente en el área de affective computing, donde se requieren datos de calidad, verificables, y que puedan ser procesados con analítica avanzada. “Porque incorpora una herramienta nueva para investigación y diseño de políticas públicas. Solo existe una pulsera de sensores comercial (desarrollada en el MIT) que cumple las características del Biomonitor 3.0, pero tiene un precio prohibitivo para hacer investigaciones más masivas”, plantea Ángelo Guevara.

La tecnología habilita el monitoreo continuo de variados estados psicofisiológicos en diferentes dominios. Por ejemplo, estados afectivos en tareas de conducción, interacción con dispositivos móviles o estacionarios, diversas tareas laborales, provisión de clases, salud mental, etc. “Además, entrega la posibilidad de comprender continuamente el estado cognitivo y afectivo de las personas, permite la realización de la visión de la computación ubicua, que busca proveer servicios computacionales en todo tiempo y lugar sin interrumpir a las personas. Esta capacidad se complementa con el advenimiento de la Internet de las Cosas, que generará escenarios en que lo más escaso no serán los recursos computacionales (capacidad de procesamiento y almacenamiento, ancho de banda, etc.), sino que la atención de las personas, demandada al mismo tiempo por todos estos dispositivos y servicios. Por lo tanto, poder entender en un tiempo cercano al real cómo nos vemos afectados cognitiva o emocionalmente permite que los computadores desplegados en la infraestructura tomen decisiones de provisión de servicios computacionales que no nos saturen”, adelanta Jiménez.

La versión actual es funcional tecnológicamente y permite la recolección y análisis de datos para investigación, tiene un encapsulado ergonómico y aspectos de usabilidad que facilitan su aplicación por usuarios no expertos. Esta se ha usado con gran éxito en la medición de la fatiga laboral y el estrés de choferes de buses en una ruta minera de alta montaña, así como en la experiencia de usuarios del Transantiago.

Experto advierte qué hacer para no depender del clima para amortiguar la sequía

Las últimas precipitaciones dieron un respiro a la megasequía que enfrentaba el país desde hace 13 años, una de las más severas hasta ahora.  Con las favorables lluvias se presentan desafíos y oportunidades, las que Guido Carvajal, académico de la Facultad de Ingeniería de la UNAB, analiza: “es recomendable avanzar hacia ciudades sensibles al agua y no depender únicamente de las condiciones climáticas para amortiguar la sequía que afecta a Chile”.

Según Carvajal, quien ha viajado y conoce de cerca estas ciudades, tales desafíos y oportunidades, incluyen la mejora en la administración del agua urbana de manera integrada y sostenible, que diversifique y aumente la oferta de recursos hídricos, por ejemplo, a través de reciclaje de agua, recarga de acuíferos y desalación, además, de incorporar funciones ecológicas y de resiliencia a nuestro entorno construido e infraestructura.

“Se deben realizar estas acciones para evitar inundaciones, erosiones y destrucción de infraestructura urbana. Sin embargo, hoy, el panorama es incierto, la notable falta de políticas públicas que incentiven iniciativas en esta área y le den la importancia que tiene está a la vista. También vemos el comportamiento de la comunidad, todo esto denota que estamos muy lejos de soluciones concretas para manejar las sequías, las que cada vez serán más severas al estar potenciadas a su vez por el cambio climático”, comenta el experto.

Para evolucionar, es importante tener un manejo del agua a nivel urbano que aspire a lo que se conoce internacionalmente como una “ciudad sensible al agua” (o “water sensitive city”). A nivel internacional, existen iniciativas que consideran estos conceptos como son “Australia’s Water Sensitive Cities”, “China’s Sponge Cities”, “Singapore’s ABC Waters”, “The United States’Low Impact Development”, y el “Vancouver’s Rain City Strategy” (Wong et al., 2020), que son reconocidas a nivel global.

Una ciudad sensible al agua se caracteriza por ser habitable, resiliente, sostenible y productiva económicamente. Asimismo, el recurso hídrico está respaldado por tres pilares centrales que se integran en el entorno urbano, según detalla el experto en el manejo del recurso hídrico en zonas urbanas:

1.- Ciudades como captaciones de suministro de agua que permitan acceso a una diversidad de fuentes de agua, abastecidas por una combinación integrada de infraestructura centralizada y descentralizada.

2.- Ciudades que brindan servicios ecosistémicos mediante la provisión de servicios para el entorno construido y natural.

3.- Ciudades que comprenden comunidades sensibles al agua con capital sociopolítico para la sostenibilidad y toma de decisiones y comportamientos sensibles al agua, según indican expertos en sus artículos Wong & Brown de 2009 frente al tema.

El primer pilar de una ciudad sensible al agua, se relaciona con la diversificación de las fuentes del vital elemento más allá del abastecimiento clásico de aguas lluvia y escorrentía, el cual incluya soluciones tanto centralizadas como descentralizadas. Estas fuentes alternativas de agua incluyen esquemas de recarga de acuíferos (agua subterránea), manejo de aguas pluviales urbanas, almacenamiento de agua de lluvia -desde los techos de las casas y edificios-, aguas residuales recicladas y agua desalada.

Tales alternativas deben ser evaluadas considerando aspectos, tales como: costos de inversión y operación, precios, clima, objetivos e impactos ambientales y riesgos. “Junto a ello, es importante mencionar que un cambio de este tipo requiere de tiempo, por lo que no solucionará los problemas inmediatos de la sequía que enfrentamos actualmente. Lo que claramente, podría evitar que se le otorgue la importancia necesaria en comparación con otros proyectos como la desalación, que hoy en algunas partes sí se está realizando”, explica Carvajal.

El segundo pilar para avanzar hacia ciudades sensibles al agua considera asegurar que los futuros paisajes urbanos incorporen oportunidades y tecnologías, o más bien dicho, funciones ecológicas. “En este punto, se asegura la resiliencia ante los impactos del cambio climático. Vale decir, hacer frente a futuras incertidumbres en el suministro de agua urbana y extremos climáticos y, proporcionar servicios ecosistémicos para proteger y amortiguar los entornos acuáticos río abajo y otros hábitats ecológicos de estos impactos”, dice el académico de la UNAB.

Algunos ejemplos de estos usos, incluyen la protección del medio ambiente de contaminación de aguas de escorrentía urbanas y rehabilitación de cursos de agua urbanos a través de tecnologías como humedales construidos y sistemas de bioretención.

Posteriormente, el tercer pilar sostiene que aquellas ciudades que comprenden comunidades sensibles al agua, deben tener en cuenta los valores y aspiraciones de dicha colectividad, dado que, es imprescindible que rijan las decisiones de diseño urbano y la gestión del agua urbana, una ciudad se debe diseñar siempre pensando en favorecer y cuidar el vital elemento.

Por ello, una ciudad sensible al agua, se sustenta en su capital social e institucional inherente,  lo cual se refleja en los siguientes puntos (1) comunidades que llevan un estilo de vida ecológicamente sostenible y reconocen el equilibrio y la presión constantes entre el consumo y conservación del capital natural de las ciudades; (2) capacidad industrial y profesional para innovar y adaptarse como practicantes reflexivos en la construcción de la ciudad; y (3) políticas gubernamentales que facilitan la evolución adaptativa de una ciudad sensible al agua.

En este contexto, el proyecto australiano Water Sensitive Cities, ha desarrollado estudios, herramientas y guías que permiten medir a través de indicadores, el nivel de avance o desarrollo que presenta una ciudad en relación a las características de una urbe sensible al recurso hídrico. Una de ellas, es la herramienta de evaluación comparativa para mapear el desempeño actual de la gestión del agua urbana de una ciudad frente a 34 indicadores que caracterizan una ciudad sensible al agua.

Los 34 indicadores se relacionan con siete objetivos de una ciudad sensible al agua incluyendo, la promoción de infraestructura adaptativa, asegurar una buena gobernanza sensible al agua, aumentar el capital comunitario, lograr la equidad de los servicios esenciales, mejorar la productividad y eficiencia de recursos, mejorar la salud ecológica, y asegurar la calidad del espacio urbano.

Finalmente, y, considerando estos elementos el experto y académico precisa que “Chile cuenta con recursos materiales, económicos y capital humano para avanzar hacia el desarrollo de ciudades sensibles al agua. Es necesario, instruirse con herramientas ya desarrolladas y considerar las prácticas internacionales”.

Y añade que “sólo de esta forma lograremos mejorar la sostenibilidad en relación al manejo de agua urbana en el corto y mediano plazo para aprovechar adecuadamente los recursos hídricos disponibles sin depender del factor climático para el abastecimiento del vital elemento”, finaliza Carvajal.

Investigación revela la huella de metales pesados provocada por la actividad humana en Quintero

Un nuevo aporte a la evidencia de contaminación por la actividad humana en Quintero realizó un estudio desarrollado por investigadores del Núcleo Milenio Océano, Patrimonio y Cultura (OHC) de la Universidad de Chile. El trabajo, publicado en la revista Quaternary International, develó el profundo impacto de la acción del hombre en esta bahía en los últimos 100 a 150 años, así como la evolución de esta zona desde hace unos 29 mil años.

El yacimiento sumergido en el denominado GNL Quintero 1 (GNLQ1), el único que se conoce para Sudamérica, se caracteriza por contener depósitos de una alta diversidad de restos de animales terrestres extintos y viene siendo estudiado por un equipo multidisciplinario desde hace cerca de quince años. Basado en análisis estratigráficos, sedimentológicos y geoquímicos de testigos de sedimento marino, la investigación da cuenta de las grandes transformaciones del paisaje, como la transgresión marina que inundó progresivamente estos espacios debido al alzamiento general del nivel del mar.

Como resultados no esperados, la investigación reportó la incidencia de la actividad humana contaminante en el área. “La huella de la actividad humana en el paisaje queda bien reflejada por la presencia de metales pesados identificados (Cromo, Vanadio, Zirconio, Itrio) en la sección más reciente de la secuencia ambiental. Esto puede relacionarse con las actividades de fundición de metales y el uso de plantas alimentadas con combustible de carbón”, destaca la académica del Departamento de Geología de la Universidad de Chile e investigadora del Núcleo Milenio OHC, Dra. Valentina Flores.

Adicionalmente, el trabajo también revela la desecación reciente de dos grandes lagunas costeras que dominaban el paisaje de la bahía. “Esto ocurre fundamentalmente como consecuencia de actividades industriales, agrícolas y la expansión urbana, siendo la laguna Campiche -que llegó a tener una superficie de 4,5 km²- una de las más afectadas”, comenta el arqueólogo de la Universidad de Chile y también investigador del Núcleo Milenio OHC, Diego Carabias. Actualmente, las lagunas costeras de esta área ocupan menos de un 5 por ciento de esa superficie.

Respecto a la investigación, la Dra. Flores enfatiza la importancia de los cambios observados en el testigo de sedimentos. “A través de ellos, se puede hacer una diferenciación entre los cambios ocurridos en el paisaje provocados por el cambio climático natural y las variaciones en el nivel del mar, y el efecto antrópico (del ser humano) provocado por la contaminación ambiental y el cambio en el uso del suelo. Sin duda estos datos podrían ayudar a complementar estudios de contaminación reciente, ya que entregan una perspectiva histórica/prehistórica de la zona”, finaliza.

La relevancia del paisaje temprano sumergido de Quintero y la contribución de este estudio fue destacado recientemente, además, por una publicación en World Archaeology, que analiza a nivel global el estado del arte sobre paleopaisajes sumergidos del Hemisferio Sur. El artículo fue liderado por la Dra. Ingrid Ward, investigadora del OHC, y participaron en el otros investigadores del Núcleo en conjunto con colegas de Australia, Reino Unido, Sudáfrica y Brasil.

Las investigaciones del Núcleo Milenio OHC de la U. de Chile en la bahía Quintero comenzarán una nueva etapa a fines de este año, a partir de las cuales se espera obtener una visión más amplia de los paisajes sumergidos, y cómo éstos evolucionaron en el tiempo, verificar nuevos sectores de potencial interés mediante la aplicación de métodos de sensoramiento remoto, muestreos del fondo marino y operaciones de buceo arqueológico.

Salud y biotecnología se posicionan como las áreas de mayor crecimiento y proyección en Start-Up Chile

Las startups de la industria Health & Biotech (20%), Financial Services (13%), Education & Learning y Retail, Wholesales & Consumer Products (ambas con un 11%)fueron las categorías con mayor representación en la nueva generación de emprendimientos de base tecnológica que recibirá el financiamiento de Corfo a través de los programas de Start-Up Chile.

Respecto a las compañías del rubro Health & Biotech, estas registraron un aumento de 30,8% respecto a la generación anterior.

“En términos de industrias, las que tienen una mayor representación son empresas que atacan problemáticas de salud, fintech y retail, lo que también marca una interesante tendencia de las compañías con alto potencial de crecimiento por desarrollar sus negocios en áreas donde la innovación está penetrando con mucha fuerza”, sostuvo el gerente de Start-Up Chile, Rodrigo Frías.

Start-Up Chile, la aceleradora pública dependiente de Corfo, anunció estos resultados y que, a partir de septiembre, se iniciará un proceso de aceleración a través de sus tres programas de apoyo y financiamiento. “Start-Up Chile busca, para sus tres convocatorias, compañías de base tecnológica que tengan un claro objetivo de resolver problemas relevantes. Además, buscamos que las empresas que apoyamos tengan un claro potencial de escalabilidad, crecimiento y generación de impacto a nivel local, regional y global”, destacó Frías.

Para los programas Build, Ignite y Growth fueron seleccionados un total de 87 emprendedores, el 77% de ellos ya tienen operaciones en Chile, los cuales serán apoyados de acuerdo a la etapa en la que se encuentre su negocio y entre los cuales Corfo destinará poco más de $2.500 millones.

Para la generación Build, el equipo de Start-Up Chile junto a evaluadores expertos seleccionaron 38 startups que recibirán un financiamiento de $10 millones libre de participación accionaria (equity free). Estas startups se encuentran en etapa temprana, lo que significa que van desde ideas validadas hasta un prototipo funcional. El programa las ayudará en su consolidación, logrando el desarrollo del primer producto mínimo viable (Minimum Viable Product – MVP) y/o alcanzar sus primeras ventas.

Para aquellas empresas que se encuentran en una etapa más avanzada, con al menos un MVP y un máximo de tres años de desarrollo; las cuales clasifican para la generación Ignite, se seleccionaron 30 proyectos. A estos beneficiarios se les otorgará un total de $25 millones.

El programa Growth, que apoya startups en etapa de expansión, seleccionó a 19 empresas de base tecnológica para acompañarlas en su proceso de internacionalización, levantamiento de capital y crecimiento de sus equipos, para lo cual recibirán financiamiento de hasta $75 millones. Respecto de la participación de mujeres en esta nueva generación, Rodrigo Frías valoró el aumento en la cantidad de empresas del programa Growth lideradas por mujeres. “Para esta convocatoria son el 26% lo que indica un alza en relación a la convocatoria pasada (22%)”, precisó al tiempo que planteó el desafío de incrementar la participación en todos los programas.

Respecto a la participación de mujeres dentro de esta nueva generación, las team leaders mujeres, es decir quienes lideran el equipo fundador de la startup, representan el 32,18% de la generación, lo que se refleja en un aumento de 2,48 pp respecto a la generación anterior.

Desde 2010, Start-Up Chile de Corfo ha apoyado más de 2.200 startups y hoy la valorización del portafolio asciende a más de USD 5.8 billones, se ha consolidado más de USD 2.1 billones en ventas y ha generado más de 10.000 empleos en Chile y el mundo, de acuerdo al Annual Alumni Passport 2021 de la aceleradora.

Plantea necesidad de que los estudiantes tengan un buen manejo tecnológico para su desempeño escolar

Desde hace años hemos tenido la preocupación de saber en qué medida los estudiantes han desarrollado sus habilidades TIC y cuánto de ello se aplica al beneficio de su aprendizaje. En octubre de 2018, se realizó un estudio Internacional de Alfabetización Computacional y Manejo de la Información (ICILS), que se aplica cada  cinco años en varios países donde se aborda la dimensión docente y la alfabetización computacional y manejo de información de los estudiantes. En aquella oportunidad fue aplicada por la Agencia de la Calidad de la educación  a más de 3000 estudiantes de 8° básico con foco en pensamiento crítico, colaboración y comunicación.

En el último informe de resultados se muestra que la mayoría de los estudiantes tienen un conocimiento y manejo básico de los computadores. Chile alcanzó 476 puntos, por debajo de la media, pero sobre Italia, Uruguay y Kazajistán.

Anteriormente, en Chile también se había aplicado el SIMCE TIC (2011 y 2013) y los resultados tampoco eran alentadores. Entonces ¿cómo hacemos para que los y las estudiantes tengan un buen manejo tecnológico y además hagan un buen uso de él para su desempeño escolar?

La investigadora de la Pontificia Universidad Católica de Valparaíso (PUCV), Sonia Pino, plantea que si bien no hay una única respuesta, hay evidencia suficiente para fundamentar que “mientras más práctica de uso de tecnología tengan los estudiantes en los centros escolares, mejores son sus habilidades”. Además, “cuanto más temprano en la trayectoria escolar se incorporen las TIC como herramientas de aprendizaje, mejores serán los resultados”.

Pino, quien es coordinadora del área de Investigación, Desarrollo e Innovación del Centro Costadigital PUCV, institución dedicada a la innovación educativa mediada por tecnología, agrega que “la mirada y disposición de los docentes es fundamental para que los estudiantes incorporen el uso de tecnología de una forma que los haga sacar más provecho de sus capacidades, y no menos”.

Considerando lo anterior, dice, el informe de ICILS entrega varias pistas respecto de cómo abordar la situación: “en primer, lugar,  debemos redefinir las TIC, es decir, mirar la tecnología no sólo como Tecnologías de la Información y la Comunicación, sino como Tecnologías para el Aprendizaje y el Conocimiento (TAC)”.

En este sentido, la ingeniera añade que “la primera definición (TIC) es bastante instrumental, sin embargo, todo indica  que debemos diseñar experiencias de aprendizaje significativas, que incluyan el uso de tecnologías para potenciar las actividades, generando un real aporte al aprendizaje, y no sólo como reemplazo de una práctica antigua por una tecnología nueva si ésta no genera al menos una mejora funcional”.

En segundo lugar, sostiene, “debemos dejar de hacer esfuerzos aislados para mejorar las habilidades de los estudiantes. En consecuencia, el centro escolar en su conjunto es quien debe primero reconocer que la tecnología es parte de la sociedad y debemos aprovechar todas las posibilidades que nos ofrece, para luego tener una mirada sistémica de incorporación de tecnología tanto en los procesos  de enseñanza, aprendizaje, liderazgo y gestión”.

La profesora extendió una invitación a docentes, directivos y otras autoridades del ámbito educativo que quieran emprender esta mirada sistémica a que contacten al centro, “pues estamos en la búsqueda de escuelas, liceos, municipios, que quieran adherirse a esta idea y plantearnos una ruta común para abordar esta brecha”.