Post Tagged with: "Inteligencia Artificial"

Selfies, paneles y dudas éticas con el holograma de Stan Lee

La Comic Con de Los Ángeles 2025 ya tiene su primera gran polémica antes de abrir sus puertas. El nombre de Stan Lee, la leyenda de Marvel fallecida en 2018, vuelve a estar en boca de todos, esta vez no por una reedición de sus cómics ni por un cameo póstumo, sino por una recreación digital que promete dividir a los fans. Proto Hologram, en alianza con HyperReal y Kartoon Studios, desarrolló un holograma del creador de Spider-Man, Hulk y Iron Man que no solo podrá fotografiarse con los asistentes, sino también conversar con ellos durante tres minutos, a cambio de entre 5 y 20 dólares según la anticipación de la compra.

La experiencia se ha bautizado como Stan Lee Experience, un híbrido entre homenaje y experimento tecnológico que busca medir hasta qué punto los seguidores aceptan la presencia de un ídolo que en realidad ya no está. El holograma no será solo una atracción para selfies: también tendrá apariciones sorpresivas dentro de la convención e incluso podría llegar a moderar paneles de alto nivel. La idea de ver al “Padrino del cómic” caminando por un evento del presente, aunque sea en forma digital, marca un nuevo capítulo en la relación entre cultura pop y tecnología.

El fenómeno, sin embargo, despierta dudas sobre los límites de la memoria y el marketing. José Huichaman, ilustrador y académico de la Usach, expresó que “es una recreación que me responde lo que tal vez, basado en miles y miles de datos, me habría respondido Stan Lee… Creo que hay una especie de valoración, pero también de banalización de lo que es la existencia misma”. Para él, la posibilidad de hablar con alguien que murió rompe con el sentido mismo de la vida y la muerte, y plantea la pregunta de si estamos dispuestos a pagar por sentir la ilusión de un reencuentro.

El debate también se ha trasladado al plano de la ingeniería y la ética tecnológica. John Kern, académico del Departamento de Ingeniería Eléctrica de la Usach, explicó que esta tecnología “permite justamente, a través de una gran base de datos, recrear a la persona viva o fallecida de una manera virtual”. Se trata de una combinación de software —basado en algoritmos de entrenamiento, gemelos digitales y detección de emociones— y de hardware, que consiste en cabinas equipadas con parlantes y micrófonos capaces de decodificar la voz en tiempo real para simular interacciones humanas. “No es que se pueda revivir a la persona, al menos con la tecnología que hay ahora… sí se puede recrear con bastante cercanía a la realidad”, enfatizó Kern.

La frontera que separa el homenaje del espectáculo comercial se difumina en un contexto donde la inteligencia artificial avanza a una velocidad difícil de procesar. Para Huichaman, lo preocupante es que “estamos en una sociedad que lo que hace es dejarnos la menor cantidad de tiempo posible para pensarnos la realidad”. Y en ese vértigo, figuras como Stan Lee —convertido en marca, más que en persona— terminan siendo un producto de consumo tanto o más atractivo que los propios héroes que creó.

La Comic Con, que se extenderá entre el 26 y el 28 de septiembre, será el laboratorio donde este experimento se enfrente a la prueba del público. Lo que para algunos será un homenaje emocionante, para otros podría transformarse en la muestra más radical de cómo la cultura pop, la nostalgia y la inteligencia artificial pueden cruzar líneas invisibles. Si la imagen de Stan Lee vuelve a llenar titulares, será por su capacidad de seguir estando presente, incluso cuando la vida ya no lo acompaña.

Alfabetización en riesgo en la era de la inteligencia artificial

La irrupción de herramientas de inteligencia artificial como ChatGPT ha abierto un debate crucial en el mundo académico. Su capacidad para generar respuestas inmediatas y simplificar tareas promete revolucionar la educación, pero investigadores del Centro de Investigación Avanzada en Educación (CIAE) de la Universidad de Chile y del Centro Nacional de Inteligencia Artificial (CENIA) advierten que un uso pasivo de estos sistemas podría debilitar la alfabetización y, con ello, los cimientos del pensamiento crítico.

Marcela Peña, investigadora de la Pontificia Universidad Católica y del CENIA, plantea que el problema radica en la “contradicción fundamental” de estas tecnologías. Para desarrollar comprensión lectora y habilidades de escritura se necesita leer y escribir de manera intensiva, pero los modelos de lenguaje ofrecen justamente un atajo que evita ese esfuerzo. “Aquí lo relevante es enseñar a los lectores adolescentes y jóvenes a usar estos sistemas de manera interactiva. Por ejemplo, pedir a ChatGPT: ‘Dame tres opciones de ensayo sobre calentamiento global, y muéstrame las etapas que estás usando para escribir cada sección’”, ejemplifica.

El riesgo, según Ernesto Guerra, investigador del CIAE, es que los estudiantes confundan utilidad con comprensión real. “Estas herramientas, usadas de manera utilitaria, pueden dar la ilusión de que entendemos algo, cuando en realidad no hemos hecho el esfuerzo de leer y procesar el texto”. La lectura, sostienen los expertos, es más que un acceso a la información: funciona como un entrenamiento del cerebro que fortalece el vocabulario, el razonamiento y la reflexión.

Roberto Araya, también del CIAE, advierte que “en lugar de fortalecer los músculos cognitivos que la lectura extensiva desarrolla, el uso excesivo de estas herramientas puede atrofiarlos, ofreciendo atajos que, aunque útiles en lo inmediato, socavan el compromiso profundo con el texto”. Esto preocupa especialmente en niños y niñas que recién aprenden a leer y escribir, ya que allí se construyen las bases de la alfabetización. Una fragilidad en esa etapa puede impactar la capacidad futura de pensamiento crítico y de comprensión profunda.

Aun así, los investigadores reconocen el valor de la inteligencia artificial en la generación de materiales educativos adaptados a distintos contextos culturales y lingüísticos. El problema está en que, sin un acceso equitativo, estas ventajas se concentrarán en los grupos con mayores recursos, ampliando las desigualdades. Además, recuerdan que las brechas educativas no se explican solo por el acceso al lenguaje, sino por factores estructurales como la segregación escolar y la distribución desigual de oportunidades.

En un escenario donde la comunicación se vuelve cada vez más multimodal, con un predominio de lo visual y lo oral, los especialistas llaman a no abandonar la lectura profunda ni la escritura. Ambas prácticas, sostienen, siguen siendo insustituibles en el desarrollo del pensamiento complejo. “El desafío es encontrar un equilibrio: aprovechar los aspectos más productivos o generativos que la tecnología ofrece, pero sin dejar que reemplace el esfuerzo y la disciplina que la lectura y la escritura han fortalecido durante siglos”, concluyen los autores.

Automatización como el lenguaje del futuro laboral

En un escenario donde la tecnología redefine cada aspecto de la vida cotidiana, la automatización industrial se perfila como una de las áreas más estratégicas y con mayor proyección laboral en Chile. La Universidad de Santiago se suma a esta tendencia con la carrera de Tecnología en Automatización Industrial, un programa que combina formación teórica y práctica para preparar profesionales capaces de desenvolverse en sectores clave como la industria alimentaria, la agricultura y la minería, motores históricos de la economía nacional.

El auge de esta disciplina se vincula directamente con la irrupción de la inteligencia artificial y la llamada industria 6.0, caracterizada por su hiperconectividad y capacidad de análisis de datos en tiempo real. Tal como explica el jefe de carrera, Mg. Leandro Ampuero, la IA permite construir modelos predictivos que anticipan comportamientos de máquina a máquina, optimizando la producción y reduciendo errores. “La industria 6.0 analiza los datos en forma centralizada para tomar decisiones. Se puede estimar un crecimiento de producción actual versus producción futura, en función del comportamiento automatizado de las máquinas”, detalla el académico.

Los estudiantes de la Usach reciben formación en supervisión de procesos mecanizados, manejo de equipos y sensores, análisis de información y protocolos de comunicación industrial, herramientas que los posicionan en la primera línea del desarrollo tecnológico. A partir del tercer año obtienen el grado de tecnólogo en automatización industrial, con la capacidad de ejecutar y supervisar sistemas de control bajo procedimientos estandarizados. La tasa de empleabilidad habla por sí sola: el 90% de los egresados consigue trabajo, un dato que refleja la alta demanda del sector.

La perspectiva salarial también resulta atractiva. Según Ampuero, un recién egresado puede percibir entre 900 mil y un millón de pesos mensuales, cifra que aumenta con la experiencia y la especialización. Además, existe la posibilidad de continuar estudios y convalidar semestres en programas de Ingeniería Eléctrica o Ingeniería Industrial, lo que amplía aún más las oportunidades de desarrollo profesional.

Más allá de la empleabilidad, la automatización industrial responde a una tendencia empresarial en expansión. Aunque la implementación de equipos sofisticados implica una inversión significativa, los beneficios superan con creces los costos frente a los procedimientos manuales. “Antiguamente estas tareas las realizaban trabajadores de oficios que evaluaban manualmente distintos procesos, con un alto margen de error. Hoy, los sistemas automatizados permiten interconectar maquinarias, programar operaciones y obtener datos generales en poco tiempo”, concluye Ampuero, dejando claro que el futuro de la productividad se juega en la intersección entre educación tecnológica y transformación digital.

Inteligencia artificial chilena se convierte en aliada del océano

El avance de la Inteligencia Artificial está reconfigurando múltiples industrias a nivel global, y Chile no se queda atrás. En un escenario donde la sostenibilidad es clave, la pesca industrial enfrenta un desafío crítico: el descarte, práctica que consiste en devolver al mar especies capturadas incidentalmente y que no corresponden a la especie objetivo. Este fenómeno no solo afecta los ecosistemas marinos, sino que también complica los procesos de fiscalización.

Para abordar este problema, la Universidad de Santiago de Chile presentó un sistema que promete transformar el control de la actividad pesquera. La propuesta, dirigida por la investigadora del Departamento de Ingeniería Informática, Dra. Violeta Chang, utiliza modelos avanzados de Inteligencia Artificial combinados con comunicación satelital para monitorear en tiempo real el descarte en embarcaciones industriales de entre 15 y 18 metros. Este desarrollo busca reemplazar el sistema actual de grabaciones en discos duros, que pueden tardar hasta un año en ser revisadas, lo que limita la acción de las autoridades frente a infracciones.

El proyecto cuenta con financiamiento de la Agencia Nacional de Investigación y Desarrollo (ANID) y se desarrolla en alianza con el Servicio Nacional de Pesca y Acuicultura (Sernapesca), encargado de evaluar y recibir la tecnología, además de la empresa IO-SAT Chile, experta en monitoreo y conectividad satelital. La sinergia entre academia, Estado y sector privado marca un precedente en la búsqueda de soluciones tecnológicas para la sustentabilidad oceánica.

La Dra. Chang enfatizó que la iniciativa se apoya en modelos de IA auto supervisados y multimodales, diseñados para integrar datos de video, ubicación y velocidad de navegación, generando alertas automáticas a través de satélites en caso de detectar anomalías. Esta innovación no solo agiliza los procesos de fiscalización, sino que también amplía la capacidad de reacción de las autoridades frente a eventuales irregularidades, reduciendo los vacíos legales que hasta ahora habían dificultado el control efectivo de la pesca industrial.

Desde Sernapesca, su directora nacional, Soledad Tapia, destacó la relevancia del proyecto y lo definió como un paso decisivo hacia una pesca más responsable. “Esta tecnología nos permitirá ser más eficientes y efectivos en la fiscalización del descarte, cuidando los recursos pesqueros y la biodiversidad de nuestros mares”, aseguró. Con la incorporación de estas herramientas, Chile se posiciona como pionero en el uso de inteligencia artificial para preservar la salud de los océanos, combinando innovación tecnológica con políticas públicas orientadas a la sostenibilidad.

Chile avanza hacia una ley de inteligencia artificial con respaldo del ecosistema digital

El Ministerio de Ciencia, Tecnología, Conocimiento e Innovación de Chile sostuvo un nuevo encuentro para avanzar en la construcción del proyecto de Ley de Inteligencia Artificial, esta vez con la participación de gremios tecnológicos y actores del sector privado. La reunión, realizada en el Salón de Conferencias del Ministerio de Relaciones Exteriores, marcó el primer acercamiento del nuevo ministro Aldo Valle al ecosistema digital, reforzando la continuidad institucional en el desarrollo de políticas públicas que resguarden derechos fundamentales sin frenar el progreso tecnológico.

El ministro Valle destacó que el propósito central fue recoger observaciones de la industria al proyecto de ley actualmente en discusión en la Cámara de Diputadas y Diputados. La iniciativa, presentada por el Ejecutivo en mayo y fusionada con una moción parlamentaria, busca establecer un marco regulatorio exigible y proporcional para el uso de la IA en contextos que puedan afectar a personas, especialmente en áreas sensibles como salud, justicia o educación. La propuesta surge de un proceso participativo amplio, que incluyó más de 60 reuniones técnicas con actores de múltiples sectores.

Chile se posiciona como uno de los primeros países de América Latina en avanzar hacia una regulación integral de la IA, superando los marcos voluntarios y proponiendo estándares claros basados en el nivel de riesgo de cada sistema. Esta diferenciación permite resguardar los derechos de las personas sin imponer trabas innecesarias a la innovación.

Desde el sector privado, Víctor Grimalt, de la Asociación de la Industria Eléctrica, Electrónica y Automatización (AIE), valoró la oportunidad de ser escuchados, subrayando la necesidad de una regulación que permita retomar el protagonismo de Chile en el ámbito tecnológico global. Por su parte, Bruno Villalobos, presidente de ACHIA-DS, resaltó el carácter descentralizador del proceso y la importancia de que organizaciones regionales estén incluidas en este debate nacional.

El ministro Valle cerró el encuentro agradeciendo la participación activa de los asistentes y reafirmando el compromiso del gobierno con una tramitación abierta al perfeccionamiento, sustentada en el diálogo y centrada en el desarrollo tecnológico como motor de futuro para el país.

El dilema ecológico de ser amable con un chatbot

Saludar, decir “por favor” o terminar con un “gracias” parece una cortesía mínima, casi automática, en cualquier conversación. Pero cuando estas palabras son dirigidas a una inteligencia artificial como ChatGPT, podrían tener un efecto inesperado: mejorar la calidad de las respuestas. Al menos eso sugieren investigadores y especialistas en tecnología del lenguaje, que observan cómo la forma en que se formula una consulta; el llamado prompt, puede influir en la precisión y profundidad de la respuesta generada por un modelo de lenguaje.

Según Gustavo Alcántara, académico en Telecomunicaciones y Aplicaciones de la Universidad de Santiago, estudios recientes muestran que un tono más cordial y emocional puede generar mejores resultados. Cita una investigación de la Universidad de Waseda, que demuestra cómo la cortesía al interactuar con modelos LLM (Large Language Models) no solo mejora la interacción, sino que reduce la tasa de errores. Estos sistemas, como ChatGPT, operan a partir de complejos procesos de aprendizaje profundo que dependen de matices lingüísticos para entender lo que se les pide. Y ahí es donde las fórmulas amables parecen marcar una diferencia.

Esta hipótesis; casi contraintuitiva, sugiere que las emociones humanas no solo hacen más llevaderas las conversaciones con máquinas, sino que también pueden afinar sus capacidades cognitivas artificiales. Decir “¿Podrías explicarme, por favor?” no es solo un gesto de buena educación: es también una estrategia que puede sacar lo mejor del algoritmo.

Pero esta amabilidad no es gratis. O, mejor dicho, tiene un costo invisible que va más allá del tiempo o el estilo. Como advierte Alcántara, esta manera más personalizada y emocional de interactuar con sistemas como ChatGPT podría implicar un mayor consumo energético. “Cada vez que el sistema tiene que analizar más profundamente un mensaje cargado de matices emocionales o personalizados, se intensifica su procesamiento, lo que puede elevar el uso de energía”, explica.

OpenAI, la empresa detrás de ChatGPT, estima que el entrenamiento de su modelo GPT-3 demandó más de 1.287 MWh, una cifra significativa si se considera el volumen masivo de usuarios que interactúan con el sistema a diario. Y aunque una simple pregunta parezca inofensiva en términos ambientales, cuando millones de personas lo hacen constantemente, y de forma extensa o emocional, el impacto acumulativo se vuelve más preocupante.

Además, este procesamiento intensivo requiere sistemas de refrigeración de alto consumo hídrico en los centros de datos, lo que suma otra capa de tensión ambiental. En un contexto global de crisis climática y escasez de agua, esta huella ecológica no puede pasarse por alto.

Así, la paradoja queda planteada: ser amable con la inteligencia artificial mejora la interacción, pero también puede contribuir a una carga ambiental más pesada. ¿Estamos dispuestos a asumir ese costo por una respuesta mejor formulada? ¿O deberíamos repensar cómo y cuándo usamos estos recursos tecnológicos?

La relación entre humanos e inteligencias artificiales está lejos de ser neutral. Hasta un “hola” bienintencionado puede tener consecuencias insospechadas.

Uso ético y responsable de la IA marca la nueva agenda en la educación universitaria

Desde 2015, la Universidad de Chile realiza la Encuesta Única de Admisión, un estudio anual que recoge información clave sobre las primeras experiencias y preocupaciones de quienes ingresan a la casa de estudios. Para su versión 2025, esta encuesta incorporó un enfoque novedoso: preguntas sobre el uso y las percepciones de la inteligencia artificial (IA), reflejando cómo esta tecnología se ha ido integrando con rapidez en la educación superior y en la sala de clases.

Leonor Armanet, directora de Pregrado, explica que la IA está cada vez más presente en la vida académica de las y los estudiantes, y que desde el Departamento de Pregrado se ha trabajado en abrir debates sobre su uso ético y responsable, así como en compartir buenas prácticas y ofrecer formación para su integración pedagógica. Esta encuesta no solo permite conocer el panorama actual, sino que también ofrece datos fundamentales para tomar decisiones que potencien el aprendizaje y la formación universitaria.

El informe, que entrega datos tanto a nivel institucional como segmentados por facultades y carreras, es una herramienta para quienes diseñan políticas y estrategias educativas. Anita Rojas, subdirectora de Pregrado, subraya que la IA lleva tiempo en la agenda de la universidad, mencionando incluso proyectos previos de exploración pedagógica en esta área. Alejandro Sevilla, coordinador de la Unidad de Estudios, destaca que la encuesta incluyó preguntas específicas sobre el uso de IA generativa para contar con información fresca que guíe la creación de lineamientos en la formación de primer año.

Los resultados revelan que un 81% de la generación mechona del 2025 ha utilizado herramientas de inteligencia artificial, con una diferencia notable entre hombres y mujeres (85% versus 78%). La función principal de estas tecnologías es ayudar a resolver dudas sobre contenidos específicos, reportado por el 91% de los encuestados, siendo ChatGPT la IA más popular con un 94% de uso.

Aunque la mayoría aprueba el uso de IA para actividades recreativas, búsqueda de información, tutorías personales y resúmenes de estudio, existe un rechazo importante hacia su uso en la realización de trabajos o tareas: un 54% está en desacuerdo con esta práctica. Las mujeres, en particular, muestran mayor resistencia a emplear la IA para estas labores, además de un mayor porcentaje de indecisión en el total de estudiantes.

Estos hallazgos son esenciales para que la Universidad de Chile continúe ajustando sus estrategias en docencia, fomentando un uso ético, crítico y pedagógico de la IA que responda a las necesidades y realidades de esta nueva generación universitaria.

La Encuesta Única de Admisión, con su alta tasa de respuesta del 78%, se convierte así en una herramienta estratégica para la toma de decisiones basadas en evidencia. Sus resultados alimentan procesos como la formación docente, las tutorías, la inducción universitaria y la orientación estudiantil, fortaleciendo la experiencia académica desde el primer día.

Educar con robots no es ciencia ficción en Chile

Ya no hablamos de un mañana imaginario. En 2025, la inteligencia artificial y otras tecnologías están dejando de ser promesas para convertirse en parte del paisaje educativo chileno. Desde la incorporación de asistentes virtuales hasta el uso de realidad aumentada en las salas de clase, la escuela está mutando. Pero esta transformación no pasa solo por tener dispositivos más modernos, sino por cómo se integran en el ecosistema pedagógico.

La educación actual enfrenta una tensión productiva: avanzar tecnológicamente sin perder de vista la pedagogía. La IA, por ejemplo, permite personalizar el aprendizaje, estimular la autonomía del estudiante e incluso mejorar los procesos de inclusión. Pero sin docentes activos y capacitados, cualquier herramienta pierde su potencial. Por eso, la formación en competencias digitales y pensamiento crítico ya no es opcional para los educadores; es urgente.

El problema, sin embargo, es que no todos los estudiantes acceden en igualdad de condiciones a esta revolución digital. Las brechas de conectividad y equipamiento siguen marcando las diferencias entre quienes pueden y no pueden aprovechar estas herramientas. Ante ese escenario, diseñar políticas inclusivas, con acompañamiento institucional y formación docente continua, se vuelve indispensable para que la tecnología no amplíe la desigualdad, sino que la combata.

Una de las propuestas más interesantes que ha emergido en este contexto es la llamada Educación Aumentada: una metodología que combina recursos físicos y digitales, sin reemplazar la enseñanza tradicional, sino enriqueciéndola. Iniciativas con plataformas adaptativas, realidad aumentada y asistentes como SIMA Robot están demostrando que los niños y niñas pueden aprender jugando, explorando el lenguaje desde la autonomía, sin dejar de estar guiados por sus docentes.

El verdadero cambio ocurre cuando la tecnología se usa con propósito. No se trata de perseguir la novedad, sino de adaptarla a las realidades del aula. La diferencia entre una pantalla vacía y una herramienta pedagógica significativa está en cómo se utiliza, en el para qué. Cuando la innovación se pone al servicio del aprendizaje; y no al revés, es posible construir experiencias educativas más ricas, motivadoras y accesibles.

Los desafíos en torno al uso de chatbots e inteligencia artificial en educación

El pasado mes de abril en Estados Unidos se conoció el caso de numerosos estudiantes universitarios que fueron falsamente acusados de entregar trabajos generados mediante inteligencia artificial. La situación causó gran alarma, ya que involucraba el uso de herramientas como Turnitin y GPTZero, softwares utilizados por miles de instituciones alrededor del mundo para detectar plagio y textos generados mediante chatbots de inteligencia artificial como ChatGPT. Esto motivó un estudio por parte de investigadores de la Universidad de Stanford, quienes comprobaron los ‘falsos positivos’ que estos sistemas estaban entregando, sobre todo entre estudiantes cuyo inglés no era nativo.

La investigación, titulada “Los detectores GPT están sesgados contra los escritores no nativos” o “GPT detectors are biased against non-native English writers” en inglés, sentó un precedente científico sobre la existencia de este tipo de problemas asociados al uso de modelos de lenguaje generativo basados ​​en GPT: Generative Pre-Trained Transformer. El trabajo, de esta forma, abrió numerosas interrogantes sobre el nivel de confianza que entregan estas tecnologías y aquellos sistemas y métodos para detectar contenido generado mediante inteligencia artificial. Este tipo de errores también están ocurriendo en otras partes del mundo, incluido Chile, lo que ha motivado un incipiente debate sobre cómo enfrentarlo por parte de las instituciones educacionales.

Lionel Brossi, investigador del Núcleo de Inteligencia Artificial y Sociedad (IA+SIC) y académico de la Facultad de la Comunicación e Imagen de la U. de Chile, afirma que este tema en particular ya ha sido discutido en diversas conferencias a nivel global, y asegura que “hoy en día ninguna herramienta puede detectar si algo fue hecho 100% con un chatbot de inteligencia artificial generativa como ChatGPT u otros, aunque -por ejemplo- ChatGPT tiene un algoritmo que se llama ChatGPT classifier, que busca distinguir entre textos escritos por humanos y textos redactados mediante inteligencia artificial”.

Uno de los grandes inconvenientes, expone el profesor Brossi, es que resulta una muy buena herramienta para ayudar en la redacción de ideas y, en este sentido, “los contenidos pueden estar hechos de manera muy auténtica por un estudiante, por un investigador, en fin, por un humano. Pero si el usuario pide ayuda a ChatGPT para mejorar la redacción, eso puede tener como consecuencia que el texto sea reconocido como escrito totalmente por inteligencia artificial, pese a que simplemente se utilizó como herramienta de ayuda a la escritura”.

Pero los chatbots de inteligencia artificial también pueden experimentar alucinaciones, fenómeno que -en términos simples- ocurre cuando entregan respuestas que pueden ser muy convincentes, pero totalmente inventadas. Roberto Araya, profesor del Instituto de Estudios Avanzados en Educación de la Universidad de Chile, sostiene que “hay contenidos de los que puede no tener información y a veces salen respuestas que no tienen nada que ver con la realidad. El problema es que tiene una personalidad muy asertiva. Por esta razón, es necesario entender la psicología detrás de estos modelos, que es tratar de responder como sea a lo que les preguntan. Así, buscan antecedentes, mezclan cosas y a veces no andan bien. Estas alucinaciones se dan mucho cuando un tema es demasiado específico”.

El académico enfatiza que muchos de estos modelos de lenguaje colosal o Large Language Model LLM aún están en etapa de desarrollo y no siempre funcionan como uno espera. “Algunos de los errores o sesgos se pueden explicar por las bases de datos con las que estos programas aprenden. El problema de aquellos que trabajan con información de Internet general es que parte de ella puede ser falsa o contener sesgos raciales, étnicos, de género, etc. Estos modelos pueden tragar todos esos contenidos y considerarlos para entregar respuestas”, explica. Sin embargo, también destaca que “hay programas que se basan en datos más especializados y sometidos a procesos de revisión, y que entregan información más fidedigna, por ejemplo, en el área médica o en física cuántica”.

Por esta razón, el profesor Araya plantea que “es importante poder testearlos, porque las respuestas no siempre son perfectas y es necesario tener precaución en su uso. Yo a mis estudiantes les exijo que lo usen para mejorar el trabajo con estas herramientas, comprender cuándo pueden cometer errores y generar alucinaciones. De todas maneras, estos sistemas van a ir mejorando cada vez más, pero uno puede ir entendiendo dónde y cuándo pueden fallar”. Este y otros problemas asociados a los múltiples desafíos que persisten en torno a la inteligencia artificial fueron abordados recientemente por el académico en un artículo publicado en la revista The Mathematician Educator.

Si bien estos sistemas aún están en una etapa incipiente de desarrollo y todavía presentan algunas debilidades sobre las que es necesario ser cuidadosos, la visión de los especialistas es que las personas, las instituciones de educación y la sociedad en general no pueden mirar para el lado frente a la irrupción de la inteligencia artificial en nuestras vidas. Así lo enfatizó Eduardo Torres, académico del Departamento de Administración de la Facultad de Economía y Negocios de la U. de Chile, quien actualmente trabaja en un manual sobre la implementación de esta verdadera revolución tecnológica en la educación.

“Debemos tomar conciencia sobre la historia de cómo las tecnologías se han ido incorporando a la educación. Ya hemos pasado por esto anteriormente, por ejemplo, cuando se incorporó la calculadora o cuando navegadores como Google se convirtieron en buscadores muy potentes, herramientas que finalmente fueron adoptadas”, plantea el académico y especialista en marketing. Actualmente, afirma, “nos encontramos en una nueva era de la educación, en la cual los alumnos a través de la inteligencia artificial ya no solo pueden encontrar información, sino también conocimiento”. Por esta razón, enfatiza la necesidad de abordar el problema de cómo incorporar estas herramientas en el aula, particularmente en la docencia, “para entregar un conocimiento más profundo, que no pueda ser entregado con la misma riqueza por parte de la inteligencia artificial”.

¿Qué aspectos resultan claves en la incorporación de la inteligencia artificial en los procesos de enseñanza y aprendizaje? El profesor Torres enfatizó sobre la creciente importancia de la investigación en este ámbito, una de las principales fortalezas de la Universidad de Chile a nivel latinoamericano. “En la práctica, la investigación científica se está convirtiendo en algo más relevante de lo que podía ser en algún momento. Hoy en día la única manera de ganarle a la inteligencia artificial es generar o entregar a los estudiantes un conocimiento más profundo y en la vanguardia de la investigación”. Este modelo, sostiene el académico, emerge como una alternativa que permitiría integrar el uso de la inteligencia artificial y enriquecer aún más los procesos formativos sobre la base del elemento diferenciador que posee la U. de Chile como institución líder en investigación del país.

Los profesores Torres, Brossi y Araya enfatizan que hoy la docencia sigue siendo imprescindible en la formación estudiantil, pero que es necesario debatir sobre la incorporación de la inteligencia artificial en la educación. “Si no lo hacemos ahora y no empezamos a conversar sobre esto, va a llegar un momento en que terminaremos cediendo sin estar preparados. Hay que considerar que más adelante en este proceso todo tipo de conocimiento que pueda ser generado por un ser humano, también será generado por una herramienta de inteligencia artificial”, advirtió Eduardo Torres.

“Creo que las instituciones deben desarrollar una política de buenas prácticas, más que normar. Con recomendaciones sobre el uso de estas herramientas, en términos de oportunidades y desafíos, y generar instancias de capacitación para docentes y estudiantes. Hay universidades que ya tienen recomendaciones, buenas prácticas y protocolos. Desde ya, en determinadas ocasiones, como evaluaciones en tiempo real o de conocimientos específicos, es lógico que se pueda excluir el uso de chatbots generativos, pero por ello es que debe tenerse en cuenta cada situación y casos específicos”, sostuvo por su parte Lionel Brossi.

“Mi recomendación es que los estudiantes puedan utilizar estas herramientas y los profesores ajustarse a ellas porque en el mundo real la gente ya las está usando para su trabajo. Si las veo como un recurso productivo, entonces; desde mi punto de vista, no solamente es absurdo, sino hasta contraproducente que no se utilicen para la formación educativa, sobre todo en un contexto global cada vez más competitivo. Lo mejor es aprender a usarlas, entender sus limitaciones y ver hasta dónde puedo confiar en ellas. Es la adaptación natural a todo cambio tecnológico. Debemos aprovecharlas como oportunidades para que el país sea mucho más productivo”, concluyó Roberto Araya.

Software para diagnóstico de celdas solares incorporará electroluminiscencia, drones e inteligencia artificial

Según cifras de la Comisión Nacional de Energía, el sistema eléctrico en Chile cuenta con 7 280 MW de capacidad instalada de generación solar PV, lo que se traduce en más de 20 millones de paneles solares. Por lo tanto, el mantenimiento de estos paneles resulta crucial dentro del mercado eléctrico nacional.

Es por ello que un grupo de investigadores del Centro de Tecnologías para Energía Solar de Fraunhofer Chile – integrado por Francisco Moraga, Alvaro Henríquez, Carlos Felbol y Francisco Fuentes idearon un proyecto que busca innovar en las tecnologías de monitoreo y diagnóstico de fallas en celdas solares, aplicando el uso de un vehículo aéreo no tripulado, electroluminiscencia y Deep Learning, un tipo de aprendizaje automático (ver recuadro).

“Los métodos tradicionales de monitoreo de fallas de plantas fotovoltaicas (PV) dependen, generalmente, de procesos manuales, lo que implica un proceso lento y afectado por el juicio subjetivo de un experto. Hasta ahora, la innovación se ha centrado en la inspección con drones y termografía. Sin embargo, no todas las fallas de los módulos PV provocan un aumento de temperatura, por lo que las mediciones no siempre son capaces de identificar y clasificar con certeza el estado de los paneles” explica el ingeniero y coordinador del Proyecto, Francisco Moraga.

Según el investigador, este proceso genera miles de imágenes que deben ser revisadas por un experto, por lo que se puede tardar varias semanas en elaborar un reporte. “Alternativamente, la electroluminiscencia (EL) es una técnica de medición que se realiza a los paneles solares, introduciendo un flujo eléctrico a través de las celdas solares, que permite detectar defectos estructurales en las celdas PV (cracks). Es por eso que este proyecto busca dar solución a este problema mediante la sinergia Dron + EL + Deep Learning” indica Moraga.

De este modo, el objetivo del proyecto es desarrollar un software para diagnóstico solar avanzado de imágenes de EL y generación de reportes automáticos sobre el “estado de salud” de celdas PV, tecnología que vendrá a complementar la batería de servicios y apoyos que Fraunhofer Chile provee a la industria.  “A través de una serie de actividades de I+D en el campo de la inteligencia artificial (IA), se espera contribuir al avance del conocimiento en la digitalización e IA para la gestión eficiente de los activos energéticos renovables. En particular, se espera crear nuevas y mejoradas arquitecturas de redes neuronales capaces de resolver el problema del post-procesamiento de datos masivos generados por las inspecciones de drones en parques solares” destaca Moraga.

Frank Dinter, director ejecutivo de Fraunhofer Chile – Centro de Excelencia Internacional de ANID y parte de la prestigiosa Red de Institutos Fraunhofer (Alemania)-, esta innovación es parte del portafolio de proyectos que el Centro está llevando adelante para contribuir a la optimización y automatización de los sistemas fotovoltaicos, aportando con conocimientos y tecnología alemana de última generación a la sustentabilidad de la matriz energética nacional.