Un disruptivo proceso para recuperar y procesar metales críticos fue desarrollado por una startup argentina

La innovadora startup argentina ALKEMIO propone descentralizar el mercado de refinación de metales críticos a través de una tecnología biomagnética modular, de bajo costo y altamente eficiente. El disruptivo proceso permite separar, recuperar y purificar elementos críticos, provenientes de diversas fuentes (como extracciones mineras o desechos electrónicos) para obtener metales de alta pureza para ser reutilizados en la producción de nuevas tecnologías clave para la transición económica.

El equipo científico de ALKEMIO en sus laboratorios. (Foto: ALKEMIO)

Los cambios tecnológicos que permiten desarrollar nuevas formas de energía también abren la puerta a un mercado para los vehículos eléctricos y el desarrollo de tecnologías para el mejor aprovechamiento de esas energías. No obstante, el posible crecimiento exponencial traerá aparejados importantes desafíos como un notable aumento en la cantidad de residuos electrónicos -que se calcula alcanzarán las 75 millones de toneladas para 2030- y una escasez creciente en el suministro de minerales críticos.

Esto pone de relieve la importancia de encontrar soluciones innovadoras que promuevan el largo plazo de la industria, sobre todo porque los procesos hidrometalúrgicos utilizados actualmente resultan complejos y costosos; además de generar el doble de residuos por cada unidad de metal extraído.

Ante este escenario, tres científicos formados en universidades argentinas y con experiencia profesional en institutos del Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET) y un emprendedor proveniente del mundo de los negocios fundaron ALKEMIO. Como misión se propusieron encontrar una solución innovadora que contribuya de manera sustentable y eficiente al procesamiento de metales clave para utilizar en nuevas tecnologías.

(De izq. a der.) Francisco Morrone, Ailín Svagzdys, Lucía Curti y Federico Pereyra-Bonnet, cofundadores de ALKEMIO. (Foto: ALKEMIO)

En diálogo con TEC, el cofundador y director ejecutivo de la empresa, Francisco Morrone, brindó más información sobre cómo consiguieron desarrollar un procedimiento pionero, disruptivo e innovador: “El proceso que creamos consta de tres etapas fundamentales. La primera de biolixiviación, en la que utilizamos una solución de ácidos orgánicos que nosotros mismos producimos a través de microorganismos, y en la que se diluyen los materiales a recuperar. Luego introducimos un complejo molecular que es capaz de unirse a los iones de los metales deseados para realizar, a continuación y por medio de magnetismo, una extracción selectiva, eficiente y rápida en menos de 30 minutos a escala industrial”, explicó Francisco y agregó que para la extracción selectiva se modifican las moléculas de acuerdo al material a procesar.

El proceso en imágenes. (Foto: ALKEMIO)

Respecto a otros insumos y al equipamiento necesario para llevar adelante el proceso, Morrone indicó: “Usamos reactores estándar y equipamiento off the shelf (salido del estante) que se encuentran disponibles para su obtención en cualquier parte del mundo y son económicos”.

Acerca de los metales, minerales y elementos críticos que se pueden recuperar implementando el proceso, el CEO de ALKEMIO contó que comenzaron “procesando y extrayendo el litio de baterías desechadas con alta eficiencia” y agregó que “actualmente estamos extrayendo y procesando materiales críticos como neodimio, disprosio y praseodimio, que son tierras raras que se utilizan para la producción de magnetos permanentes, un insumo clave para todo tipo de tecnología, por ejemplo, las turbinas eólicas utilizan más de 200 kg de estos elementos, los autos eléctricos los utilizan en sus motores, luces y pantallas de LCD”. Tenemos como visión crear una tecnología de recuperación agnóstica de metales. Es decir, dependiendo del material tratado, recuperar cualquier tipo de metal que se encuentre en la solución. Y esto es posible por nuestro complejo molecular fácilmente adaptable a la captura del metal a extraer”, completó Francisco.           

Morrone relató que están trabajando con dos grandes mineras de Brasil y de Chile que les envían muestras de tierras raras para su extracción eficiente a través del proceso y aclaró que “hoy en día los volúmenes son muy chicos. Estamos trabajando a escala de laboratorio manejando gramos pero la idea es terminar a fin de año o empezar el año que viene a procesar kilos para poder enviarle muestras a nuestros potenciales clientes”.

Uno de los desafíos técnicos más importante que enfrentaron en el desarrollo del proceso fue la manipulación de los complejos moleculares: “Tuvimos algunos percances como contaminación de muestras que hacían que obtengamos resultados negativos, hasta que le encontramos la vuelta y comenzamos a encontrar los resultados que buscábamos” explicó Francisco y agregó que también sufrieron impedimentos y dilaciones en la importación de reactivos y otros insumos menores específicos necesarios para las instancias de investigación.

.
El espacio que demanda el montaje del equipamiento para realizar el proceso representa un cuarto del espacio que ocupan las plantas de recuperación de metales que se utilizan en hidrometalurgia, el sistema tradicional más extendido en la actualidad.
“La selectividad, la eficiencia y la velocidad que logramos con nuestro proceso nos permite utilizar menos etapas para obtener y recuperar la misma cantidad de metales, reduciendo en tres cuartos el espacio que demandan las instalaciones para hidrometalurgia”, precisó Francisco y ejemplificó: “Para que tengan una dimensión, una planta de hidrometalurgia mide lo mismo que una cancha de fútbol y el espacio que demandaría la instalación de una planta para llevar adelante nuestro proceso ocuparía hasta la línea externa del semicírculo del área grande”. Luego agregó: “Estas dimensiones facilitan la colocalización de nuestra planta en el mismo lugar donde se encuentran los materiales a recuperar, lo que permitiría reducir los aspectos logísticos no solo por los costos sino también por el ahorro en emisiones de gases de efecto invernadero que emite el transporte”.

El compromiso de ALKEMIO con la sustentabilidad ambiental se ve plasmado en todas las instancias de su proceso “cuyo componente de innovación es total” reflexionó Morrone. “Más del 90% del procesamiento de tierras raras se realiza en China utilizando la hidrometalurgia. Esto implica la utilización de grandes cantidades de ácidos altamente contaminantes, como el sulfúrico, el nítrico y otros solventes peligrosos, y la aplicación de temperatura para las etapas de lixiviación y precipitación de los metales, lo que conlleva la emisión de gases durante el proceso y la obtención de residuos contaminantes y peligrosos al finalizarlo” aclaró Francisco. “Para lograr un proceso amigable con el ambiente reemplazamos la utilización de todos los ácidos contaminantes por una química verde a través del proceso de biolixiviación, en el que utilizamos los ácidos orgánicos y en el proceso de extracción donde aplicamos nuestros complejos moleculares”, aseguró.

En cuanto a los inicios de la startup, Francisco comentó que el primer impulso que recibieron fue a través de un apoyo financiero por parte de GRIDX, un fondo de inversión orientado a incubar empresas de base científico tecnológica: Esa inversión inicial nos permitió empezar a desarrollar las primeras pruebas de concepto y contratar los primeros empleados”, y completó: “Actualmente estamos participando de un programa de la aceleradora de la Universidad de Berkeley en San Francisco (Estados Unidos) donde también obtuvimos financiamiento y nos están acompañando a acelerar el proceso de go to market, modelo de negocios y colaboraciones o partnerships. Esto nos va a permitir poder llegar a nuestro próximo milestone (hito) que sería desarrollar nuestro prototipo para poder comenzar a enviar muestras a potenciales clientes, y nos ayudará a prepararnos para la presentación ante nuevos inversores en una ronda que planeamos abrir el próximo mes de agosto”.

Asimismo, Morrone destacó: “Estamos buscando establecer colaboraciones con empresas interesadas en desarrollar pilotos o pruebas con nuestra tecnología”, y agregó también que constantemente buscan “perfiles científicos para sumar al equipo”. Además, se mostró dispuesto a explorar posibles acuerdos de cooperación en I+D (investigación y desarrollo) con el CONICET, para poder trabajar con grupos de investigación específicos que puedan contribuir con sus capacidades e investigaciones a la mejora constante y la aceleración de los procesos de la compañía.

Alzheimer y otras demencias: entrenan algoritmos para mejorar el diagnóstico a través de marcadores del habla y el lenguaje

.
Estudios publicados este año por la Organización Mundial de la Salud (OMS) indican que la enfermedad de Alzheimer y otras demencias se mantienen dentro de las primeras diez causas de muerte globales desde principios de los 2000. En la actualidad se calcula que entre 65 y 70 millones de personas padecen enfermedades neurodegenerativas, cifras que pueden parecer modestas para una población mundial de más de 8000 millones. Sin embargo, ante indicios de una incidencia cada vez más alta, se puede predecir que esas cifras se triplicarán durante los próximos 25 años. Por su parte, la Organización Panamericana de la Salud (OPS) clasificó a la demencia como la tercera causa de muerte en la región de las Américas y prevé que habrá por lo menos 8 millones de personas afectadas para el 2030.

“El principal factor de riesgo de estas enfermedades es el envejecimiento, o sea, cuanto más viejo sos, más chances de desarrollarlas. En ese sentido, el aumento de la expectativa de vida supone una mayor prevalencia de estas enfermedades”, explicó el Dr. Adolfo García, cofundador y director científico de TELL, una startup que responde a las siglas de Toolkit to Examine Lifelike Language. La compañía se encuentra en constante desarrollo de una herramienta clínica de evaluación automatizada del habla y el lenguaje natural, que utiliza algoritmos e inteligencia artificial para establecer marcadores que le permiten identificar y diferenciar pacientes con enfermedades como Alzheimer, Parkinson y variantes de demencia frontotemporal con notable efectividad y precisión.

El Dr. Adolfo García, especialista en neurociencia del lenguaje, es cofundador y
CSO de TELL. (Foto: gentileza Adolfo García)

A partir de su vasta experiencia al frente del Centro de Neurociencias Cognitivas de la Universidad de San Andrés (CNC-UdeSA) y de su trayectoria en investigación científica básica sobre marcadores lingüísticos para enfermedades cerebrales, García contó que “la iniciativa de fundar TELL surgió de la insatisfacción. Durante años mostramos cómo esas alteraciones en la comprensión o la producción del lenguaje podían ser utilizadas como señales tempranas, robustas y escalables para estas enfermedades neurodegenerativas. Sin embargo, ese potencial aplicado quedaba reducido a un párrafo en la discusión de los papers. Siempre nos quedaba la inquietud de cómo trasladarlo al consultorio, a las manos de neurólogos y neuropsicólogos, para que realmente pueda tener un efecto y un impacto directo en el proceder de los médicos y en la vida de los pacientes. TELL es nuestra respuesta a esa inquietud”

El problema de fondo en este tipo de padecimientos es su diagnóstico. En tal sentido, García, que también es miembro del Global Brain Health Institute de la Universidad de San Francisco de Estados Unidos, expresó: “Los recursos actuales para la detección temprana tienen muchas limitaciones, comenzando por las dificultades de hallar profesionales capacitados y especializados en enfermedades neurodegenerativas, una problemática por demás acuciante en regiones como Latinoamérica o África, donde hay una desproporción tremenda entre la cantidad de profesionales respecto al número de pacientes”. García agregó que “generalmente los pacientes realizan las consultas de manera tardía cuando empiezan a notar alteraciones en la conducta o en su condición cotidiana. De contarse con indicios más tempranos de alteraciones, por ejemplo, en el habla, se podría intervenir precozmente y reducir el impacto de la enfermedad”

“Otra de las dificultades para el diagnóstico resulta también de las propias evaluaciones de dominios cognitivos que se aplican hoy. Son pruebas que se generaron en la década de 1960 en las que un neurólogo entrevista cara a cara al paciente y depende de su expertise o su sagacidad para encontrar pistas de estas enfermedades o también pruebas de papel y lápiz para evaluar ciertas habilidades cognitivas. Y las neuroimágenes, útiles para refinar el diagnóstico, están aún menos disponibles, pueden ser muy costosas y tienen contraindicaciones para ciertas personas”, completó el investigador.

El entrenamiento de los algoritmos

“En TELL estamos a la vanguardia en este tema, estableciendo y validando marcadores para probar cuán robustos son y observando con qué precisión estos marcadores pueden coincidir con casos previamente diagnosticados”, comenzó explicando García y ejemplificó: “Para eso grabamos el habla natural de una gran cantidad de personas con Alzheimer. Luego alimentamos nuestros algoritmos de machine learning (aprendizaje automático) con las métricas que obtenemos y le pedimos que aprenda que así habla una persona con Alzheimer. Después hacemos lo mismo pero con personas sin enfermedad cerebral. Finalmente, para comprobar su funcionamiento, introducimos grabaciones de nuevas personas, con y sin Alzheimer, y le pedimos al algoritmo que detecte si la persona sufre la patología”

Este procedimiento permite establecer qué características acústicas (de los audios) y lingüísticas (de sus transcripciones) revelan patrones útiles a nivel clínico. Los estudios se centran en medir la velocidad del habla, la duración de los silencios, los patrones tonales, la frecuencia de las palabras, su significado afectivo y su magnitud emocional, entre otros aspectos.

Para refinar y mejorar la precisión diagnóstica es necesario contar con fuentes de datos cada vez más grandes, lo que implica nutrirlas con el mayor número de grabaciones posible. “Ahí es donde nosotros estamos dando un primer salto cuantitativo para el campo pasando de trabajar en el orden de los cientos de pacientes, al orden de los miles. Si me preguntás cuántos necesitamos, la respuesta siempre es cuantos más, mejor; y cuanto más diversos, mejor aún”, indicó García y completó: Una de las limitaciones en el campo de los marcadores digitales del habla y, en general, en el campo de la salud cerebral, es el bajo poder estadístico ya que las muestras son muy reducidas. En TELL el esfuerzo consiste en buscar aumentar la cantidad de datos con los que trabajamos”.

Vista del sitio web de TELL (Imagen: TELL)

Financiamiento del proyecto y alianzas globales para escalar su desarrollo

La fundación de la startup y el desarrollo de la aplicación fue posible gracias al apoyo inicial de SF500, un fondo de inversión argentino para empresas de base científico tecnológica. Recientemente obtuvieron otra inversión por parte de The Ganesha Lab, una aceleradora latinoamericana enfocada en proyectar la empresa en el mercado estadounidense. 

En cuanto a alianzas estratégicas y contratos comerciales, García dió detalles sobre las diversas iniciativas en marcha: “Estamos en un proyecto conjunto financiado por los NIH (National Institutes of Health, EEUU) trabajando en centros de Argentina, Chile, Colombia, México, Perú y Estados Unidos, en el que estamos haciendo la evaluación más grande de marcadores digitales del habla con foco en la población latina. En la mayoría de estos países hay múltiples instituciones involucradas y en cada una entre dos y cinco profesionales que están utilizando TELL en pacientes, con vistas a evaluar 2740 participantes en 5 años”. “También tenemos un contrato con Davos Alzheimer´s Collaborative, una iniciativa para llevar investigación traslacional de avanzada a áreas vulnerables, desarrollando un proyecto de provisión de biomarcadores del habla en Kenia, donde comenzamos a evaluar entre 3000 y 5000 participantes”

El Dr. García también conformó Include (International Network for Cross-Linguistic Research on Brain Health, según sus siglas en inglés) una red internacional que involucra a 150 investigadores de 90 instituciones de 30 países, en la que comparan qué tan válidos son los marcadores lingüísticos para Alzheimer, Parkinson y demencia frontotemporal en culturas diversas con datos preexistentes de 44500 pacientes aportados por todos los nodos. A su vez, García contó que colaboran con un consorcio peruano en un proyecto llamado Impact Dementia “en el que vamos a usar TELL para evaluar 3600 personas con deterioro cognitivo leve y con Alzheimer”.

“En este tipo de proyectos evaluamos a personas de entre 40 y 80 años que estén en etapas tempranas o, como mucho, moderadas de la enfermedad. Sabemos que son personas que no tienen comorbilidades u otros cuadros neurológicos coexistentes entre otros criterios clínicos más específicos. El diagnóstico de personas para ingresar en los protocolos tiene que ser establecido por neurólogos expertos” concluyó García. 

TELL recibió recientemente dos premios a la investigación del año por parte de la Alzheimer´s Association de Estados Unidos, la principal institución de investigación sobre Alzheimer y demencias relacionadas. Además, la compañía participa en diversos programas de aceleración internacionales como el Hero Training de la Draper University, estableciendo vínculos con múltiples actores a través de diferentes vías de cooperación.

Más allá de la ficción: la inteligencia artificial reinventa el futuro de la ciencia, la tecnología y la innovación

Entre las múltiples iniciativas hay una actualmente en desarrollo que promete acelerar la investigación científica y revolucionar todos los campos del conocimiento a partir de la creación de una herramienta que contenga todo el saber del mundo y que sea capaz de encontrar todas las respuestas que la ciencia necesite.

La inteligencia artificial (IA) parece ser la síntesis perfecta entre las capacidades humanas y las de las máquinas, una relación simbiótica que está transformando la forma en que trabajamos y vivimos, y que puede transformar hasta la forma en que pensamos y creamos. El poder de la IA se esconde en su versatilidad y en su capacidad de adaptación a una amplia gama de aplicaciones. Sin embargo, su impacto se está volviendo cada vez más determinante y evidente en la ciencia, la tecnología y la innovación, ya que su aplicación en estos campos está superando obstáculos y ofreciendo soluciones cada vez más efectivas.

Foto de Markus Spiske en Pexels

La IA está cambiando la manera de colaborar y compartir información entre la comunidad científica. Uno de los ejemplos más destacados es la plataforma ScienceIE desarrollada en 2019 por investigadores de la Universidad de Stanford (EEUU) para facilitar la identificación de información clave presente en papers científicos y conectar a especialistas de diferentes campos. Desde su puesta en marcha, esta herramienta aumentó un 30% la investigación interdisciplinaria impulsando la innovación y nuevos descubrimientos científicos. 

En 2020 el proyecto AlphaFold -desarrollado por la empresa DeepMind y el Instituto Europeo de Bioinformática del Laboratorio Europeo de Biología Molecular (EMBL-EBI)- logró resolver un problema de plegamiento de proteínas que había sido esquivo para los científicos durante décadas. Este avance permitió comprender mejor las estructuras y las funciones de las proteínas y dio el puntapié inicial para el desarrollo de terapias más efectivas y la producción de nuevos medicamentos. 

Según un estudio publicado en 2021 por la revista Nature citado por la Organización de Estados Iberoamericanos para la Educación, la Ciencia y la Cultura (OEI) la IA puede reducir en promedio un 50% el tiempo necesario para realizar investigaciones científicas. Además, su gran capacidad para analizar grandes conjuntos de datos y para encontrar parámetros y conexiones entre ellos permite una mayor eficiencia en la investigación científica a través de la automatización de procesos.

Por ejemplo, respecto a procesos de experimentación, la IA puede automatizar y optimizar el diseño, la ejecución y el análisis de experimentos a través de la utilización de plataformas robóticas que funcionan como laboratorios autónomos. Tal es el caso de iniciativas como Emerald Cloud Lab o Artificial, que son plataformas robóticas combinadas con IA que permiten la realización de múltiples experimentos de manera remota. A partir de su utilización, la experimentación resulta más rápida, más económica y más exhaustiva ya que la IA puede -por ejemplo- impulsar cientos de micropipetas funcionando día y noche para crear muestras a una velocidad que ningún ser humano podría igualar.

Foto/crédito: El Confidencial

Como otra muestra del poder de la IA, la empresa Nvidia se encuentra creando un gemelo digital de la Tierra llamado Earth-2 que utilizará un modelo de IA llamado FourCastNet para predecir eventos climáticos extremos con mayor rapidez y precisión. De esta manera podrá simular miles de escenarios posibles, permitiendo anticipar, recolectar datos para la toma de decisiones y actuar en la prevención de desastres naturales.

En cuanto a su aplicación en el campo de la medicina, investigadores de la Universidad McMaster de Canadá y el Instituto Tecnológico de Massachusetts (Estados Unidos) utilizaron la IA para descubrir un antibiótico denominado “abaucina” que actúa de manera eficaz ante una de las bacterias intrahospitalarias resistente a medicamentos declarada por la Organización Mundial de la Salud (OMS) como letal y como una amenaza crítica entre sus patógenos prioritarios.       

Así, mientras estas y otras iniciativas continúan avanzando, hay un desarrollo en especial que se propone revolucionar y acelerar la investigación científica de forma exponencial. Se trata de AuroraGPT un proyecto del Laboratorio Nacional Argonne (el primer laboratorio nacional de investigación en ciencia e ingeniería de Estados Unidos) y la empresa Intel cuyo propósito es integrar una cantidad masiva de información científica, incluyendo todos los textos, códigos, resultados de investigaciones y documentos académicos publicados en el mundo. Esta iniciativa se encuentra en sus primeras etapas de desarrollo, a través de pruebas de hardware y de la preparación del software para su entrenamiento a gran escala, un proceso que durará varios meses. Finalizadas estas etapas, la herramienta se pondrá a disposición de la comunidad científica mundial que la podrá utilizar para acelerar sus investigaciones con una velocidad sin precedentes. El potencial de AuroraGPT promete llevar a la humanidad al siguiente nivel y a una nueva era científico-tecnológica gracias a su capacidad de conectar las diferentes ramas del saber, lo que permitirá descubrir nexos y relaciones de causalidad hasta ahora ocultos por la inabarcable cantidad de conocimiento generado. 

La supercomputadora Aurora Foto/crédito: El confidencial.

Ante estos escenarios, la IA aplicada a la ciencia, la tecnología y la innovación representa una oportunidad incomparable para superar los límites del conocimiento y lograr un progreso sin igual en beneficio de la humanidad. Solo restan abordar los desafíos éticos y sociales para que su utilización impulse el bienestar, la equidad y la prosperidad para todos los habitantes del mundo. Mientras científicos y expertos discuten sus beneficios, riesgos e impactos en general, ya hay algunos usos que parecen prometedores. 

Fuentes: OEI / Revista Nature / OMS