El Papa trapero, Trump detenido y Biden de fiesta: ¿cómo desinforma la inteligencia artificial?

POR Luciana Mazzini Puga para AGENCIA DE NOTICIAS CIENTÍFICAS UNQ

Si bien existen algunas técnicas para detectar una imagen manipulada, esta tecnología se perfecciona cada día y vuelve necesaria la regulación estatal.

La Inteligencia Artificial avanza y a través de sus herramientas genera fotografías que se asemejan mucho a la realidad. Esto se evidencia, por ejemplo, con las fotos del Papa vistiendo un abrigo blanco similar al que usan los traperos; o con las del supuesto arresto de Donald Trump. Estas imágenes, publicadas de manera reciente, dieron lugar a discusiones en las redes sociales y abren un interrogante: ¿de qué manera la Inteligencia Artificial contribuye a la desinformación? La Agencia de Noticias Científicas de la UNQ dialogó con Emmanuel Iarussi, científico de Conicet y miembro del Laboratorio de Inteligencia Artificial de la Universidad Torcuato Di Tella, que afirma: “No hay antecedentes de una tecnología que nos permita crear imágenes tan reales y de manera tan masiva”.

Las imágenes son creadas por inteligencia artificial y buscan imitar de manera exacta la realidad. Créditos: Midjourney.

Así, el sistema de aprendizaje sale de lo tradicional y varía según las edades de los alumnos y alumnas. En el caso de las infancias, aprenden contenidos relacionados con el diseño, la electrónica y la programación mediante el juego y técnicas dinámicas. Luego, los alumnos más grandes aprenden mediante proyectos, esto es, pensar una situación de la vida cotidiana, identificar una necesidad y pensar una solución tecnológica en función de ella. 

“Imágenes photoshopeadas tenemos desde principios del 2000. Hay algunos expertos que controlaban esas tecnologías y que las personas requerían de varias habilidades para poder crear cosas, entonces no todo el mundo podía manipular una imagen”, explica Iarussi y continúa: “Ahora con solo saber escribir y tener la tecnología ya podes hacer cosas. Pones un texto de lo que querés y después de un par de pruebas generás la imagen”.

Imágenes hechas con inteligencia artificial de Mickey y Daisy. Créditos: Midjourney

 

 

 

 

 

 

 

 

Si bien la viralización de la foto del Papa terminó siendo algo lúdico, la manipulación de imágenes pueden incluir personalidades de gran relevancia en el mundo que lleve a la confusión y a la desinformación. Tal es el caso de las fotos de la supuesta detención del expresidente estadounidense Donald Trump o el video que circuló en 2022 en el que se ve al presidente ucraniano Volodymyr Zelensky pidiendo a sus tropas que se rindan en la guerra con Rusia, donde tanto su voz como su imagen habían sido alteradas.

Se llaman deepfakes porque son creadas con redes neuronales profundas que buscan imitar la apariencia humana. En Argentina, por ejemplo, está el usuario Tutanka que sube vídeos de Cristina Fernández cantando canciones de moda”, ejemplifica el científico. Además, explica que el uso de la Inteligencia Artificial puede ser peligroso al contribuir a manipular la realidad y desacreditar a ciertas instituciones o personas y “sobretodo si existe algún tipo de polarización preexistente. No sería raro que esto contribuya a profundizar esas diferencias porque hay una porción de la sociedad dispuesta a creer cierto contenido de la contraparte aunque sea falso”, detalla a la Agencia.

Una distopía muy cercana

Hoy en día existen algunas técnicas para detectar si una imagen es real o fue hecha por inteligencia artificial, como prestar atención a las manos que suelen ser algo deformes o mirar los ojos ya que los iris no son tan redondos si fue manipulada la imagen. Sin embargo, el especialista considera que se trata de algo transitorio hasta que esta tecnología mejore.

“Nos pueden servir para detectar algunas cosas pero estamos obligados a pensar que estas imágenes pueden llegar a ser perfectas. Los algoritmos están siendo entrenados para ser indistinguibles, entonces es necesario que guardemos una dosis sana de escepticismo. Quizás de acá a 20 años estemos tan acostumbrados que digamos ‘Ah, sí, esto está generado’ pero ahora estamos viviendo un momento de transición y debemos acostumbrarnos a dudar de la verdad. La tecnología va avanzar y van a existir cada vez menos contenidos reales”, manifiesta.

 
Imagen creada por inteligencia artificial. Créditos: Midjourney.

De la misma manera sucede con el texto, un ejemplo claro es el Chat GPT: “Uno lee los textos y parece que lo escribió cualquier persona porque justamente están entrenados con textos que escribió cualquiera en internet. Son buenos en hacerse pasar por alguien, en imitar”, dice. 

Por su parte, las redes sociales que ocupan un lugar central en la viralización de estos contenidos pusieron en funcionamiento algunas herramientas (aunque suena a poco) para detectar contenidos falsos, como advertencias o repreguntas en casos de compartir contenido sin leerlo.

 

¿Cuál es el límite?

Casi como si fuera un capítulo de la serie Black Mirror, la tecnología avanza sin control y a disposición de todo el mundo. Según Iarussi, hay un cambio de paradigma que sucede de una manera muy veloz.

“Si hace cinco años nos preguntaban si veíamos esto posible, hubiésemos dicho que no. El cambio está pasando aunque casi no lo podamos ver porque es muy fuerte. Mi consejo es no creer de manera impulsiva todo lo que vemos ni compartir aquello que nos genere dudas, pero la responsabilidad mayor la tienen los Estados y las empresas que hacen disponibles estas tecnologías y que impactan fuertemente en el trabajo, la economía, la educación y en el modo de informarse”, sostiene el especialista.

Imagen creada por inteligencia artificial. Créditos: Midjourney.

 

Y agrega: “Nuestro rol tiene que estar en exigir una regulación. ¿Cuántas decisiones de los gobiernos tardan años en los parlamentos pero estas tecnologías las pone una empresa a disposición y pone el mundo patas para arriba sin ningún tipo de regulación? Está bueno que la tecnología exista pero no hay ningún límite ni horizonte temporal de ponerlas a disposición cada cierto tiempo para evaluar los impactos. Es un ‘tenemos esta tecnología, vamos a jugar’. Al no haber una planificación, vamos juntando por atrás los pedacitos de las cosas que se rompen”. 

La inteligencia artificial es una herramienta poderosa que invita (y obliga) a la sociedad a informarse y plantear discusiones: ¿Cómo se usa esta tecnología? ¿Para qué? ¿Vale todo? A simple vista parecen interrogantes del futuro, pero en verdad corresponden a un presente que se escribe de modo continuo.

Fuente: Agencia de Noticias Científicas UNQ 

La Inteligencia Artificial confirma la identidad de restos fósiles de ratones de hace dos mil años

Por SINC.

Una investigación liderada por las universidades Complutense de Madrid y de Burgos y el Instituto de Evolución en África ha logrado una clasificación perfecta de los molares de dos especies de ratón muy próximas (casero y moruno) combinando aprendizaje automático con morfometría geométrica.

Un nuevo enfoque metodológico que emplea Inteligencia Artificial (IA) con morfometría geométrica, desarrollado por la Universidad Complutense de Madrid (UCM), la Universidad de Burgos (UBU) y el Instituto de Evolución en África (IDEA) ha permitido identificar, con una eficiencia del 100 %, restos fósiles de ratón casero (Mus musculus domesticus) y de ratón moruno (Mus spretus) datados de hace 2200 años en la Cueva del Estrecho (Villares del Saz, Cuenca).

La aplicación de esta metodología para identificar los ejemplares fósiles recuperados en la cueva conquense supera los problemas de otras técnicas de diferenciación taxonómica.

El trabajo, publicado en Quaternary Science Review, “constituye una de las escasas evidencias precisas que permiten confirmar que ambas especies se encontraban en el centro de la península ibérica hace 2.200 años aproximadamente, aportando así nuevos datos para reconstruir los procesos de colonización de estas especies”, destaca Ángel Domínguez García, investigador del departamento de Geodinámica, Estratigrafía y Paleontología de la UCM en el momento del estudio.

Para llevar a cabo el estudio, se fotografiaron más de 300 ejemplares actuales de estas especies de roedores almacenados en diversas instituciones de España, Francia y Marruecos. / Wikipedia.

La identificación de los roedores fósiles se basa habitualmente en la forma y tamaño de los dientes recuperados en los yacimientos paleontológicos o arqueológicos. No obstante, en muchos casos, esta tarea resulta difícil debido a que algunas especies tienen un tamaño y morfología dental muy similar. Este es el caso de las especies del género Mus presentes en la península ibérica desde la Prehistoria.

Los resultados permiten ampliar el conocimiento de los procesos de intercambio de especies entre distintos territorios asociados a las actividades antrópicas desde la Prehistoria. “De esta forma avanzamos en al estudio del origen de una de las principales amenazas a la biodiversidad del planeta en el presente: las especies invasoras”, señala Domínguez García.

Combinar métodos clásicos e IA

Para llevar a cabo el estudio, se fotografiaron más de 300 ejemplares actuales de estas especies de roedores almacenados en diversas instituciones de España, Francia y Marruecos como la Estación Biológica de Doñana, el Museo Nacional de Ciencias Naturales o el Institut des Sciences de l’Evolution de Montpellier (ISEM), entre otros.

Una vez caracterizada la morfología dental de cada una de las dos especies a partir de los ejemplares actuales, el modelo desarrollado se ha aplicado a un conjunto de ejemplares fósiles recuperados en el yacimiento de la Cueva del Estrecho.

Este estudio es el fruto de ocho años de trabajo desde las excavaciones realizadas en la Cueva del Estrecho por el Equipo Lapis Specularis en el marco de las intervenciones arqueológicas asociadas a la adaptación de la cavidad a uso turístico. En él participan, además de las instituciones que lideran, el Museo Arqueológico y Paleontológico de Madrid y el Muséum National d’Histoire Naturelle de París.

“Estos resultados nos llevan a promover el uso de la Inteligencia Artificial aplicada a la investigación paleontológica, como un enfoque alternativo o combinado con los métodos clásicos de identificación taxonómica”, concluye Abel Moclán, primer autor del trabajo e investigador de la UBU y del IDEA.

Referencia: Abel Moclán et al. “Machine Learning interspecific identification of mouse first lower molars (genus Mus Linnaeus, 1758) and application to fossil remains from the Estrecho Cave (Spain)”, Quaternary Science Reviews.
 
Fuente: UCM y SINC.

Suenan las alarmas: ¿puede la Inteligencia Artificial poner en riesgo a la Humanidad?

Por Santiago Bilinkis

Lo que está en juego es la posibilidad de crear una máquina superinteligente. Mucho más inteligente que un ser humano. Una forma de analizar sus peligros es pensar cómo nos comportamos nosotros con las criaturas de menor capacidad intelectual.

Desde que hace unos meses se lanzó la inteligencia artificial ChatGPT, un tema del que casi nadie hablaba pasó a estar en las charlas de sobremesa y las conversaciones entre amigos. ¿Qué impacto tendría esta nueva tecnología sobre áreas tan sensibles como la educación, la automatización de nuestros trabajos o la circulación de información falsa?

Imagen/Fuente: Infobae

Pero mientras la discusión se centraba en estos riesgos más mundanos, un grupo de más de mil expertos y desarrolladores liderados por el icónico Elon Musk llamaron a pausar los avances en la investigación de Inteligencia Artificial (IA) porque “podría poner en riesgo a la Humanidad”.

“Pará, pará, pará… No entiendo. Una cosa es que la IA pueda afectar los empleos y otra muy distinta es que ¡nos pueda matar a todos! ¿Cómo podría un simple chat ser peligroso?”.

En realidad, en los círculos de investigación en IA este no es un debate nuevo: gran parte de la comunidad especializada lleva más de una década argumentando que, aunque a nosotros pueda sonarnos absurdo, el riesgo es real: los peligros que acarrea se pueden comparar a los de la tecnología nuclear. Lo que sí es una novedad es que los protagonistas de esta comunidad científica den un golpe en la mesa y pidan “parar la pelota” por seis meses para estudiar los riesgos de los desarrollos en los que ellos mismos trabajan desde hace años.

Históricamente -y en sintonía con lo que pasa con la mayoría de los grandes temas que afectan a la Humanidad- siempre hubo dos bandos en materia de IA. Por un lado están los “apocalípticos” liderados por Elon Musk -pero entre los que se encolumnaron también Bill Gates Stephen Hawking– que advierten sobre los peligros extremos de estos desarrollos. En diciembre de 2014, durante una entrevista con la BBC, Hawking se adelantó a su tiempo y fue categórico sobre el posible efecto destructor de la tecnología: “El desarrollo de la IA puede terminar con la raza humana”.

En la vereda de enfrente están los “tecnoptimistas”, con Mark Zuckerberg como cara más visible. Aunque algunos creen que Elon Musk exagera en su visión tremendista, ningún análisis serio del tema debería pasar por alto algunas alarmas que se empezaron a encender.

Destellos de Inteligencia Artificial General

Los llamados “sistemas complejos” -un tipo muy particular de desarrollo entre los que se encuentra el cerebro humano- articulan una gran cantidad de componentes simples pero, cuando la cantidad comienza a aumentar, muestran propiedades emergentes que no eran para nada obvias en el esquema original. Los hormigueros son un ejemplo claro de sistema complejo: cada hormiga tiene reglas de conducta muy básicas, no hay autoridad ni planificación, pero con muchas hormigas aparecen fenómenos increíbles como la “agricultura”, la división especializada del trabajo y hasta los cementerios. En comparación a la simpleza de una única hormiga, el desempeño de una colonia de hormigas es absolutamente sorprendente e inesperado. Algo parecido pasa con el cerebro humano. Basta conectar decenas de miles de millones de algo bastante simple como una neurona para que emerjan fenómenos tan exóticos como la consciencia, la inteligencia y la memoria. En los sistemas complejos las consecuencias imprevistas e inesperadas no son la excepción, son la norma.

Nos toca ser contemporáneos de un cambio copernicano: por primera vez en la historia de la Humanidad, nos acercamos a tener una Inteligencia Artificial realmente poderosa, en varios aspectos ya superior en sus capacidades a un ser humano. Pero este poder no radica en que hayamos entendido cómo funciona realmente, sino más bien en un ejercicio heurístico de prueba y error. ¿Qué pasaría si armamos una red neuronal con un billón de parámetros y le damos para que aprenda todo el descomunal volumen de texto disponible en internet? El resultado de hacer esa prueba es GPT-4, presentado por el laboratorio OpenAI.

AP/Créditos: Richard Drew

Casi en simultáneo con su lanzamiento, la propia OpenAI publicó un paper titulado “Sparks of Artificial General Intelligence: Early experiments with GPT-4″ (”Destellos de Inteligencia Artificial General: primeros experimentos con GPT-4″) en el que reconoce no saber del todo por qué funciona tan bien y se muestra sorprendida por las capacidades emergentes e inesperadas de esta plataforma. La inteligencia artificial general es precisamente la quimera máxima: la creación de una máquina con inteligencia sobrehumana. La mera mención de esa expresión en el título del paper trae a la memoria de quienes están empapados en este tema todas las distopías que se ocupó siempre de explorar la ciencia ficción. Pero estamos cerca de que ya no sea solamente una idea de película. El informe concluye con una recomendación de seguir estudiando en profundidad para entender el funcionamiento de estos sistemas.

ChatGPT, la simpática herramienta con la que muchos venimos interactuando, es apenas una fracción poderosa pero minúscula y lavada de lo que puede hacer GPT4. Pero aún en el uso restringido que puede hoy hacer el público general muestra capacidades que deja perplejas a la mayoría de las personas. Tarea para el hogar: si nunca usaste ChatGPT te recomiendo que hoy mismo crees una cuenta gratuita y compruebes lo increíbles que son sus posibilidades.

Pero las opiniones están repartidas. La semana pasada, Gary Marcus, profesor emérito de la Universidad de Nueva York y uno de los popes de la IA, publicó un largo artículo en el que desestima que los avances de GPT4 sean tales: “No creo que esté cerca de la Inteligencia Artificial General. (…) El problema de las invenciones no está resuelto, la confiabilidad tampoco y la planificación de tareas complejas (como reconocen sus creadores) tampoco está resuelta”.

El riesgo de asumir un costo que no podemos medir

El conocimiento humano se basa en un sistema dialogado de hipótesis, pruebas y errores. Pero una vez alcanzado determinado descubrimiento, se entienden perfectamente las causas que llevaron a ese desarrollo y ese mecanismo garantiza una relativa previsibilidad. Con la IA, no sucede así. Los desarrolladores de alguna manera “juegan” con un sistema complejo que no podemos entender por completo y que está produciendo resultados impactantes. Imaginate que te regalan un juego de química con montones de tubos de ensayo con sustancias variadas y sabés que alguna de esas mezclas es potencialmente explosiva. ¿Quién jugaría livianamente a combinar materiales si supiera que podría generar una detonación? Bueno, en materia de IA estamos en esa instancia: mezclamos cosas sin todavía conocer plenamente las potencialidades ni los efectos.

Yuval Harari -uno de los que puso la firma en la solicitada que impulsó Elon Musk- explicó la dimensión de ese riesgo en un artículo que publicó hace una semana en el New York Times con una metáfora que resuena más familiar: “Imaginate que mientras estás por subir a un avión, la mitad de los ingenieros que lo construyeron te avisan que hay un 10% de posibilidades de que el avión se estrelle y mueran vos y toda la tripulación ¿Todavía harías el check in?”.

Imagen/créditos: www.freepik.es

Los incentivos monetarios en este tipo de desarrollos son determinantes. El primero que logre un modelo estable y prometedor va a dominar el mundo de los negocios de una forma increíble. OpenAI golpeó primero y primereó a gigantes como Google y Facebook, que venían hace años trabajando en desarrollos similares. Para OpenAI testear su sistema con cientos de millones de usuarios era un camino excelente para abreviar los tiempos de desarrollo y sacar una ventaja considerable. El CEO de GoogleSundar Pinchai, lanzó un “alerta roja” y disparó a la compañía a un apresurado lanzamiento para tratar de responder y recuperar terreno. Gran parte de la velocidad del asunto está motivada por dinero y, en general, cuando el dinero interviene en áreas delicadas de la investigación científica, los razonamientos se enturbian y aparecen las trampas.

¿Las farmacéuticas deberían estar habilitadas a lanzar drogas sin testeo previo? Si bien la vacuna de covid no siguió los mecanismos de testeo normal de una droga, existía un virus con potencialidad de diezmar a la población mundial. Al sopesar los riesgos durante la pandemia, la comunidad científica decidió que acortar excepcionalmente el proceso de testeo de la vacuna representaba el mal menor frente a un virus nuevo que amenazaba con matar a muchísimas personas y dinamitar áreas tan sensibles como la provisión de alimentos. En cambio, en materia de IA no hay una urgencia real. El apuro es meramente monetario.

Un debate contaminado con internas de poder y la cuestión geopolítica

Conviene correr otro velo para entender la cuestión de fondo: la solicitada que firmó Musk tiene un trasfondo de poder. En 2015, junto a Sam Altman, fundó OpenAI como una organización sin fines de lucro: su meta era que la IA fuera abierta con el objetivo central de minimizar los riesgos de esta tecnología para la raza humana. Con los años, el laboratorio se desvió de esta meta inicial y OpenAI se convirtió en una empresa híbrida, que en paralelo desarrolla productos que comercializa y aceptó decenas de miles de millones de dólares de Microsoft, que se convirtió en uno de sus principales accionistas y clientes. Aquel viejo espíritu benéfico y democrático se vio mezclado con el afán de lucro propio de cualquier compañía de negocios. Musk vendió sus acciones y dio un portazo. Conservó, sin embargo, cierto rencor personal por la forma en la que su propia creación se sublevó porque, en definitiva, aquella organización que creó para limitar lo que entendía como un auténtico peligro, es la que está encabezando los desarrollos y, desde su punto de vista, aumentando los riesgos en vez de reducirlos.

Para poder entender la dimensión de los debates técnicos y éticos que abre el desarrollo de la IA se suele recurrir al desarrollo de la energía atómica. Es un razonamiento algo tramposo. La bomba atómica fue un desarrollo poderoso para destruir todo lo que existía a 3 km a la redonda y al momento en el que se tiraron, se conocían perfectamente cuánta energía se iba a liberar y qué daños iba a producir allí donde se lanzara. En el desarrollo de los sistemas complejos el riesgo se multiplica por la incertidumbre: no tenemos idea de cómo, cuándo ni dónde puede dañar.

Una vez más, lo que está en juego es la posibilidad de crear una máquina superinteligente. Mucho más inteligente que un ser humano. Un chimpancé es una criatura sumamente inteligente pero claramente está un peldaño por debajo de la capacidad humana. Jamás podría un simio interpretar el contenido de este artículo y ofrecer una opinión al respecto. Esa misma brecha insondable podría generarse entre un humano y una máquina superinteligente. Podríamos estar tan afuera de todo como un primate en una conferencia académica.

¿Cuál sería el riesgo concreto? Una forma de abordarlo, es pensar cómo nos comportamos nosotros con las criaturas de menor capacidad intelectual. Si vamos caminando y pisamos una hormiga, no nos altera el día. Si, en cambio, me molestan porque son muchas, tiro veneno. Los mosquitos, que sí me molestan, me obsesionan y los persigo hasta aplastarlos. En el extremo contrario, el panda nos cae muy simpático y hacemos denodados esfuerzos para evitar su extinción. ¿En qué lugar quedaremos nosotros respecto de las super inteligencias? Tal vez, decidan cuidarnos pero, si por alguna razón las molestamos, está el riesgo de que inventen un “veneno” para aniquilarnos. Si tuviéramos que agradar a otro para que nos deje vivir, quedaríamos en una posición de absoluta sumisión.

Imagen/Créditos: Open AI

Cuando se evalúan los riesgos, solemos imaginar una entidad súper malvada, un villano como los de las películas. Pero no necesariamente tiene que ser así: en la naturaleza puede existir destrucción sin maldad. El proceso de la reproducción de virus y bacterias puede llegar a matarnos con su mera existencia, sin que los microbios tengan consciencia ni objetivo alguno detrás del daño que causan. Entonces, la IA podría ser algo que meramente exista de forma ontológica y que, aún sin ser portador de conciencia o maldad, se convierta en algo tremendamente nocivo.

En la Edad de Piedra no teníamos idea de qué era el fuego. Pero aún sin ese conocimiento, nuestros antepasados sabían cómo prenderlo y apagarlo, y que una vez que se prende puede ser muy útil, pero también iniciar accidentalmente un incendio incontrolable. En buena medida, somos como el hombre de la prehistoria: estamos manipulando desarrollos tecnológicos sin entender por completo su esencia. La IA es un sistema complejo, no es fuego, y puede salirse de control mucho más rápido de lo que imaginamos.

La dimensión política y geopolítica le pone el último condimento al debate. Por un lado, existe un grupo de “tecno libertarios” que opina que la IA no debe ser limitada de manera alguna e intenta activamente vulnerar todas las barreras precautorias que se intentan poner a los sistemas. La invención de un personaje ficcional dentro de ChatGPT que no estaba alcanzado por las restricciones de OpenAI sobre el sistema permitió por algunos días pedirle a esta IA que recomiende, por ejemplo, cómo construir una bomba de la manera más sencilla. Esa puerta fue ahora cerrada, pero seguro habrá otras. Por otro lado, Elon Musk puede “pedirle” a sus colegas estadounidenses u occidentales que paren por un tiempo. Pero no tiene la menor chance de influir en las decisiones de China o Rusia al respecto. Frenar o bajar el ritmo de avance puede ser la concesión más valiosa para terminar de perder el liderazgo geopolítico. Como pasó con las armas nucleares, en el siglo XXI estamos en los albores de una nueva carrera armamentista de consecuencias más imprevisibles que la que tuvimos en el siglo XX. Desde el fin de la Segunda Guerra Mundial vivimos en un equilibrio precario donde la “destrucción mutua asegurada” nos mantuvo a salvo, pero siempre pendiendo de un hilo. Ojalá la inteligencia humana nos permita esta vez actuar con más sabiduría. Si no es así, quizás terminemos siendo víctimas de nuestro propio ingenio.

Fuente: Infobae