NY Report News
Image default
Animal BehaviorAnimal CognitionAnimalsArtificial IntelligenceBatsComputers and the InternetCrows (Birds)Language and LanguagesResearchRodentsTranslation and InterpretersWhales and Whalingyour-feed-animalsyour-feed-science

Los traductores de animales – The New York Times

Tal vez la rata topo desnuda no parezca gran cosa a la vista, pero tiene mucho que decir. Los roedores arrugados y bigotones, que viven como muchas hormigas, en grandes colonias subterráneas, tienen un repertorio vocal elaborado. Silban, trinan y pían; gruñen, hipan y sisean.

Y, cuando dos de estas ratas volubles se encuentran en un túnel oscuro, intercambian un saludo estándar. “Hacen un chillido suave y luego repiten otro chillido suave”, comentó Alison Barker, neurocientífica del Instituto Max Planck de Estudio del Cerebro en Alemania. “Tienen una pequeña conversación”.

Al usar algoritmos de aprendizaje automático para analizar 36.000 chillidos suaves grabados en siete colonias de ratas topo, Barker y sus colegas descubrieron que en este intercambio diario hay una riqueza de información social.

Cada una de las ratas no solo tiene su propia firma vocal, sino que cada colonia tenía su propio dialecto distintivo, el cual se heredaba culturalmente a través de las generaciones. Durante las épocas de inestabilidad social —como en las semanas posteriores a que la reina de la colonia fuera depuesta con violencia—, estos dialectos cohesivos colapsaban. Cuando una nueva monarca comenzaba su reinado, al parecer se establecía un nuevo dialecto.

“El llamado del saludo, el cual pensé que iba a ser bastante básico, resultó ser de una complejidad increíble”, dijo Barker, quien está estudiando la gran cantidad de otros sonidos que hacen los roedores. “El aprendizaje automático transformó un poco mi investigación”.

Escucha el intercambio de chillidos de dos ratas topo desnudas

Los sistemas de aprendizaje automático o machine learning, los cuales utilizan algoritmos para detectar patrones en grandes colecciones de datos, han sobresalido en el análisis del lenguaje humano, gracias a lo cual existen asistentes de voz que reconocen la forma de hablar, el software de transcripción que convierte el habla en texto y las herramientas digitales que traducen entre lenguas humanas.

En años recientes, los científicos han comenzado a desplegar esta tecnología para decodificar la comunicación animal, por medio de algoritmos de aprendizaje automático que identifican cuándo están estresados los ratones chillones o por qué los murciélagos frugívoros emiten chillidos. Hay estudios todavía más ambiciosos en marcha, para crear un catálogo extenso de los llamados de los cuervos, mapear la sintaxis de los cachalotes e incluso desarrollar tecnologías que permitan respuestas de los humanos.

“Busquemos un Google Traductor para animales”, dijo Diana Reiss, experta en cognición y comunicación de los delfines en el Colegio Hunter y cofundadora de Interspecies Internet, un centro de investigación dedicado a facilitar la comunicación entre especies.

El campo es joven y muchos proyectos todavía están sus pasos iniciales; la humanidad no está a punto de tener una piedra de Rosetta para el canto de las ballenas ni la capacidad de chismear con los gatos. Sin embargo, el trabajo ya está revelando que la comunicación animal es mucho más compleja de lo que le suena al oído humano y el parloteo está proporcionando una visión más rica del mundo fuera de nuestra especie.

“Me parece muy interesante que las máquinas puedan ayudarnos a estar más cerca de la vida animada, que las inteligencias artificiales puedan servirnos para percibir inteligencias biológicas”, mencionó Tom Mustill, un cineasta científico y de la vida silvestre y el autor del libro How to Speak Whale, próximo a publicarse. “Es como haber inventado el telescopio: una nueva herramienta que nos permite percibir lo que ya estaba ahí, pero no podíamos ver”.

Los estudios sobre la comunicación animal no son nuevos, pero los algoritmos de aprendizaje automático pueden detectar patrones sutiles que podrían eludir al oído humano. Por ejemplo, los científicos han demostrado que estos programas pueden diferenciar las voces de animales individuales, distinguir entre los sonidos que hacen los animales en distintas circunstancias y desglosar sus vocalizaciones en partes más pequeñas, un paso crucial para descifrar las intenciones.

“Algo increíble de los sonidos animales es que todavía hay muchos misterios en los cuales podemos utilizar la computación”, opinó Dan Stowell, experto en audición computacional en la Universidad de Tilburgo y en el Centro de Biodiversidad Naturalis en los Países Bajos.

Hace varios años, unos investigadores de la Universidad de Washington utilizaron el aprendizaje automático para desarrollar un software, llamado DeepSqueak, que puede detectar, analizar y categorizar en automático las vocalizaciones ultrasónicas de los roedores.

También puede distinguir entre los llamados complejos, parecidos a canciones, que los animales hacen cuando se sienten bien y las largas y planas que hacen cuando no lo están. “Puedes obtener una información directa y subjetiva del propio animal sobre cómo se siente”, dijo Kevin Coffey, neurocientífico del comportamiento de la Universidad de Washington, que formó parte del equipo que desarrolló DeepSqueak.

El DeepSqueak se ha readaptado para otras especies, entre ellas los lémures y las ballenas, mientras otros equipos han desarrollado sus propios sistemas para detectar de manera automática cuando los pollos cacarean o los cerdos chillan al estar alterados.

Decodificar las intenciones de los llamados animales también requiere grandes cantidades de datos sobre el contexto que rodea a cada uno de los chillidos y graznidos.

Para aprender más sobre las vocalizaciones de los murciélagos de la fruta de Egipto, unos investigadores utilizaron cámaras de video y micrófonos para grabar a los grupos de animales durante 75 días. Luego, revisaron las grabaciones y anotaron minuciosamente varios detalles importantes, como cuál murciélago estaba vocalizando y en qué contexto, para cada uno de los casi 15.000 llamados.

Los murciélagos son animales pugilísticos que suelen pelear en sus colonias aglomeradas y la gran mayoría de sus vocalizaciones son agresivas. “En esencia, se están empujando entre sí”, dijo Yossi Yovel, neuroecólogo de la Universidad de Tel Aviv que encabezó la investigación. “Imagina un gran estadio y que todo el mundo quiere encontrar un asiento”.

Sin embargo, un sistema de aprendizaje automático pudo distinguir, con una precisión del 61 por ciento, entre emisiones agresivas hechas en cuatro contextos, para determinar si una en particular se realizó durante una pelea relacionada con el alimento, el apareamiento, la posición de la percha o el sueño. Yovel hizo notar que no es una interpretación perfecta, pero es mucho mejor que el 25 por ciento de exactitud asociado con una suposición al azar.

Yovel se sorprendió al descubrir que el software también podía identificar, a niveles superiores a la adivinación al azar, qué murciélago era el que recibía la reprimenda.

“Esto implica que un murciélago que escucha a escondidas es teóricamente capaz, hasta cierto punto al menos, de identificar si el individuo A se dirige al individuo B o al individuo C”, escribieron los investigadores en su artículo de 2016.

Aunque la idea sigue sin probarse, los murciélagos podrían variar sus vocalizaciones en función de su relación con el agresor y de su conocimiento del mismo, del mismo modo que las personas podrían utilizar diferentes tonos al dirigirse a diferentes audiencias.

“Es una colonia, son muy sociales, se conocen entre sí”, dijo Yovel. “Quizá cuando te grito para que comas, es diferente de cuando le grito a otra persona para que coma. Así que el mismo llamado tendrá matices ligeramente diferentes, que pudimos detectar utilizando el aprendizaje automático”.

Aun así, detectar patrones es solamente el principio. Los científicos tienen que determinar si los algoritmos han descubierto algo significativo sobre el comportamiento animal en el mundo real.

“Hay que tener mucho cuidado para evitar detectar patrones que no sean reales”, dijo Stowell.

Después de que los algoritmos sugirieran que todas las colonias de ratas topo desnudas tenían dialectos distintos, Barker y sus colegas confirmaron que era mucho más probable que los roedores respondieran a los chirridos suaves de los miembros de sus propias colonias que a los de las extranjeras. Para descartar la posibilidad de que las ratas topo desnudas respondieran simplemente a voces individuales que reconocían, los investigadores repitieron el experimento con chirridos suaves artificiales que generaron para que coincidieran con el dialecto de la colonia de una rata. Los resultados se mantuvieron.

En la naturaleza, los dialectos específicos de las colonias podrían ayudar a las ratas topo desnudas a asegurarse de que no comparten los escasos recursos con extraños, y podrían ser una forma de reforzar la conformidad social. “En estos grandes túneles subterráneos, hay que asegurarse de que todo el mundo sigue las reglas”, dijo Barker. “Y una forma muy rápida de comprobarlo es asegurarse de que todos hablan de forma muy similar”.

Hay otros proyectos importantes en marcha. El proyecto de la Iniciativa de Traducción Cetácea (CETI, por su sigla en inglés) está juntando a expertos en aprendizaje automático, biólogos marinos, especialistas en robótica, lingüistas y criptógrafos, entre otros, de más de una decena de instituciones para decodificar las comunicaciones de los cachalotes, los cuales emiten ráfagas de clics que están organizados en secuencias parecidas a la clave Morse llamadas codas.

El equipo está planeando instalar este otoño sus “estaciones centrales de escucha de ballenas”, cada una de las cuales incluye 28 micrófonos submarinos, en la costa de Dominica. También planea usar pescados robóticos para grabar audio y video de las ballenas, así como pequeñas terminales acústicas para grabar las vocalizaciones y los movimientos de animales individuales.

Luego, los investigadores intentarán descifrar la sintaxis y la semántica de las comunicaciones de las ballenas e investigar preguntas científicas de mayor envergadura sobre el comportamiento y la cognición de los cachalotes: por ejemplo, cómo coordinan sus acciones y cómo aprenden a comunicarse las crías.

“Hacia donde volteemos hay otra pregunta”, dijo David Gruber, biólogo marino de la Universidad Baruch en la ciudad de Nueva York que dirige el proyecto CETI. “Si hubiera un gran suceso hace una semana, ¿cómo sabríamos que se siguen comunicando sobre este? ¿Las ballenas hacen matemáticas?”.

Earth Species Project, una organización sin fines de lucro con sede en California, también está asociándose con biólogos para guiar una selección de estrategias de aprendizaje automático con ballenas y otras especies.

Por ejemplo, la organización está trabajando con biólogos marinos para determinar si los algoritmos de aprendizaje automático pueden identificar de forma automática los comportamientos en los que se están involucrando las ballenas barbadas, con base en datos de movimientos recolectados por medio de etiquetas de seguimiento.

“¿Existe una firma específica en los datos que indique cuándo un animal respira o cuándo se alimenta?”, plantea Ari Friedlaender, ecólogo marino de la Universidad de California en Santa Cruz, quien colabora en el proyecto.

Los investigadores esperan superponer esos datos de comportamiento con las grabaciones de audio para determinar si hay ciertos sonidos que las ballenas emiten sistemáticamente en determinados contextos.

“Ahora se pueden hacer cosas realmente interesantes, como: ‘Tomemos las orcas, observemos su movimiento, traduzcamos el movimiento en el sonido que lo acompaña’”, dijo Aza Raskin, presidente y cofundador del Earth Species Project. “O puedes empezar con el audio y decir: ‘¿Qué comportamiento va con lo que dicen?’”.

En otra línea de investigación, los expertos de Earth Species Project utilizan algoritmos de aprendizaje automático para crear un inventario de todos los tipos de llamados realizados por cuervos hawaianos en cautiverio, que se extinguieron en la naturaleza hace dos décadas.

A continuación, compararán los resultados con grabaciones históricas de cuervos hawaianos salvajes para identificar los tipos de llamado específicos que las aves podrían haber perdido durante sus años cautivos.

“Su repertorio vocal puede haberse erosionado con el tiempo, lo cual es una verdadera preocupación para la conservación”, dijo Christian Rutz, un ecólogo del comportamiento de la Universidad de St. Andrews en Escocia, quien está trabajando con la organización sin fines de lucro en el proyecto. “Los mantienen en estas pajareras para criar aves para futuras liberaciones. Pero, ¿qué pasa si estos cuervos ya no saben hablar cuervo?”.

Los científicos pueden entonces estudiar la función de los llamados perdidos, y quizá incluso reintroducir las más importantes en las colonias cautivas.

Earth Species Project también colabora con Michelle Fournet, ecóloga acústica marina de la Universidad de Nuevo Hampshire, quien ha intentado descifrar la comunicación de las ballenas jorobadas reproduciendo llamados pregrabados de ballenas por medio de altavoces submarinos y observando cómo responden las ballenas.

Ahora, los científicos de Earth Species Project están usando algoritmos para generar nuevas vocalizaciones de ballenas jorobadas, esto es, “nuevos cantos que no existen, pero suenan como si existieran”, dijo Fournet. “No puedo explicar lo increíble que es imaginar algo de la naturaleza que no existe y luego escucharlo”.

Reproducirles estos nuevos cantos a ballenas silvestres podría ayudar a los científicos a probar hipótesis sobre la función de ciertas vocalizaciones, mencionó Fournet.

Con suficientes datos sobre la manera de conversar de las ballenas, los sistemas de aprendizaje automático deberían ser capaces de generar respuestas plausibles para cantos específicos de ballenas y reproducirlos en tiempo real, mencionaron los expertos. Esto quiere decir que en esencia los científicos podrían usar bots conversacionales para ballenas a fin de “platicar” con los mamíferos marinos incluso antes de que comprendan por completo lo que están diciendo las ballenas.

Estas conversaciones mediadas con aprendizaje automático podrían ayudar a los investigadores a refinar sus modelos y mejorar su entendimiento sobre la comunicación de las ballenas. “En cierto momento, podría ser un diálogo real”, dijo Michael Bronstein, experto en aprendizaje automático de la Universidad de Oxford y parte del proyecto CETI.

Bronstein agregó: “Como científico, tal vez sea el proyecto más descabellado en el que haya participado”.

La posibilidad de un diálogo bidireccional en curso con otras especies sigue siendo desconocido. No obstante, una conversación verdadera requerirá varios “prerrequisitos”, entre ellos tipos de inteligencia compatibles, sistemas sensoriales compatibles y, de manera más crucial, un deseo compartido por platicar, comentó Natalie Uomini, experta en evolución cognitiva en el Instituto Max Planck de Antropología Evolutiva.

“Tiene que haber una motivación por ambas partes para querer comunicarse”, dijo.

Incluso así, algunos animales pueden tener experiencias tan diferentes a las nuestras que algunas ideas simplemente se pierden en la traducción. “Por ejemplo, nosotros tenemos el concepto de ‘mojarse’”, dice Bronstein. “Creo que las ballenas ni siquiera serían capaces de entender lo que significa”.

Estos experimentos también podrían generar problemas éticos, reconocen los expertos. “Si encuentras patrones en animales que te permiten comprender su comunicación, esto abre la puerta a la manipulación de sus comunicaciones”, opinó Mustill.

No obstante, la tecnología también podría desplegarse en beneficio de los animales, pues les ayudaría a los expertos a monitorear el bienestar de las faunas silvestre y doméstica. Los científicos también comentaron que esperaban que, al brindar nueva información sobre las vidas de los animales, esta investigación podría generar un cambio social. Muchos mencionaron el efecto impulsor del álbum de 1970 Songs of the Humpback Whale, en el cual había grabaciones de cantos de ensueño de ballenas y al que se le ha dado el crédito generalizado de haber ayudado a detonar el movimiento mundial Save the Whales.

El biólogo Roger Payne, quien produjo ese álbum, ahora es parte del proyecto CETI. Y muchos científicos dijeron que esperaban que estos nuevos esfuerzos de tecnología de punta para comprender las vocalizaciones de las ballenas —y los cuervos, murciélagos e incluso las ratas topo desnudas— fueran tan transformadores, al ofrecer nuevas maneras de entender y conectar con las criaturas con las que compartimos el planeta.

“Para mí, no es tan importante qué están diciendo las ballenas”, opinó Gruber. “Es el hecho de que estemos escuchando”.

Emily Anthes es reportera de The New York Times; se enfoca en ciencia y salud y cubre temas como la pandemia de coronavirus, las vacunas, las pruebas para el virus y la covid en niños.


Enlace a la fuente

Notas relacionadas

¿Quieres liberarte de tu celular? Este dispositivo podría ser la clave

NY Report News

OpenAI, ChatGPT y el futuro del reconocimiento facial

NY Report News

¿Se puede tener alzhéimer y no presentar síntomas?

NY Report News