Underwater drone capturing whale vocalizations with AI analysis and researcher monitoring from submersible
IA Opinión Pere Vila Fumas

CÓDIGO CETÁCEO: LA IA QUE HA APRENDIDO A ESCUCHAR A LAS BALLENAS

La IA ya permite el desciframiento activo de la compleja comunicación de los cetáceos.


El artículo describe una innovadora alianza entre la bioacústica avanzada y la inteligencia artificial (IA) para descifrar la compleja comunicación de los cetáceos. Esta sinergia tecnológica está permitiendo pasar de una observación pasiva a un desciframiento activo de lo que antes eran sonidos ininteligibles para el ser humano.


El océano es, fundamentalmente, un mundo de sonidos. A diferencia del entorno terrestre, donde domina la vista, en las vastas y oscuras profundidades la luz apenas penetra, pero el sonido viaja lejos y rápido. En este paisaje acústico, los cetáceos han desarrollado durante millones de años sistemas de comunicación de una complejidad asombrosa, esenciales para su supervivencia. Durante décadas, los científicos han escuchado fascinados los cantos de las ballenas jorobadas y las rítmicas «codas» de los cachalotes, sospechando que contenían una gramática oculta, un lenguaje propio. Sin embargo, descifrarlo era una tarea titánica. Los métodos tradicionales, basados en el análisis manual de grabaciones submarinas (hidrófonos), eran increíblemente lentos y laboriosos, capaces de identificar «palabras» aisladas, pero incapaces de procesar los enormes volúmenes de datos necesarios para desvelar la sintaxis de su comunicación. 

A humpback whale breaching the water's surface, with its large body partially out of the ocean against a blue sky.
Imagen ballena Jorobada. Por Whit Welles Wwelles14 – Trabajo propio, CC BY 3.0, https://commons.wikimedia.org/w/index.php?curid=2821387

Hoy, este desafío histórico se enfrenta a una nueva y poderosa alianza tecnológica. Por un lado, la bioacústica avanzada, que nos permite capturar el universo sonoro del océano con una fidelidad sin precedentes y triangular con precisión la localización de las señales. Esta tecnología estaba ya muy avanzada por el desarrollo de sistemas militares de detección submarina por sonidos. Por otro, la inteligencia artificial, que actúa como el «cerebro» capaz de analizar esta inmensa biblioteca de sonidos y encontrar los patrones que al oído humano se le escapan. Esta sinergia está marcando el paso de la observación pasiva al desciframiento activo, como demuestra el revolucionario trabajo del Project CETI (Cetacean Translation Initiative) que investiga la traducción del lenguaje de los cachalotes y el posible establecimiento de comunicación con ellos emitiendo sus propias vocalizaciones según las reglas aprendidas por la IA.

Bioacústica Avanzada: Los Oídos Digitales en el Océano

La base de esta revolución sigue siendo la capacidad de escuchar el océano, pero las herramientas actuales han alcanzado una sofisticación extraordinaria. La bioacústica marina avanzada es la disciplina que nos permite capturar y registrar los sonidos de la vida acuática con una precisión y un contexto impensables hace solo unos años. El método ya no se limita a sumergir un micrófono submarino (hidrófono). Proyectos como CETI despliegan vastas redes de hidrófonos sincronizados en el lecho marino, creando un «escenario sonoro» que cubre áreas de varios kilómetros cuadrados. Esto permite no solo grabar las conversaciones de múltiples grupos de ballenas, sino también triangular la posición aproximada de cada vocalización, abriendo la posibilidad de saber «quién dijo qué». 

Researchers on a boat deploying underwater sampling equipment into the ocean.
Colocación de un hidrófono en aguas del Atlántico Norte. Fotografía de Dave Mellinger/Oregon State University – Flickr, CC BY-SA 2.0, https://commons.wikimedia.org/w/index.php?curid=48583320
A graphic design featuring two whales swimming together, with the text 'Work Together' prominently displayed.
Imagen del proyecto CETI, Fundado y dirigido por David Gruber.

Para un nivel de detalle aún mayor, los científicos emplean etiquetas de datos no invasivas, conocidas como D-tags, que se adhieren temporalmente al lomo de las ballenas mediante ventosas. Cada D-tag es un laboratorio en miniatura : además de hidrófonos que captan los sonidos emitidos y recibidos por el animal, incorpora sensores de movimiento (acelerómetros, giroscopios) que registran cada inmersión, giro y aceleración. El resultado es un torrente masivo de datos que une cada «clic» o «canto» a un comportamiento específico. Sin embargo, esta riqueza de información genera su propia limitación: un volumen de datos tan colosal que resulta prácticamente inabordable para el análisis humano.

Inteligencia Artificial: El «Lingüista» que Descifra el Código

Si la bioacústica avanzada son los oídos, la inteligencia artificial es el cerebro traductor que da sentido al torrente de datos que estos generan. Los algoritmos deaprendizaje automático (Machine Learning) y procesamiento del lenguaje natural (Natural Language Processing NLP) son las herramientas que están permitiendo descifrar la comunicación de los cetáceos. La IA interactúa con los datos de la bioacústica en varias etapas cruciales. Primero, realiza una tarea de limpieza fundamental: modelos de redes neuronales convolucionales (CNNs) aprenden a distinguir con una precisión superior al 99.5% en algunos casos los clics de los cachalotes del inmenso ruido de fondo del océano (barcos, olas, otros animales). Una vez aislada la señal, otros algoritmos más sofisticados clasifican los tipos de vocalizaciones («codas») e incluso son capaces, con bastante precisión,de atribuir cada una al individuo que la emitió, desenredando las conversaciones grupales.

A digital illustration of a whale underwater, surrounded by sound wave graphics and data visualizations, emphasizing communication and sonar technology.

El paso verdaderamente transformador llega con el NLP. Los investigadores adaptan modelos similares a los que impulsan a los grandes modelos de lenguaje (como GPT, pero con arquitecturas adaptadas) para analizar las secuencias de codas como si fueran un idioma desconocido. En lugar de buscar un significado predefinido, la IA analiza la estructura, la sintaxis y los patrones estadísticos, investigando y tratando de descubrir la «gramática» subyacente del lenguaje de las ballenas. Esta combinación es revolucionaria porque cambia la pregunta científica. Ya no es solo, ¿Qué significa esta llamada aislada?, sino, ¿Cuáles son las reglas estructurales de todo este sistema de comunicación?

 El «Alfabeto Fonético» de los Cachalotes

El potencial de esta sinergia se materializó de forma espectacular en un descubrimiento del Project CETI, una colaboración a gran escala liderada por científicos de instituciones como Harvard, MIT (Massachussetts Institute of Technology) y UC Berkeley.

El desafío era comprender la comunicación de los cachalotes, basada en secuencias rítmicas de clics llamadas «codas». Aplicando sus modelos de inteligencia artificial a un conjunto de datos de casi 9.000 codas grabadas en un clan de cachalotes del Caribe, los investigadores hicieron un hallazgo fundamental, publicado en la prestigiosa revista Nature Communications.

La IA reveló que la comunicación de estas ballenas es un sistema combinatorio mucho más complejo de lo que se creía. Las ballenas no solo usan un repertorio fijo de codas, sino que modifican sistemáticamente cuatro características clave de forma combinatoria: el Ritmo (el patrón de intervalos entre clics), el Tempo (la velocidad general), el Rubato (variaciones sutiles de tiempo, como en la música) y la Ornamentación (la adición de clics extra).

Diagram showing auditory click patterns and timing in whale communication. Panel A depicts a whale emitting clicks over time. Panel B illustrates the timing from the first click to subsequent clicks in different colors. Panel C presents data on click patterns categorized by tempo, rhythm, ornamentation, and rubato, highlighting variations in click duration.
Ilustración sobre cómo se comunican los cachalotes mediante secuencias de chasquidos. Utiliza un gráfico tiempo-tiempo innovador para visualizar un intercambio de dos minutos entre dos ballenas, mostrando tanto la secuencia general de comunicación como la estructura interna detallada de cada «coda» (patrón de chasquidos). Esta visualización revela variaciones complejas y dependientes del contexto en la estructura de las codas. Imagen del artículo Contextual and combinatorial structure in sperm whale vocalisations de Pratyusha Sharma , Shane Gero, y otros.

La combinación de estos elementos crea un repertorio de vocalizaciones distinguibles mucho mayor, funcionando de manera análoga a la fonología humana, donde un conjunto limitado de sonidos (fonemas) se combina para crear un vocabulario inmenso.

Este descubrimiento, validado por el riguroso análisis computacional, sugiere que el lenguaje de los cachalotes posee características de complejidad, como la «dualidad de patrones», que durante mucho tiempo se consideraron exclusivas del ser humano. Evidentemente, esto no implica que los cachalotes posean un lenguaje en sentido pleno humano, sino que comparten una propiedad estructural clave.

Implicaciones Amplias y Contexto General

El desciframiento del «alfabeto» de los cachalotes es solo el principio. Las implicaciones de la unión entre bioacústica e IA se extienden a áreas cruciales para el futuro de nuestro planeta. La aplicación más inmediata y poderosa es la conservación marina. Las ballenas son consideradas «especies centinela», cuya salud refleja la del ecosistema.

El análisis a gran escala de sus vocalizaciones mediante IA podría permitirnos monitorizar sus niveles de estrés, detectando cambios en sus patrones de comunicación que funcionarían como una señal de alerta temprana ante amenazas como la contaminación acústica, el cambio climático o la escasez de alimento. 

A humpback whale breaching out of the water, creating a splash as it rises above the surface.
Esta imagen de una ballena jorobada ilustra el trabajo de un equipo de científicos del Instituto SETI, la Universidad de California en Davis y la Fundación Ballena de Alaska. Su iniciativa se centra en la posibilidad de establecer comunicación con estos mamíferos marinos.

Además, esta tecnología puede usarse para la mitigación directa de peligros. Se podrían desplegar redes de boyas acústicas inteligentes que, equipadas con IA, detecten la presencia de ballenas en rutas de navegación concurridas y envíen alertas en tiempo real a los barcos para que reduzcan la velocidad y eviten colisiones, una de las principales causas de mortalidad. Por otro lado, iniciativas como WhaleSETI ya han logrado un «intercambio conversacional» rudimentario con una ballena jorobada (respuesta a un patrón del tipo turno de llamada), demostrando la posible capacidad de estos animales para participar en un diálogo por turnos, un hito que no solo nos acerca a ellos, sino que posiblemente pueda ayudarnos a desarrollar protocolos para la búsqueda de inteligencia no humana más allá de la Tierra.

 Aprendiendo a Escuchar el Planeta

La sinergia entre la bioacústica avanzada y la inteligencia artificial está rompiendo barreras que durante décadas parecieron insuperables. Hemos visto cómo esta alianza transforma un océano de datos sonoros en conocimiento estructurado, revelando una complejidad en la comunicación de los cetáceos que apenas comenzábamos a imaginar.

El descubrimiento del «alfabeto fonético» de los cachalotes no es un mero logro académico; es una demostración tangible de que la IA puede actuar como un catalizador para el descubrimiento científico, potenciando nuestra capacidad de comprender otras formas de inteligencia en nuestro propio planeta. 

A digital illustration of several whales swimming underwater, emitting colorful sound waves, with a glowing Earth visible below the water and a world map and sound wave graphic in the background.

El impacto más profundo de esta nueva capacidad de escucha se proyecta en la conservación. Las herramientas que nos permiten descifrar sus conversaciones son las mismas que pueden ayudarnos a protegerlos de las amenazas humanas, monitorizar la salud de los océanos y fomentar una empatía global basada en el entendimiento. Aún quedan enormes desafíos, principalmente el de dar el salto de la sintaxis (la estructura) a la semántica (el significado).

Sin embargo, el camino está trazado. Esta revolución no va de sustituir a los científicos, sino de dotarlos de un oído infinitamente más potente. Quizás, el mayor logro de esta empresa no sea finalmente aprender a «hablar» con las ballenas, sino, por primera vez, aprender a escucharlas de verdad.



Acalanda Magacín
(Promocional)

Descubre más desde Acalanda Magacín

Suscríbete y recibe las últimas entradas en tu correo electrónico.

0 comments on “CÓDIGO CETÁCEO: LA IA QUE HA APRENDIDO A ESCUCHAR A LAS BALLENAS

Gracias por comentar con el fin de mejorar

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Descubre más desde Acalanda Magacín

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo