Cali, marzo 15 de 2026. Actualizado: viernes, marzo 13, 2026 23:41
Google Research liberó hace un año el modelo de código abierto SpeciesNet para acelerar el análisis de imágenes de fauna y apoyar la conservación global
SpeciesNet: cómo la IA está ayudando a identificar animales en millones de fotos de cámara trampa
SpeciesNet es un modelo de inteligencia artificial desarrollado por Google Research que identifica especies en imágenes tomadas por cámaras automáticas (camera traps).
Publicado en el blog de Google Research el 6 de marzo de 2026, el anuncio recuerda que el proyecto pasó a ser de código abierto hace un año y desde entonces se ha adoptado en múltiples iniciativas científicas y de conservación alrededor del mundo.
Qué es SpeciesNet y por qué importa
Las cámaras trampa —pequeños dispositivos que disparan una foto cuando detectan movimiento y calor— permiten a investigadores y gestores ambientales recolectar grandes volúmenes de imágenes de fauna.
El problema: miles o millones de fotos son imposibles de etiquetar manualmente con rapidez. SpeciesNet usa aprendizaje profundo (deep learning) para automatizar esa identificación, acelerando análisis que antes podían tardar décadas y permitiendo respuestas más rápidas para la conservación.
Cómo funciona (explicado en términos sencillos)
SpeciesNet es un modelo entrenado con más de 65 millones de imágenes etiquetadas.
Técnicamente, emplea una red neuronal convolucional —un tipo de algoritmo que aprende a reconocer patrones visuales, como texturas y formas, a partir de ejemplos— para clasificar animales por especie cuando sea posible.
Trabaja junto con MegaDetector, otro modelo de código abierto que primero detecta si hay un animal en la imagen y localiza en qué parte (mediante un “bounding box”, un rectángulo que marca la posición del animal).
SpeciesNet devuelve el nombre de la especie y un nivel de confianza, útil para que un humano revise solo las predicciones menos seguras.
Rendimiento y cifras claves
Según Google Research, el modelo clasifica 2.498 categorías de animales (mamíferos, aves y reptiles) y fue evaluado en un conjunto de proyectos de cámara trampa retenidos para prueba.
En ese test, SpeciesNet encontró el 99,4% de las imágenes que contenían animales; en el 83% de los casos asignó etiqueta a nivel de especie, y el 94,5 % de esas predicciones resultaron correctas. En términos prácticos, puede procesar alrededor de 30.000 imágenes al día en un portátil estándar y más de 250.000 diarias en una GPU de juegos de bajo coste.
Proyectos y adopción en el terreno
Desde su apertura como proyecto de código abierto, SpeciesNet se ha adaptado y usado en múltiples contextos:
- Snapshot Serengeti (África): un archivo de alrededor de 11 millones de imágenes, que antes dependía de colaboración ciudadana, ahora puede analizarse en días. Investigadores pueden incluso procesar datos en campo y redeployar cámaras en tiempo real.
- Australia: la organización Wildlife Observatory of Australia (WildObs) entrenó versiones locales de SpeciesNet para reconocer especies autóctonas (por ejemplo, musky rat-kangaroo y orange-footed scrubfowl) y comparte ese entrenamiento en la plataforma Wildlife Insights.
- Estados Unidos: el Idaho Department of Fish and Game lo incorpora como primera pasada en su flujo de trabajo, acelerando la verificación humana posterior.
- Plataformas y empresas: servicios como Animl y AddaxAI han agregado SpeciesNet a su repertorio, y empresas privadas, como Okala, lo combinan con herramientas de audio para monitorear biodiversidad en África.
- Redes nacionales: en Colombia, el instituto Humboldt amplió su red nacional Red Otus, lanzada en COP16 (2024), hasta 446 cámaras y más de 100.000 imágenes en 2025; SpeciesNet ayuda a analizar patrones temporales de actividad animal.
Qué implicaciones tiene para la conservación
Automatizar la identificación significa medir poblaciones con más rapidez, detectar cambios de comportamiento (por ejemplo, mayor nocturnidad posiblemente por amenazas) y dar alertas tempranas sobre especies raras o en peligro.
Además, al ser de código abierto, SpeciesNet permite que grupos con recursos limitados adapten el modelo a fauna local y compartan mejoras, alimentando un ecosistema colaborativo de datos y herramientas (por ejemplo, Wildlife Insights, que aloja cerca de 200 millones de imágenes con etiquetas verificadas).
Limitaciones y transparencia
El anuncio de Google incluye métricas de desempeño y fuentes de datos (65M de imágenes de entrenamiento, puesta en producción en Wildlife Insights desde 2019) y remite a una publicación científica de 2024 para detalles técnicos.
El modelo no es perfecto: devuelve un nivel de confianza junto a cada predicción y en la práctica suele integrarse en flujos donde los humanos verifican resultados críticos.
Mirando al futuro
Google Research invita a la comunidad a utilizar, adaptar y mejorar SpeciesNet a través del repositorio público en GitHub, y sugiere a quienes prefieren plataformas gestionadas explorar Wildlife Insights para manejo colaborativo de datos.
El objetivo declarado es que la colaboración abierta acelere avances en monitoreo y protección de biodiversidad a escala global.
Nota de Transparencia
Esta nota fue generada 100% con IA. La fuente fue aprobada por Diario Occidente y el contenido final fue revisado por un miembro del equipo de redacción.

🔊 El Resumen de Noticias sobre Inteligencia Artificial e Innovación Tecnológica, aquí 👇🏻

Curaduría editorial
La curaduría y revisión editorial de estas notas está a cargo de Rosa María Agudelo Ayerbe, comunicadora social y periodista, con maestría en Transformación Digital y especialización en Inteligencia Artificial.
Desde su rol como líder del equipo de innovación y transformación digital del Diario Occidente, y a través de la unidad estratégica DO Tech, realiza un seguimiento permanente a las principales novedades en tecnología e inteligencia artificial a nivel global.
Estas notas se apoyan en un agente de investigación basado en inteligencia artificial, diseñado para monitorear semanalmente avances, lanzamientos y debates clave del sector.
El contenido es posteriormente leído, analizado, contextualizado y validado editorialmente antes de su publicación.
Este proceso forma parte del mecanismo de actualización continua que permite interpretar los desarrollos tecnológicos desde una mirada periodística, crítica y comprensible para audiencias no especializadas.

