Google fouille dans les vieux journaux pour prédire les inondations

 
Google utilise son intelligence artificielle pour analyser d’anciennes coupures de presse et prévenir d’éventuelles montées des eaux.
Illustration générée par Frandroid

Grâce à Gemini, Google parvient à transformer des décennies de rapports de presse en précieuses données pour prédire les crues soudaines, même là où les capteurs physiques font défaut.

Le casse-tête des zones blanches

Prédire une crue est un défi. Contrairement à la vitesse lente des débordements des grands fleuves, ces événements sont localisés et brutaux. Le problème est que dans de nombreuses régions du monde, il n’existe aucune infrastructure de surveillance, ni capteur, ni relevé historique structuré. Sans données, impossible d’entraîner une IA de manière classique.

Pour contourner cet obstacle, les chercheurs de Google ont eu une idée : utiliser Gemini pour analyser des archives de presse vieilles de plusieurs décennies. L’objectif ? Extraire des données quantitatives à partir de récits journalistiques purement qualitatifs.

Ont ainsi été traités 5 millions d’articles de presse du monde entier. Ils ont isolé les rapports relatifs à 2,6 millions d’inondations différentes. Résultat : une immense base de données baptisée Groundsource.

Transformer le texte en chiffres

La force de cette technologie réside dans sa capacité à « lire » et structurer des informations narratives. De ces coupures, l’IA de Google extrait des points de données précis.

  • L’IA identifient les dates exactes et les lieux mentionnés dans les archives.
  • Elle traduit la description des dégâts ou de la montée des eaux en variables exploitables par les modèles de prévision.
  • En multipliant ces sources, Google crée des ensembles de données là où les bases de données officielles sont vides.

Les données récoltées et analysées alimentent directement Flood Hub, la plateforme de Google qui couvre déjà 150 pays. Le service promet d’alerter les populations jusqu’à sept jours avant une catastrophe.

Cependant, il faut préciser que le modèle de Google n’est pas infaillible. Déjà, il n’identifie des risques que sur des zones de 20 km2. De plus, il n’a pas accès aux données radar locales, ce qui affaiblie ses performances. Néanmoins dans des coins trop reculés et sans couverture de protection, Flood Hub est déjà une belle bouée.


Tous nos articles sont aussi sur notre profil Google : suivez-nous pour ne rien manquer !

Recherche IA boostée par
Perplexity