Depuis des décennies, la modélisation des stocks de poisson n’a eu de cesse d’occuper nos chercheurs, à l’Ifremer, au Conseil International pour l’Exploration de la Mer (CIEM), l’institution qui fournit les recommandations pour la fixation des quotas de l’Union Européenne ou à la FAO, l’organisation des Nations-Unies pour l’alimentation et l’agriculture. Depuis leurs ordinateurs puissants ou à bord des navires océanographiques, la question est la même : comment compter les poissons de l’océan ?
Des modèles d’étude des populations halieutiques aux nombreuses limites
Mais l’évaluation des stocks de poissons n’a pas livré tous ses secrets. Un article de Libération nous livre le récit d’une campagne à bord de la « Thalassa », le navire océanographique de l’Ifremer, pour l’évaluation des stocks d’anchois (et autres poissons pélagiques – vivant à la surface de l’eau – chinchards, sardines, maquereaux) du Golfe de Gascogne. L’article relate les difficultés des scientifiques halieutes à prévoir l’évolution du stock d’anchois : « l’indice d’upwelling (l’intensité de la remontée d’eaux froides le long des côtes landaises) a semblé autoriser une prévision de l »abondance d »anchois sur la base de ce seul paramètre. Les scientifiques s’y sont cassé les dents, en faisant grincer celles des pêcheurs ». Ainsi la première année, l’indice fournissait un pronostic très pessimiste et les scientifiques ont conseillé un quota (Total Autorisé de Captures – TAC) très bas, alors que les anchois étaient en nombre cette année-là.
Les scientifiques ont essayé tous les modèles, semble-t-il : modèle de production des stocks généralisé, analyse des populations virtuelles, modèle de Schaefer, modèle bayésien, modèle d’équilibre général, …. Las, les stocks n’ont pas livré tous leurs mystères et la surexploitation généralisée des stocks en Europe, en Afrique et partout dans le Monde nous rappelle à cette évidence. Une seule chose est sûre : «[ça n’est] qu’une fois que vous avez mangé tous les poissons, [que] vous savez combien il y en avait.»[1]
L’utilisation des connaissances de terrain
Cette observation en amène une autre : une estimation, au « doigt mouillé » par une personne qui connait bien le sujet d’étude vaut parfois bien mieux qu’un mauvais modèle. Sur la « Thalassa », l’halieute Jacques Massé regarde attentivement le sonar et livre ses premières impressions : tâches bleues, points rouges, nuage de points, le diagnostic est rapide. « Pas devin, mais expérimenté ». Alors, l’expérience ne remplacerait-elle pas avantageusement un modèle incomplet ou peu adapté ?
Cette question revient sans cesse au sein de Vertigo Lab pour nos travaux sur l’évaluation économique des services des écosystèmes. Les données disponibles ne permettent pas de développer de puissants modèles, sauf à mener des projets de recherche de grande envergure, incompatibles avec les besoins de résultats pressants. Que faire dans ce cas ? Transférer une valeur issue d’une autre région et d’un modèle complet et l’appliquer sans sourciller à notre cas ? Faire tourner un modèle réduit à de fortes incertitudes, au risque de s’exposer fortement aux critiques qui ne manqueront pas de pleuvoir ?
Dans le cadre d’un projet sur l’évaluation des besoins en financement du réseau d’aires marines protégées (AMP) de Méditerranée, Vertigo Lab a évalué les coûts de création auprès d’un échantillon de ce réseau d’AMP. Le choix (facile) aurait pu être fait d’utiliser le modèle existant qui reliait les coûts de création en fonction de la surface de l’aire à protéger. Mais cela ne semblait pas logique, et l’enquête menée sur le terrain a largement confirmé nos doutes : les coûts estimés du modèle étaient parfois 10 fois ceux estimés par le questionnaire aux gestionnaires qui avaient la mémoire de la phase de création de leur AMP.
Notre idée est que l’estimation « à dire d’experts » est parfois plus précise qu’un modèle, et apporte en tous cas beaucoup d’informations pertinentes. A condition d’appliquer quelques principes. Tout d’abord, il s’agit de toujours calibrer le niveau d’attente de l’estimation par rapport à l’usage des résultats qui en sortiront: besoins en argumentaire, usage technique de compensation, information ou sensibilisation, c’est l’utilisation qu’on souhaite en faire qui fait le modèle !
Cela permet par ailleurs de gagner en efficience dans sa recherche et de faire autant (voire mieux) avec moins.
Ne pas hésiter en outre à faire appel à la technique du « doigt mouillé collectif » ; cette technique est présentée dans un article du Monde sur l’élévation des mers[2]. Deux chercheurs se sont livrés à cette expérience pour l’élévation du niveau des océans d »ici à 2100. Et ça marche !
Le savoir et l’expérience des locaux sont un atout certain si l’on sait où chercher : pour le menu de midi, il est parfois (beaucoup) plus sûr de s’enquérir dans le bistrot du port sur la pêche de la nuit que de faire tourner un modèle de prédiction complexe… La science ne doit ainsi pas négliger la puissance du « savoir traditionnel » et faire entrer ces connaissances dans la moulinette scientifique, croiser les résultats avec ces sources alternatives dans la mesure du possible.
Les centres de biologie participative, la biologie do-it-yourself (« faites le vous-même »), ces labos participatifs loin des campus et qui remettent en cause une recherche parfois surannée, nous montrent déjà la voie…
Finalement, la question est aujourd’hui posée de la pertinence d’une recherche « low-tech », qui prend le temps de se poser les bonnes questions et ne pas chercher à plaquer un modèle complexe à tout prix, une recherche qui intègre les savoirs traditionnels, faite de bon sens et aux sources croisées.
[1] Ransom Myers, in l’Océan, de Robert Kunzig, Actes Sud (dans : Libération, « La mer, combien de poissons ? »)
[2] L’élévation des mers, une estimation « au doigt mouillé », Le Monde, 8/1/2013.’